Sei sulla pagina 1di 208

E.DI.S.U.

NAPOLI 1
ENTE REGIONALE PER IL DIRITTO ALLO STUDIO UNIVERSITARIO

COLLANA PUBBLICAZIONI DIDATTICHE

PAOLA BIONDI - PIA MARIA LO RE

APPUNTI DI GEOMETRIA

E.DI.S.U. NAPOLI 1 Luglio 2010

UNIVERSITA DEGLI STUDI DI NAPOLI FEDERICO II


DIPARTIMENTO DI MATEMATICA E APPLICAZIONI R. CACCIOPPOLI

APPUNTI DI GEOMETRIA
PAOLA BIONDI PIA MARIA LO RE

Prefazione

Questi appunti sono destinati al corso di Geometria per la laurea triennale in Fisica, in Informatica o in Ingegneria. Editi per la prima volta nellanno accademico 2002/2003, sono stati ora ampliati per adeguarli ai nuovi programmi. Essi non sono pensati come testo di riferimento, bens come supporto alle lezioni svolte in aula e guida per lo studente che dovr integrarli con la consultazione dei testi consigliati e con il colloquio diretto con i docenti.

INDICE
Capitolo I 1. 2. 3. Matrici Sistemi lineari MATRICI E SISTEMI LINEARI 1 2 7

Vettori numerici

Capitolo II - SPAZI VETTORIALI 1. 2. 3. 4. 5. 6. 7. 8. Operazioni interne ed esterne ad un insieme Spazi vettoriali su R Sottospazi Sottospazio generato da un sistema di vettori Dipendenza e indipendenza lineare Basi e dimensione Cambiamenti di riferimento Esercizi sulla determinazione di basi 16 18 24 30 33 36 45 48

Capitolo III - DETERMINANTI, RANGO DI UNA MATRICE E MATRICI INVERTIBILI 1. 2. 3. 4. 5. Determinante di una matrice quadrata Propriet dei determinanti Rango di una matrice Matrici invertibili Regola di Cramer 52 55 58 64 65

Capitolo IV - APPLICAZIONI LINEARI 1. 2. Definizione e prime propriet Nucleo e immagine 67 71

3. 4.

Isomorfismi Matrici e applicazioni lineari

75 79

Capitolo V - DIAGONALIZZAZIONE DI ENDOMORFISMI E MATRICI 1. 2. 3. Definizioni e prime propriet Diagonalizzazione di un endomorfismo Diagonalizzazione di una matrice 86 88 97

Capitolo VI - GEOMETRIA ANALITICA NEL PIANO E NELLO SPAZIO 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. Dipendenza lineare in V e V Prodotto scalare standard in V e V Riferimenti ortonormali in V e V Riferimento cartesiano ortogonale monometrico nel piano Cambiamenti di riferimento Rappresentazione della retta Coseni direttori di una retta orientata Intersezione di due rette e condizioni di parallelismo Ortogonalit tra rette Distanza tra insiemi nel piano Punto medio e asse di un segmento Circonferenza Riferimento cartesiano ortogonale monometrico nello spazio Cambiamenti di riferimento Prodotto vettoriale in V Rappresentazione del piano Parallelismo e ortogonalit tra piani Rappresentazione della retta 100 102 103 104 106 107 112 113 115 116 117 117 121 123 123 124 128 131

19. 20. 21. 22. 23. 24. 25. 26.

Coseni direttori di una retta orientata Fasci di piani Parallelismo e ortogonalit tra rette Parallelismo e ortogonalit tra una retta e un piano Punto medio di un segmento Distanza tra insiemi nello spazio Sfera e circonferenza Coni, cilindri e superfici di rotazione

135 135 136 139 141 142 146 150

Capitolo VII - SPAZI VETTORIALI EUCLIDEI E DIAGONALIZZAZIONE ORTOGONALE 1. Prodotti scalari euclidei 2. Propriet di uno spazio vettoriale euclideo 3. Riferimenti ortonormali e matrici ortogonali 4. Complemento ortogonale 5. Endomorfismi simmetrici e loro diagonalizzazione ortogonale 6. Diagonalizzazione ortogonale di una matrice reale simmetrica Capitolo VIII - CONICHE 1. Generalit sulle curve algebriche piane 2. Ellisse, iperbole e parabola 3. Studio di una conica 4. Esercizi sulle coniche 180 182 189 195 156 159 166 170 173 177

CAPITOLO I MATRICI E SISTEMI LINEARI 1. VETTORI NUMERICI Indichiamo con R l'insieme dei numeri reali. L'insieme R dotato delle usuali operazioni di addizione e moltiplicazione sar detto campo reale. Il campo reale sar indicato ancora con R . Consideriamo il prodotto cartesiano di R n volte per se stesso, cio linsieme

R n delle n-ple ordinate di numeri reali. Un elemento di tale insieme sar detto
vettore numerico di ordine n sul campo R . Presi due vettori numerici a = (a1, , an) e b = (b1, , bn) di R n, diremo somma di a e b il vettore numerico a + b = ( a1 + b1, , an + bn ) . Preso un vettore numerico a = (a1, , an) ed un numero reale h, diremo prodotto di h per a il vettore numerico h a = (ha1, , han). Presi due vettori numerici a = (a1, , an) e b = (b1, , bn) di R n, diremo prodotto scalare standard di a e b, il numero reale a b = a1b1 + + anbn. E' facile verificare che il prodotto scalare standard cos definito soddisfa le seguenti propriet : a , b, c R n e h, k R simmetria : a b = b a, a (h b + k c ) = h ( a b ) + k ( a c) . Esso inoltre definito positivo, cio : a R n, a a 0 e aa=0

bilinearit : ( h a + k b ) c = h ( a c ) + k ( b c) ,

a = ( 0, 0,,0 ). 1

2. MATRICI Siano m ed n due interi positivi. Si dice matrice di tipo [m, n] ( o matrice m n) sullinsieme R dei numeri reali ogni tabella del tipo

(2.1)

! a11 # # a 21 # # #a " m1

a12 a 1n $ & a 22 a 2n & &, & a m2 a mn & %

con aij R , per ogni i {1, , m} e per ogni j {1, , n}. Scriveremo in forma abbreviata (aij)
i {1, , m}, j {1, , n}

( o semplicemente

(aij) ). Linsieme delle matrici di tipo [m, n] su R sar indicato nel seguito con

R m,n.
Sia A la matrice (2.1). Il vettore numerico ai = (ai1, ai2 , , ain ) detto la i-ma riga di A e il vettore numerico aj = (a1j, a2j , , amj ) detto la j-ma colonna di A. Lelemento aij detto elemento di posto (i, j) di A. Si dice trasposta di A, e si indica con At o con At, la matrice di tipo [n, m] ottenuta da A scambiando le righe con le colonne. ESEMPI 2.1. Considerate le matrici

! 1 0 - 1 4$ ! 5 7$ # & &, A = # 3 2 0 5& e B = # "1 2 % # & " 8 - 3 7 6%

si ha :

!1 # #0 At = # # -1 # "4

3 8$ & 2 - 3& & 0 7& & 5 6%

! 5 1$ &. e Bt = # " 7 2%

Se m = n , la matrice si dice quadrata di ordine n. In tal caso la n-pla ordinata (a11, a22 , , ann ) detta diagonale principale di A, mentre la n-pla ordinata (a1n, a2
n-1

, , an1 ) detta diagonale secondaria di A. Una matrice

quadrata A si dice simmetrica se coincide con la sua trasposta, cio se aij = aji per ogni i, j = 1, ..., n, essendo n lordine di A. Siano A = (aij) e B = (bij) due matrici di tipo [m, n] su R . Si dice somma di A e B, e si indica con A + B, la matrice (aij + bij) R m,n. Se h un numero reale e A = (aij) R ( haij ) R m,n. Siano A R m,n e B R n,q. Si dice prodotto (righe per colonne) di A per B, e si indica con AB, la matrice di tipo [m, q] che ha per elemento di posto (i, j) il prodotto scalare standard della i-ma riga di A per la j-ma colonna di B : AB = ( ai bj ) R m,q. E facile provare che (AB)t = BtAt. ESEMPI
m,n

, si dice prodotto di h per A, e si denota con hA, la matrice

2.2.

Considerate le matrici

! 1 0 - 1 4$ # & A = # 3 2 0 5& # & " 8 - 3 7 6%

!1 2 $ # & # 2 1& B = # &, # 3 0& # 0 - 1& " %

! a1 b1 # AB = # a 2 b1 # # a b1 " 3

a 1 b2 $ ! -2 - 2$ & # & 3& . a2 b2 & = # 7 & # & 2& " 23 7% a3 b %

Il prodotto righe per colonne tra matrici ora definito gode delle seguenti propriet : (2.2) A( B + C) = AB + AC , A R m,n e B, C R n,q ; 3

(A + B )C = AC + BC , A, B R m,n e C R n,q . (2.3) (2.4) A(hB) = h (AB) = (hA)B , A R m,n , B R n,q e h R . A(BC) = (AB)C, A R m,n , B R n,q e C R q,s . Una matrice si dice a gradini se il numero degli zeri che precedono il primo elemento diverso da zero in ogni riga aumenta di riga in riga, fino ad avere eventuali righe costituite da soli zeri. Il primo elemento diverso da zero in ciascuna riga detto pivot. Osserviamo esplicitamente che in una matrice a gradini priva di righe nulle, il numero delle righe non supera il numero delle colonne. ESEMPI

2.3.

Le

matrici

!0 !1 4 0 -1 3 $ # # & #0 A = # 0 2 1 -1 0& , B = # # & #0 "0 0 0 2 5 % #0 "

0 -3 1 2 0 0 4 1 0 0 0 0 0 0 0 0

5$ & 1& & 0& 0& %

!1 2 3 $ # & C = # 0 7 2& # & " 0 0 4%

sono a gradini.

I pivot della matrice A sono 1, 2, 2 ; quelli della matrice B sono -3 e 4 ; quelli di C sono 1, 7, 4.

Si

dicono

operazioni

elementari

(di

riga)

sulla

matrice

! a11 # # a 21 # # #a " m1

a12 a 1n $ & a 22 a 2n & & & a m2 a mn & %

le seguenti operazioni sulle righe : E1 : scambio di due righe (ai aj) 4

E2 : moltiplicazione di una riga per un numero reale h non nullo (h ai ai); E3 : sostituzione di una riga con il vettore numerico ottenuto sommando la riga stessa con unaltra riga (ai + aj aj). La combinazione delle operazioni E2 ed E3 operazione : sostituzione di una riga con il vettore numerico ottenuto sommando la riga stessa con unaltra moltiplicata per un numero reale h non nullo (h ai + aj aj). Ogni matrice ottenuta da una matrice A mediante operazioni elementari (di riga) si dice equivalente (per righe) ad A. Si vede facilmente che : Proposizione 2.1. equivalente. ESEMPI 2.4. Determiniamo una matrice a gradini equivalente alla matrice Per ogni matrice esiste una matrice a gradini ad essa d luogo alla seguente

!1 - 1 # A = #2 1 # " -3 2

0 1 1

2$ & -1& . & - 2%

! 1 -1 0 2 $ # & L'operazione -2a1 + a2 a2 d luogo alla matrice B = # 0 3 1 - 5& da cui, # & " -3 2 1 - 2% !1 # mediante l'operazione 3b1 + b3 b3 si ottiene la matrice C = # 0 # "0 -1 0 2$ & 3 1 -5&. & -1 1 4%

Da C mediante l'operazione

1 c2 + c3 c3 3

si ottiene la matrice a gradini

! #1 # #0 # # #0 "

-1 0 3 1 4 0 3

$ 2& & - 5& . & 7& & 3%


una matrice a gradini equivalente alla matrice

2.5.

Determiniamo

!0 # #0 A=# #1 #1 "

2 -1 2 5 $ & 2 0 1 0& &. 1 0 1 2& 1 1 - 1 0& % !1 # #0 B = # #0 #1 " 1 0 1 2 0 1 2 -1 2 1 1 -1 2$ & 0& & 5& 0& %

L'operazione

a1 a3

d luogo alla matrice

da cui si ottiene, mediante l'operazione

- b1 + b4 b4 , la matrice

!1 # #0 C = # #0 #0 " !1 # #0 D= # #0 #0 "

1 0 1 2$ & 2 0 1 0& & . L'operazione 2 - 1 2 5& 0 1 - 2 - 2& % 1 2 0 1 0 1

- c2 + c3 c3 fornisce la matrice

2$ & 0& & da cui, mediante l'operazione d3 + d4 d4 , si ottiene la 0 - 1 1 5& 0 1 - 2 - 2& % !1 # #0 # #0 #0 " 1 0 2 0 0 -1 0 0 1 1 1 -1 2$ & 0& &. 5& 3& %
6

matrice a gradini

3. SISTEMI LINEARI Si dice equazione lineare sul campo reale R nelle incognite x1, x2, , xn ogni equazione del tipo (3.1) con a1 , a2, , an, b R . Per ogni i = 1, 2, , n, ai detto coefficiente dellincognita xi ; b prende il nome di termine noto dellequazione. Consideriamo ora m (m 1) equazioni lineari su R nelle incognite x1, x2, , xn , ovvero, come si suol dire, un sistema lineare su R di m equazioni nelle n incognite x1, x2, , xn : (3.2) a1 x1 + a2 x2 + + an xn = b,

!a 11 x1 + a12 x 2 + + a 1n xn = b1 # " . # $a m1 x1 + a m2 x 2 + + a mn xn = bm
Si dice soluzione del sistema (3.2) ogni n-pla ordinata (y1, y2, , yn) di

numeri reali tale che : (3.3)

!a 11 y1 + a12 y2 + + a 1n yn = b1 # " . # $a m1 y1 + a m2 y 2 + + a mn yn = bm
Se (y1, y2, , yn) una soluzione del sistema (3.2), yi detto il valore che

lincognita xi assume nella soluzione (y1, y2, , yn). Un sistema si dice compatibile se ammette almeno una soluzione, incompatibile in caso contrario. Un sistema compatibile che ammette una sola soluzione detto determinato. Un sistema compatibile che non sia determinato detto indeterminato.

! a11 # # a 21 La matrice A = # # #a " m1 ! a11 # # a 21 # # #a " m1

a12 a 1n $ & a 22 a 2n & & & a m2 a mn & %

detta matrice dei coefficienti

(delle incognite) o matrice incompleta del sistema. La matrice

A =

a12 a 1n b1 $ & a 22 a 2n b 2 & & detta matrice completa del sistema. Se tale matrice a & a m2 a mn bm & %

gradini, il sistema detto a gradini. Due sistemi lineari nelle stesse incognite si dicono equivalenti se hanno lo stesso insieme di soluzioni. Proviamo che: Proposizione 3.1.

!a 11 x1 + a12 x 2 + + a 1n xn = b1 # Sia S : " un sistema # $a m1 x1 + a m2 x 2 + + a mn xn = bm

lineare. Ogni sistema S la cui matrice completa equivalente alla matrice completa di S equivalente ad S. Dimostrazione. Le operazioni elementari E1, E2, E3 (cfr. Par. 2) sulle righe della matrice completa del sistema S corrispondono in modo ovvio ad analoghe operazioni sulle equazioni del sistema. Se S stato ottenuto da S mediante lo scambio di due equazioni, ovvio che S equivalente ad S. Supponiamo ora S ottenuto da S moltiplicando una equazione, ad es. la prima, per un numero reale h 0. Poich le equazioni a11 x1 + a12 x2 + + a1n xn = b1 e ha11 x1 + ha12 x2 + + ha1n xn = hb1 hanno le stesse soluzioni, S ed S sono equivalenti.

Supponiamo infine S ottenuto da S sostituendo ad un'equazione la somma dell'equazione stessa e di un'altra, ad esempio sostituendo alla prima equazione la somma della prima e della seconda . Se (y1, y2, ,yn) soluzione di S, allora (y1, y2, ,yn) anche soluzione dellequazione (a11+ a21) x1 + (a12+ a22) x2 + + (a1n+ a2n) xn = b1 + b2 e dunque del sistema S. Viceversa, se (y1, y2, ,yn) soluzione di S, allora (y1, y2, ,yn) anche soluzione dell'equazione a11 x1 + a12 x2 + + a1n xn = b1 ottenuta facendo la differenza tra la prima e la seconda equazione di S. I sistemi S ed S sono dunque equivalenti. Dalle Proposizioni 2.1 e 3.1 segue subito che : Proposizione 3.2. Per ogni sistema lineare esiste un sistema a gradini ad esso equivalente. Dato un sistema lineare, si pone il problema di determinarne le eventuali soluzioni. Consideriamo in primo luogo il caso di un sistema costituito da una sola equazione, sia essa (3.4) Se a1 x1 + a2 x2 + + an xn = b. Sia n = 1. Lequazione (3.4) allora del tipo a x = b. a = b = 0, ogni numero reale soluzione dellequazione e in tal caso

lequazione si dice identica. Se a = 0 e b 0, lequazione non ammette soluzioni ovvero incompatibile (linsieme delle soluzioni vuoto). Se a 0, lequazione ammette una e una sola soluzione ( determinata) e tale soluzione il numero a-1 b. Sia ora n 2. Se a1 = a2 = = an = b = 0, ogni elemento di R n soluzione dellequazione (3.4) che in tal caso detta identica. Se a1 = a2 = = an = 0 e b 0, lequazione (3.4) 9

non ammette soluzioni ed dunque incompatibile. Se almeno uno dei coefficienti delle incognite diverso da zero, sia esso a1, scriviamo lequazione nella forma (3.5) a1 x1 = b - a2 x2 - - an xn . Dire che (y1, y2, ,yn) R n soluzione di (3.4) (cio di (3.5)) significa dire che y1 soluzione dellequazione (3.6) a1 x1 = b - a2 y2 - - an yn nellincognita x1 e tale equazione determinata, essendo a1 0. Ne segue che, comunque si scelgono n-1 numeri reali h2, , hn, esiste una e una sola soluzione dellequazione (3.5), ovvero della (3.4), in cui, per ogni i= 2, , n, lincognita xi assume il valore hi. E facile rendersi conto che, facendo variare h2, , hn in R, otteniamo con il procedimento precedente tutte le soluzioni dellequazione (3.4). Consideriamo ora un sistema lineare S con almeno due equazioni. Per la Proposizione 3.2 esiste un sistema a gradini equivalente ad S. Per determinare le (eventuali) soluzioni di S basta allora saper determinare le (eventuali) soluzioni di un sistema a gradini. Occupiamoci dunque dei sistemi a gradini. Sia S un sistema a gradini. Se la matrice completa ha righe nulle, le corrispondenti equazioni si possono eliminare in quanto sono identiche. Indichiamo con p ( m) il numero delle equazioni ottenute eliminando da S le eventuali equazioni identiche (tale numero coincide ovviamente col numero dei pivot della matrice completa). Se la matrice incompleta del nuovo sistema S ha una riga nulla, il sistema S incompatibile in quanto la corrispondente equazione incompatibile. Osserviamo che in questo caso il numero dei pivot della matrice incompleta di uno inferiore al numero dei pivot della matrice completa. Supponiamo dunque che la matrice incompleta di S non abbia righe nulle. Si possono presentare i seguenti due casi : (i) p = n ; (ii) p < n .

10

Caso (i). Il sistema del tipo


!a 11 x1 + a12 x 2 + # # a 22 x 2 + # " # # # $ + a1n x n = b1 + a 2n x n = b 2

a n-1 n -1 xn- 1 + a n-1 n xn = bn-1 a n n x n = bn

con aii 0 per ogni i = 1, , n. Dire che (y1, y2, ,yn) soluzione del sistema significa dire che : yn soluzione dellequazione y1 soluzione dellequazione a11 x1 + a12 y2 + + a1n yn = b1. Ciascuna di queste n equazioni in una sola incognita ammette una ed una sola soluzione. Ne segue che il sistema ammette una ad una sola soluzione che si ottiene risolvendo le equazioni del sistema cominciando dallultima e sostituendo di volta in volta i valori trovati nelle equazioni precedenti. Caso (ii). In ciascuna equazione portiamo a secondo membro i termini contenenti le incognite, dette variabili libere, i cui coefficienti non compaiono tra i pivot della matrice incompleta del sistema. Per semplicit, supponiamo che tali incognite siano xp+1, , xn. Il sistema si presenta allora nella forma :
!a 11 x1 + # # # " # # # $ + a 1p x p = b1 - a 1 p+1 x p+1 - - a1 n x n

ann xn = bn

yn-1 soluzione dellequazione an-1 n-1 xn-1 + an-1 n yn = b n-1

a p-1 p- 1 x p-1 + a p-1 p x p = b n-1 - a p-1 p +1 xp+1 - - a p-1 n x n ap p x p = b p a p p+1 xp+1 - - a p n x n

11

Comunque si scelgono n-p elementi hp+1, , hn in R , per il caso (i) esiste una ed una sola soluzione del sistema in cui le variabili libere xp+1, , xn assumono rispettivamente i valori hp+1, , hn . Il sistema dato ammette quindi infinite soluzioni che dipendono da n-p parametri e tali soluzioni possono essere determinate nel modo visto. ESEMPI 3.1.
!x1 - x 2 + x3 = 1 # S : "x1 + x 2 = 4 . # #2x1 + 2x 2 + 2x3 = 9 $

La matrice completa di tale sistema

! 1 - 1 1 1$ # & # 1 1 0 4 & . Una matrice a gradini ad # & " 2 2 2 9%

! 1 - 1 1 1$ # & essa equivalente # 0 2 - 1 3& . Ne segue che un sistema a gradini equivalente ad # & " 0 0 2 1%
S
!x1 - x 2 + x3 = 1 # " 2x2 - x 3 = 3 . Tale sistema determinato e la sua soluzione # # 2x3 = 1 $

(9/4, 7/4, 1/2).


!2x1 + x 2 = 1 # S : "x1 + x 2 + x3 - x 4 = 2 . # # $x1 - x3 + x4 = 1

3.2.

12

! 2 1 0 0 1$ # & La matrice completa di tale sistema # 1 1 1 - 1 2& . Una matrice a gradini ad # & " 1 0 - 1 1 1% !1 1 1 - 1 2 $ # & essa equivalente # 0 1 2 - 2 3& e quindi un sistema a gradini equivalente ad S # & "0 0 0 0 2 %
!x1 + x 2 + x3 - x 4 = 2 # " x2 + 2x 3 - 2x4 = 3 , che risulta incompatibile. # # 0x4 = 2 $ !2x1 - x2 + x3 - x 4 = 1 # S : "x 3 + x 4 = 1 # # x3 = -2 $

3.3.

! 2 -1 1 -1 1$ # & La matrice completa di tale sistema # 0 0 1 1 1& . Una matrice a gradini # & " 0 0 1 0 - 2% ! 2 -1 1 -1 1$ # & ad essa equivalente # 0 0 1 1 1& e quindi un sistema a gradini equivalente # & " 0 0 0 1 3%
!2x1 - x2 + x3 - x 4 = 1 # ad S " x3 + x 4 = 1 . Le incognite che hanno i pivot come # # x4 = 3 $

coefficienti sono x1, x3 e x4; ne segue che la x2 lunica incognita a cui si pu attribuire un valore arbitrario h. Scritto allora il sistema nella forma
!2x1 + x3 - x 4 = 1 + x 2 # " si ha che linsieme delle soluzioni del sistema x3 + x 4 = 1 # # x4 = 3 $

{(h/2 + 3, h, -2, 3) , h R } . 13

3.4.

!2x1 + 2x2 + x3 - x 4 + x5 = 1 # S : "x1 + x 2 + x3 - x 4 = 2 . # #4x1 + 4x 2 + 2x 3 - 2x 4 + 2x 5 = 2 $

La matrice completa di tale sistema

! 2 2 1 -1 1 1$ # & # 1 1 1 - 1 0 2& . Una matrice a # & " 4 4 2 - 2 2 2%

! 1 1 1 -1 0 2 $ # & gradini ad essa equivalente # 0 0 - 1 1 1 - 3 & e quindi un sistema a # & " 0 0 0 0 0 0%

!x1 + x 2 + x3 - x 4 = 2 # gradini equivalente ad S " . Le incognite che # - x 3 + x4 + x5 = -3 $


hanno i pivot come coefficienti sono x1 e x3; ne segue che x2 , x4 e x5 sono le incognite cui si possono attribuire i valori arbitrari h2, h4 e h5 rispettivamente.

!x1 + x 3 = 2 - x2 + x 4 # Scritto allora il sistema nella forma " si ha che linsieme # - x 3 = -3 - x 4 - x 5 $


delle soluzioni del sistema {(-1-h2-h5, h2, 3+h4+h5, h4, h5) , h2, h4, h5 R } .

Un sistema lineare S si dice omogeneo se tutte le sue equazioni hanno il termine noto uguale a zero. Sia S un sistema omogeneo in n incognite. Poich la n-pla (0, 0, , 0) evidentemente una soluzione di S, allora S sicuramente compatibile. soluzione eventualit: (i) banale; (ii) S indeterminato ed ammette quindi infinite soluzioni. 14 S determinato e in questo caso lunica soluzione di S ovviamente quella (0, 0, , 0) detta precedentemente visto, si La soluzione nulla o banale di S. Per quanto

possono presentare per S solo le seguenti due

Utilizzando il prodotto (righe per colonne) tra matrici, introdurremo ora per i sistemi lineari una notazione matriciale che risulter molto utile nel seguito. A tal

! b1 $ # & # b2 & # & proposito, considerato il sistema (3.2), poniamo B = # . & . Dire che (y1, y2, ,yn) # & #. & # & " b m%
soluzione del sistema (3.2) significa che valgono le uguaglianze espresse dalla (3.3); tali uguaglianze equivalgono alla seguente uguaglianza tra matrici :

! y1 $ # & # y 2& # & AY = B, avendo posto Y = # . & . Appare perci naturale scrivere il sistema (3.2) # & #. & # & " y n%
nella forma (3.7) AX = B ,

! x1 $ # & # x 2& # & dove X denota una matrice incognita # . & . # & #. & # & " x n%
Se il sistema (3.2) omogeneo, la (3.7) diventa AX = 0 , avendo indicato con 0 la matrice di tipo [m, 1] che ha tutti gli elementi uguali a zero. 15

16

CAPITOLO II SPAZI VETTORIALI

1. OPERAZIONI INTERNE ED ESTERNE AD UN INSIEME Sia S un insieme non vuoto. Si definisce operazione interna ad S ogni applicazione : SS S. Sia (a, b) S S. Limmagine mediante di (a, b) si indica di solito con a b. ESEMPI 1.1. Le ordinarie operazioni di addizione e moltiplicazione tra numeri naturali sono operazioni interne allinsieme N 0 dei numeri naturali. Analogamente, le ordinarie operazioni di addizione e moltiplicazione tra numeri interi, razionali o reali, sono operazioni interne agli insiemi Z, Q o R ( dei numeri interi, razionali o reali).

1. 2. Sia S un insieme non vuoto. Indicato con P(S) linsieme delle parti di S, le applicazioni : (X, Y) P(S) P(S) X Y P(S) : (X, Y) P(S) P(S) X Y P(S) sono operazioni interne a P(S). ^ : (m, n) N N mn N una operazione interna

1.3. Lapplicazione

allinsieme N = N 0 \ {0}. 16

1.4. Sia O un punto dello spazio della geometria elementare. Indichiamo con SO linsieme dei segmenti orientati dello spazio di primo estremo il punto O. Se OA ed OB sono due elementi di SO, chiamiamo somma di OA ed OB il segmento OC, dove il punto C il secondo estremo del segmento di primo estremo A equipollente ad OB ( cio della stessa misura di OB rispetto ad una fissata unit e, se non nullo, parallelo e concorde ad OB). Lapplicazione + : (OA, OB) SO SO OC = OA + OB SO una

operazione interna ad SO.

Siano T ed S due insiemi non vuoti. Si definisce operazione esterna tra T ed S ogni applicazione
o

: T S S.
O

Sia (a, b) T S. Limmagine mediante a o b. ESEMPI

di (a, b) si indica di solito con

1.5. Considerati gli insiemi Z ed R , lapplicazione (a, b) Z R a b R una operazione esterna tra Z ed R . 1.6. Sia h un numero reale ed OA un elemento di SO. Se h = 0 oppure OA il segmento nullo OO, chiamiamo prodotto di h per OA il segmento OB = OO. Se h 0 ed OA OO, chiamiamo prodotto di h per OA il segmento OB contenuto nella retta per O ed A, avente misura uguale alla misura di OA moltiplicata per il valore assoluto di h e concorde o discorde ad OA a seconda che sia h > 0 oppure h < 0. Lapplicazione una operazione esterna tra R ed SO . 17
o

: (h, OA) R SO OB = h o OASO

2. SPAZI VETTORIALI SU R

Sia V un insieme non vuoto, + una operazione interna a V e operazione esterna tra R e V. Si dice che la terna (V, +,
o

una

) uno

spazio

vettoriale sul campo reale R se sono verificate le seguenti propriet : (2.1) associativa di + : per ogni v, w, z V, (v + w) + z = v + (w + z); (2.2) esistenza dellelemento neutro rispetto a + : esiste v0 V tale che v + v0 = v = v0 + v , per ogni v V; (2.3) esistenza dellopposto rispetto a + : per ogni v V esiste v V tale che v + v = v0 = v + v; (2.4) commutativa di + : per ogni v, w V, v + w = w + v; (2.5) per ogni h, k R e per ogni v V, (h k ) o v = h o ( k o v); (2.6) per ogni v V, 1 o v = v; (2.7) distributiva di
o

rispetto all'addizione in R : per ogni h, k R e per ogni rispetto a + in V : per ogni h R e per ogni v, w V ,

v V, (h + k) o v = h o v + k o v; (2.8) distributiva di
o

h o ( v + w ) = h o v + h o w. Se (V, +,
o

) uno spazio vettoriale su R , gli elementi di V si dicono

vettori e gli elementi di R si dicono scalari. Loperazione + detta addizione tra vettori e loperazione o detta moltiplicazione di uno scalare per un vettore. Se v e w sono due vettori, il vettore v + w detto somma di v e w. Se h uno scalare e v un vettore, il vettore h o v detto prodotto di h per v e sar denotato dora in poi semplicemente con hv. Proposizione 2.1. Sia (V, +, o ) uno spazio vettoriale su R . Si ha : 18

(i) esiste in V un unico elemento neutro rispetto a + ; (ii) per ogni v V, esiste in V un unico opposto di v rispetto a + . Dimostrazione. (i) Siano v0 e w0 elementi neutri rispetto a + . Per la (2.2) si ha : v0 = v0 + w0 = w0. (ii) Sia v V e siano v e v opposti di v rispetto a +. Per le (2.2) e (2.1) si ha : v = v + v0 = v + ( v + v) = (v + v) + v = v0 + v = v. Lelemento neutro rispetto a + in uno spazio vettoriale si dice vettore nullo e si indica con 0V o semplicemente con 0 quando non c possibilit di equivoco. Per ogni vettore v di V, lopposto di v si indica con v ; evidentemente, 0 = 0. Nel seguito, dati due vettori v e w, scriveremo v w invece di v + (w).

ESEMPI DI SPAZI VETTORIALI SU R 2.1. Spazio vettoriale numerico di ordine n su R : E facile verificare che linsieme R
n

delle n-ple ordinate di numeri reali con

loperazione + che a due vettori numerici a = (a1, , an) e b = (b1, , bn) associa il vettore numerico a + b = ( a1 + b1, , an + bn ) e loperazione
o

che ad un

numero reale h e ad un vettore numerico a = (a1, , an) associa il vettore numerico ha = (ha1, , han) (cfr. Cap. I, Par. 1) uno spazio vettoriale su R . Il vettore nullo di tale spazio la n-pla ( 0, 0, , 0) e, per ogni vettore a = (a1, , an) , lopposto di a il vettore a = (-a1, , -an). Sia n = 1. Osserviamo che R operazioni + e
o
1

si identifica in maniera naturale con R e le

non sono altro che le usuali operazioni di addizione e

moltiplicazione tra numeri reali. Il campo dei numeri reali dunque spazio vettoriale su se stesso. 19

2.2.

Spazio vettoriale delle matrici di tipo [m, n] su R : Indichiamo con R


m,n

linsieme delle matrici di tipo [m, n] su R (cfr.

Cap. I, Par. 2). Consideriamo loperazione + che a due matrici A = (aij) e B = (bij) di R m,n associa la matrice A + B = ( aij + bij) R m,n e loperazione o che ad un numero reale h e ad una matrice A = (aij) R m,n associa la matrice hA = (haij) R
m,n

. Si verifica facilmente che la terna (R

m,n

, +,

) uno spazio

vettoriale su R in cui il vettore nullo la matrice con tutti gli elementi uguali a 0, detta matrice nulla (di tipo [m, n]); per ogni matrice A = (aij), lopposta la matrice - A = ( - aij ). 2.3. Spazio vettoriale dei vettori geometrici applicati in un punto : Sia O un punto dello spazio della geometria elementare. Si dimostra (utilizzando i teoremi della geometria elementare) che linsieme SO dei segmenti orientati dello spazio di primo estremo O con le operazioni + e
o

definite come

negli Esempi 1.4 e 1.6 uno spazio vettoriale su R che indicheremo con VO. Gli elementi di tale spazio vettoriale saranno anche detti vettori geometrici applicati in O. Il vettore nullo di SO il segmento nullo OO e, per ogni vettore non nullo OA, lopposto di OA il vettore OA, dove il punto A appartiene alla retta per O ed A, ha la stessa misura di OA (rispetto ad una fissata unit) e verso opposto a quello di OA. 2.4. Spazio vettoriale dei vettori geometrici liberi ( o vettori liberi ordinari) : Indichiamo con S linsieme dei segmenti orientati dello spazio della geometria elementare. Se AB S, si dice vettore geometrico libero (o vettore 20

libero ordinario) individuato da AB linsieme, che indicheremo con

AB, dei

segmenti orientati dello spazio equipollenti ad AB (cfr. Esempio 1.4). Evidentemente, se CD AB, risulta CD = AB. Osserviamo esplicitamente che linsieme dei segmenti nulli dello spazio un vettore geometrico libero, detto vettore libero nullo, che indicheremo con 0. Sia a = AB un vettore geometrico libero ed O un punto. Lunico segmento orientato OP tale che OP = a detto vettore AB applicato in O o rappresentante di AB in O. Siano a e b due vettori liberi. Fissato un punto O dello spazio, siano OP ed OQ i rappresentanti in O dei vettori a e b e sia OR = OP + OQ. Si prova (utilizzando i teoremi della geometria elementare) che, se O un punto distinto da O e OP e OQ sono i rappresentanti in O di a e b, il segmento OR = OP + OQ equipollente ad OR. Ne segue che i vettori liberi OR ed OR coincidono. Il vettore libero OR = OR sar detto somma di a e b e sar indicato con a+b. Sia a un vettore libero ed h un numero reale. Fissato un punto O dello spazio, sia OP il rappresentante di a in O e sia OQ = h OP. Se O un punto distinto da O ed OP il rappresentante di a in O, il segmento OQ = h OP risulta equipollente ad OQ, per cui OQ = OQ. Il vettore libero OQ = OQ sar detto prodotto di h per a e sar indicato con h a. Si verifica che linsieme dei vettori liberi dello spazio con loperazione + che a due vettori liberi a e b associa il vettore libero a + b e loperazione o che ad un numero reale h e ad un vettore libero a associa il vettore libero h a uno spazio vettoriale su R . Indicheremo con V tale spazio vettoriale. Il vettore nullo di V coincide ovviamente con 0.

21

2.5.

Spazio vettoriale dei vettori geometrici liberi di un piano : Sia un piano ed S linsieme dei segmenti orientati contenuti in . Se

AB S, si dice vettore geometrico libero (o vettore libero ordinario) di individuato da AB linsieme, che indicheremo con AB, dei segmenti orientati del piano equipollenti ad AB. Definiamo la somma di due vettori liberi di e il prodotto di un numero reale per un vettore libero di analogamente a quanto fatto nellEsempio 2.4 per i vettori liberi dello spazio. Linsieme S con le due

operazioni cos definite uno spazio vettoriale su R . Indicheremo tale spazio con

V .
2.6. Spazio vettoriale dei polinomi in x a coefficienti reali. Indichiamo con R [x] linsieme dei polinomi nella indeterminata x a coefficienti reali. Linsieme R [x], con le ordinarie operazioni di addizione tra polinomi e moltiplicazione di un numero reale per un polinomio, uno spazio vettoriale sul campo reale R . Il vettore nullo di tale spazio vettoriale il polinomio in x avente tutti i coefficienti uguali a zero ( polinomio nullo). Nel seguito scriveremo di solito semplicemente V in luogo di (V, +, non menzioneremo il campo R . )e

Proviamo ora alcune propriet di uno spazio vettoriale V . Per ogni v, w, z V e per ogni h R , si ha : I. v+w= z v=zw.

22

Dimostrazione. v + w = z

(v + w) w = z w (per la (2.1) )

v+(ww)=zw v+0=zw v=zw. In particolare, dalla I segue che : v+w=w v = 0.

II.

0v=0=h0. Dimostrazione. 0 v = (0+0) v (per la (2.7) ) 0 v = 0 v + 0 v (per la I )

0 v = 0. h 0 = h (0 + 0) (per la (2.8) ) h 0 = h 0 + h 0 (per la I ) h 0 = 0 .

III.

hv=0

h = 0 oppure v = 0. Sia

Dimostrazione. Se h = 0 oppure v = 0, dalla II segue che h v = 0. (per la (2.5) e per la II ) (h-1 h) v = 0 1 v = 0 (per la (2.6) ) v = 0. IV. h (- v) = - hv = (- h) v .

ora h v = 0. Se h 0, esiste linverso h-1 e si ha : h v = 0 h-1 (h v ) = h-1 0

Dimostrazione. Per provare che h (- v) lopposto di h v, basta provare che h (- v) + h v = 0. Si ha : h (- v ) + h v = (per la (2.8) ) h (- v + v ) = h 0 = (per la II) 0. In maniera analoga si prova che (-h) v = - hv. In particolare, dalla IV segue che : Se v1, v2, , vt sono t (-1) v = - v ( 3) e ( -h) (- v) = h v . di V, il vettore e sar

vettori

(((v1 + v2)+v3)+)+vt

sar detto somma dei vettori v1, v2, , vt

indicato semplicemente con v1 + v2 + + vt. Usando la propriet (2.1), si pu provare che tale somma si pu calcolare raggruppando arbitrariamente gli elementi 23

vi. Si pu inoltre provare, sfruttando la propriet (2.4), che v1 + v2 + + vt coincide con la somma degli stessi vettori presi in un qualunque altro ordine. Diciamo infine che la propriet distributiva (2.8) si pu estendere alla somma di pi vettori : h (v1 + v2 + + vt) = h v1 + h v2 + + h vt . Chiudiamo il presente paragrafo dando la seguente definizione : se h1, h2, , ht R , il vettore v = h1v1 + h2v2 + + htvt lineare dei vettori v1, v2, , vt sono proporzionali. detto combinazione

mediante gli scalari h1, h2, , ht . In particolare,

se v e w sono vettori non nulli tali che v = h w (e quindi w = h-1v), si dir che v e w

3. SOTTOSPAZI Sia (V, +, ) uno spazio vettoriale. Un sottoinsieme non vuoto H di V si dice

stabile ( o chiuso) rispetto alladdizione se (3.1) per ogni v, w H, si ha v + w H; si dice stabile ( o chiuso) rispetto alla moltiplicazione per uno scalare se (3.2) per ogni h R e per ogni v H, si ha h v H. Osserviamo che, se H un sottoinsieme stabile rispetto a + e applicazioni (3.3) + : (v, w) H H v + w H e
o o

, allora le

: (h, v) R H h v H

sono rispettivamente una operazione interna definita in H ed una operazione esterna tra R ed H. 24

Sia H un sottoinsieme stabile rispetto a + e o . Diremo che H sottospazio (vettoriale) di V se H esso stesso spazio vettoriale rispetto alle operazioni (3.3). Proposizione 3.1. Ogni sottoinsieme H di V stabile rispetto alle due operazioni di V un sottospazio. Dimostrazione. Le propriet (2.1), (2.4), (2.5), (2.6), (2.7) e (2.8) sono ovviamente verificate. Consideriamo un vettore v di H. Per la (3.2), 0 v H. Daltra parte, per la II del Paragrafo 2, 0 v = 0, e quindi 0 H. Inoltre, per la (3.2) e per la IV del Paragrafo 2, per ogni v H, (-1) v = v H. Resta cos provato che valgono anche le (2.2) e (2.3) e dunque H uno spazio vettoriale rispetto alle operazioni (3.3). ESEMPI 3.1. In ogni spazio vettoriale V, i sottoinsiemi {0} e V sono evidentemente sottospazi di V, detti sottospazi banali. 3.2. Nello spazio vettoriale numerico R 3, consideriamo i sottoinsiemi : H1 = { (x, y, z) R 3 : y = 0 } = { (x, 0, z) , con x, z R }; H2 = { (x, y, z) ) R 3 : x + y + z = 0 }; H3 = { ( x, y, z) R 3 : x 0 }. Come facilmente si verifica, H1 e H2 sono sottoinsiemi stabili di R 3, e dunque sono sottospazi di R 3. Il sottoinsieme H3 stabile rispetto alloperazione di addizione (come subito si verifica). Proviamo che H3 non stabile rispetto alla moltiplicazione per un numero reale, e quindi non sottospazio di R3. Moltiplicando infatti un numero reale h < 0 per un vettore (x, y, z) di H3 avente x 0, si ottiene il vettore (hx, hy, hz) che non in H3, dato che risulta h x < 0.

25

3.3. Nello spazio vettoriale numerico R 2, consideriamo i sottoinsiemi : H1 = { (x, y) R 2 : y = x2 }; H2 = { (0, 0), (1, 1), (-1, -1) }; H3 = { (x, -x) , con x R }. I sottoinsiemi H1 e H2 non sono stabili rispetto a nessuna delle due operazioni di R 2 e dunque non sono sottospazi (infatti, ad esempio, (2, 4) e (3, 9) sono in H1, mentre (2, 4) + (3, 9) = (5, 13) H1 e 5(2, 4) = (10, 20) H1 . Analogamente, (1, 1) + (1, 1) = (2, 2) H2 e 2(1, 1) = (2, 2) H2) . E facile invece provare che H3 sottospazio di R 2. 3.4. Nello spazio vettoriale R [x] dei polinomi in x a coefficienti reali (cfr. Esempio 2.6), consideriamo il sottoinsieme R 2[x] costituito dai polinomi di grado al pi 2 e dal polinomio nullo, cio R 2[x] = { a0 + a1 x + a2 x2 , con

a0 , a1 , a2 R }. Siano a0 + a1x + a2x2 e b0 + b1x + b2x2 due elementi di R 2[x] . Si ha : ( a0 + a1 x + a2 x2 ) + (b0 + b1 x + b2 x2) = ( a0 + b0) + (a1 + b1)x + (a2 + b2) x2 e tale polinomio, se non nullo, ha grado al pi due. Il sottoinsieme R 2[x] dunque stabile rispetto alloperazione di addizione in R [x]. Analogamente si prova la stabilit di R 2[x] rispetto alloperazione di moltiplicazione per un

numero reale, e dunque R 2[x] un sottospazio di R [x] . Pi in generale, si prova che, per ogni intero positivo n, il sottoinsieme

R n[x] di R [x] costituito dai polinomi di grado al pi n e dal polinomio nullo un


sottospazio di R [x].

26

3.5. Consideriamo lo spazio vettoriale VO dei vettori geometrici applicati nel punto O (cfr. Esempio 2.3). Detta r una retta per O e un piano per O, siano H1 ed H2 i seguenti sottoinsiemi : H1 = { OP VO : P r } , H2 = { OP VO : P }.

Per come stata definita loperazione di addizione in VO , la somma di due vettori di H1 un segmento di origine O contenuto in r e la somma di due vettori di H2 un segmento di origine O contenuto nel piano . Ne segue che H1 ed H2 sono sottoinsiemi di VO stabili rispetto alloperazione di addizione in VO . Analogamente si prova la stabilit di H1 ed H2 rispetto alloperazione di moltiplicazione di un numero reale per un vettore. I sottoinsiemi H1 ed H2 sono dunque entrambi sottospazi di VO. Considerata una retta s per O distinta da r, poniamo : H3 = { OP VO : P s }. Come si visto per H1, anche H3 un sottospazio di VO . Consideriamo ora il sottoinsieme : H = H1 H3 = { OP VO : P r s} . Il sottoinsieme H ovviamente stabile rispetto alloperazione di moltiplicazione di un numero reale per un vettore, mentre non stabile rispetto alladdizione in quanto, se consideriamo un vettore OP non nullo in H1 e un vettore OQ non nullo in H2, il vettore OR = OP + OQ non appartiene ad H dato che il punto R non si trova evidentemente n in r n in s. Ne segue che H non sottospazio di VO.

Osservazione 3.1. Sia W un sottospazio vettoriale di V. Se v1, v2, , vs sono vettori di W, dalla (3.1) segue che il vettore v1 + v2 + + vs appartiene a W. Se h1, h2, , hs sono numeri reali, dalle (3.1) e (3.2) segue che la combinazione lineare h1v1 + h2v2 + + hsvs appartiene a W. 27

Proviamo ora che : Proposizione 3.2. Se H e W sono due sottospazi di V, allora H W un sottospazio di V. Dimostrazione. Poich 0 H e 0 W, allora H W non vuoto. Siano ora v e w due vettori di H W. Poich v, w H, allora v + w H, in quanto H un sottospazio. Analogamente, poich v, w W, allora v + w W. Si ha quindi che v + w H W. Sia ora h R e v H W. Poich sia H che W sono sottospazi, allora il vettore hv appartiene sia ad H che a W, e quindi hv H W. Il sottoinsieme H W dunque stabile rispetto ad entrambe le operazioni di V e quindi un sottospazio di V. La propriet espressa dalla Proposizione 3.2 si pu estendere ad un insieme qualunque di sottospazi di uno spazio vettoriale. Vale dunque la seguente Proposizione 3.3. Lintersezione di un numero qualunque di sottospazi di V un sottospazio di V. Siano H e W sottospazi di V. Non vero in generale che H W sottospazio di V (cfr. Esempio 3.5). Si pone allora il problema di determinare il pi piccolo sottospazio (rispetto allinclusione) che contiene H W. A tale proposito, considerato il sottoinsieme H + W = { v + w : v H e w W }, si ha che :

28

Proposizione 3.4. Se H e W sono sottospazi di V, il sottoinsieme H + W un sottospazio di V ed il pi piccolo (rispetto allinclusione) sottospazio di V che contiene H W. Dimostrazione. Poich H e W sono non vuoti, allora H + W non vuoto. Proviamo per prima cosa che H + W stabile rispetto alladdizione. Siano v + w e v + w due elementi di H + W. Applicando le propriet (2.1) e (2.4) si ha : (v + w) + (v + w) = (v + v) + (w + w). Poich H e W sono sottospazi, v + v H e w + w W. Ne segue che (v + w) + (v + w) H + W. Analogamente si prova la stabilit di H + W rispetto alla moltiplicazione per un numero reale. Il sottoinsieme H + W dunque sottospazio di V. Sia ora v un vettore di H. Poich v = v + 0 e 0 W, allora v H + W. Si ha quindi che H H + W. Analogamente si prova che W H + W , e dunque HW H+W. Se Z un sottospazio di V che contiene H W , allora, per ogni v H e per ogni w W, v + w Z e quindi H + W Z. Ogni sottospazio contenente sia H che W contiene allora H + W. Ci significa che H + W il pi piccolo sottospazio di V che contiene H W. Lasserto cos completamente provato. Il sottospazio H + W detto (sottospazio) somma di H e W. Siano H1, H2, , Ht t sottospazi di V. Posto H1 + H2 + + Ht = {v1 + v2 + + vt : vi Hi per ogni i = 1, , t}, H1 + H2 + + Ht H1 H2 Ht. H1, H2, , Ht . La somma H1 + H2 + + Ht dei sottospazi H1, H2, , Ht si dice diretta se ognuno dei sottospazi interseca nel solo vettore nullo la somma dei rimanenti. In 29 si pu dimostrare che il pi piccolo sottospazio di V contenente

Esso prende il nome di (sottospazio) somma dei sottospazi

particolare, se t = 2, ci significa che H1 H2 = {0}. Per indicare che una somma diretta si usa il simbolo H1 H2 Ht . Due sottospazi H1 e H2 di V si dicono supplementari se H1 H2 = V.

4. SOTTOSPAZIO GENERATO DA UN SISTEMA DI VETTORI Sia V uno spazio vettoriale. Si dice sistema di vettori di ordine t ( 1) di V ogni t-pla { v1, v2, , vt } di vettori di V non necessariamente distinti. Siano S = { v1, v2, , vt } ed S' = { w1, w2, , ws } due sistemi di vettori di V. Si dice che S contenuto in S', e si scrive S S', se, per ogni vi S, si ha che vi S' e inoltre vi compare in S' almeno tante volte quante compare in S. Sia S = { v1, v2, , vt } un sistema di vettori di V e sia v un vettore di V. Si dice che v dipende (linearmente) da S, o che v dipende dai vettori v1, v2, , vt , se v si pu ottenere come combinazione lineare di v dipende da S h1, h2, , ht R : v1, v2, , vt mediante opportuni scalari. Si ha cio che : v = h1v1 + h2v2 + + htvt.

Proposizione 4.1 Sia S = { v1, v2, , vt } un sistema di vettori di V. Si ha : (i) 0 dipende da S; (ii) per ogni vi S, vi dipende da S; (iii) se T un sistema di vettori che contiene S, allora ogni vettore che dipende da S dipende anche da T. Dimostrazione. (i) Poich 0 = 0v1 + 0v2 + + 0vt , allora 0 dipende da S. (ii) Poich vi = 0v1 + + 0vi-1 + 1 vi + 0vi+1 + + 0vt , allora vi dipende da S. (iii) Sia T = { v1, v2, , vt , w1, , wh }. Se v = h1v1 + h2v2 + + htvt , allora si ha v = h1v1 + h2v2 + + htvt + 0w1 + + 0wh e dunque v dipende anche da T. 30

Sia S = { v1, v2, , vt } un sistema di vettori di V. Indichiamo con L(S) o con L(v1, v2, , vt ) l'insieme delle combinazioni lineari dei vettori di S; poniamo cio L(S) = L(v1, v2, , vt ) = { h1v1 + h2v2 + + htvt , al variare di h1, h2, , ht in R }.

Proposizione 4.2. L(S) il pi piccolo (rispetto allinclusione) sottospazio di V che contiene i vettori di S. Dimostrazione. Cominciamo col provare che L(S) un sottospazio di V. Per la (i) della Proposizione 4.1, 0 L(S) e dunque L(S) non vuoto. Siano due elementi di L(S). Si ha (h1+ k1) v1 + (h2+ k2) v2 +

h1v1 + h2v2 + + htvt e k1v1 + k2v2 + + ktvt

(h1v1 + h2v2 + + htvt ) + (k1v1 + k2v2 + + ktvt) =

+ (ht+ kt) vt L(S) e dunque L(S) stabile rispetto alladdizione. Analogamente si prova la stabilit di L(S) rispetto alla moltiplicazione per un numero reale. L(S) dunque un sottospazio che, per la (ii) dalla Proposizione 4.1, contiene i vettori di S. Sia ora W un sottospazio di V che contiene i vettori di S. Per lOsservazione 3.1 tutti i vettori di L(S) appartengono a W e quindi L(S) W. Il sottospazio L(S) detto sottospazio generato da S (o dai vettori v1, v2, , vt ). Osservazione 4.1. E facile rendersi conto che, se W e H sono sottospazi di V ed W = L(S) ed H = L(T), allora W + H = L(S T). Siano S e T due sistemi di vettori di V. Si dice che S e T sono equivalenti se L(S) = L(T), cio se S e T generano lo stesso sottospazio di V. Si verifica facilmente che : 31

Proposizione 4.3 . Siano S e T due sistemi di vettori di V. S e T sono equivalenti ogni vettore di S dipende da T ed ogni vettore di T dipende da S. Proposizione 4.4 . Se A R m,n e B una matrice equivalente (per righe) ad A, detti S e T i sistemi di vettori di R n costituiti rispettivamente dalle righe di A e di B, si ha che S e T sono equivalenti, cio L(S) = L(T) . La nozione di sottospazio generato da un sistema di vettori si estende ad un qualunque sottoinsieme X non vuoto di V. Precisamente, si definisce sottospazio generato da X, e lo si denota con L(X), il pi piccolo sottospazio di V che contiene X. Si prova che L(X) linsieme di tutte le combinazioni lineari ottenute mediante vettori appartenenti a X.

32

5. DIPENDENZA E INDIPENDENZA LINEARE Sia V uno spazio vettoriale e sia S = { v1, v2, , vt } un sistema di vettori di V. Si dice che S (linearmente) dipendente o legato se esistono t scalari non tutti nulli h1, h2, , ht tali che h1v1 + h2v2 + + htvt = 0 . Si dice che S (linearmente) indipendente o libero se S non dipendente, cio se 0v1 + 0v2 + + + 0vt lunica combinazione lineare dei vettori di S che sia uguale al vettore nullo. Dire quindi che S linearmente indipendente significa dire che : h1v1 + h2v2 + + htvt = 0 h1 = h2 = = ht = 0 . Se un sistema S = { v1, v2, , vt } dipendente ( indipendente), diremo che i vettori v1, v2, , vt sono dipendenti ( indipendenti). Osservazione 5.1. E immediato verificare che, se S un sistema di vettori di V che contiene il vettore nullo oppure due vettori proporzionali, dipendente. Proviamo che : Proposizione 5.1 . Sia S = { v1, v2, , vt }, t 2, un sistema di vettori di V. (i) S dipendente esiste in S un vettore che dipende dai rimanenti ; (ii) S indipendente nessuno dei vettori di S dipende dai rimanenti. Dimostrazione. (i) Sia S dipendente. Esistono allora t scalari h1, h2, , ht non tutti nulli tali che h1v1 + h2v2 + + htvt = 0 . Supponiamo che sia h1 0 (analogamente si procede negli altri casi). Si ha : v1 = (h1)1h2v2 (h1)1htvt e dunque v1 dipende da v2, , vt . 33 allora S

Viceversa, supponiamo che in S uno dei vettori, diciamo v1 , dipende dai rimanenti. Esistono quindi degli scalari h2, , ht tali che v1 = h2v2 + + htvt. Si ha allora : 1 v1 h2v2 htvt = 0 e dunque S dipendente. (ii) Segue banalmente dalla (i). Osserviamo che dalla (i) della Proposizione precedente segue in particolare che un sistema costituito da due vettori non nulli dipendente se, e solo se, i due vettori sono proporzionali.

ESEMPI 5.1. Sia S = { v } . Se v = 0 , allora per l Osservazione 5.1 S dipendente. Se invece v 0, allora S indipendente in quanto h v = 0 , con v 0, implica h = 0, per la Propriet III degli spazi vettoriali (cfr. Paragrafo 2). 5.2. Nello spazio vettoriale numerico R vettori : S1 = { (1, 0, 0), (1, 2, 0), (3, 4, 5) }, S2 = { (2, -1, 0), (4, 3, 1), (2, 4, 1) }, S3 = { ( -1, 1, 1), (0, 1, 0), (1, 1, -1) }, S4 = {(2, -2, 3), (-4, 4, -6) }, S5 = { (3, 1, 1), (3, 1, 2) } . S1 indipendente in quanto da h1(1, 0, 0) + h2(1, 2, 0) + h3(3, 4, 5) = (0, 0, 0) si
!h 1 + h 2 + 3h 3 = 0 # ottiene : (h1 + h2 + 3h3, 2h2 + 4h3, 5h3) = ( 0, 0, 0), da cui " 2h2 + 4h3 = 0 e # # 5h3 = 0 $
3

, consideriamo i seguenti sistemi di

tale sistema lineare nelle incognite h1, h2, h3 ha come unica soluzione (0, 0, 0). Il sistema S2 dipendente per la Proposizione 5.1 in quanto risulta (4, 3, 1) = (2, -1, 0) + (2, 4, 1). 34

S3 dipendente in quanto da h1(-1, 1, 1) + h2(0, 1, 0) + h3(1, 1, -1) = (0, 0, 0) si


!-h1 + h 3 = 0 !-h1 + h3 = 0 # # ottiene " h1 + h 2 + h 3 = 0 che si riduce a " h2 + 2 h3 = 0 # # # h1 - h 3 = 0 0 = 0 $ $

e tale sistema

lineare ha come soluzioni tutte e sole le terne (h3, -2h3, h3), al variare di h3 in R . S4 dipendente poich (-4, 4, -6) = -2 (2, -2, 3) mentre S5 indipendente poich i due vettori che lo compongono non sono proporzionali. 5.3. Nello spazio vettoriale VO dei vettori geometrici dello spazio applicati in un punto O (cfr. Esempio 2.3), si verifica facilmente che due vettori sono dipendenti se, e solo se, giacciono su una stessa retta, mentre tre vettori sono dipendenti se, e solo se, giacciono su uno stesso piano. Osservazione 5.2. Si verifica facilmente che : Se S= { v1, v2, , vt } T = { v1, v2, , vt , w1, , ws } sono due sistemi di vettori di V, allora : (i) Se S dipendente, T dipendente. (ii) Se T indipendente, S indipendente. Si ha infatti : (i) Poich S dipendente, esistono t scalari h1, h2, , ht non tutti nulli tali che h1v1 + h2v2 + + htvt = 0. Ne segue che h1v1 + h2v2 + + htvt + 0 w1 + + 0 ws = 0 e dunque T dipendente. (ii) Segue immediatamente dalla (i). Proviamo ora che :

35

Proposizione 5.2. Se S= { v1, v2, , vt } un sistema indipendente, ogni vettore che dipende da S vi dipende in unico modo. Dimostrazione. Sia v un vettore che dipende da S. Vogliamo provare che v si pu scrivere in unico modo come combinazione lineare dei vettori di S. v = h1v1 + h2v2 + + htvt = Se k1v1 + k2v2 + + ktvt , si ha (h1 k1) v1 +

(h2 k2) v2 + + (ht kt) vt = 0. Poich S indipendente, h1 k1 = h2 k2 = = ht kt = 0, da cui hi = ki , per ogni i = 1, , t. Proposizione 5.3. Se S= { v1, v2, , vt } un sistema indipendente e v un vettore di V che non dipende da S, allora il sistema S { v } = { v1, v2, , vt , v } indipendente. Dimostrazione. Sia h1v1 + h2v2 + + htvt + h v = 0. Si deve provare che h1 = h2 = = ht = h = 0. Se fosse h 0, si avrebbe v = -h-1h1v1 - h-1 h2v2 - - h-1htvt e quindi v dipenderebbe da S, contro lipotesi. E dunque h = 0. Luguaglianza h1v1 + h2v2 + + htvt + h v = 0 Lasserto cos provato. Dalla Proposizione 5.3 segue immediatamente il seguente : Corollario 5.4. Se S= { v1, v2, , vt } un sistema indipendente e v un vettore di V tale che S { v } = { v1, v2, , vt , v } dipendente, allora v dipende da S. si pu allora scrivere nel seguente modo : h1v1 + h2v2 + + htvt = 0. Essendo S indipendente, si ha h1 = h2 = = ht = 0.

6. BASI E DIMENSIONE Sia V uno spazio vettoriale. Si dice che V finitamente generabile se esiste un sistema S = {v1, v2, , vt } di vettori di V tale che V = L(S), cio tale che ogni 36

vettore di V si pu scrivere come combinazione lineare dei vettori di S. In tal caso si dice che S un sistema di generatori di V o che i vettori v1, v2, , vt generano V. ESEMPI 6.1. Lo spazio vettoriale numerico R
n

finitamente generabile

in quanto
n

{(1, 0, , 0), (0, 1,,0), , ( 0, , 0, 1)} un sistema di vettori di R genera : per ogni (a1, a2, , an) R
n

che lo

si ha infatti che (a1, a2, , an) =

a1(1, 0, , 0) + a2 (0, 1, , 0) + + an (0, , 0, 1). 6.2. Consideriamo i seguenti sistemi di vettori di R 2 : S = { (1, 0), (2, 0) } ,
2

T = { (1, 0), (1, 1) }, Z = { (1, 0), (0, 1), ( 2, -1) } . Il sistema S non genera R , in quanto esiste in R
2

almeno un vettore che non


2

dipende da S, ad esempio il vettore (1, 1). Il sistema T genera R

in quanto, per

ogni (a, b) di R 2, si ha : (a, b) = (a b) (1, 0) + b (1, 1). E facile verificare che il sistema Z genera R 2 (cfr. Esempio 6.1 e Proposizione 4.1 (iii) ). 6.3. Consideriamo i seguenti sistemi di vettori di R
3

: S = { (1, 0, 0), (0, 2, 0),

(0, 0, - 1), (0, 0, 0) }, T = { (1, 0, 1), (0, 0, 1), (5, 0, 3) } , Z = { (1, 0, 0), (0, 1, 0) } . E facile verificare che S genera R 3, mentre T e Z non lo generano. 6.4. Lo spazio vettoriale VO dei vettori geometrici dello spazio applicati in un punto O (cfr. Esempio 2.3) finitamente generabile in quanto, come facilmente si prova, ogni sistema costituito da tre vettori non complanari genera VO .

37

6.5. Lo spazio vettoriale R [x] dei polinomi in x a coefficienti reali (cfr. Esempio 2.6) non finitamente generabile. Considerato infatti un sistema S di vettori non tutti nulli di R [x] , sia M il massimo dei gradi dei polinomi in S. Un polinomio di grado maggiore di M non pu essere scritto come combinazione lineare dei polinomi di S. Ne segue che nessun sistema di vettori di R [x] pu generare R [x] . 6.6. Lo spazio vettoriale R 2[x] = { a0 + a1 x + a2 x2 , con a0 , a1 , a2 R } (cfr. Esempio 3.4) finitamente generabile, in quanto il sistema di vettori S = {1, x, x2} genera R 2[x] : per ogni polinomio a0 + a1 x + a2 x2 R 2[x] , a0 + a1 x + a2 x2 combinazione lineare dei polinomi 1, x ed x2 mediante gli

scalari a0, a1 ed a2 . Si dice base di V ogni sistema indipendente di generatori di V. Proposizione 6.1. Ogni spazio vettoriale V finitamente generabile e non ridotto al solo vettore nullo ammette basi. Dimostrazione. Sia S = { v1, v2, , vt } un sistema di generatori di V. Se S indipendente, allora S una base di V. Supponiamo ora S dipendente. Per la Proposizione 5.1 esiste in S un vettore, diciamo v1, che dipende dai rimanenti. Si ha quindi (6. 1) v1 = k2 v2 + k3 v3 + + kt vt , con k2, k3 , , kt R .

Posto S = S \ { v1 } = { v2, , vt }, proviamo che S genera V. Sia v V. Poich S genera V, esistono t scalari, h1, , ht , tali che (6. 2) v = h1v1 + h2v2 + + htvt . Dalle (6.1) e (6.2) segue che v = h1( k2 v2 + k3 v3 + + kt vt ) + h2v2 + + htvt = (h1 k2 + h2 ) v2 + + (h1 kt + ht ) vt L(S) . Si ha cos V = L(S). 38

Se S indipendente, S una base di V. In caso contrario, esiste in S un vettore che dipende dai rimanenti. Ripetendo il ragionamento precedente, troviamo in S un sistema S che genera ancora V. Se S indipendente, esso una base di V, altrimenti si procede in maniera analoga a quanto prima fatto. Poich V non ridotto al solo vettore nullo, dopo al pi t 1 passi, si ottiene una base di V. Da quanto visto nel corso della dimostrazione della Proposizione 6.1 segue il Corollario 6.2. Sia V uno spazio vettoriale finitamente generabile e non ridotto al vettore nullo. Ogni sistema di generatori di V contiene almeno una base di V. ESEMPI 6.7. Nello spazio vettoriale numerico R n consideriamo il sistema di vettori B = { (1, 0, , 0), (0, 1, , 0), , ( 0, , 0, 1) }. Per lEsempio 6.1, B genera R n . Poich inoltre, come facilmente si verifica, B indipendente, allora B una base di

R n , che viene detta base naturale (o canonica, o standard) di R n.


6.8. Nello spazio vettoriale R 2 consideriamo i sistemi di vettori T = { (1, 0), (1, 1)} e Z = { (1, 0), (0, 1), ( 2, -1) }. Per lEsempio 6.2, sia T che Z generano R 2, ma solo T una base di R 2, in quanto T indipendente, mentre Z non lo . Osserviamo che i sistemi { (1, 0), (0, 1) }, { (1, 0), (2, -1) } e { (0, 1), (2, -1) } contenuti in Z sono basi di R 2 (cfr. Corollario 6.2).

6.9. Nello spazio vettoriale R3 consideriamo i sistemi di vettori generano R


3

S = { (1, 0, 0),

(0, 2, 0), (0, 0, - 1), (0, 0, 0) } e T = { (1, 1, 1), (0, 1, 2), (0, 0, -1) } . Entrambi i sistemi S e T , ma solo T una base di R
3

in quanto T

39

indipendente, mentre S non lo . Osserviamo che in S contenuta la base { (1, 0, 0), (0, 2, 0), (0, 0, - 1) } di R 3. 6.10. Nello spazio vettoriale VO dei vettori geometrici dello spazio applicati in un punto O (cfr. Esempio 2.3) consideriamo un sistema S costituito da tre vettori non complanari. Per gli Esempi 5.3 e 6.4, S una base di VO . 6.11. Nello spazio vettoriale R 2[x] = { a0 + a1 x + a2 x2 , con a0 , a1 , a2 R } consideriamo il sistema di vettori S = { 1, x, x2 } . Per lEsempio 6.6, S genera

R 2[x]. Proviamo ora che S indipendente. Sia

h0 1 + h1 x + a2 x2 = 0 =

0 .1 + 0 x + 0 x2 . Uguagliando i coefficienti dei termini di ugual grado, si ricava


!h 0 = 0 # "h 1 = 0 , onde S indipendente. Si ha quindi che S una base di R 2[x]. # #h 2 = 0 $

6.12. Nello spazio vettoriale R n[x]

= { a0 + a1 x + + an xn, con a0, ,

an R } (cfr. Esempio 3.4) consideriamo il sistema di vettori S = { 1, x, , xn }. Si verifica facilmente che S una base di R n[x] , detta base naturale di R n[x]. 6.13. Nello spazio vettoriale R m, n delle matrici di tipo [m, n] su R (cfr.Esempio 2.2), i vettori

!1 0 0 $ # & # & , # & " 0 0 0%

! 0 1 0$ # & # & , # & " 0 0 0%

! 0 0 0$ # & , # & # & " 0 0 1%

costituiscono una base, come facilmente si prova. Tale base detta detta base naturale di R m, n. 40

Lemma 6.3. (di Steinitz)1. Siano S = { v1, v2, , vh } e T = { w1, w2, , wk } due sistemi di vettori di uno spazio vettoriale. Se T indipendente ed contenuto in L(S), allora k h. Teorema 6.4. Sia V uno spazio vettoriale finitamente generabile e non ridotto al solo vettore nullo. Tutte le basi di V hanno lo stesso ordine (ovvero lo stesso numero di vettori). Dimostrazione. Siano B1 = {v1, v2, , vn} e B2 = {w1, w2, , wm} due basi di V. I sistemi di vettori B1 e B2 sono dunque indipendenti ed L(B1) = L(B2) = V. Poich B2 un sistema indipendente contenuto in V = L(B1), per il Lemma 6.3 si ha che m n. Analogamente, poich B1 un sistema indipendente contenuto in V = L(B2), allora, sempre per il Lemma 6.3, n m. Ne segue che n = m. Sia V uno spazio vettoriale finitamente generabile. Se V non si riduce al solo vettore nullo, per il Teorema 6.4 tutte le basi di V hanno lo stesso ordine n 1. L'intero n detto la dimensione di V. Se V= {0}, si attribuisce a V dimensione zero. Ad ogni spazio vettoriale non finitamente generabile si attribuisce dimensione infinita. Per indicare che n la dimensione di V, scriveremo dimV = n. Uno spazio vettoriale di dimensione finita n sar di solito indicato con Vn. Dagli Esempi 6.7, 6.10, 6.12 e 6.13 segue che : dim R n = n, dim VO = 3, dim R n[x] = n+1, dim R m, n = m n .

Per la dimostrazione confronta, ad esempio, T. Apostol, Cap. II , Teorema 3.5.

41

Alcune propriet di uno spazio vettoriale di dimensione n sono contenute nella seguente Proposizione 6.5. Se V {0} ha dimensione n, si ha: (i) (ii) (iii) l'ordine di ogni sistema indipendente di vettori di V al pi n; ogni sistema indipendente di ordine n una base di V; ogni sistema di generatori di V di ordine n una base di V.

Dimostrazione. Sia B una base di V ed S un sistema indipendente. Poich S L(B) = V, dal Lemma di Steinitz segue la (i). Proviamo ora la (ii). Sia S un sistema indipendente costituito da n vettori. Per provare che S una base di V, basta provare che S genera V. Se, per assurdo, fosse L(S) V, esisterebbe almeno un vettore w V \ L(S). Per la Proposizione 5.3, il sistema S {w} sarebbe allora indipendente, contro la (i). Proviamo infine la (iii). Sia S un sistema di generatori di V costituito da n vettori. Per il Corollario 6.2, esiste almeno una base B di V contenuta in S. Poich S e B hanno entrambi ordine n, allora necessariamente S = B. Proposizione 6.6 (completamento di un sistema indipendente in una base). Se S = { v1, v2, , vt } un sistema indipendente di uno spazio vettoriale Vn , esiste una base di Vn che contiene S. Dimostrazione . Per la (i) della Proposizione 6.5, t n. Se t = n , per la (ii) della Proposizione 6.5, S una base di Vn . Se t < n, per il Teorema 6.4, S non una base di Vn e dunque L(S) Vn. Sia vt+1 Vn \ L(S). Per la Proposizione 5.3, il sistema S = S {vt+1} indipendente. Se t+1 = n , S una base di Vn che contiene S. Se t+1 < n, ripetendo il ragionamento precedente, si ottiene un sistema S di ordine t+2 che indipendente

42

e contiene S. Procedendo in tal modo, dopo n t passi si ottiene un sistema indipendente di ordine n, cio una base di Vn, che contiene S. Si prova che : Proposizione 6.7. Sia W un sottospazio di uno spazio vettoriale Vn . (i) (ii) W finitamente generabile e dimW n; dim W = n W = Vn . Dalla Proposizione 6.7 segue immediatamente la seguente Proposizione 6.8. Siano W e Z due sottospazi di uno spazio vettoriale Vn . (i) (ii) W Z dimW dimZ; W Z e dimW = dimZ W = Z. Proviamo che : Teorema 6.9 (relazione di Grassmann). Siano W e H due sottospazi di uno spazio vettoriale Vn. Si ha : dim W + dim H = dim ( W H) + dim ( W + H). Dimostrazione. Basta provare che dim (W + H ) = dimW + dim H dim (W H). Osserviamo subito che, se uno dei due sottospazi W e H formato dal solo vettore nullo, allora lasserto vero. Sia dunque W { 0 } e H { 0 }. Supponiamo in primo luogo che W H { 0 }. Sia Bi = { v1, v2, , vi } una base di W H. Completiamo Bi in una base Bw = { v1, v2, , vi , wi+1 , , ws } di W (cfr. Proposizione 6.6) . Analogamente, completiamo Bi in una base 43

BH = { v1, v2, , vi, zi+1 , , zt } di H. Consideriamo ora il sistema B = { v1, v2, , vi, wi+1 , , ws, zi+1 , , zt } di vettori di W + H. Tale sistema ha ordine dimW + dim H dim(W H). Per provare lasserto basta mostrare che B una base di W + H. Cominciamo a provare che B genera W + H. Sia v + z W + H. Poich v W, v combinazione lineare dei vettori di BW; poich z H, allora z combinazione lineare dei vettori di BH. Ne segue che v + z combinazione lineare dei vettori di B e dunque B genera W + H. Proviamo ora che B indipendente. Sia (6.3) h1 v1 +, hi vi + hi+1 wi+1 + +hs ws + ki+1 zi+1 ++kt zt = 0. h1v1 ++ hivi + hi+1wi+1 + +hsws = Poich h1v1 + + hivi + hi+1wi+1 + +hsws appartiene ad H, allora il vettore appartiene a Da tale relazione segue che ( ki+1zi+1 ++ktzt ) . W e ki+1zi+1 ++ktzt

ki+1zi+1 ++ktzt

appartiene a W H. Esso dunque combinazione lineare dei vettori di Bi; si ha quindi ki+1zi+1 ++ktzt = k1v1 + + kivi , per opportuni scalari k1, , ki. Ne segue che ki+1zi+1 ++ktzt k1v1 kivi = 0 . Poich { v1, v2, .., vi, zi+1, .., zt} indipendente, essendo una base di H, gli scalari ki sono tutti nulli; in particolare ki+1 = ... = kt = 0. Sostituendo tali valori nella (6.3), si ottiene : h1 v1 ++ hi vi + hi+1 wi+1 + +hs ws = 0, da cui h1 = = hs = 0, essendo {v1, v2, , vi , wi+1 , , ws} una base di W. Abbiamo cos provato che B indipendente. Possiamo concludere che B una base di W + H. Supponiamo ora che W H = { 0 }. Considerata una base BW = {w1 , , ws} di W e una base BH = {z1 , , zt} di H, un ragionamento analogo a quello usato nel caso precedente permette di provare che B = { w1 , , ws, z1 , , zt } una base di W + H. Lasserto cos completamente provato.

44

7.

CAMBIAMENTI DI RIFERIMENTO Sia Vn {0}. Una base ordinata di Vn detta anche riferimento di Vn. Se

n >1, ogni base di Vn d luogo a vari riferimenti; ad esempio, dalla base naturale { (1, 0, 0), (0, 1, 0), (0, 0, 1) } di R 3 si ottengono i seguenti 6 riferimenti : ( (1, 0, 0), (0, 1, 0), (0, 0, 1) ), ( (0, 1, 0), (1, 0, 0), (0, 0, 1) ), ( (0, 0, 1), (1, 0, 0), (0, 1, 0) ), ( (1, 0, 0), (0, 0, 1), (0, 1, 0 ) ), ( (0, 1, 0), (0, 0, 1), (1, 0, 0) ),
n

( (0, 0, 1), (0, 1, 0), (1, 0, 0) ). il

Diremo riferimento naturale dello spazio vettoriale numerico R riferimento ( (1, 0, , 0), (0, 1, , 0), , ( 0, , 0, 1) ).

Analogamente, diremo riferimento naturale dello spazio vettoriale R m,n, il


! ! 1 0 0 $ ! 0 1 0$ ! 0 0 0$ $ ## & # & # && riferimento # # & , # & , , # & & . ## # && # " 0 0 0& # 0 0 0& % " % " 0 0 1% & " %

Sia R = ( e1, e2, , en ) un riferimento dello spazio vettoriale Vn. Dalla definizione di base e dalla Proposizione 5.2 segue che, per ogni v Vn, esiste una e una sola n-pla ordinata (h1, ,hn) R n tale che v = h1e1 + h2e2 + + hnen.

Gli scalari h1, ,hn sono detti le componenti di v in R. Siano R = ( e1, e2, , en ) ed R' = ( e1', e2', , en' ) due riferimenti dello spazio vettoriale Vn. Indichiamo con (b11 , b21 , , bn1) la n-pla ordinata delle componenti di e1 nel riferimento R', con (b12 , b22 , , bn2) la n-pla ordinata delle componenti di e2 nel riferimento R', e cos via fino ad en , la cui n-pla ordinata delle componenti nel riferimento R' sar indicata con (b1n , b2n , , bnn). Sia ora v Vn. Dette x1, x2, , xn le componenti di v in R ed x1', x2', , xn' le componenti di v in R', si ha : 45

(7.1)

!x1 ' = # #x 2 ' = " # # $x n ' =

b11 x1 + b21 x1 + b n1 x1 +

b12 x 2 + + b1n xn b 22 x2 + + b 2n x n . bn2 x 2 + + b nn x n

Le (7.1) sono dette formule di passaggio dal riferimento R al riferimento R'.

! b11 b12 b1n $ # & # b 21 b22 b2n & & , X' = Posto B = # # & #b b b & " n1 n2 nn %
equivalgono all'unica relazione matriciale (7.2) X' = BX .

! x' $ # 1& # x' & # 2& #. & # & # '& " x n%

! x1 $ # & # x 2& ed X = # & , le (7.1) #. & #x & " n%

La matrice B detta matrice di passaggio da R ad R'. ESEMPI 7.1 Considerati i riferimenti R = ((1, 4, 1), (1, 5, 0), (2, 5, -1)) ed R' = ((1, 0, -1), (0, 2, 1), (2, 3, -2)) di R 3, determiniamo le formule di passaggio da R ad R'. Poich (1, 4, 1) = (1, 0, -1) + 2(0, 2, 1) + 0(2, 3, -2) (1, 5, 0) = -(1, 0, -1) + (0, 2, 1) + (2, 3, -2) (2, 5, -1) = 0(1, 0, -1) + (0, 2, 1) + (2, 3, -2), le formule richieste sono

46

(7.3)

!x1 ' = x1 - x 2 # "x 2 ' = 2 x1 + x2 + x3 . # #x 3 ' = x 2 + x 3 $

Note le componenti di un vettore di R

nel riferimento R, possiamo allora

conoscere, mediante le (7.3), le componenti dello stesso vettore nel riferimento R'. Ad esempio, le componenti in R' del vettore - 4(2, 5, -1) sono : (-3, 2, 7) = 1(1, 0, -1) + 4(0, 2, 1) - 2 (2, 3, -2). (-3, 2, 7) = 3(1, 4, 1) + 2(1, 5, 0) x1' = 3 - 2 = 1, x2' = 6 + 2 - 4 = 4, x3' = 2 - 4 = -2; infatti

47

8. 8.1. 6.6).

ESERCIZI SULLA DETERMINAZIONE DI BASI Determinare una base di R 3 contenente il vettore v1 = (1, 0, 2) (cfr. Prop.

Un vettore che non dipende da v1 , ad esempio, il vettore v2 = (1, 1, 0). Il sottospazio H = L ( (1, 0, 2), (1, 1, 0) ) ha dimensione due e quindi non contiene tutti e tre i vettori della base naturale di R 3. Si vede facilmente, ad esempio, che (1, 0, 0) H; il sistema { (1, 0, 2), (1, 1, 0), (1, 0, 0) } dunque indipendente e costituisce quindi una base di R 3. Determinare una base di R
4

8.2.

contenente i vettori v1 = (2, -1, 0, 0) e

v2 = (0, 1, 3, 0). Il sottospazio H = L ( (2, -1, 0, 0), (0, 1, 3, 0) ) ha dimensione due e quindi non contiene tutti e quattro i vettori della base naturale di R 4. Si vede facilmente, ad esempio, che (1, 0, 0, 0) H. Il sistema T = { (2, -1, 0, 0), (0, 1, 3, 0), (1, 0, 0, 0) } dunque indipendente. Il sottospazio K = L (T) ha dimensione tre e pertanto non contiene tutti e quattro i vettori della base naturale di R 4 . Il vettore (0, 0, 0, 1) non in K e dunque il sistema {(2, -1, 0, 0), (0, 1, 3, 0), (1, 0, 0, 0), (0, 0, 0, 1)} indipendente, per cui esso una base di R 4.

8.3.

Determinare una base del sottospazio H = L((1, 0, 1 ,2), (-1, 2, 3, 0),

(3, -2, -1, 4), (-2, 4, 6, 0)) di R 4 (cfr. Corollario 6.2). Poich il vettore (-2, 4, 6, 0) dipende dai rimanenti (infatti (-2, 4, 6, 0) = 2(-1, 2, 3, 0)), allora H = L((1, 0, 1, 2), (-1, 2, 3, 0), (3, -2 ,-1, 4)). Poich (3, -2, -1, 4) dipende dai vettori (1, 0, 1, 2) e (-1, 2, 3, 0) (infatti (3, -2, -1, 4) = 2(1, 0, 1, 2) - (-1, 2, 3, 0)), allora H = L((1, 0, 1, 2), (-1, 2, 3, 0)). I vettori 48

(1, 0, 1, 2) e (-1, 2, 3 ,0), che generano H, sono indipendenti e costituiscono perci una base di H. Ne segue che dimH = 2. Osserviamo che, avendo H dimensione due, due qualsiasi vettori indipendenti appartenenti ad H ne costituiscono una base. Ne segue, ad esempio, che anche i sistemi {(1, 0, 1, 2), (3, -2, -1, 4)}, {(1, 0, 1, 2), (-2, 4, 6, 0)},{(-1, 2, 3, 0),(3, -2, -1, 4 )} sono basi di H. Un altro metodo per determinare una base di H il seguente: (i) Scriviamo i vettori (1, 0, 1, 2), (-1, 2, 3, 0), (3, -2, -1, 4) e (-2, 4, 6, 0) come righe di una matrice:

!1 0 1 2$ # & 3 0& # -1 2 A= # &; # 3 - 2 -1 4& # -2 4 6 0& " %


(ii) determiniamo una matrice a gradini B equivalente (per righe) ad A:

!1 # #0 B=# #0 #0 "

0 2 0 0

1 4 0 0

2$ & 2& & . 0& 0& %

Per la Proposizione 4.4, H = L((1, 0, 1, 2), (0, 2, 4, 2)). Poich i vettori (1, 0, 1, 2) e (0, 2, 4, 2) sono indipendenti, essi costituiscono una base di H. La dimensione di H dunque uguale al numero dei pivot della matrice B. Osservazione 8.1. Poich si prova che le righe non nulle di una matrice a gradini sono indipendenti, il metodo su indicato permette di determinare sempre la dimensione e una base di un sottospazio di R
n

di cui si conosce un sistema di

generatori. Osserviamo esplicitamente che da quanto detto segue che due matrici a 49

gradini equivalenti ad una stessa matrice hanno lo stesso numero di pivot. In particolare, due matrici a gradini equivalenti hanno lo stesso numero di pivot. 8.4. Sia S un sistema lineare omogeneo (su R ) in n incognite. E' facile provare

che l'insieme H delle soluzioni di S un sottospazio di R n.

Sia ora S a gradini. Usando le stesse notazioni del Paragrafo 3 del Capitolo I, diciamo p il numero delle equazioni non identiche di S. Se S ammette solo la soluzione banale ( il caso in cui p = n), allora H = {0} e dimH = 0. Se, invece, S ammette infinite soluzioni (in tal caso p < n), allora si prova che il numero n-p delle variabili libere coincide con la dimensione di H. Dette, per semplicit, xp+1,,xn tali variabili, una base di H costituita dalle n-p soluzioni di S ottenute attribuendo di volta in volta ad una sola delle xp+1,,xn il valore 1 e alle restanti il valore 0. Esempi:

!x1 + x 2 - x3 = 0 # S=" . # x2 - 2x 3 = 0 $

L'insieme delle soluzioni di S H = {(-x3, 2x3, x3),

con x3 R }. Poich esiste una sola variabile libera, la x3, allora dimH = 1. Una base di H {(-1, 2, 1)}.

!x1 + 2x 2 - x 4 = 0 # S = " # x2 + x 4 = 0 $

L'insieme delle soluzioni di S H =

{(3x4, -x4, x3, x4), con (x3, x4) R 2}. Poich le variabili libere sono due, allora dimH = 2. Una base di H {(0, 0, 1, 0), (3, -1, 0, 1)}. 50

8.5.

Determinare una base del sottospazio W =

{#a "0

a - b$ & , con a, b R 2a %

} di

R 2,2.
! a a - b$ !a a $ ! 0 - b$ !1 1 $ ! 0 -1$ # & = # & + # & = a# & + b# &. " 0 2a % " 0 2a % " 0 0% " 0 2% " 0 0% Ogni elemento di W dunque combinazione lineare delle due matrici ! 1 1 $ ! 0 - 1$ # &e# & che, ovviamente, appartengono a W. Ne segue che W = " 0 2% " 0 0 % ! 1 1 $ ! 0 - 1$ ! 1 1 $ ! 0 - 1$ &, # & ). &e# & L( # Essendo inoltre le due matrici # " 0 2% " 0 0 % " 0 2% " 0 0 % indipendenti, esse costituiscono una base di W.
Si pu scrivere

51

CAPITOLO III DETERMINANTI, RANGO DI UNA MATRICE E MATRICI INVERTIBILI

1. DETERMINANTE DI UNA MATRICE QUADRATA Sia A una matrice quadrata di ordine n. Vogliamo associare ad A un numero reale che chiameremo determinante di A e indicheremo con det A. Se n =1, ovvero A = ( a ), con a R , si pone : (1.1) det A = det ( a ) = a.

Il determinante delle matrici quadrate di ordine n 2 si definisce, come tra breve vedremo, a partire dal determinante delle matrici quadrate di ordine n-1. Noto allora il determinante delle matrici di ordine 1, sar possibile definire il determinante delle matrici di ordine 2; una volta definito il determinante delle matrici di ordine 2, si potr definire il determinante delle matrici di ordine 3, e cos via. Sia A una matrice quadrata di ordine n 2. Per ogni elemento aij di A, si dice matrice complementare di aij, e si indica con A(i,j), la matrice quadrata di ordine n-1 che si ottiene da A cancellando la riga i-ma e la colonna j-ma. Si dice complemento algebrico dell'elemento aij, e si indica con Aij, il determinante della matrice A(i,j) preso col proprio segno o col segno opposto a seconda che i + j pari o dispari. E' dunque Aij = (-1)i+j det A(i,j). Si prova che la somma dei prodotti degli elementi di una riga o colonna di A per i rispettivi complementi algebrici non varia al variare della riga o della colonna considerata; si ha cio : (1.2) a11 A11 + a12 A12 + = + a1nA1n = a21 A21 + a22 A22 + + a2nA2n = = an1 An1 + an2 An2 + + annAnn = a11 A11 + a21 A21 + + an1An1 = 52

a1n A1n + a2n A2n + + annAnn .

Il numero reale definito dalla (1.2) detto determinante di A. Osserviamo esplicitamente che, se una riga (o una colonna) di A costituita da tutti zeri, allora il determinante di A zero.

! a11 a12 $ Dalla (1.2) segue subito che, se n = 2, ovvero A = # # a a & , det A = & " 21 22 %
a11a22 a12a21.

! a11 a12 a 1n $ # & # a 21 a 22 a 2n & & , il determinante di A si denota anche con i Se n 2 ed A = # # & #a a a & " n1 n2 nn % a11 a12 a 1n a 21 a 22 a 2n simboli |A| e . a n1 a n2 a nn

ESEMPI 1.1. det ( 5 ) = 5; det ( -2 ) = -2; det ( 0 ) = 0.

1.2.

! 1 3$ & = 5 - 6 = -1; det # " 2 5%

! -6 1$ & = -12 - 4 = -16. det # " 4 2%

1.3.

! 1 8 0$ !6 - 5 $ # & & e B = # -1 1 4& , determiniamo Considerate le matrici A = # " 2 - 3% # & " 0 2 3%

A12, A22 , B11 , B22 , B23 e B32 . A12 = - det ( 2 ) = -2; A22 = det ( 6 ) = 6.

53

B11 = - 2; B32 = -

1 4 1 0 1 8 = 3 - 8 = -5; B22 = = 3 - 0 = 3; B23 = =-(2-0)= 2 3 0 3 0 2

1 0 -1 4

= - ( 4 + 0 ) = -4.

1.4.

! 2 1 - 3$ # & Calcoliamo il determinante della matrice A = # 0 1 1 & utilizzando una # & "4 3 5 %

volta la prima riga e una volta la seconda. det A = 2

1 1 0 1 + 1 (3 5 4 5 1 -3 3 5

-3

0 1 = 2 ( 2 ) - (-4 ) -3( -4 ) = 20; 4 3

det A = 0 (-

) +1

2 -3 2 1 + 1 (4 5 4 3

) = 0 + 1 ( 22 ) + 1 (- 2) = 20.
2 1 3 0 1 -3 0 $ & 0 1 2 & &. 0 2 -3 & 4 1 1 & %

1.5.

! # # Calcoliamo il determinante della matrice A = # # # "

Poich, per calcolare il determinante di A, possiamo scegliere arbitrariamente una riga o una colonna di A (si dice in tal caso che si sviluppa il determinante secondo tale riga o colonna), chiaro che conviene scegliere una riga o una colonna in cui compare il maggior numero di zeri; scegliamo dunque la seconda colonna. Si ha : det A =

1 1 2 2 -3 0 1 2 1 1 - 3 2 - 3 + 4 1 1 2 = - (+ 3 -3 3 2 0 1 1 3 2 -3 = -172.

) + 4 (2

1 2 1 2 +3 2 -3 3 -3

54

2. PROPRIETA' DEI DETERMINANTI Vediamo ora alcune propriet dei determinanti. D'ora in avanti A indicher una matrice quadrata di ordine n. Si ha : (2.1) (2.2) segno; (2.3) (2.4) (2.5) se due righe (o due colonne) di A coincidono, allora det A = 0; detta A' la matrice ottenuta da A moltiplicando una riga (o una colonna) se si aggiunge ad una riga di A un'altra riga moltiplicata per un numero det A = det At ; se si scambiano due righe (o due colonne) di A, il determinante cambia

per un numero reale h, si ha : det A' = h det A; reale, il determinante non cambia; analogamente, se si aggiunge ad una colonna di A un'altra colonna moltiplicata per un numero reale, il determinante non cambia; (2.6) se una riga di A dipende dalle rimanenti, ovvero le righe di A sono dipendenti, allora det A = 0; analogamente, se una colonna di A dipende dalle rimanenti, ovvero le colonne di A sono dipendenti, allora det A = 0. (2.7) se B una matrice quadrata di ordine n, det (AB) = det A det B.

ESEMPI 2.1.

1 0 -2 1 3 1 3 2 0 = 0 2 4 = -22 . 1 4 -1 -2 0 -1

55

1 0 -2
2.2.

3 2

1 0 -2

-2 0 1

3 2 0 =- 1 1 4 -1 1 1 0 -2 1 0 -2 =0. 1 4 -1

0 -2 ; 4 -1

3 2 0 =- 0 2 3 . 1 4 -1 -1 4 1

2.3.

2.4.

! 1 0 - 2$ # & Sia A = # 3 2 0 & . Moltiplicando la seconda colonna di A per -2, si # & " 1 4 -1 %
. Per la propriet (2.4), det A' = (-2) det A =

! 1 0 - 2$ # & ottiene la matrice A' = # 3 - 4 0 & # & " 1 - 8 -1 %


(-2) (-22) = 44.

! 0 1 - 2$ # & Sia ora B = # 8 4 - 4 & . Poich (8, 4, -4) = 4(2, 1, -1), si ha che # & "2 1 0 % 0 1 -2 4 2 1 - 1 = 4 (-2) = -8. 2 1 0
2.5.

det B =

! 1 0 - 2$ # & Sia A = # 3 2 0 & . Aggiungendo alla terza colonna di A la prima # & " 1 3 -1 % !1 0 - 2 + 2$ & # 2 0+6& = # 3 & # 3 -1 + 2 % "1 0 0$ & 2 6 & . & 3 1 %

!1 # moltiplicata per 2, si ottiene la matrice A' = # 3 # "1

56

Per la propriet (2.5), det A = det A' . Sviluppando det A' secondo la prima riga, si ha che det A' = 1

2 6 3 1

= -16. E' dunque det A = -16.

2.6.

1 0 Consideriamo il seguente determinante: 1 3

1 2 3 3

2 1 3 1

3 -2 . Poich la terza riga 1 4

la somma delle prime due, dalla propriet (2.6) segue che tale determinante uguale a zero. Nell'Esempio 2.5 abbiamo visto come si pu semplificare il calcolo del determinante di una matrice A : se infatti una riga (o colonna) di A ha almeno due elementi diversi da zero, utilizzando la propriet (2.5) possibile, senza alterare il determinante, sostituirla con un'altra avente un maggior numero di zeri.

57

3. RANGO DI UNA MATRICE Sia A una matrice ( su R ) di tipo [m, n]. Ricordiamo che le righe di A sono elementi dello spazio vettoriale numerico R n e le colonne di A sono elementi dello spazio vettoriale numerico R m. Si definisce rango di riga di A la dimensione del sottospazio di R n generato dalle righe di A e rango di colonna di A la dimensione del sottospazio di R m generato dalle colonne di A. Se A la matrice nulla, evidente che il rango di riga di A e il rango di colonna di A sono entrambi zero. Sia ora A una matrice non nulla. Per quanto visto nel Paragrafo 8 del Capitolo II, per determinare il rango di riga di A basta determinare una matrice a gradini B equivalente per righe ad A; il numero dei pivot di B infatti la dimensione del sottospazio di R n generato dalle righe di A. Il rango di colonna di A coincide ovviamente col rango di riga della matrice trasposta di A. Nel corso del presente paragrafo vedremo che anche per una matrice non nulla il rango di riga coincide col rango di colonna. Fissate h righe ed h colonne di A ( 0 < h m, n), cancelliamo nella matrice A le m-h righe distinte dalle righe fissate e le n-h colonne distinte dalle colonne fissate; otteniamo cos una matrice quadrata di ordine h il cui determinante detto minore di ordine h di A individuato dalle righe e dalle colonne fissate. Se gli indici delle righe fissate sono i1, i2, , ih e gli indici delle colonne fissate sono j1, j2, , jh, il minore sar indicato con |A|(i1, i2, , ih; j1, j2, , jh). Osserviamo esplicitamente che i minori di ordine 1 di A sono tutti e soli gli elementi di A.

58

ESEMPI

3.1.

!1 2 # #7 4 Considerata la matrice A = # # -2 1 # 0 -5 "

5 0 -1 $ & 9 - 2 3& & , vogliamo determinare il 6 2 5& 2 1 4& %

minore di ordine 3 di A individuato dalla prima, seconda e quarta riga e dalla seconda, quarta e quinta colonna, cio |A|(1,2,4; 2,4,5). Cancelliamo allora nella matrice A la terza riga, la prima colonna e la terza colonna. Otteniamo cos la

! 2 0 -1$ ! 2 0 -1$ # & # & matrice # 4 - 2 3 & . E' allora |A|(1,2,4; 2,4,5) = det # 4 - 2 3 & = -16. # & # & " -5 1 4 % " -5 1 4 %
Determiniamo ora il minore di ordine 2 di A individuato dalla prima e quarta riga e dalla prima e seconda colonna, cio |A|(1,4; 1,2). Cancellando in A la seconda e la

! 1 2$ & . Ne terza riga e le colonne terza, quarta e quinta, otteniamo la matrice # " 0 - 5% ! 1 2$ & = -5. segue che |A|(1,4; 1,2) = det # " 0 - 5%

Un minore si dice di ordine massimo se il suo ordine coincide col minimo tra m ed n. Sia |A|(i1, i2, , ih; j1, j2, , jh) un minore di ordine h < m,n. Fissata una riga ai e una colonna aj di A, con i i1, i2, , ih e j j1, j2, , jh , il minore |A|(i1, i2, , ih, i ; j1, j2, , jh, j) detto orlato di |A|(i1, i2, , ih; j1, j2, , jh) mediante la riga ai e la colonna aj .

59

ESEMPI 3.2. Consideriamo la matrice A dell'Esempio 3.1. Il minore |A|(1,2,4; 2,4,5)


1 7 -2 0 2 4 1 -5 0 -1 -2 3 2 5 1 4

possiede i

due soli

orlati

|A|(1,2,4,3;2,4,5,1)

2 4 |A|(1,2,4,3 ; 2,4,5,3) = 1 -5

5 0 -1 9 -2 3 . 6 2 5 2 1 4

Il minore |A|(1,4; 1,2) possiede invece 6 orlati. E' ad esempio |A|(1,4,2 ; 1,2,4) =

1 2 0 7 4 -2 0 -5 1

1 2 -1
e |A|(1,4,3 ; 1,2,5) = -2

1 5 . 0 -5 4

Un minore |A|(i1, i2, , ih; j1, j2, , jh) si dice fondamentale nei seguenti casi: (3.1) (3.2) |A|(i1, i2, , ih; j1, j2, , jh) 0 ed |A|(i1, i2, , ih; j1, j2, , jh) di ordine |A|(i1, i2, , ih; j1, j2, , jh) 0, h < m, n e tutti gli orlati di massimo ( cio h = m o h = n ); |A|(i1, i2, , ih; j1, j2, , jh) sono uguali a zero. Se A la matrice nulla, evidente che essa non possiede minori fondamentali. Supponiamo ora A non nulla e diamo un metodo per determinare un suo minore fondamentale. Considerato un elemento a di A diverso da zero, esso un minore non nullo di ordine 1. Se tutti i suoi eventuali orlati sono uguali a zero, allora a un minore fondamentale di A. Se, invece, esiste un orlato di a diverso da zero, diciamolo b, il minore a non fondamentale. Consideriamo allora b. Esso un minore di ordine 2 non nullo. Se tutti gli eventuali orlati di b sono uguali a zero, 60

b un minore fondamentale di A. In caso contrario, detto c un orlato di b diverso da zero, si procede analogamente a come fatto prima. Essendo le righe e le colonne di A in numero finito, il procedimento su descritto avr termine con la determinazione di un minore fondamentale di A. Osserviamo esplicitamente che una matrice non nulla non ammette in generale un unico minore fondamentale. ESEMPI 3.3. Determiniamo un minore fondamentale per ognuna delle seguenti matrici :

!0 ! 1 1 0 3$ # # & #0 A = # 1 1 5 0& , B = # # & #1 " 0 0 - 5 3% #1 "

1 2 1 0

3 6 2 1

2$ & ! 2 1 1$ 4& &. &, C= # 1& " 0 3 5% 0& %

Consideriamo la matrice A. Fissiamo in A un elemento diverso da zero, sia esso a11 = |A|(1;1) = 1 ed orliamolo mediante la seconda riga e la seconda colonna. Otteniamo il minore |A|(1,2; 1,2) = mediante la seconda riga

1 1 = 0. Orlando ora il minore |A|(1;1) 1 1


e la terza colonna otteniamo

|A|(1,2; 1,3) =

1 0 = 5 0. 1 5

Il minore |A|(1;1) non dunque un minore

fondamentale. Orliamo allora |A|(1,2;1,3) mediante la terza riga e la seconda

1 1
colonna. Poich risulta |A|(1,2,3; 1,3,2) = 1 1

5 = 0, necessario considerare 0 0 -5 1 0 3 0 = 0. Poich il 0 -5 3


61

l'altro orlato di |A|(1,2; 1,3), cio |A|(1,2,3; 1,3,4) = 1 5

minore | A|(1,2; 1,3) diverso da zero e tutti i suoi orlati sono uguali a zero, allora |A|(1,2; 1,3) un minore fondamentale di A. Lasciamo al lettore il compito di determinare almeno un altro minore fondamentale di A. Consideriamo ora la matrice B. Fissiamo in B un elemento diverso da zero, sia esso b12 = |B|(1;2) = 1. Poich, come facile verificare, gli orlati di |B|(1;2) mediante la seconda riga e tutte le possibili colonne sono uguali a zero, andiamo a considerare l'orlato di |B|(1;2) mediante la terza riga e la prima colonna, ovvero |B|(1,3; 2,1) =

0 1 = -1 0. Si ha cos che |B|(1;2) non un minore fondamentale. Orlando ora 1 1


|B|(1,3; 2,1) mediante la quarta riga e la terza colonna, otteniamo |B|(1,3,4; 2,1,3) =

0 1 3 1 1 2 = -2 0. Tale minore ammette |B| come unico orlato. Essendo |B| = 0, 1 0 1


allora |B|(1,3,4; 2,1,3) un minore fondamentale di B. Consideriamo infine la matrice C. E' facile verificare che tutti i minori di ordine 2 di C sono minori fondamentali. Enunciamo ora il seguente teorema, noto come Teorema degli orlati. Teorema 3.1. Sia A una matrice non nulla di tipo

[m,

n].

Se

|A|(i1, i2, , ih; j1, j2, , jh) un suo minore fondamentale, allora le righe di indici i1, i2, , ih sono una base del sottospazio di R n generato dalle righe di A e le colonne di indici j1, j2, , jh sono una base del sottospazio di R m generato dalle colonne di A.

62

Immediate conseguenze del Teorema degli orlati sono contenute nel seguente Corollario 3.2. Sia A una matrice non nulla di tipo [m, n]. Si ha: (i) se h l'ordine di un minore fondamentale di A, allora h la dimensione del sottospazio di R sottospazio di R
m n

generato dalle righe di A ed anche la dimensione del

generato dalle colonne di A;

(ii) tutti i minori fondamentali di A hanno lo stesso ordine. Unaltra importante conseguenza del Teorema 3.1 la seguente : Proposizione 3.3. Se A una matrice quadrata di ordine n , allora | A | 0 se, e solo se, le righe (le colonne) di A sono indipendenti. Dimostrazione. Se |A| 0, dalla Propriet (2.6) segue che le righe (le colonne) di A sono indipendenti. Viceversa, se le righe (le colonne) di A sono indipendenti, esse costituiscono una base del sottospazio di R n da esse generato. Tale sottospazio ha dunque dimensione n (e quindi coincide con R n). Dal Corollario 3.2 segue che n l'ordine dei minori fondamentali di A. Poich l'unico minore di ordine n di A |A|, allora |A| 0. La (i) del Corollario 3.2 permette di affermare che, per ogni matrice A, il rango di riga coincide col rango di colonna. Tale intero detto rango (o caratteristica) di A e sar indicato con r(A). Evidentemente, il rango di una matrice non nulla coincide con l'ordine di un suo minore fondamentale ed anche col numero dei pivot di una qualunque matrice a gradini ad essa equivalente.

63

4. MATRICI INVERTIBILI Consideriamo l'insieme R n,n delle matrici quadrate di ordine n. La matrice

!1 # #0 In = # # #0 "

0 0$ & 1 0& & detta matrice identica (o unitaria) di ordine n. Si ha : & 0 1& %

A In = A = In A, per ogni A R n,n. Sia A R n,n. Si dice che A invertibile se esiste una matrice B R n,n, detta inversa di A, tale che AB = In = BA. Si prova che ogni matrice invertibile A ammette un'unica matrice inversa, che viene denotata con A-1. Evidentemente, In invertibile e coincide con la propria inversa e inoltre per ogni matrice invertibile A, la matrice A-1 anchessa invertibile e la sua inversa coincide con A. Valgono le seguenti proposizioni. Proposizione 4.1. Sia A R n,n. La matrice A invertibile se, e solo se, |A| 0. In

tal caso

! A11 A21 An1 $ # & 1 # A12 A22 A n2 & # &. A-1 = A # & #A A A & " 1n 2n nn %

Proposizione 4.2. Siano A,B R n,n. Se AB = In, allora A e B sono invertibili e sono luna linversa dellaltra. Dimostrazione. Per la (2.7), |A| |B| = |AB| = | In | = 1. Ne segue che |A| e |B| sono entrambi diversi da zero e dunque A e B sono invertibili. Moltiplicando a destra

64

entrambi i membri delluguaglianza AB = In per B-1, si ha A = B-1 e lasserto provato. ESEMPI

! 0 2 1$ ! 1 2$ # & & e B = # -3 1 0& . Poich |A| = 3 0 e 4.1. Consideriamo le matrici A = # " 0 3% # & " 1 0 0%
|B| = -1 0, allora A e B sono invertibili. Determiniamo ora l'inversa per ciascuna delle matrici A e B. Si ha : A11 = 3, A12 = 0,
2$ - & 3& . 1& & 3%

A21 = -2,

A22 = 1. Ne segue che A-1 =

! #1 1 ! 3 - 2$ # & = # # 0 1% 3 " #0 "

Poich

B11 = 0, B12 = 0, B13 = -1, B21 = 0, B22 = -1, B23 = 2, B31 = -1, B32 = -3,

! 0 0 -1$ ! 0 0 1 $ # & # & B33 = 6, allora B-1 = -1 # 0 -1 - 3& = # 0 1 3 & . # & # & " -1 2 6% " 1 - 2 - 6%

5. REGOLA DI CRAMER Sia S un sistema lineare di n equazioni in n incognite:

!a 11 x1 + a12 x 2 + + a 1n xn = b1 # " # $a n1 x1 + a n2 x 2 + + a nn xn = b n
e sia A la matrice dei coefficienti delle incognite del sistema S. Si prova che : 65

Proposizione 5.1. Se |A| 0, (y1, y2, , yn), dove

il sistema S ammette un'unica soluzione

yi =

Ai , A

essendo Ai la matrice ottenuta da A sostituendo la i-esima colonna con la colonna dei termini noti. Proposizione 5.2. Se |A| = 0 e il sistema S compatibile, allora esso ammette infinite soluzioni che si possono determinare col metodo di riduzione a gradini. Nell'ipotesi della Proposizione 5.1, il sistema S detto sistema di Cramer e la regola indicata per determinarne l'unica soluzione detta regola di Cramer. Osserviamo esplicitamente che dalla Proposizione 5.1 segue

immediatamente il seguente Corollario 5.3 . Se il sistema S ammette infinite soluzioni, allora |A| = 0 . ESEMPI 5.1. Determiniamo l'unica soluzione del seguente sistema di Cramer :
!2x1 - x2 + x3 = 3 # S = "x1 + x 2 = 0 . # # $x 2 - x 3 = 1

2 -1 1 3 -1 1 2 Si ha : | A | = 1 1 0 = -2, | A1| = 0 1 0 = -4, | A2 | = 1 0 1 -1 1 1 -1 0

3 1 0 0 =4 1 -1

2 -1 3 e | A3 | = 1 1 0 = 6. L'unica soluzione del sistema S allora (y1, y2, y3) = 0 1 1


(2, -2, -3). 66

CAPITOLO IV APPLICAZIONI LINEARI

1. DEFINIZIONE E PRIME PROPRIETA' Siano V e V' due spazi vettoriali. Un'applicazione f : V V' si dice lineare se sono verificate le seguenti due propriet: (1.1) (1.2) v, w V, f( v + w ) = f(v) + f(w); h R e v V, f( hv ) = h f(v).

ESEMPI 1.1. Proviamo che l'applicazione f : (x, y) R 2 (x, x + y, y) R 3 lineare.

Siano v = (x, y) e w = (x', y') due vettori di R 2 . E' v + w = (x+x', y+y') e quindi si ha: f(v + w ) = f(x+x', y+y') = (x+x', x+x'+y+y', y+y'). Poich f(v) + f(w) = f(x, y) + f(x', y') = (x, x+y, y) + (x', x'+ y', y') = (x+x', x+y+x'+y', y+y'), allora f( v + w ) = f(v) + f(w) e la (1.1) cos verificata. Sia ora h un numero reale e sia v = (x, y) un elemento di R 2. E' hv = h(x, y) = (hx, hy) e quindi si ha: f(hv) = f(hx, hy) = (hx, hx+hy, hy). Poich hf(v) = h(x, x+y, y) = (hx, h(x+y), hy) = (hx, hx+hy, hy), allora f(hv) = h f(v) e la (1.2) anch'essa verificata. L'applicazione f dunque lineare. Proviamo che l'applicazione f : (x, y) R 2 (x, 0) R 2 lineare.

1.2.

Siano v = (x, y) e w = (x', y') due vettori di R2 . E' v + w = (x+x', y+y') e quindi si ha: f( v + w ) = f(x+x', y+y') = (x +x', 0). Poich f(v) + f(w) = (x, 0) + (x', 0) = (x + x', 0), allora la (1.1) verificata. 67

Sia ora h un numero reale e sia v = (x, y) un elemento di R 2. E' hv = h(x, y) = (hx, hy) e quindi si ha: f( hv ) = (hx, 0). Poich h f(v) = h(x, 0) = (hx, 0), anche la (1.2) verificata. L'applicazione f dunque lineare. 1.3. Proviamo che l'applicazione f : (x, y , z) R 3 (2x -1, x-3z ) R 2 non

lineare. Siano v = (x, y, z) e w = (x', y', z') due vettori di R 3 . E' v + w = (x+x', y+y', z+z') e quindi si ha: f(v + w) = (2(x+x')-1, x+x'-3(z+z')) = (2x+2x'-1, x+x'-3z-3z'). Risulta f(v) + f(w) = (2x-1, x-3z) + (2x'-1, x'-3z') = (2x+2x'-2, x-3z+x'-3z'). Si ha quindi f(v + w) f(v) + f(w), per cui la (1.1) non verificata. L'applicazione f non dunque lineare. 1.4. Sia V uno spazio vettoriale. Indichiamo con idV l'applicazione identica di V, ovvero l'applicazione di V in s che associa ad ogni vettore di V se stesso: idV : v V v V. Si verifica immmediatamente che idV lineare. 1.5. Siano V e V' due spazi vettoriali. Si dice applicazione nulla di V in V' f : v V 0V' V'. Si verifica immmediatamente che f lineare.

l'applicazione f che associa ad ogni vettore di V il vettore nullo di V':

68

1.6.

Sia A R m,n. Identificando, per ogni n, il vettore numerico (x1 , x2,, xn)

! x1 $ # & # x 2& # & con la matrice colonna X = # . & R # & #. & # & " x n%

n,1

, consideriamo l'applicazione

FA : X R n AX R m. Usando le propriet del prodotto righe per colonne tra matrici ( cfr. Cap.I, Par.2), facile provare che FA lineare. 1.7. Si prova facilmente che le seguenti applicazioni sono lineari:

! 2x f : (x, y, z) R 3 # "x - z

y + z$ & R 2,2 ; y %

g : ax2 + bx + c R 2[x] 2ax + b R 1[x] ; h : ( x, y , z) R 3 (2x +y-5z, x-3z , x-y) R 3 , mentre le seguenti altre non lo sono: p : (x, y) R 2 ( x2, x - y, 0) R 3 ;

! a b$ ! a a + b$ & R 2,2 # & R 2,2. q: # " c d% "2 c %

Un'applicazione lineare detta anche trasformazione lineare oppure omomorfismo. Proposizione 1.1. Sia f : V V' un'applicazione lineare. Si ha: (i) h, k R e v, w V, f (hv + kw) = h f(v) + k f(w); (ii) f (0V) = 0V' . Dimostrazione. Si ha: f(hv + kw) = ( per la (1.1)) f(hv) + f(kw) = ( per la (1.2)) h f(v) + k f(w). E' cos provata la (i). 69

Poich 0V = 0 0V , dalla (1.2) segue che f (0V) = f (0 0V) = 0 f(0V) = 0V' . Si ha cos la (ii). La (i) della Proposizione 1.1 si estende ad una qualunque combinazione lineare di vettori di V. Si ha cio : (1.3) h1, h2,, ht R e v1, v2,, vt V, f(h1v1 + h2v2 + + htvt ) = h1f(v1) + h2f(v2) + + htf(vt). Proposizione 1.2 . Sia f : V V' un'applicazione lineare. Si ha: (i) Se S = { v1, , vt } V un sistema linearmente dipendente, allora il sistema f(S) = { f(v1), , f(vt) } V linearmente dipendente (f conserva la dipendenza lineare) ; (ii) se v L(S) , allora f(v) L(f(S)). Dimostrazione. (i) Per ipotesi esistono t scalari h1, h2,, ht non tutti nulli tali che h1v1 + h2v2 + + htvt = 0V . Applicando la f ad entrambi i membri si ottiene : f(h1v1 + h2v2 + + htvt ) = f(0V) = (per la (ii) della Proposizione 1.1) 0V' . Ne segue, per la (1.3), che h1f(v1) + h2f(v2) + + htf(vt) = 0V'. Poich gli scalari h1, h2,, ht non sono tutti nulli, i vettori f(v1), , f(vt) sono dipendenti. (ii) Segue immediatamente dalla (1.3). D'ora in avanti indicheremo con 0 sia il vettore nullo di V che quello di V'; il lettore capir dal contesto a quale dei due vettori nulli ci si riferisce. Proposizione 1.3. Sia f : V V' un'applicazione lineare. Per ogni sottospazio W di V, f(W) un sottospazio di V'. Inoltre, se W = L(v1, v2, , vt), risulta f(W) = L (f(v1), f(v2), , f(vt)). 70

Dimostrazione. Essendo W , f(W) . Cominciamo a provare che f(W) stabile rispetto alle operazioni di V'. Siano v', w' f(W). Esistono allora

v, w W tali che v' = f(v) e w' = f(w). Poich f lineare, v' + w' = f(v) + f(w) = f( v + w ); inoltre, essendo W un sottospazio di V, v + w W. Il vettore v' + w' dunque immagine mediante f di un vettore di W; da ci v' + w' f(W). Sia ora h R e v' f(W). Diciamo v un vettore di W tale che f(v) = v'. Essendo f lineare, hv' = hf(v) = f(hv); essendo W un sottospazio di V, hv W. Ne segue che hv' f(W). Il sottoinsieme f(W) di V' dunque stabile rispetto alle operazioni di V'. Per la Proposizione 3.1 del Capitolo II, f(W) un sottospazio di V'. Sia ora W generato da v1, v2, , vt . I vettori f(v1), , f(vt) sono in f(W) e quindi anche tutte le loro combinazioni lineari sono in f(W) (cfr. Osservazione 3.1 del Cap. II). E' dunque L(f(v1), , f(vt)) f(W). Per ogni vettore v f(W), esiste un vettore v W tale che v = f(v). Poich v W = L(v1, v2, , vt), dalla (ii) della Proposizione 1.2 segue che v L(f(v1), , f(vt)). Si ha cos che f(W) L(f(v1), , f(vt)). Dalla doppia inclusione segue f(W) = L(f(v1), , f(vt)). Lasserto cos completamente provato.

2. NUCLEO E IMMAGINE Sia f : V V' un'applicazione lineare. Poniamo: Ker f = {v V : f(v) = 0} e Im f = f(V) = { f(v) : v V }.

Evidentemente Ker f V e Im f V'. Proviamo che : Proposizione 2.1. Ker f un sottospazio di V e Im f un sottospazio di V'. Dimostrazione. Per la Proposizione 1.3, Im f un sottospazio di V'. 71

Per provare che Ker f un sottospazio di V, cominciamo con l'osservare che, per la Proposizione 1.1, 0 Ker f e quindi Ker f . Siano v, w Ker f. Proviamo che v + w Ker f. Poich f lineare, f(v + w) = f(v) + f(w). Essendo d'altra parte f(v) = f(w) = 0, allora f(v + w) = 0 e dunque v + w Ker f. Siano ora h R e v Ker f. Poich f lineare e f(v) = 0, si ha che f(hv) = hf(v) = h0 = 0. E' dunque hv Ker f. Per la Proposizione 3.1 del Capitolo II, Ker f un sottospazio di V. I sottospazi Ker f e Im f sono detti rispettivamente nucleo e immagine dell'applicazione f. Proposizione 2.2. Se V finitamente generabile e B = { e1, e2, , en } una base di V, allora Im f = L(f(e1), f(e2), , f(en)). Dimostrazione. Poich per ipotesi V = L(e1, e2, , en), lasserto segue subito dalla Proposizione 1.3. ESEMPI 2.1. Determiniamo nucleo e immagine dell'applicazione lineare dell'Esempio 1.1. Ker f = {(x,y) R 2 : (x, x+y, y) = (0, 0, 0)} = {(x, y) R 2 : x = 0, x+y = 0, y = 0} = {(x, y) R 2 : x = 0, y = 0} = {(0, 0)} = {0}. Per la Proposizione 2.2, Im f = L(f(1, 0), f(0, 1)) = L((1, 1, 0), (0, 1, 1)). 2.2. Determiniamo nucleo e immagine dell'applicazione lineare dell'Esempio 1.2. Ker f = {(x, y) R 2 : (x, 0) = (0,0)} = {(x, y) R 2 : x = 0 } = {(0, y), con y R } = L((0, 1)). Per la Proposizione 2.2, Im f = L(f(1, 0), f(0, 1)) = L((1, 0), (0, 0)) = L((1, 0)). 2.3. Determiniamo nucleo e immagine dell'applicazione lineare dell'Esempio 1.4. 72

Ker idV = {v V : v = 0} = {0}. Evidentemente, Im idV = V. 2.4. Determiniamo nucleo e immagine dell'applicazione lineare dell'Esempio 1.5. E' facile rendersi conto che Ker f = V ed Im f = {0}. 2.5. Determiniamo nucleo e immagine dell'applicazione lineare dell'Esempio 1.6. Ker FA = { X R n : AX = 0 } (qui 0 indica la matrice nulla di tipo [m, 1] ). Ker FA dunque il sottospazio di R n costituito dalle soluzioni del sistema omogeneo in n incognite AX = 0.

!1 $ # & # 0& # & Poniamo ora : X1 = # . & , X2 = #. & # & # & " 0%

! 0$ # & #1 & # & # . & , , Xn = #. & # & # & " 0%

! 0$ # & # 0& # & # . & . Per la Proposizione 2.2, Im FA = #. & # & # & "1 %

L(FA(X1), FA(X2),, FA(Xn)). Poich FA(X1) coincide con la prima colonna della matrice A, FA(X2) coincide con la seconda colonna di A , e cos via fino ad FA(Xn) che coincide con l'n-ma colonna di A, allora Im FA il sottospazio di R m generato dalle colonne di A. Proposizione 2.3. Si ha : (i) f suriettiva Im f = V' ; (ii) f iniettiva Ker f = {0}. Dimostrazione. La (i) non altro che la definizione di suriettivit. Proviamo allora la (ii). Sia dunque f iniettiva. Se v 0 un vettore di V, allora f(v) f(0) = 0 e quindi v Ker f. Ne segue che Ker f = {0}. Viceversa, supponiamo Ker f = {0}. Se v e w sono due vettori distinti di V, proviamo che f(v) f(w). Supponiamo, per assurdo, f(v) = f(w). Si ha 73

f(v) - f(w) = 0 da cui, per la linearit di f, f(v - w) = 0. Il vettore v - w appartiene dunque a Ker f. Essendo Ker f = {0}, v - w = 0, cio v = w, un assurdo essendo v w. L'asserto cos completamente provato. Proposizione 2.4. Sia S = {v1, , vt} V f : V V' un'applicazione lineare iniettiva. Se un sistema indipendente, allora il sistema

f(S) = { f(v1), , f(vt) } V indipendente (f conserva l'indipendenza lineare). Dimostrazione. Sia h1f(v1) + h2f(v2 ) + + htf(vt) = 0. Proviamo che tutti gli scalari sono uguali a zero. Poich f lineare, h1f(v1) + h2f(v2 ) + + htf(vt) = f(h1v1 + h1v1 + h2v2 + + h2v2 + + htvt ) = 0 = f(0). Ne segue, essendo f iniettiva, che

htvt = 0. Poich v1, , vt sono indipendenti, allora h1 = . = ht = 0. Concludiamo il presente paragrafo provando il seguente Teorema 2.5. Sia f : Vn V' un'applicazione lineare. Si ha : dim Ker f + dim Im f = n. Dimostrazione. Se Ker f = Vn, lasserto vero per quanto osservato nellesempio 2.4. Se Ker f = {0}, per la Proposizione 2.3 f iniettiva. Dalle Proposizioni 2.2 e 2.4 segue allora che ogni base di Vn si trasforma mediante f in un sistema indipendente di generatori di Im f, cio in una base di Im f. Ne segue che dim Im f = n, cio lasserto. Sia ora Ker f Vn e Ker f {0} . Detta Bker = { v1, , vt } una base di Ker f , completiamo Bker in una base B = { v1, , vt , vt+1, , vn } di Vn. Per la Proposizione 2.2, Im f = L(f(v1), , f(vt) , f(vt+1), , f(vn) ) = L ( f(vt+1), , f(vn) ), essendo f(v1) = = f(vt) = 0. Proviamo ora che i vettori f(vt+1), , f(vn), che generano Im f, sono indipendenti. Sia ht+1 f(vt+1) + + hn f(vn) = 0. Dalla ht+1vt+1 + + hnvn 74 linearit di f segue che f(ht+ vt+1+ + hnvn ) = 0. Il vettore

appartiene quindi a Ker f; esso allora combinazione lineare dei vettori di Bker. Si ha pertanto ht+1vt+1 + + hnvn = k1v1 ++ ktvt per opportuni scalari k1, , kt , da cui ht+1vt+1 + + hnvn k1v1 ktvt = 0. Essendo v1, , vt , vt+1, , vn indipendenti, tutti gli scalari sono nulli; in particolare ht+1 = = hn = 0, per cui il sistema {f(vt+1), , f(vn)} indipendente e dunque una base di Im f . Ne segue che dim Im f = n t = n dim Ker f, cio lasserto.

3. ISOMORFISMI Un'applicazione lineare f : V V' detta isomorfismo se essa biettiva (ovvero iniettiva e suriettiva). E' facile provare che, se f : V V' isomorfismo, anche l'applicazione inversa f -1 : V' V un isomorfismo. Due spazi vettoriali si dicono isomorfi se esiste un isomorfismo tra essi. ESEMPI 3.1. Sia V uno spazio vettoriale. L'applicazione identica idV di V lineare, iniettiva e suriettiva. Essa dunque un isomorfismo. un

! a b$ & R 2,2 (a, b, c, d) R 4 . E' facile 3.2. Consideriamo l'applicazione f : # " c d%


verificare che f lineare. Determiniamo ora il nucleo e l'immagine di f. Si ha :

! a b$ ! 0 0$ & R 2,2 : (a, b, c, d) = (0, 0, 0, 0) } = { # & } = {0}. Per la Ker f = { # " c d% " 0 0%
Proposizione 2.3, f iniettiva. Osserviamo ora che, essendo dim R dim Ker f = 0, dal Teorema 2.5 segue che
2,2

= 4 e

4 = 0 + dim Im f. Si ha allora che

dim Im f = 4 = dim R 4 e dunque, per la Proposizione 6.7 del Cap. II, Im f = R 4, per cui la f suriettiva. L'applicazione f allora un isomorfismo. 75

3.3. Consideriamo lomomorfismo f : (x, y, z) R 3 (2x+y-z, y+z, 3z) R 3. Per la Proposizione 2.2, Im f = L(f(1, 0, 0), f(0, 1, 0), f(0, 0, 1)) = L((2, 0, 0), (1, 1, 0), (-1, 1, 3)). Poich i tre vettori che generano Im f sono indipendenti, si ha che dim Im f = 3 = dim R 3 ; da ci segue che Im f = R 3 e quindi f suriettiva.

Dal Teorema 2.5 segue allora che dim Ker f = 0, per cui Ker f = {0}. La f quindi anche iniettiva, per cui essa un isomorfismo. 3.4. Isomorfismo coordinato associato ad un riferimento. Sia Vn uno spazio vettoriale ed R = (e1, e2, , en) un suo riferimento. Consideriamo l'applicazione cR di Vn in R n che ad ogni vettore v Vn associa la n-pla ordinata delle sue componenti in R : cR : v = h1e1 + h2e2 + + hnen Vn (h1, h2, , hn) R n. Si prova immmediatamente che l'applicazione cR lineare. Determiniamo il nucleo e l'immagine di cR. Si ha : Ker cR = { v Vn : cR(v) = (0, 0, , 0)} = {0}; Im cR = L(cR(e1), cR(e2),, cR(en)) = L((1, 0,,0), (0, 1,,0),,(0, 0,, 1)) = R n. Da ci segue che l'applicazione cR sia iniettiva che suriettiva e quindi che essa un isomorfismo tra Vn ed R n. Tale isomorfismo detto isomorfismo coordinato associato al riferimento R (o anche coordinazione di Vn associata ad R). Dall'Esempio 3.4 segue che : Osservazione 3.1. Ogni spazio vettoriale (su R ) di dimensione n isomorfo a R n.

Proposizione 3.1 . Sia f : Vn Vm un isomorfismo. Si ha : (i) f conserva la dipendenza e lindipendenza lineare; 76

(ii) per ogni sistema SW di generatori di un sottospazio W di Vn , f(SW) un sistema di generatori del sottospazio f(W) di Vm; (iii) per ogni base BW di un sottospazio W di Vn , f(BW) una base del sottospazio f(W) di Vm; (iv) per ogni sottospazio W di Vn , dim W = dim f(W); (v) per ogni base B di Vn , f(B) una base di Vm e n = dim Vn = dim Vm= m. Dimostrazione. La (i) segue immediatamente dalle Proposizioni 1.2 e 2.4, essendo f una applicazione lineare iniettiva. La (ii) vera per la Proposizione 1.3. Per provare la (iii), consideriamo una base BW = {v1, , vt} di W. Per la (ii), f(BW) = {f(v1), f(v2 ), , f(vt)} genera f(W); inoltre, per la (i), i vettori f(v1), f(v2 ), , f(vt) sono indipendenti. Si ha allora che f(BW) una base di f(W). Le (iv) e (v) seguono immediatamente dalla (iii). Poich, per ogni isomorfismo f, anche f1 un isomorfismo, dalla Proposizione 3.1 segue che lo studio di uno spazio vettoriale (dipendenza e indipendenza lineare, sottospazi e loro dimensione, basi) pu essere fatto utilizzando uno spazio vettoriale ad esso isomorfo. In particolare, poich ogni spazio vettoriale di dimensione n isomorfo a R n (cfr. Osservazione 3.1), allora R n costituisce un modello (comodo da utilizzare) di ogni spazio vettoriale Vn . ESEMPI 3.5. Nello spazio vettoriale R 3[x] sia H = L(x3+2x, x-1, 2x3+3x+1, x2+3x-2).

Determiniamo una base e la dimensione del sottospazio H. Consideriamo il riferimento R = (x3, x2, x, 1) di R 3[x] e la coordinazione ad esso associata: cR : ax3 + bx2 + cx + d R 3[x] (a, b, c, d) R 4. 77

L'immagine di H mediante l'isomorfismo cR il sottospazio H' = L((1, 0, 2, 0), (0, 0,1, -1), (2, 0, 3, 1), (0,1 ,3, -2)) di R 4. Ricordando che l'applicazione inversa di cR anch'essa un isomorfismo, per determinare una base di H baster determinare una base di H' ( cfr. Proposizione 3.1 ). Scriviamo allora i vettori che generano H'

!1 # #0 come righe di una matrice: # #2 #0 " !1 # #0 ad essa equivalente : A = # #0 #0 "

0 0 0 1 0 1 0 0

2 0$ & 1 - 1& & ; determiniamo poi una matrice a gradini 3 1& 3 - 2& % 2 0$ & 3 - 2& & . Per l'Osservazione 8.1 del Capitolo II, 1 - 1& 0 0& %
cR-1(0,1, 3, -2) = x2 + 3x 2 e

le righe non nulle della matrice A costituiscono una base di H'. Ne segue che i polinomi cR-1(1, 0, 2, 0) = x3 + 2x , cR-1(0, 0, 1, -1) = x -1 costituiscono una base di H che ha quindi dimensione 3. 3.6. Nello spazio vettoriale R2,2 consideriamo il sistema di vettori S =

! 2 1$ ! 0 1$ ! 4 1 $ &, # &, # & }. Determiniamo la dimensione del sottospazio L(S). {# " 0 1% " 1 3% " -1 -1%
Considerato il riferimento naturale R di R 2,2 , sia cR l'isomorfismo coordinato ad esso associato:

! a b$ & R 2,2 ( a, b, c, d) R 4. cR : # " c d%


L'isomorfismo cR trasforma il sottospazio L(S) di R L( (2, 1, 0, 1), (0, 1, 1, 3), (4, 1, -1, -1) ) di R
4 2,2

nel sottospazio W = dimL(S) = dimW

e quindi

(cfr. Proposizione 3.1). Poich, come facile verificare, dimW = 2, allora dimL( S) = 2. 78

4. MATRICI E APPLICAZIONI LINEARI Siano Vn e Vm' due spazi vettoriali. Proviamo che: Proposizione 4.1. Un'applicazione lineare f : Vn Vm' determinata quando sono noti i corrispondenti dei vettori di una base. Dimostrazione. Sia B = {e1, e2, , en} una base di Vn. Vogliamo provare che la conoscenza dei vettori f(e1) , f(e2 ) , , f(en) sufficiente per conoscere il corrispondente in f di ogni vettore di Vn. Sia dunque v = h1e1 + h2e2 + + hnen Vn. Poich f lineare, dalla (1.3) segue che f(v) = h1f(e1) + h2f(e2 ) + + hnf(en) e dunque f(v) determinato. Sia f : Vn Vm' un'applicazione lineare e siano R = (e1, e2, , en) ed R' = (e1', e2', , em') due riferimenti rispettivamente di Vn e Vm'. Sia inoltre f(e1) = a11 e1' + a21 e2' + + am1 em' , f(e2) = a12 e1' + a22 e2' + + am2 em' , , f(en) = a1n e1' + a2n e2' + + amn em' . Per la Proposizione 4.1, il corrispondente f(v) di un vettore v di Vn noto non appena si conoscono i corrispondenti in f dei vettori e1, e2, , en. Ne segue che per conoscere f(v) basta conoscere gli scalari aij ( i = 1,,m ; j = 1,,n). Costruiamo con tali scalari una matrice A ponendo nella prima colonna le componenti in R' di f(e1), nella seconda quelle di f(e2), e cos via fino alla colonna n-esima in cui poniamo le componenti in R' di f(en). E' dunque

! a11 a12 a 1n $ # & # a 21 a 22 a 2n & &. A=# # & #a & " m1 a m2 a mn %


La matrice A di tipo [m, n] cos costruita detta matrice associata ad f nei riferimenti R ed R'. Essa sar talvolta denotata con MR,R'(f). Per quanto appena detto, la conoscenza della matrice associata ad f in una coppia di riferimenti 79

permette di determinare completamente la f. In particolare, per la Proposizione 2.2, possibile determinare Imf a partire dalla matrice A. Se Vm' = Vn , l'applicazione lineare f di Vn in s detta endomorfismo di Vn. In tal caso, se anche R' = R, parleremo semplicemente di matrice associata ad f nel riferimento R. ESEMPI 4.1. Consideriamo lomomorfismo f : (x, y) R 2 (2x - 3y, -x + y, 0) R 3. Considerato il riferimento R = ((1, 1), (2, -1)) di R 2 e il riferimento R' = ((0, 1, 1), (1, 0, 1), (0, 0, 1)) di R 3, determiniamo la matrice A associata ad f nei riferimenti R ed R'. Si ha : f(1, 1) = (-1, 0, 0) = 0(0, 1, 1) -1(1, 0, 1) + 1(0, 0, 1), f(2, -1) = (7, -3, 0) = -3(0, 1, 1) + 7(1, 0, 1) - 4(0, 0, 1).

! 0 - 3$ # & Ne segue che A = # -1 7& . # & " 1 - 4%

4.2.

Consideriamo l'applicazione lineare dell'esempio 4.1. Fissato il riferimento


2

naturale sia in R

che in R 3, determiniamo la matrice B associata ad f in tali

riferimenti. Si ha : f(1, 0) = (2, -1, 0) = 2(1, 0, 0) - 1(0, 1, 0) + 0(0, 0, 1), f(0, 1) = (-3, 1 ,0) = -3(1, 0 ,0) + 1(0, 1, 0) + 0(0, 0, 1),

! 2 - 3$ # & Ne segue che B = # -1 1& . # & " 0 0%

80

4.3.

Sia f : R 3 R 2 l'applicazione lineare rappresentata nei riferimenti R =

! 1 2 0$ &. ((1, 0, 0), (1, 1, 0), (1, 1, 1)) ed R' = ((0, 2), (-1, 1)) dalla matrice A = # " 3 1 1%
Determiniamo f(1, 0, -1) . Dalla definizione di matrice associata ad f in R ed R' segue che: f(1, 0, 0) = 1(0, 2) + 3(-1, 1) = (-3, 5), f(1, 1, 0) = 2(0, 2) + 1(-1, 1) = (-1, 5), f(1, 1, 1) = 0(0, 2) + 1(-1, 1) = (-1, 1). Poich inoltre (1, 0, -1) = 1(1, 0, 0) +1(1, 1, 0) - 1(1, 1, 1), allora si ha: f(1, 0, -1) = 1f(1, 0, 0) +1f(1, 1, 0) - 1f(1, 1, 1) = 1(-3, 5) + 1(-1, 5) -1(-1, 1) = (-3, 9). Determiniamo ora f(2, -1, -2). Poich risulta (2, -1, -2) = 3(1, 0, 0) +1(1, 1 , 0) 2(1, 1, 1), allora si ha: f(2, -1, -2) = 3f(1, 0, 0) +1f(1, 1, 0) - 2f(1, 1, 1) = 3(-3, 5) + 1(-1, 5) -2(-1, 1) = (-8, 18). Determiniamo infine f(x, y, z), per ogni (x, y, z) R 3. Poich (x, y, z) = (x-y) (1, 0, 0) + (y-z) (1, 1, 0) + z (1, 1, 1), si ha: f(x, y, z) = (x-y) (-3,5) + (y-z) (-1,5) + z (-1,1) = (-3x + 2y, 5x - 4z). 4.4. Sia f : R
2

lendomorfismo di R 2 rappresentato nel riferimento

! 1 2$ & . Determiniamo Imf. R = ((0, 1), (1, 1)) dalla matrice A = # " 3 1%
Dalla definizione di matrice associata ad f in R segue che f(0, 1) = 1(0, 1) + 3(1, 1) = (3, 4); f(1, 1) = 2(0, 1) + 1(1, 1) = (1, 3). Per la Proposizione 2.2 allora Imf = L((3, 4), (1, 3)) = R 2. 81

D'ora in avanti, quando sar utile, identificheremo il vettore numerico

! x1 $ # & # x 2& # & (x1 , x2,, xn) R n con la matrice colonna X = # . & R n,1 cos come stato fatto # & #. & # & " x n%
nell'Esempio 1.6.

Osservazione 4.1. Sia A R m,n. Consideriamo l'applicazione lineare FA : X R n AX R m. E' facile verificare che la matrice associata ad FA nei riferimenti naturali di R n ed R m proprio A.

Enunciamo dimostrazione.

ora

un'importante

proposizione di

cui

omettiamo

la

Proposizione 4.2. Sia f : Vn Vm'

un'applicazione lineare e siano R un

riferimento di Vn ed R un riferimento di Vm'. Detta X la matrice colonna delle componenti in R di un vettore v Vn ed X la matrice colonna delle componenti di f(v) in R', si ha: (i) se A R
m,n

la matrice associata ad f nei riferimenti R ed R' , allora

X = AX, v Vn ; (ii) se A R m,n una matrice tale che, v Vn , matrice associata ad f nei riferimenti R ed R'. X = AX , allora A la

82

Osservazione 4.2. Sia f : Vn Vm' un'applicazione lineare. Fissato un riferimento R in Vn e un riferimento R' in Vm', diciamo A la matrice associata ad f nei riferimenti R ed R'. Dalla Proposizione precedente segue che : v Ker f AX = 0, avendo indicato con X la matrice colonna delle componenti di v in R. ESEMPI 4.5. Sia f : R
3

lapplicazione lineare rappresentata nei riferimenti

R = ( (1, 0, 1), (1, 1, 0), (0, 1, 1) ) ed R = ( (0, 5), (-1, 1) ) dalla matrice

! 1 2 4$ & . Determiniamo Ker f . A=# " 2 3 1%


Per lOsservazione 4.2, cominciamo col risolvere il sistema omogeneo S =

!x + 2y + 4z = 0 " avente A come matrice dei coefficienti. Un sistema a gradini #2x + 3y + z = 0 !x + 2y + 4z = 0 ad esso equivalente il sistema " il cui insieme delle soluzioni - y - 7z = 0 #
{(10z, -7z, z), z R } = L (( 10, -7, 1)) . Poich le soluzioni del sistema S sono tutte e sole le componenti in R dei vettori del nucleo di f, allora Ker f = {10z (1, 0, 1) 7z (1, 1, 0) + z (0, 1, 1) , z R } = {(3z, -6z, 11z), z R } = L ((3, -6, 11)). Osserviamo che avremmo potuto ottenere la base {(3, -6, 11)} di Ker f a partire dalla base {(10, -7, 1)} dello spazio delle soluzioni del sistema S utilizzando lisomorfismo coordinato di R 3 associato al riferimento R. Si ha infatti (3, -6, 11) = 10(1, 0, 1) 7(1, 1, 0) + (0, 1, 1).

83

4.6. Sia f : R 2 R 2 lapplicazione lineare rappresentata nel riferimento naturale

! 3 -12 $ & . Determiniamo Ker f . R =((1, 0), (0, 1)) dalla matrice A = # " 6 - 24% !3x - 12y = 0 Risolviamo il sistema omogeneo S = " avente A come matrice dei #6x - 24y = 0
coefficienti. Tale sistema ovviamente equivalente allunica equazione 3x 12y = 0 il cui insieme delle soluzioni {(4y, y), y R } = L (( 4,1)) . Le soluzioni del sistema S sono tutte e sole le componenti dei vettori del nucleo di f. Poich una base dello spazio delle soluzioni di S {(4, 1)}, allora una base di Ker f 4 (1, 0) + 1 (0, 1) = (4, 1). Ne segue che Ker f = L (( 4,1)). Sia ora f un endomorfismo dello spazio vettoriale Vn di dimensione n 1. Detti R = (e1, e2, , en) ed R' = (e'1, e'2, , e'n) due riferimenti di Vn, vogliamo determinare la relazione che sussiste tra le matrici A ed A associate ad f rispettivamente in R e in R. A tale scopo, premettiamo la seguente Proposizione 4.3. La matrice B di passaggio da R' ad R invertibile. Dimostrazione. Ricordiamo (cfr. Capitolo II, Paragrafo 7) che le colonne di B sono i vettori numerici delle componenti in R dei vettori e'1, e'2, , e'n. Poich e'1, e'2, , e'n sono indipendenti, per l'isomorfismo coordinato associato ad R le colonne di B sono indipendenti. Ne segue, per la Proposizione 3.3 del Capitolo III, che | B | 0. Per la Proposizione 4.1 del Capitolo III, B invertibile. Si prova inoltre che Proposizione 4.4. Se B la matrice di passaggio da R' ad R, allora B-1 la matrice di passaggio da R ad R. 84

Siano A e A due matrici quadrate di ordine n. Si dice che A simile ad A se esiste una matrice invertibile P di ordine n tale che P-1 A P = A. Osserviamo che: ogni matrice quadrata A simile a se stessa ( detto n lordine di A, basta se A simile ad A, allora A simile ad A ( infatti, se P-1 A P = A, allora scegliere come matrice P la matrice identica In ); A = P A P-1). Si pu inoltre provare che - se A simile ad A ed A simile ad A , allora A simile ad A. Per quanto detto, la relazione di similitudine tra matrici quadrate dello stesso ordine una relazione di equivalenza. Siamo ora in grado di provare che : Proposizione 4.5. Sia f un endomorfismo di Vn e siano R ed R due riferimenti di Vn. Detta A la matrice associata ad f in R ed A la matrice associata ad f in R', allora A ed A sono simili. Precisamente, passaggio da R' ad R. Dimostrazione. Sia v Vn. Indichiamo con X la matrice colonna delle componenti di v in R e con X la matrice colonna delle componenti di v in R; analogamente, indichiamo con Y ed Y le matrici colonna delle componenti di f(v) rispettivamente in R ed R. Essendo B la matrice di passaggio da R ad R, per la (7.2) del Capitolo II si ha : (4.1) X = BX , Y = BY. Per la (i) della Proposizione 4.2 Y = AX da cui, per la (4.1), BY = A( BX) = ABX. Moltiplicando a sinistra per B-1 entrambi i membri di questultima relazione, si ha : B-1 (BY) = B-1 (ABX) cio (B-1B)Y = (B-1AB)X da cui, essendo B-1B = In , si ha Y= (B-1AB) X. Per la (ii) della Proposizione 4.2 allora A = B-1AB. 85 A' = B-1 A B , dove B la matrice di

CAPITOLO V DIAGONALIZZAZIONE DI ENDOMORFISMI E MATRICI

1.

DEFINIZIONI E PRIME PROPRIETA

Sia

! a11 a12 # # a 21 a 22 A = # # #a a " n1 n2


p(t)

a 1n $ & a 2n & & una matrice quadrata reale di ordine n. Il & a nn & %
t ottenuto calcolando formalmente il

polinomio

nellindeterminata

determinante della matrice

! a11 - t # # a 21 A tIn = # # #a " n1

a12 a 22 - t a n2

a 1n $ & a 2n & & & a nn - t& %

detto

polinomio caratteristico di A. Proposizione 1.1. Matrici simili hanno lo stesso polinomio caratteristico. Dimostrazione. Siano A ed A due matrici simili. Risulta allora A = P-1AP, con P matrice invertibile di ordine n. Si ha : | A tIn| , essendo | P-1| | P | = 1. Lequazione det(A tIn) = 0 detta equazione caratteristica di A. Si verifica facilmente che essa unequazione algebrica di grado n avente come termine noto | A | . | A t In | = | P-1AP t In | = | P-1AP t P-1P | = | P-1AP P-1 (t In)P | = | P-1(A tIn)P | = | P-1| | A tIn| | P | =

86

Sia Vn uno spazio vettoriale di dimensione n 1 e sia

f : Vn Vn un

endomorfismo. Se A la matrice associata ad f in un riferimento R, il polinomio caratteristico di A detto anche polinomio caratteristico di f. La definizione ben posta in quanto non dipende dal riferimento R considerato (infatti, se A la matrice associata ad f in un riferimento R, essa simile ad A per la Proposizione 4.5 del Cap. IV e dunque ha lo stesso polinomio caratteristico di A per la Proposizione 1.1). Lequazione det(A tIn) = 0 detta equazione caratteristica di f. Lendomorfismo f detto diagonalizzabile se esiste un riferimento R di Vn tale che la matrice associata ad f in R una matrice diagonale, cio una matrice quadrata in cui tutti gli elementi non appartenenti alla diagonale principale sono uguali a zero. Una matrice quadrata A detta diagonalizzabile se simile ad una matrice diagonale. Proviamo che : Proposizione 1.2. Se f un endomorfismo diagonalizzabile di Vn , allora ogni matrice associata ad f diagonalizzabile. Dimostrazione. Sia A la matrice associata ad f in un riferimento R. Poich f diagonalizzabile, esiste un riferimento R tale che la matrice associata ad f in R una matrice diagonale D. Dalla Proposizione 4.5 del Capitolo IV segue che D = B-1 A B , dove B la matrice di passaggio da R ad R. La matrice A dunque diagonalizzabile.

87

Si prova che il risultato espresso dalla Proposizione 1.2 si pu invertire. Vale pertanto la seguente Proposizione 1.3. Se f un endomorfismo di Vn ed A la matrice associata ad f in un fissato riferimento, allora f diagonalizzabile se, e solo se, lo A. La Proposizione 1.3 mostra che il problema della diagonalizzazione di un endomorfismo strettamente collegato a quello della diagonalizzazione di una matrice.

2. DIAGONALIZZAZIONE DI UN ENDOMORFISMO In questo paragrafo Vn denoter uno spazio vettoriale di dimensione n 1 ed f un suo endomorfismo. Un vettore v Vn detto autovettore di f di autovalore h R se v 0 e f(v) = h v. Proviamo che : Proposizione 2.1. Sia v un autovettore di f. Esiste un solo h R tale che h autovalore di v. Dimostrazione. Se f(v) = h v = k v , allora h v k v = 0 , da cui (h k) v = 0. Essendo v 0, ne segue h = k. Proposizione 2.2. Lendomorfismo f diagonalizzabile se, e solo se, esiste una base di Vn formata da autovettori di f. Dimostrazione. Sia f diagonalizzabile. Esiste quindi un riferimento R = (e1, e2, , en) di Vn tale che la matrice associata ad f in R una matrice diagonale 88

! d1 # #0 D =# # #0 "

0 0$ & d2 0 & & . Per definizione di matrice associata, le colonne di D sono, & 0 dn & %

nellordine, le componenti in R dei vettori f(e1), f(e2), , f(en). Si ha allora : f(e1) = d1e1 + 0 e2 + + 0 en = d1e1 , f(e2) = 0 e1 + d2e2 + + 0 en = d2e2 , f(en) = 0 e1 + 0 e2 + + dnen = dnen . I vettori e1, e2, , en sono dunque autovettori di f di autovalore, rispettivamente, d1, d2 , , dn. Viceversa, sia R = (e1, e2, , en) un riferimento di Vn formato da autovettori di f. Si ha allora, per ogni i = 1, , n, f(ei) = hiei, essendo hi

! h1 # #0 lautovalore di ei . La matrice associata ad f in R quindi # # #0 "


matrice diagonale; f dunque diagonalizzabile.

0 0$ & h2 0 & & , che una & 0 hn & %

Vediamo ora come determinare gli autovalori e gli autovettori di un endomorfismo. A tale proposito sussiste la seguente Proposizione 2.3. Sia R un riferimento di Vn e sia A = (aij) la matrice associata ad f in R. Gli autovalori di f sono tutte e sole le soluzioni reali dellequazione caratteristica di f. Le componenti in R degli autovettori di f aventi un fissato autovalore h sono le soluzioni non banali del sistema omogeneo (A h In) X = 0.

89

Dimostrazione. Sia h un autovalore di f. Un vettore v autovettore di f di

! z1 $ # & # z2 & autovalore h, se, e solo se, v 0 e f(v) = h v. Denotiamo con Z = # & la # & #z & " n%
matrice delle componenti di v in R. Essendo AZ la matrice delle componenti di f(v) in R (cfr. Proposizione 4.2 del Capitolo IV) ed hZ la matrice delle componenti di hv in R, allora v autovettore di autovalore h, se, e solo se A Z = h Z. Poich AZ= hZ

AZhZ=0

A Z h In Z = 0

(A h In) Z = 0

!(a11 - h) z1 + a12 z 2 + + a1n z n = 0 # #a 21 z 1 + (a 22 - h) z 2 + + a 2n z n = 0 " , allora v autovettore di autovalore # # $a n1 z1 + a n2 z2 + + (a nn - h) z n = 0


h se, e solo se, le sue componenti in R sono una soluzione non banale del sistema

!(a11 - h) x1 + a 12 x2 + + a 1n xn = 0 # #a 21 x1 + (a 22 - h) x 2 + + a 2n x n = 0 omogeneo S = " . # # $a n1 x1 + a n2 x 2 + + (a nn - h) xn = 0

Ne segue che il

sistema omogeneo S non ammette solo la soluzione banale; esso ammette quindi infinite soluzioni e dunque, per il Corollario 5.3 del Capitolo III, det(A h In) = 0. Si ha dunque che h una radice reale dellequazione det(A t In) = 0, equazione caratteristica di f. Viceversa, se h una radice reale dellequazione det(A t In) = 0, cio se det(A h In) = 0, allora il sistema omogeneo S ammette, per la Proposizione 5.2 del Capitolo III, una soluzione non banale Z. Poich (A h In) Z = 0 equivale a AZ = h Z , allora Z la matrice delle componenti in R di un autovettore avente h come autovalore. Lasserto cos completamente provato. 90

Sia h un autovalore di f. Linsieme V(h) = { v Vn : f(v) = h v } , formato dagli autovettori di f di autovalore h e dal vettore nullo, detto autospazio di f relativo allautovalore h. Proposizione 2.4. Si ha : (i) Per ogni autovalore h di f, dim V(h) 1; (ii) per ogni autovalore h di f, V(h) isomorfo allo spazio delle soluzioni del sistema omogeneo (A h In) X = 0, essendo A la matrice associata ad f in un riferimento R; (iii) autospazi distinti si intersecano nel solo vettore nullo. Dimostrazione. (i) Per sua stessa definizione V(h) non vuoto. Siano ora v e w in V(h). Il vettore v + w V(h) in quanto f(v + w) = f(v) + f(w) = h v + h w = h (v + w). Analogamente si prova che, per ogni k R e per ogni v V(h), k v V(h). L'autospazio V(h) dunque un sottospazio. Poich in V(h) esistono vettori non nulli (gli autovettori di autovalore h), V(h) {0}, per cui dim V(h) 1. (ii) Sia W lo spazio delle soluzioni del sistema omogeneo (A h In) X = 0. Tenendo conto della Proposizione 2.3, immediato verificare che l'applicazione che ad ogni vettore v V(h) associa la n-pla delle sue componenti in R un isomorfismo tra V(h) e W. (iii) Siano V(h) e V(k) due autospazi di f, con h k. Se v V(h) V(k), v necessariamente il vettore nullo, altrimenti sarebbe un autovettore relativo a due autovalori distinti, contro la Proposizione 2.1. Osserviamo esplicitamente che, se 0 un autovalore di f, allora il suo autospazio, essendo formato dai vettori v tali che f(v) = 0v = 0, coincide con Ker f. 91 l'autospazio V(h) sottospazio di Vn e

Proviamo ora che : Proposizione 2.5. Se v e w sono autovettori relativi ad autovalori distinti, allora v e w sono indipendenti. Dimostrazione. Diciamo h e k gli autovalori di v e w, rispettivamente. Se v e w fossero dipendenti, essi, in quanto vettori non nulli, sarebbero proporzionali. Esisterebbe dunque un numero reale a 0 tale che v = a w. Il vettore v 0 apparterrebbe dunque a V(h) V(k), contro la (iii) della Proposizione 2.4. La proposizione precedente si estende ad un numero qualunque di autovettori aventi autovalori a due a due distinti. Vale cio la seguente Proposizione 2.6. Se v1, v2, , vt sono autovettori relativi ad autovalori a due a

due distinti, allora v1, v2, , vt sono indipendenti. Dalla Proposizione 2.6 segue subito il seguente : Corollario 2.7 . Se lequazione caratteristica di f ha n radici reali e distinte, allora f diagonalizzabile. Dimostrazione. Poich lequazione caratteristica ha n radici reali e distinte, possibile determinare n autovettori relativi ad autovalori a due a due distinti. Essi, per la Proposizione 2.6, sono indipendenti e formano quindi una base di Vn. Per la Proposizione 2.2, f diagonalizzabile. Osserviamo esplicitamente che la condizione espressa dal Corollario 2.7 solo sufficiente ma non necessaria per la diagonalizzabilit, cio f pu essere diagonalizzabile anche se i suoi autovalori non sono tutti distinti.

92

Ricordiamo ora che, data unequazione algebrica p(x) = 0 di grado n a coefficienti reali, essa nel campo complesso C ha n radici. Se una sua radice, p() = 0 e il polinomio p(x) risulta divisibile per (x ). Si dice che ha molteplicit m se p(x) divisibile per (x )m ma non per ( x )m+1. La

somma delle molteplicit delle radici di p(x) = 0 n; ne segue che la somma delle molteplicit delle radici reali di p(x) = 0 al pi n ed esattamente n nel caso in cui le radici di p(x) = 0 sono tutte reali. Dato un autovalore h di f, la sua molteplicit come radice dellequazione caratteristica detta molteplicit algebrica di h ed indicata con ma(h). La dimensione dellautospazio V(h) detta molteplicit geometrica di h ed indicata con mg(h). Si prova che : Proposizione 2.8. Per ogni autovalore h , si ha mg(h) ma(h). Proposizione 2.9. Se h un autovalore di molteplicit algebrica 1, allora anche la sua molteplicit geometrica 1. Dimostrazione. Per la Proposizione 2.8, mg(h) ma(h) = 1. Daltra parte, per la (i) della Proposizione 2.4, si ha mg(h) = dim V(h) 1. Ne segue che mg(h) = 1. Teorema 2.10. L endomorfismo f diagonalizzabile se, e solo se, il suo polinomio caratteristico ha tutte le radici nel campo reale e per ciascuna di esse la molteplicit algebrica uguale a quella geometrica.

93

Proposizione 2.11. Sia f diagonalizzabile e siano V(h1), V(h2),, V(ht) gli autospazi relativi agli autovalori distinti di f. Detta Bi una base di V(hi), per i = 1, , t, allora una base di Vn formata da autovettori data da B1 B2 Bt . ESEMPI 2.1. Studiamo la diagonalizzabilit del seguente endomorfismo di R 2 : f : (x, y) R 2 (x + 2y, x 2y) R 2.

! 1 2$ &. Scriviamo la matrice A associata ad f nel riferimento naturale di R 2 : A = # " -1 - 2%


Il polinomio caratteristico di f (e di A) allora

1- t 2 -1 -2- t

(1 t )( 2 t ) + 2 = t2 + t . Le radici dellequazione caratteristica sono dunque 1 e 0. Per il Corollario 2.7, f diagonalizzabile. Lautospazio V(-1) lo spazio delle soluzioni del sistema omogeneo (A + I2) X = 0, cio del sistema

!2x + 2y = 0 " . Si ha dunque : V(-1) = { (x, -x), x R } = L ( (1, -1) ) . #- x - y = 0


Lautospazio V(0) = Ker f lo spazio delle soluzioni del sistema omogeneo

!x + 2y = 0 AX = 0, cio del sistema " . Si ha dunque : V(0) = { (-2y, y), y R } #- x - 2y = 0


= L ( (-2, 1) ) . Una base di R 2 formata da autovettori di f allora {(1, -1), (-2, 1)}. 2.2. Studiamo la diagonalizzabilit del seguente endomorfismo di R 3 : f : (x, y, z) R 3 (y, x, z ) R 3.

94

Scriviamo la matrice A associata ad f nel riferimento naturale di R

: A =

! 0 - 1 0$ # & # 1 0 0& . Il polinomio caratteristico di f (e di A) allora # & " 0 0 1%

- t -1

1 -t 0 = 0 0 1- t

( 1 t )(t2 + 1). Le radici di tale polinomio non sono tutte reali. Per il Teorema 2.10, f non diagonalizzabile. 2.3. Studiamo la diagonalizzabilit del seguente endomorfismo di R 3 : f : (x, y, z) R 3 (3x, 3z, 3y ) R 3. Scriviamo la matrice A associata ad f nel riferimento naturale di R
3

! 3 0 0$ # & A = # 0 0 3& . Il polinomio caratteristico di f (e di A) allora # & " 0 3 0%

3-t 0 0 0 -t 3 = 0 3 -t

(3 t ) ( t2 9 ). Le radici dellequazione caratteristica sono dunque 3 e 3, con ma(-3) = 1 e ma(3) = 2. Per la Proposizione 2.9, mg(-3) = ma(-3) = 1. Per determinare la molteplicit geometrica dellautovalore 3, consideriamo lautospazio V(3) che coincide con lo spazio delle soluzioni del sistema omogeneo

!-3y + 3z = 0 (A - 3I3) X = 0, cio del sistema " . Tale sistema equivalente # 3y - 3z = 0


allequazione y z = 0. Ne segue che dim V(3) = 2 e dunque mg(3) = ma(3) = 2. Per il Teorema 2.10, f diagonalizzabile. Per determinare una base di R 3 costituita da autovettori di f, occorre determinare, per la Proposizione 2.11, una base di ciascun autospazio. Per quanto visto, V(3) = {(x, y, y) , x, y R } . Una base di V(3) dunque {(1, 0, 0), (0, 1, 1)}.

95

Lautospazio V(-3) lo spazio delle soluzioni del sistema omogeneo (A + 3I3)X = 0, cio del sistema

!6x = 0 # "3y + 3z = 0 . Si ha dunque : V(-3) = # $3y + 3z = 0

{(0, -y, y), y R }. Una base di V(-3) quindi {(0, -1, 1)}. Una base di R 3 costituita da autovettori di f allora {(1, 0, 0), (0, 1, 1), (0, -1, 1)}. 2.4. Studiamo la diagonalizzabilit del seguente endomorfismo di R 4 : f : (x, y, z, t) R 4 (x + 2y, y t, z 3t, t ) R 4. Scriviamo la matrice A associata ad f nel riferimento naturale di R4 :

!1 # #0 A= # #0 #0 "

2 1 0 0

0 0$ & 0 - 1& & . Il polinomio caratteristico di f (e di A) allora ( 1 t )4 . 1 - 3& 0 1& %

Lequazione caratteristica di f ha dunque la sola radice 1, con ma(1) = 4. Per determinare la molteplicit geometrica dellautovalore 1, consideriamo lautospazio V(1) che coincide con lo spazio delle soluzioni del sistema omogeneo

!2y = 0 # (A I4) X = 0, cio del sistema "- t = 0 . Si ha dunque : mg(1) = dim V(1) = 2 # $-3t = 0
ma(1) = 4. Per il Teorema 2.10, f non diagonalizzabile.

96

3.

DIAGONALIZZAZIONE DI UNA MATRICE In questo paragrafo A denoter una matrice quadrata di ordine n sul campo

reale. Cos come nellEsempio 1.6 del Capitolo IV, identificheremo il vettore

! # # # numerico (x1 , x2 , , xn ) con la matrice X = # # # # "

x1 $ & x2 & & . &. & . & & xn %


nel
n

Ricordiamo che A detta diagonalizzabile se simile ad una matrice diagonale. Poich A la matrice
n

associata

riferimento

naturale

allendomorfismo

FA : X R

A X R

(cfr. Osservazione 4.1 del

Cap. IV), allora dalla Proposizione 1.3 segue che diagonalizzare A equivale a diagonalizzare lendomorfismo FA di R n. Tutte le definizioni e le proposizioni enunciate per gli endomorfismi si trasformano in maniera naturale in analoghe definizioni e proposizioni relative alle matrici quadrate. Si ha in particolare : Un vettore numerico Y R n se Y 0 e A Y = h Y. Sia h un autovalore di A. Linsieme V(h) = {X R formato dagli autovettori di A di autovalore autospazio di A relativo allautovalore h. La matrice A diagonalizzabile se, e solo se, il suo polinomio caratteristico ha tutte le radici nel campo reale e per ciascuna di esse la molteplicit algebrica uguale a quella geometrica. Inoltre, da quanto detto nei paragrafi precedenti segue che : h
n

detto autovettore di A di autovalore h

: A X = h X},

e dal vettore nullo, detto

97

Se A diagonalizzabile, una matrice invertibile P che realizza la diagonalizzazione di A (cio tale che P-1AP una matrice diagonale D) si ottiene scegliendo come colonne n autovettori, Y1 , Y2 , , Yn, di A che formano una base di R n . Gli elementi della diagonale principale della matrice D simile ad A sono, nellordine, gli autovalori di Y1 , Y2 , , Yn . ESEMPI

! 2 3 0$ # & 3.1. Studiamo la diagonalizzabilit della matrice A = # 2 1 0& . # & " 0 0 4% 2-t 3 0 Il polinomio caratteristico di A 2 1- t 0 = (4 t ) ( t2 3t 4 ). Le radici 0 0 4-t
dellequazione caratteristica sono dunque 1 e 4, con ma(-1) = 1 e ma(4) = 2. Si ha allora : mg(-1) = ma(-1) = 1. Per determinare la molteplicit geometrica dellautovalore 4, consideriamo lautospazio V(4) che coincide con lo spazio delle

!-2x + 3y = 0 soluzioni del sistema omogeneo (A - 4I3) X = 0, cio del sistema " . # 2x - 3y = 0
Tale sistema equivalente allequazione 2x 3y = 0. Ne segue che dimV(4) = 2 e dunque mg(4) = ma(4) = 2. La matrice A dunque diagonalizzabile. Per determinare una matrice invertibile P che realizzi la diagonalizzazione di A, occorre determinare una base di R 3 costituita da autovettori di A e quindi una base di ciascun autospazio di A. Per quanto visto, V(4) = {(3y / 2, y, z) , y, z R } . Una base di V(4) dunque {(3, 2, 0), (0, 0, 1)}.

98

Lautospazio V(-1)

lo spazio delle soluzioni del sistema omogeneo

(A + I3)X = 0, cio del sistema

!3x + 3y = 0 # "2x + 2y = 0 . # $5z = 0

Si ha dunque : V(-1) =

{(x, -x, 0), x R } e una sua base {(1, -1, 0)}. Una base di R 3 costituita da autovettori di A allora {(3, 2, 0), (0, 0, 1), (1, -1, 0)} e quindi una matrice invertibile P tale che

!3 # P-1AP = D, con D matrice diagonale, # 2 # "0

0 1$ & 0 -1& . La & 1 0%

! 4 0 0$ # & matrice D # 0 4 0 & . # & " 0 0 - 1%

99

CAPITOLO VI GEOMETRIA ANALITICA NEL PIANO E NELLO SPAZIO Mantenendo le notazioni del Capitolo II, nel corso del presente capitolo indicheremo con V lo spazio vettoriale dei vettori (geometrici) liberi dello spazio e con V lo spazio vettoriale dei vettori (geometrici) liberi di un piano . Se A e B sono due punti distinti, la retta passante per A e B sar detta retta AB.

1. DIPENDENZA LINEARE IN V E V Siano a = AB e b = CD due vettori liberi non nulli di V ( di V). Si dice che a e b sono paralleli, e si scrive a || b, se i segmenti AB e CD sono paralleli. La definizione ben posta perch non dipende dai rappresentanti scelti per a e b. Considerato un punto O dello spazio (del piano ), diciamo OA ed OB i rappresentanti rispettivamente di a e b in O. Si ha : a e b sono dipendenti

a e b sono proporzionali

OA e OB sono OA e OB sono

proporzionali paralleli

OA e OB giacciono sulla stessa retta

a || b.

Poich si conviene che il vettore libero nullo dello spazio (del piano ) parallelo ad ogni vettore libero dello spazio (del piano ), allora possiamo affermare che (1.1) a, b in V ( in V), a e b sono dipendenti

a || b. 100

Siano ora a, b e c tre vettori dipendenti di V, O un punto dello spazio ed OA, OB ed OC i rappresentanti rispettivamente di a, b e c in O. Poich a, b e c sono dipendenti, uno tra essi, diciamo a, dipende dagli altri due. Esistono dunque h e k in R tali che a = h b + k c. Ci equivale a dire che OA = h OB + k OC. Se i punti O, B e C non sono allineati (esiste quindi uno ed un sol piano per essi), dall'uguaglianza OA = h OB + k OC segue che A appartiene al piano per O, B e C. Se esiste invece una retta per O, B e C, da OA = h OB + k OC segue che anche A appartiene a tale retta. Poich per una retta dello spazio passano infiniti piani, possiamo in ogni caso concludere che i segmenti OA, OB ed OC sono contenuti in uno stesso piano. Si ha dunque : a, b e c dipendenti

i rappresentanti di a, b e c in uno stesso punto sono

complanari. Poich evidentemente vale anche l'implicazione inversa della precedente, possiamo concludere che, per ogni a, b e c in V, (1.2) a, b e c sono dipendenti sono complanari. Si verifica facilmente che due vettori indipendenti di V generano V e dunque ne costituiscono una base; analogamente, tre vettori indipendenti di V generano V e ne costituiscono quindi una base. Gli spazi vettoriali V e V hanno dunque dimensione due e tre, rispettivamente.

i rappresentanti di a, b e c in uno stesso punto

101

2.

PRODOTTO SCALARE STANDARD IN V E V Dora in avanti supporremo fissata un' unit di misura u per i segmenti.

Parleremo talvolta semplicemente di lunghezza di un segmento, sottintendendo che tale lunghezza rispetto all'unit di misura u. Sia v un vettore libero dello spazio (o di un piano). Si dice modulo (o lunghezza) di v rispetto ad u, e lo si indica con |v|, la lunghezza (rispetto ad u) comune ai segmenti che costituiscono v. Siano ora v e w due vettori liberi non nulli dello spazio (o di un piano). Fissato un punto O dello spazio (del piano), siano OP ed OQ i rappresentanti rispettivamente di v e w in O. Diciamo angolo di v e w, e lo indichiamo con vw , la misura in radianti dell' angolo convesso formato dalle semirette di origine O contenenti P e Q rispettivamente. Si verifica che la definizione indipendente dal punto O scelto. Presi due vettori liberi v e w , vogliamo associare ad essi un numero reale, che diremo prodotto scalare standard di v e w (associato allunit u fissata) e indicheremo con v w (oppure con su(v ,w)). Se v = 0 , oppure w = 0 , poniamo v w = 0 . Se v e w sono entrambi non nulli poniamo : (2.1) v w = | v | | w | cos vw . E' facile verificare che il prodotto scalare standard cos definito soddisfa le seguenti propriet : u , v , w V ( V ) e h, k R simmetria : bilinearit : uv=vu ( h u + k v ) w = h ( u w ) + k ( v w), u ( h v + k w ) = h ( u v ) + k ( u w) . 102

Il prodotto scalare standard inoltre definito positivo, cio : v V ( V ), v v 0 e vv=0

v = 0.

Osserviamo esplicitamente che, per ogni v V ( V ) si ha : (2.2) | v | = v v . Un vettore di lunghezza unitaria detto versore. Chiameremo versore di una retta orientata il versore parallelo e concorde alla retta stessa. Siano a = AB e b = CD due vettori liberi non nulli di V ( V ). Si dice che a e b sono ortogonali, e si scrive a b, se i segmenti AB e CD sono ortogonali. La definizione ben posta perch non dipende dai rappresentanti scelti per a e b. Considerato un punto O dello spazio (del piano ), diciamo OA ed OB i rappresentanti rispettivamente di a e b in O. Si ha : a b

OA OB

= ab = / 2 cos = 0 a b = 0.

Poich si conviene che il vettore libero nullo dello spazio (del piano ) ortogonale ad ogni vettore libero dello spazio (del piano ), allora possiamo affermare che (2.3) a, b in V ( V ), a b

a b = 0.

3. RIFERIMENTI ORTONORMALI IN V ( V ) Si dice riferimento ortonormale di V (di V) ogni riferimento formato da versori a due a due ortogonali.

103

Proposizione 3.1. Sia R = (v, w) un riferimento ortonormale di V . Se a, b V , dette (a1, a2) e (b1, b2) rispettivamente le componenti di a e b in R, si ha : a b = a1b1 + a2b2 = (a1, a2) (b1, b2). Dimostrazione. Poich a = a1 v + a2 w prodotto scalare segue che e b = b1 v + b2 w, dalla bilinearit del da cui, tenendo conto a b = ( a1 v + a2 w ) ( b1 v + b2 w ) =

a1 b1 (v v) + a1 b2 (v w) + a2 b1 (w v) + a2 b2 (w w) che v v = w w = 1 e v w = w v = 0, si ha lasserto.

Proposizione 3.2. Sia R = (v, w, u) un riferimento ortonormale di V. Se a, b V, dette (a1, a2 , a3 ) e (b1, b2 , b3 ) rispettivamente le componenti di a e b in R, si ha : a b = a1b1 + a2b2 + a3b3 = (a1, a2, a3) (b1, b2, b3). La dimostrazione della Proposizione 3.2 analoga a quella della Proposizione 3.1. Sia a V ( V ). Dette a1, a2 e a3 ( a1 e a2 ) le componenti di a in un riferimento ortonormale di V ( V ), dalla (2.2) e dalla Proposizione 3.2 (3.1) segue che : (3.1) | a | = a 12 + a 2 2 + a 3 2 ( | a | = a 12 + a 2 2 ).

4.

RIFERIMENTO CARTESIANO ORTOGONALE MONOMETRICO NEL

PIANO Sia un piano. Si dice riferimento cartesiano ortogonale monometrico del piano una coppia R = ( O, Rv = ( ex , ey )), dove O un punto di , detto origine, ed Rv = ( ex , ey ) un riferimento ortonormale di V . Siano U ed U i due punti tali 104

che

OU = ex

ed

OU' = ey . I punti U ed U sono detti punti unitari del

riferimento. Le rette OU e OU sono dette assi coordinati e, precisamente, asse x ed asse y ; tali rette si considerano orientate concordemente ai vettori ex ed ey , che sono i versori degli assi. Preso un punto P del piano, consideriamo il vettore libero OP. Dette x ed y le componenti di OP in Rv, i numeri reali x ed y sono detti coordinate cartesiane di P nel riferimento R; x si dice ascissa di P ed y ordinata. Scriveremo P(x, y) per intendere che le coordinate di P sono x ed y. Dire quindi che P ha coordinate x ed y significa che OP = x ex + y ey. Per determinare x ed y occorre dunque considerare i punti P' e P" ottenuti proiettando ortogonalmente il punto P sulle rette x ed y ; si ha : | x | = | OP'| , | y | = | OP''| , da cui x = | x | e y = | y | , a seconda che i vettori OP' ed OP'' siano concordi o discordi con ex ed ey rispettivamente . L'applicazione costruita. Si vede subito che risulta O(0, 0), U(1,0) e U(0,1) . P (x ,y) R
2

biettiva , per come stata

Proposizione 4.1 . Considerati i punti A(x1, y1) e B(x2, y2), le componenti in Rv del vettore AB sono x2 x1 ed y2 y1. Dimostrazione. Per come stata definita laddizione in V , OA + AB = OB , da cui (4.1) AB = OB OA .

Per lisomorfismo coordinato associato al riferimento Rv, le relazioni che valgono tra i vettori valgono anche tra le loro componenti in Rv. Poich le componenti di 105

OA sono (x1, y1) e quelle di OB sono (x2, y2), allora, dette ax ed componenti di AB , per la (4.1) si ha :

ay

le

(ax , ay ) = (x2, y2) (x1, y1), da cui :

ax = x2 x1 , ay = y2 y1 . Dora in avanti scriveremo v(vx, vy) per intendere che le componenti del vettore v in Rv sono vx e vy. Siano v(vx , vy) e w (wx , wy ) due vettori non nulli. Dalle (2.1) e (3.1) e dalla Proposizione 3.1 segue che : (4.2) cos vw =

v w = (vx wx + vy wy ) / | v || w |

vx 2 + vy 2 . w x 2 + wy 2
ex e (0, 1) le

In particolare , essendo (1, 0) le componenti di componenti di ey , si ha : (4.3) cos ve x = vx / vx + vy ;


2 2

cos ve y = vy /

vx 2 + vy 2

5. CAMBIAMENTI DI RIFERIMENTO

Siano R = ( O, Rv = ( ex , ey )) ed R = ( O, Rv = ( ex, ey )) due riferimenti cartesiani ortogonali monometrici di un piano. Vogliamo determinare le formule di trasformazione delle coordinate di un punto nel passaggio da R ad R . Diciamo B = (bij) la matrice di passaggio da Rv ad Rv (cfr. Capitolo II, Paragrafo 7) . Sia P un punto del piano. Indichiamo con (x, y) le coordinate di P in R , con (x , y) le coordinate di P in R e con ( c1 , c2 ) le coordinate di O in R. 106

Le componenti del vettore OP in Rv sono (x, y); per la Proposizione 4.1, le componenti di OP in Rv sono ( x c1 , y c2 ). Per le (7.1) del Capitolo II si ha allora :

!x' - c1 = b11 x + b12 y # " #y' - c 2 = b 21 x + b 22 y , $ !x' = b11 x + b12 y + c 1 # " #y' = b 21 x + b22 y + c 2 . $

da cui

(5.1)

Le (5.1) sono le formule di passaggio dal riferimento R al riferimento R.

6. RAPPRESENTAZIONE DELLA RETTA

Dora in avanti indicher un piano ed R = (O, Rv = ( ex , ey )) un fissato riferimento cartesiano ortogonale monometrico di . Rappresentare che : un punto P appartiene ad X S. Sia r una retta di . in R un insieme X di punti del piano significa

determinare un sistema di relazioni S in due incognite (ed eventuali parametri) tale

le coordinate di P in R verificano il sistema

107

Proposizione 6.1. La retta r rappresentata in R da un sistema parametrico del tipo reale. Dimostrazione. Sia A(xo, yo) un punto della retta r e sia v(l, m) un vettore libero non nullo parallelo ad r . Detto P(x, y) il generico punto del piano, si ha : (6.1) P r

!x = x 0 + l t # " #y = y 0 + m t , con xo , yo , l, m R , (l, m) (0, 0) e t parametro $

AP || v

(per la (1.1))

AP e v sono dipendenti.

Per la Proposizione 4.1 le componenti di

AP in Rv sono (x xo, y yo). Per

lisomorfismo coordinato associato ad Rv, la dipendenza dei vettori AP e v equivale alla dipendenza dei vettori numerici (x xo, y yo) e (l, m). Dalla (6.1) segue allora che P r

(x xo, y yo) e (l, m) sono dipendenti

t R :

(x xo, y yo) = t (l, m) tR :

tR:

x xo = l t e y yo = m t

!x = x 0 + l t # " . # $y = y 0 + m t !x = x 0 + l t # " #y = y 0 + m t $
(con t parametro reale) rappresenta

Il sistema parametrico

dunque la retta r nel riferimento R. E evidente che ogni sistema parametrico a coefficienti reali del tipo

!x = x 0 + l t # " #y = y 0 + m t con (l, m) (0, 0) rappresenta una retta; precisamente, la retta $


passante per il punto di coordinate (xo, yo) e parallela al vettore di componenti (l, m).

108

Proposizione 6.2. La retta r rappresentata in R da un'equazione del tipo ax + by + c = 0 , con a, b, c R ed (a, b) (0, 0) (rappresentazione ordinaria o cartesiana di r). Dimostrazione. Sia A(xo, yo) un punto della retta r e sia v(l, m) della Proposizione 6.1, detto P(x, y) il generico punto del piano, si ha : P r e un vettore libero non nullo parallelo ad r . Per quanto visto nel corso della dimostrazione

AP || v

AP e v sono dipendenti

(x xo, y yo)

(l, m) sono dipendenti

(per la Proposizione 3.3 del Capitolo III) m (x x0) l (y yo) = 0

! x - x0 det # # l "

y - y0 $ & = 0 m & %

m x l y m xo + l yo = 0 . Lequazione riferimento R. m x l y m xo + l yo = 0 rappresenta dunque la retta r nel lequazione diventa Ponendo m = a , - l = b , m xo + l yo = c,

ax + by + c = 0 e si ha lasserto. Osserviamo che, essendo entrambi nulli. Si pu provare che : Proposizione 6.3. Ogni equazione del tipo ax + by + c = 0 , con a, b e c reali e (a, b) (0, 0) rappresenta una retta del piano parallela al vettore v(-b , a). Inoltre, due equazioni di primo grado in x e y rappresentano la stessa retta se, e solo se, esse sono proporzionali. Un vettore non nullo v(l, m) parallelo alla retta r detto vettore direzione di r. Le componenti (l, m) di v sono dette numeri (o parametri) direttori di r. In 109 v 0, si ha che l ed m, e quindi a e b, non sono

particolare, essendo ex un vettore non nullo parallelo allasse x, le componenti (1, 0) di ex sono una coppia di numeri direttori dellasse x; analogamente si prova che (0,1) una coppia di numeri direttori dellasse y. Proposizione 6.4. I numeri direttori di r sono definiti a meno di un fattore di proporzionalit diverso da zero. Dimostrazione. Se v(l, m) un vettore non nullo parallelo ad r, (l, m) una coppia di numeri direttori di r. Sia (l', m') (0, 0). Si ha: (l', m') una coppia di numeri direttori di r v' e v sono dipendenti

v'(l', m') || r

v' || v

per l'isomorfismo coordinato associato ad Rv, (l, m)

ed (l', m') sono dipendenti (l, m) ed (l', m') sono proporzionali.

!x = x 0 + l t # Per quanto su detto, se " una rappresentazione parametrica # $y = y 0 + m t


della retta r, i coefficienti l ed m del parametro t sono numeri direttori di r; se ax + by + c = 0 un'equazione che rappresenta r, allora (-b, a) una coppia di numeri direttori di r. Siano A(x1, y1) e B(x2, y2) due punti distinti di . Il vettore AB un vettore direzione della retta r passante per A e B. Ne segue che le componenti (x2 x1, y2 y1) di AB sono numeri direttori di r. Una rappresentazione parametrica di r ( cfr. Proposizione 6.1) allora

!x = x1 + (x 2 - x1 ) t # " #y = y1 + (y 2 - y1 ) t . $

110

Una rappresentazione ordinaria di r (cfr. Proposizione 6.2) si ottiene da

! x - x1 det # #x - x " 2 1

y - y1 $ & = 0 . Lequazione (y2 y1) (x x1) - (x2 x1) (y y1) = 0 y 2 - y1 & %

rappresenta dunque la retta r. Osserviamo che , se y2 y1 0 e x2 x1 0 , lequazione precedente si pu scrivere nella forma
x - x1 y - y1 = x2 - x 1 y2 - y1

( detta dei rapporti uguali ).

ESEMPI 6.1. Rappresentiamo la retta r passante per il punto A(-2, 1) e parallela al vettore v (4, 3) .

!x = -2 + 4t Una rappresentazione parametrica di r " , con t parametro reale. #y = 1 + 3t


Una rappresentazione ordinaria della retta r si ottiene da Unequazione che rappresenta r quindi 3 x 4 y + 10 = 0 . 6.2. Rappresentiamo la retta r per i punti A(1, -2) e B(0, 2).

x+2 y-1 = 0. 4 3

!x = 1- t Una rappresentazione parametrica di r " , con t parametro reale. #y = -2 + 4t


Una rappresentazione ordinaria della retta r fornita dall'equazione 4 x + y - 2 = 0, che si ottiene da

x -1 y + 2 = 0. -1 4

Poich appartengono allasse x tutti e soli i punti che hanno ordinata zero, allora l'asse x rappresentato dallequazione y = 0; analogamente, ci si rende subito conto che lequazione x = 0 rappresenta l'asse y. 111

Sia r la retta rappresentata dall' equazione ax + by + c = 0. Evidentemente, r passa per lorigine se, e solo se, c = 0. Se b 0 , lequazione ax + by + c = 0 pu essere esplicitata rispetto alla y , ottenendo y = -

a c a x - . Posto m = b b b

c p = - , l'equazione diventa y = m x + p ( forma esplicita dellequazione della b


retta ). Il coefficiente della x in tale equazione detto coefficiente angolare di r.

7. COSENI DIRETTORI DI UNA RETTA ORIENTATA Sia r una retta di e sia ax + by + c = 0 un'equazione che rappresenta r nel riferimento R. Supponiamo ora r orientata. Ricordiamo che (-b , a) sono le componenti di un vettore v 0 parallelo ad r . La misura xr dell'angolo convesso formato dall'asse x e dalla retta r coincide con e x v o con e x (-v) a seconda che v sia concorde o discorde con r . Utilizzando le (4.3) si ha allora : cos xr = cos e x v = b / a 2 + b2 ; analogamente, cos yr = cos e y v = a / a 2 + b2 ( nelle formule precedenti da prendersi il segno superiore o inferiore a seconda che v sia concorde o discorde con r ) . I coseni su scritti vengono detti coseni direttori della retta r.

112

8.

INTERSEZIONE DI DUE RETTE E CONDIZIONI DI PARALLELISMO Ricordiamo che due rette r ed r di un piano sono parallele se

coincidono oppure non hanno punti in comune. Se r = r, diremo che esse sono impropriamente parallele; se invece r r = , propriamente parallele. Se (l, m) una coppia di numeri direttori di r ed (l', m') una coppia di numeri direttori di r', si ha: r || r diremo che esse sono

v(l, m) || v (l', m')

(per la (1.1)) v e v' sono dipendenti

(per l'isomorfismo coordinato associato ad Rv) (l, m) ed (l', m') sono dipendenti

(l, m) ed (l', m') sono proporzionali. Poich ogni rappresentazione di una retta fornisce in particolare una coppia

di numeri direttori della retta stessa, allora, comunque siano rappresentate le rette r ed r', possibile ricavare una condizione analitica di parallelismo tra esse. Facciamo qualche esempio: - se la retta r rappresentata dallequazione ax + by + c = 0 e la retta r rappresentata dall'equazione ax + by + c = 0, allora, ricordando che (-b, a) una coppia di numeri direttori di r e (-b', a') una coppia di numeri direttori di r', si ha: r || r

(-b, a) e (-b, a) sono proporzionali

(a, b) e (a, b) sono

proporzionali; in particolare, essendo (1, 0) una coppia di numeri direttori dellasse x e (0, 1) una coppia di numeri direttori dellasse y, si ha : r || asse x r || asse y

(-b, a) e (1 , 0) sono proporzionali (-b, a) e (0 , 1) sono proporzionali

a=0 b = 0; 113

!x = x 0 + l t # - se la retta r rappresentata parametricamente dal sistema " #y = y 0 + m t e la $


retta r' rappresentata dallequazione a'x + b'y + c' = 0, allora r || r

(l, m) e (-b, a) sono proporzionali;

- se le rette r ed r non sono parallele allasse y e sono rappresentate in forma esplicita da y = mx + p e y = mx + p, allora r || r

m = m.

Siano r ed r rappresentate rispettivamente dalle equazioni ax + by + c = 0 e ax + by + c = 0. Se (a, b) ed (a, b) sono proporzionali, le rette sono parallele. Si possono allora presentare due casi : (a, b, c) ed (a, b, c) sono proporzionali oppure (a, b, c) ed (a, b, c) non sono proporzionali. Dalla Proposizione 6.3 segue che nel primo caso r ed r coincidono (impropriamente parallele), mentre nel secondo caso r ed r sono distinte (propriamente parallele). Supponiamo ora (a, b) ed (a, b) non proporzionali. In tal caso le rette r ed r non sono parallele; esse hanno dunque un sol punto in comune, le cui coordinate

!ax + by + c = 0 sono ovviamente lunica soluzione del sistema lineare " . #a' x + b' y + c' = 0

Consideriamo un punto A(x1, y1). Una coppia di numeri direttori della retta per A parallela all'asse x (1, 0); ne segue che tale retta rappresentata dallequazione y - y1 = 0, ovvero da y = y1 . Analogamente, la retta per A parallela allasse y rappresentata dall' equazione x = x1 .

114

9.

ORTOGONALITA TRA RETTE Considerate due rette r ed r di , sia (l, m) una coppia di numeri direttori

di r ed (l', m') una coppia di numeri direttori di r'. Si ha: r r

v (l, m) v(l, m)

(per la (2.3)) v v = 0 l l + m m = 0.

(per la

Proposizione 3.1) (l, m) (l, m) = 0

Ne segue che, comunque siano rappresentate le rette r ed r', possibile ricavare una condizione analitica di ortogonalit tra esse. Facciamo qualche esempio: - se la retta r rappresentata dallequazione ax + by + c = 0 e la retta r rappresentata dall'equazione ax + by + c = 0, allora, ricordando che (-b, a) una coppia di numeri direttori di r e (-b', a') una coppia di numeri direttori di r', si ha: r r

(-b) (-b) + a a = 0

a a + b b = 0;

!x = x 0 + l t # - se la retta r rappresentata parametricamente dal sistema " #y = y 0 + m t e la $


" x = x'0 + l't' retta r' rappresentata dal sistema # , allora $ y = y'0 + m't'
r r

l l + m m = 0;

!
se le rette r ed r non sono parallele n allasse x n allasse y e sono rappresentate in forma esplicita da y = mx + p e y = mx + p , allora m ed m sono entrambi non nulli e si ha : r r

m = 1/ m.

115

Sia r la retta rappresentata dallequazione ax + by + c = 0. Il vettore v(-b, a) parallelo ad r. Poich il vettore v(a, b) ortogonale a v, si ha che tale vettore anche ortogonale ad r. La coppia (a, b) dunque una coppia di numeri direttori di ogni retta ortogonale ad r.

10. DISTANZA TRA INSIEMI NEL PIANO Siano A(x1, y1 ) e B(x2, y2 ) due punti di . Diciamo distanza tra A e B, e la indichiamo con d(A,B), il modulo Proposizione 4.1 si ha allora : d(A,B) = |AB | =
(x 2 - x1 )2 + (y2 - y1 )2 .

del vettore

AB . Per la (3.1) e per la

Dati due insiemi S e T di punti del piano , diciamo distanza tra S e T e la indichiamo con d(S,T), lestremo inferiore dellinsieme numerico { d(P, Q) : P S, Q T } ; poniamo cio d(S, T) = inf { d(P, Q) : P S, Q T }. Se r una retta ed A un punto del piano, si ha : d(A, r) = d(A, H) , ad r . Se (x1, y1) sono le coordinate di A ed r rappresentata dallequazione ax + by + c = 0 , si prova che : d(A, r) = | ax1 + by1 + c | / a 2 +b2 . dove H lintersezione con r della retta per A ortogonale

Se r ed s sono due rette, si ha : d(r , s) = 0 r s , ( in particolare, se r = s) ; 116

d(r, s) =

d(P, s) , essendo P un qualunque punto di r, se r ed s sono

propriamente parallele. 11. PUNTO MEDIO E ASSE DI UN SEGMENTO Siano A(x1, y1) e B(x2, y2) due punti distinti di . Detto M(xM, yM) il

punto medio del segmento di estremi A e B, risulta AM = MB. Per l'isomorfismo coordinato associato ad Rv si ha che ( xM x1 , yM y1 ) = ( x2 xM , y2 yM ), da cui si ricava :
! x + x2 #x M = 1 # 2 " . y1 + y2 # #y M = $ 2

Lasse del segmento AB linsieme dei punti P del piano tali che d(A, P) = d(B, P). Ne segue che P(x, y) asse di AB (x x2)2 + (y y1)2

d2(A,P) = d2(B,P)

(x x1)2 + (y y1)2 =

2x (x2 x1) + 2y (y2 y1) + x12 + y12 x22 y22 = 0 .

E facile verificare che lasse del segmento AB coincide con la retta perpendicolare alla retta AB passante per il punto medio del segmento AB .

12. CIRCONFERENZA Fissato un punto C e un numero reale r > 0, la circonferenza di centro C e raggio r linsieme C dei punti del piano aventi distanza r da C. Dette (xo, yo) le coordinate di C, si ha : 117

P(x, y) C

d(C,P) = r

d2(C,P) = r2

(x xo)2 + (y yo)2 = r2 .

Lequazione (12.1) (x xo)2 + (y yo)2 = r2 Sviluppando la (12.1) e ponendo a = 2xo , b = 2yo e c = xo2 + yo2 r2, la (12.1) diventa (12.2) x2 + y2 + ax + by + c = 0. Osserviamo che i numeri reali a, b e c che compaiono nella (12.2) sono legati dalla relazione a2 + b2 4c > 0 ; inoltre ogni equazione che si ottiene dalla (12.2) moltiplicandola per un numero reale non nullo rappresenta ancora la circonferenza C. Viceversa, data unequazione del tipo Ax2 + Ay2 + Bx + Cy + D = 0, con A, B, C, D numeri reali e A 0, questa si pu scrivere, dividendo per A, nella forma (12.2). Sommando a entrambi i membri
(x + a2 b2 , la (12.2) diventa + 4 4

rappresenta dunque la circonferenza C.

a 2 b a2 b2 ) + (y + )2 = + - c 2 2 4 4

a2 b2 e dunque rappresenta una circonferenza C se, e solo se, + - c > 0 o, 4 4

equivalentemente, a2 + b2 4c > 0. In tal caso il centro di C il punto C (-

a b , - ) e il raggio di C 2 2

a2 b2 + 4 4

- c .

ESEMPI 12.1. Rappresentiamo la circonferenza C di centro C(2, -1) e raggio r = 3. Per la (12.1) unequazione che rappresenta la circonferenza C

(x 2)2 + (y + 1)2 = 9, cio x2 + y2 4x + 2y 4 = 0. 118

12.2. Lequazione x2 + y2 6x 5y = 0 pu essere scritta nella forma (x 3)2 + (y 5/2)2 = 9 + raggio r = 9 +

25 e dunque rappresenta la circonferenza di centro C(3, 5/2) e 4


25 = 4 61 . 2

12.3. Lequazione x2 + y2 + 4x 2y + 7 = 0 non rappresenta una circonferenza in quanto 4 + 1 7 = 2 < 0. Ricordiamo che esiste una ed una sola circonferenza passante per tre punti non allineati. Ricordiamo inoltre che il numero di punti che una retta r ha in comune con una circonferenza C 0, 1 oppure 2 (ed r detta, rispettivamente, esterna, tangente o secante la circonferenza) a seconda che la sua distanza dal centro di C maggiore, uguale o minore del raggio; lunica retta tangente a C in un suo punto P la retta ortogonale alla congiungente P con il centro di C .

ESEMPI 12.4. Assegnati i punti A(1 ,1 ) , B(2 , 1) e C(1 , 1 ), che non sono allineati in quanto AB(1,0) non proporzionale ad AC(0,2), rappresentiamo la circonferenza passante essi. La circonferenza richiesta ha equazione del tipo x2 + y2 + ax + by + c = 0, con a, b e c opportuni. Per determinare a, b e c, imponiamo che le coordinate dei punti assegnati soddisfino tale equazione. Si ottiene il seguente sistema lineare nelle

! a + b + c = -2 # incognite a, b e c : "2a + b + c = - 5 ; esso equivalente al sistema a gradini # $a- b + c = - 2

119

!a + b + c = - 2 # " b + c = 1 che ha come unica soluzione la terna (3, 0, 1). Unequazione # $ 2c = 2


della circonferenza richiesta quindi x2 + y2 3x + 1 = 0. 12.5. Rappresentiamo la retta r tangente alla circonferenza di equazione

x2 + y2 = 1 nel suo punto P(

2 2 , ). 2 2 2 , 2 2 ). 2

La circonferenza assegnata ha centro nell origine e raggio 1 , per cui la retta r la retta per P ortogonale al vettore OP ( Si ha quindi che r

rappresentata dal sistema parametrico

! #x = # " # #y = $

2 - t 2 2 + t 2

o, equivalentemente,

dallequazione x + y - 2 = 0

120

13. RIFERIMENTO CARTESIANO ORTOGONALE MONOMETRICO NELLO SPAZIO Si dice riferimento cartesiano ortogonale monometrico dello spazio una coppia R = ( O , Rv = (ex, ey, ez) ) , dove O un punto , detto origine, e Rv = (ex, ey, ez) un riferimento ortonormale dello spazio vettoriale V dei vettori liberi dello spazio. Siano U, U' ed U'' i tre punti tali che OU = ex , OU' = ey, OU'' = ez . I punti U , U' ed U'' sono detti punti unitari del riferimento. Le rette OU , OU' ed OU'' sono dette assi coordinati e, precisamente, asse x , asse y ed asse z. Tali rette si considerano orientate concordemente ai vettori ex, ey, ez, che sono i versori degli assi . I tre piani che contengono a due a due gli assi coordinati sono detti piani coordinati . Preso un punto P dello spazio, consideriamo il vettore libero OP. Dette x, y e z le componenti di OP in Rv , i numeri reali x, y e z sono detti coordinate cartesiane di P nel riferimento R; x si dice ascissa di P, y ordinata e z quota. Analogamente a quanto fatto nel piano, scriveremo P(x, y, z) per intendere che le coordinate di P sono x, y e z. Dire che P ha coordinate x, y e z significa quindi che OP = x ex + y ey + z ez. Per determinare x, y e z occorre dunque considerare il punto P' ottenuto proiettando ortogonalmente il punto P sull'asse x (cio il punto comune allasse x e al piano per P ortogonale all'asse x ) , il punto P'' proiezione ortogonale di P sullasse y e il punto P''' proiezione ortogonale di P sull'asse z; si ha : | x | = | OP'| , | y | = | OP''| , | z | = | OP'''| ,

da cui x = | x | , y = | y | e z = | z | , a seconda che i vettori OP' , OP'' e OP''' siano concordi o discordi con ex , ey ed ez, rispettivamente . L'applicazione che ad ogni punto dello spazio associa la terna ordinata delle sue coordinate in R biettiva , per come stata costruita. 121

Si vede subito che risulta O(0, 0, 0), U(1,0, 0) U(0,1, 0) e U(0, 0, 1). Proviamo che : Proposizione 13.1 . Considerati i punti A(x1, y1, z1) e B(x2 y2, z2), le componenti in Rv del vettore AB sono x2 x1 , y2 y1 e z2 z1.

Dimostrazione. Per come stata definita laddizione in V, OA + AB = OB , da cui (13.1) AB = OB OA .

Per lisomorfismo coordinato associato al riferimento Rv , le relazioni che valgono tra i vettori valgono anche tra le loro componenti in Rv. Poich le componenti di OA sono (x1 , y1 , z1) e quelle di OB sono (x2, y2, z2) , dette ax , ay ed az le componenti di AB , per la (13.1) si ha : ax = x2 x1 ; ay = y2 y1 ; az = z2 z1. Dora in avanti parleremo semplicemente di riferimento cartesiano dello spazio sottintendendo che esso ortogonale monometrico. Scriveremo v(vx, vy, vz) per intendere che le componenti del vettore v in Rv sono vx , vy e vz. Siano v (vx, vy, vz) e w (wx, wy, wz) due vettori non nulli. Dalle (2.1) e (3.1) e dalla Proposizione 3.2 segue che : (13.2) cos vw =

v w = | v || w |

(vx wx + vy wy + vz wz) /

vx + v y + v z . w x + wy + w z .

In particolare, essendo (1, 0, 0) le componenti di ex , (0, 1, 0) le componenti di ey e (0, 0, 1) le componenti di ez , si ha :


2 2 2 2 2 2

(13.3)

cos ve x = vx /

vx + v y + v z

, cos ve y = vy /

vx + v y + v z ,
122

cos ve z = vz /

vx 2 + v y 2 + v z 2 .

14. CAMBIAMENTI DI RIFERIMENTO Siano R = ( O , Rv = (ex, ey, ez) ) ed R = ( O, Rv = (ex, ey, ez)) due riferimenti cartesiani dello spazio. Analogamente al caso del piano, si prova che, dette (x, y, z) e (x, y, z) le coordinate di un punto P rispettivamente in R ed R, si ha : (14.1)
!x' = b11x + b12 y + b13z + c1 # "y' = b 21x + b22 y + b 23z + c 2 , # #z' = b31x + b32 y + b 33z + c 3 $

dove B = ( bij) la matrice di passaggio da Rv ad Rv e (c1, c2, c3) sono le coordinate di O in R. Le (14.1) sono le formule di passaggio dal riferimento R al riferimento R.

15. PRODOTTO VETTORIALE IN V

Sia R = ( O , Rv = (ex, ey, ez) ) un riferimento cartesiano dello spazio. Dati due vettori v = vx ex + vy ey + vz ez e w = wx ex + wy ey + wz ez , diremo prodotto vettoriale di v per w , e lo indicheremo con v w , il vettore v w = ( vy wz vz wy ) ex - ( vx wz vz wx ) ey+ ( vx wy vy wx ) ez. Le componenti in Rv di v w sono quindi i determinanti :
vy vz wy wz

, -

vx vz , wx wz

vx

vy

wx wy

. 123

Si prova facilmente, tenendo conto delle propriet del prodotto scalare standard tra vettori liberi, che : (15.1) (v w)v = 0 e (v w)w = 0,

per cui il vettore v w ortogonale sia a v che a w . Si ha inoltre: (15.2) (15.3) (15.4) v w=0

v e w sono dipendenti ,

v w= - wv, ex ey = ez , ey ez = ex , ez ex = ey.

16. RAPPRESENTAZIONE DEL PIANO

D'ora in avanti R = ( O , Rv = (ex, ey, ez) ) indicher un fissato riferimento cartesiano dello spazio. Rappresentare che : un punto P appartiene ad X S. Sia un piano. Proposizione 16.1 . Il piano rappresentato nel riferimento R da un sistema
!x = x 0 + l s + l' t # parametrico a coefficienti reali del tipo "y = y 0 + m s + m' t , con (l, m, n) ed # # $z = z0 + n s + n' t

in

R un insieme

di punti dello spazio significa

determinare un sistema di relazioni S in tre incognite (ed eventuali parametri) tale

le coordinate di P in R verificano il sistema

(l', m', n') indipendenti ed s e t parametri reali. 124

Dimostrazione. Sia A(x0, y0, z0) un punto di e siano v(l, m, n) e v(l, m, n), due vettori liberi indipendenti paralleli al piano . Detto P(x, y, z) il generico punto dello spazio, si ha : P

i vettori AP, v e v' applicati in A sono complanari

(per la

(1.2) ) AP, v e v' sono dipendenti

AP dipende linearmente da v e v (x x0, y y0, z z0) (l, m, n)

(per l'isomorfismo coordinato associato ad Rv) linearmente da (l, m, n) ed

dipende

s, t R : (x x0, y y0, z z0) = s (l, m, n) + t (l', m' ,n')

" x = x 0 + l s + l't $ s, t R : # y = y 0 + m s + m't . $z = z + n s + n't % 0


Il sistema parametrico !
!x = x 0 + l s + l' t # "y = y 0 + m s + m' t # # $z = z0 + n s + n' t

(con s e t parametri reali)

rappresenta dunque il piano nel riferimento R. E' evidente che ogni sistema parametrico a coefficienti reali del tipo
!x = x 0 + l s + l' t # "y = y 0 + m s + m' t con (l, m, n) ed (l', m', n') indipendenti ed s e t # # $z = z0 + n s + n' t

parametri reali, rappresenta un piano; precisamente, il piano passante per il punto di coordinate (x0, y0, z0) e parallelo ai vettori di componenti (l, m, n) ed (l, m, n) rispettivamente.

125

Proposizione 16.2. Il piano rappresentato nel riferimento R da unequazione del tipo ax + by + cz + d = 0 , con a , b, c, d numeri reali e (a, b, c) (0, 0, 0) (rappresentazione ordinaria o cartesiana di ). Inoltre il vettore w(a, b, c) ortogonale a . Dimostrazione. Sia A(x0, y0, z0) un punto di e siano v(l, m, n) e v(l, m, n) due vettori liberi indipendenti paralleli al piano . Detto P(x, y, z) il generico punto dello spazio, si ha : P

i vettori AP, v e v' applicati in A sono complanari

AP, v e

v' sono dipendenti dipendenti

(x x0, y y0, z z0), (l, m, n) e (l, m, n) sono (per la Proposizione 3.3 del Capitolo III)

z - z0 n n' m m'

x - x0 l l'

y - y0

= 0. Sviluppando tale determinante secondo la prima

riga si ottiene : (m n m n) (x x0) + (l n l n) (y y0) + (l m l m) (z z0) = 0. Per quanto visto, lequazione (m n m n) (x x0) + (l n l n) (y y0) + (l m l m) (z z0) = 0 a = m n m n , lequazione diventa rappresenta il piano nel riferimento R. Ponendo Osserviamo infine che, detto w il b = l n l n , c = l m lm e il termine noto uguale a d, ax + by + cz + d = 0.

vettore di componenti (a, b, c), dalla definizione di prodotto vettoriale segue w = v v. Essendo v e v linearmente indipendenti, dalla (15.2) segue che w non nullo; inoltre, per la (15.1), w ortogonale sia a v che a v, e dunque ortogonale al piano . Si ha cos lasserto. Si pu provare che : 126

Proposizione 16.3.

Ogni equazione a coefficienti reali

del

tipo

ax + by + cz + d = 0, con (a, b, c) (0, 0, 0) rappresenta un piano ortogonale al vettore di componenti (a, b, c). Inoltre due equazioni di primo grado in x, y, z rappresentano lo stesso piano se , e solo se, esse sono proporzionali. ESEMPI 16.1. Rappresentiamo il piano passante per A(4, 3, -2) e parallelo ai vettori v(1, -1, 0) e v'(2, 1, 3).

!x = 4 + s + 2t # Una rappresentazione parametrica di "y = 3 - s + t , con s e t parametri # $z = - 2 + 3t


reali. Una rappresentazione ordinaria di fornita dall'equazione x + y - z - 9 = 0, che

x-4 y-3 z +2 si ottiene da 1 - 1 0 = 0. 2 1 3

16.2. Rappresentiamo il piano passante per i punti A(1, 0, 1), B(2, 0, 0) e C(2, 1, 3). I vettori AB (1, 0, -1) e AC (1, 1, 2) sono indipendenti ed entrambi

!x = 1 + s + t # paralleli al piano . Una rappresentazione parametrica di allora "y = t , # $z = 1- s + 2t


con s e t parametri reali. Una rappresentazione ordinaria di data dall'equazione x 3y + z 2 = 0 ,

x - 1 ottenuta da 1 1

y z - 1 0 -1 1 2

= 0.

127

Si verifica facilmente che : x = 0 un'equazione del piano yz (piano per gli assi y e z); y = 0 un'equazione del piano xz (piano per gli assi x e z); z = 0 un'equazione del piano xy (piano per gli assi x e y).

17.

PARALLELISMO E ORTOGONALITA TRA PIANI Siano e ' due piani. Ricordiamo che e si dicono paralleli

( || ) se non hanno punti in comune (propriamente paralleli) oppure coincidono (impropriamente paralleli). Evidentemente, detto w un vettore non nullo ortogonale a e w un vettore non nullo ortogonale a , si ha : (17.1) ||

w || w.

I piani e si dicono ortogonali se, detto w un vettore non nullo ortogonale a e w un vettore non nullo ortogonale a , tali vettori risultano ortogonali. E' dunque : (17.2)

w w.

Supponiamo che e siano rappresentati in R rispettivamente dalle equazioni ax + by + cz + d = 0 non nullo ortogonale a . Dalla (17.1) segue allora che : (17.3) || e ax + by + cz + d = 0. Per la Proposizione 16.3, w(a, b, c) un vettore non nullo ortogonale a e w'(a, b, c) un vettore

w || w

w e w' sono dipendenti

(a, b, c) e

(a, b, c) sono dipendenti

(a, b, c) e (a, b, c) sono proporzionali.

Se || , ovvero (a, b, c) e (a, b, c) sono proporzionali, si possono presentare due casi: (a, b, c, d) e (a, b, c, d') sono proporzionali oppure non lo 128

sono. Dalla Proposizione 16.3 segue che nel primo caso = ( e impropriamente paralleli), mentre nel secondo caso ' ( e propriamente paralleli). Sia un piano parallelo a . Unequazione che rappresenta del tipo hax + hby + hcz + d = 0 , con h 0 . Dividendo per h, si ottiene ax + by + cz + d/h = 0. Ne segue che ogni piano parallelo a pu essere rappresentato da unequazione del tipo ax + by + cz + k = 0.

Per quanto riguarda lortogonalit tra piani, dalla (17.2) segue che:

w w

(per la (2.3))

w w = 0

(per la

Proposizione 3.2) a a + b b + c c = 0. Ricordiamo che, assegnato un punto A ed un piano , i piani per A ortogonali a sono tutti e soli i piani che contengono la retta per A ortogonale a . ESEMPI 17.1. I piani e ' rappresentati rispettivamente dalle equazioni x - 4y + 3z + 6 = 0 e 2x - 8y + 6z + 1 = 0 sono propriamente paralleli in quanto (1, -4, 3) e (2, -8, 6) sono proporzionali, mentre (1, -4, 3, 6) e (2, -8, 6, 1) non lo sono. 17.2. Consideriamo i piani , ' e " rappresentati rispettivamente dalle equazioni x - 4y + 3z + 6 = 0, x+y+z-2=0 e 2x + y - 4z = 0. I piani e ' sono ortogonali in quanto (1, -4, 3) (1, 1, 1) = 1 -4 + 3 = 0. I piani e " non sono ortogonali in quanto (1, -4, 3) (2, 1, -4) 0. 17.3. Sia il piano rappresentato dall'equazione 2x + 3y - 5z + 1 = 0. 129

Rappresentiamo

(i) il piano per A(4, 2, 3) parallelo a ; (ii) due piani per l'origine ortogonali a ; (i) Ogni piano parallelo a pu essere rappresentato da un'equazione del tipo 2x + 3y - 5z + k = 0, con k R . Se vogliamo che un tale piano passi per A, dobbiamo imporre che le coordinate di A siano una soluzione di tale equazione; deve essere cio 2(4) + 3(2) - 5(3) + k = 0, da cui k = 1. Un'equazione del piano richiesto allora 2x + 3y - 5z + 1 = 0. (ii) Un piano per l'origine ha equazione del tipo ax + by + cz = 0. Un tale piano ortogonale a se, e solo se, le equazioni 5x + 2z = 0 ortogonali a . 2a + 3b - 5c = 0. Due soluzioni (non nulle) dell'equazione 2a + 3b - 5c = 0 sono, ad esempio, (5, 0, 2) e (1, 1, 1). Ne segue che e x + y + z = 0 rappresentano due piani per l'origine

130

18. RAPPRESENTAZIONE DELLA RETTA Sia r una retta. Proposizione 18.1. La retta r rappresentata in R da un sistema del tipo

!a x + b y + c z + d = 0 (18.1) " , con (a, b, c) , (a, b, c) (0, 0, 0) e non #a' x + b' y + c' z + d' = 0
proporzionali. Viceversa, ogni sistema del tipo (18.1) rappresenta una retta. Dimostrazione. Siano e due piani distinti contenenti r. Poich r = , allora, se e sono rappresentati in R rispettivamente dalle equazioni e ax + by + cz + d' = 0, il sistema ax + by + cz + d = 0

!a x + b y + c z + d = 0 " rappresenta la retta r. Osserviamo esplicitamente #a' x + b' y + c' z + d' = 0


che (a, b, c), (a, b, c) (0, 0, 0) in quanto le equazioni del sistema rappresentano due piani; inoltre, essendo tali piani non paralleli, per la (17.3) le terne (a, b, c) e (a, b, c) non sono proporzionali. Viceversa, ogni sistema del tipo (18.1) rappresenta una retta in quanto le equazioni del sistema rappresentano ciascuna un piano e tali piani non sono paralleli, essendo (a, b, c) e (a, b, c) non proporzionali. Se una retta rappresentata mediante un sistema del tipo (18.1) (rappresentazione ordinaria o cartesiana della retta), essa pu essere ovviamente rappresentata con un qualunque altro sistema equivalente al precedente. esempio i sistemi Ad

!x - y + z + 11 = 0 " #x - 2y + 19 = 0

!x - y + z + 11 = 0 " #y + z - 8 = 0

rappresentano la stessa retta in quanto equivalenti. Gli assi coordinati si possono ovviamente rappresentare cos : 131

asse x : asse y : asse z :

!y = 0 " #z = 0 !x = 0 " #z = 0 !x = 0 " . #y = 0

Per individuare una retta r occorre conoscere due piani distinti che la contengono oppure un suo punto e un vettore non nullo ad essa parallelo. Se conosciamo due piani distinti per r, abbiamo gi osservato che r si pu rappresentare in forma ordinaria con un sistema del tipo (18.1). Proviamo ora che : Proposizione 18.2. La retta r rappresentata in R da un sistema parametrico a coefficienti reali del tipo (18.2)
!x = x1 + lt # "y = y1 + mt , con t parametro reale e (l, m, n) (0, 0, 0). # #z = z1 + nt $

Dimostrazione. Sia A(x1, y1, z1) un punto di r e v( l, m, n ) un vettore non nullo parallelo ad r. Si ha : P(x, y, z) r

AP || v e

AP

e v sono dipendenti sono dipendenti t ( l , m , n )

( x x1 , y y1 , z z1 )

( l , m , n ) =

t R : ( x x1 , y y1 , z z1 )
!x = x1 + lt # t R : "y = y1 + mt . # #z = z1 + nt $

132

!x = x1 + lt # Il sistema parametrico "y = y1 + mt (con t parametro reale) rappresenta dunque # #z = z1 + nt $

la retta r nel riferimento R. E evidente che, viceversa, ogni sistema parametrico del tipo (18.2) rappresenta una retta : la retta passante per il punto A(x1, y1, z1) e parallela al vettore v( l, m, n ). Come nel caso del piano, si definiscono numeri ( o parametri ) direttori di una retta r le componenti di un vettore non nullo parallelo ad r (detto vettore direzione di r). Ovviamente, come nel caso del piano, i numeri direttori di r sono definiti a meno di un fattore di proporzionalit non nullo. Se la retta r rappresentata in forma parametrica, una terna di numeri direttori di r data dai coefficienti del parametro. Sia ora r rappresentata in forma ordinaria da un sistema del tipo (18.1). Considerati i vettori v(a, b, c) e v(a, b, c), si pu provare che una terna di numeri direttori di r data dalle componenti del vettore v v, prodotto vettoriale di v e v. Si ha quindi che una terna di numeri direttori di r (l, m, n), con l=

b c a c , m=, b' c' a' c'

n=

a b . a' b'

Se A e B sono punti distinti di r , il vettore AB un vettore non nullo parallelo ad r e quindi una terna di numeri direttori di r data dalle componenti del vettore AB.

133

ESEMPI 18.1. Determiniamo una rappresentazione parametrica della retta r rappresentata dal sistema :

!x - y + 2z = 2 " . #2x + 3y - z = 4
Il punto A(2, 0, 0) appartiene ad r (in quanto (2, 0, 0) una soluzione del sistema che rappresenta r). Poich

-1

3 -1

= - 5,

2 -1

=5

1 -1 2 3

= 5,

(-5, 5, 5) , e dunque (-1, 1, 1) , una terna di numeri direttori di r. Ne segue che

!x = 2 - t # una rappresentazione parametrica di r fornita dal seguente sistema : "y = t . # $z = t


Una rappresentazione parametrica di r si pu anche ottenere direttamente considerando linsieme { (2 t, t, t ) , t R } delle soluzioni del sistema che rappresenta r . 18.2. Rappresentiamo la retta r passante per i punti A(3, 5, -1) e B(2, 1, 0). Una terna di numeri direttori di r fornita dalle componenti (1, 4, -1) del vettore BA, per cui una rappresentazione parametrica di r

!x = 3 + t # "y = 5 + 4t . # $z = -1 - t

Una

rappresentazione ordinaria di r si pu ottenere eliminando il parametro t dalle equazioni precedenti : si ricava t da una delle equazioni e si sostituisce nelle altre due, ottenendo in tal modo due equazioni che rappresentano due piani distinti passanti per r. Ricavando ad esempio t dalla prima equazione, si ha : t = x 3;

134

!4x - y - 7 = 0 sostituendo nelle altre due equazioni si ottiene il sistema " #x + z - 2 = 0


rappresenta r in forma ordinaria.

che

19. COSENI DIRETTORI DI UNA RETTA ORIENTATA Sia r una retta orientata e v un vettore non nullo parallelo ad r. La misura

xr dell'angolo convesso formato dall'asse x e dalla retta r coincide con e x v o con


e x (-v) a seconda che v sia concorde o discorde con r. Dette ( l , m , n ) le

componenti di v, si ha, utilizzando le (13.3) : cos xr = l /


l 2+ m 2 + n 2 .

Analogamente, cos yr = m / l 2 + m 2 + n 2 e cos zr = n / l 2 + m 2 + n 2 .

I coseni su scritti sono detti coseni direttori di r.

20. FASCI DI PIANI Sia r una retta. Diremo fascio proprio di piani di asse r linsieme dei piani passanti per r . Se r rappresentata da un sistema del tipo (18.1), si prova che un piano appartiene al fascio di asse r se, e solo se, rappresentato da una equazione del tipo :

135

(20.1) h (ax + by + cz + d ) + k (ax + by + cz + d) = 0 , con h , k R e (h, k) (0, 0). Se risulta h 0 , la (20.1) si pu scrivere, dividendo per h e ponendo k / h = t , nella forma : (20.2) ax + by + cz + d + t (ax + by + cz + d) = 0 . La (20.2) rappresenta tutti i piani del fascio di asse r tranne , ovviamente, quello che si ottiene relativamente alle coppie (0, k) , cio il piano di equazione ax + by + cz + d = 0. ESEMPI 20.1. Rappresentiamo il piano passante per la retta r rappresentata da e per il punto A(1, -2, -2).

!x - 2y + z + 1 = 0 " #2x + y - z - 3 = 0

Il piano appartiene al fascio di piani di asse r e non coincide con il piano di equazione 2x + y z 3 = 0, in quanto (1, -2, -2) non soluzione di tale equazione. Ne segue che pu essere rappresentato da unequazione del tipo x 2y + z + 1 + t (2x + y z 3) = 0, con t R . Imponendo il passaggio per il punto A si ottiene 4 + t(-1) = 0, da cui t = 4. Unequazione che rappresenta dunque 9x + 2y 3z 11 = 0.

21. PARALLELISMO E ORTOGONALITA TRA RETTE Siano r ed r due rette. Ricordiamo che r ed r' sono parallele se, e solo se, esse coincidono (impropriamente parallele) oppure sono complanari (cio esiste un piano che le contiene) e non hanno punti in comune (propriamente parallele).

136

Detti v(l, m, n) e v(l, m, n) due vettori non nulli paralleli rispettivamente ad r e ad r', si ha : r || r

v || v

v e v' sono dipendenti

(l, m, n) ed (l', m', n')

sono dipendenti

(l, m, n) ed (l', m', n') sono proporzionali.

Per quanto riguarda l'ortogonalita' tra rette, si ha : r r 3.2)

v v

(per la (2.3)) v v = 0

(per la Proposizione

l l + m m + n n = 0. Ricordiamo che, assegnato un punto A ed una retta r, le rette per A

ortogonali ad r sono tutte e sole le rette per A contenute nel piano per A ortogonale ad r. ESEMPI 21.1. Consideriamo le rette r, r ed r rappresentate rispettivamente da :

!x = 2 + t # r : "y = - t , # $z = 1 + 2t

!x + y - 2 = 0 r : " , #x - y - z - 1 = 0

!2y + z = 0 r : " . #2x - z - 3 = 0

Le tre rette sono a due a due parallele in quanto una terna di numeri direttori di r (1, -1, 2) , una terna di numeri direttori di r (-1, 1, -2) (componenti del vettore v(1, 1, 0) v(1, -1, -1) ) e una terna di numeri direttori di r (-2, 2, -4) ( componenti del vettore w(0, 2, 1) w(2, 0, -1) ) e tali terne sono a due a due proporzionali. Si ha inoltre che r ed r sono impropriamente parallele, cio coincidono, dato che passano entrambe per il punto A(2, 0, 1). Le rette r ed r sono invece

137

!x + y = 2 # #x - y - z = 1 propriamente parallele, in quanto il sistema " #2y + z = 0 # $2x - z = 3

incompatibile,

!x + y = 2 # essendo equivalente al sistema a gradini "2y + z = 1. # $ 0 = 1

21.2. Rappresentiamo la retta r per il punto A(5, 1, -3) parallela alla retta

!x = t # r : "y = 1 + 2t . # $z = -t
Possiamo scegliere come numeri direttori di r la terna (1, 2, -1) di numeri direttori

!x = 5 + t # di r. Una rappresentazione parametrica di r allora : "y = 1 + 2t . # $z = - 3 - t

21.3. Consideriamo le rette r, r ed r rappresentate rispettivamente da :

!x = 2 - t # r : "y = 2t , # $z = -1 + 3t

!x = 1 + 2t # r : "y = -3 + t , # $z = 4

!x = 1 - t # r : "y = 1 + 2t . # $z = 2 + t

Le rette r ed r sono ortogonali in quanto (-1, 2, 3) (2, 1, 0) = 0, r ed r sono ortogonali in quanto (2, 1, 0) (-1, 2, 1) = 0, mentre r ed r non sono ortogonali essendo (-1, 2, 3) (-1, 2, 1) = 8 0.

138

!x = 1 - 3t # 21.4. Assegnata la retta r rappresentata da "y = 2 , determiniamo due rette # $z = t


per lorigine ortogonali ad r. Poich (-3, 0, 1) una terna di numeri direttori di r, allora una retta di numeri direttori (l, m, n) ortogonale ad r se, e solo se, (l, m, n) ( -3, 0, 1) = 0, cio

!x = t # -3l + n = 0 . Ad esempio, le rette rappresentate da "y = 0 # $z = 3t


due rette distinte per O entrambe ortogonali ad r.

!x = 2t # e "y = t # $z = 6t

sono

22. PARALLELISMO E ORTOGONALITA TRA UNA RETTA E UN PIANO Siano r una retta e un piano. Ricordiamo che r e sono paralleli se, e solo se, r contenuta in ( impropriamente paralleli) oppure r e non hanno punti in comune ( propriamente paralleli). Se v 0 un vettore parallelo ad r e w 0 un vettore ortogonale a , si ha : r || Sia

r oppure r =

ortogonale a w.

ax + by + cz + d = 0 un'equazione che rappresenta . Per la

Proposizione 16.3, il vettore w(a, b, c) un vettore non nullo ortogonale a . Dette allora (l, m, n) le componenti di v, si ha : r ||

v ortogonale a w

(per la (2.3)) v w = 0

(per la

Proposizione 3.2) a l + b m + c n = 0 . Per quanto riguarda la condizione di ortogonalit tra una retta ed un piano, possiamo dire, mantenendo le stesse notazioni, che 139

v parallelo a w

v e w sono dipendenti

(l, m, n) e (a, b, c) sono proporzionali. ESEMPI 22.1. Il piano rappresentato dallequazione 2x - y - 3z + 5 = 0 e la retta r

!x + y - 1 = 0 rappresentata dal sistema " #y + z - 2 = 0


numeri direttori di r (1, -1, 1)

sono paralleli in quanto una terna di

ed 2 ( 1 ) 1 ( -1 ) 3 ( 1 ) = 0.

22.2. Il piano rappresentato da 3x y + 2z + 2 = 0 e la retta r rappresentata

!x = 2 - 3t # parametricamente da "y = t sono ortogonali in quanto una terna di numeri # $z = 5- 2t


direttori di r (-3, 1, -2) e tale terna proporzionale alla terna (3, -1, 2). 22.3. Considerato il punto A(1, 1, -2) ed il piano rappresentato da

2x + z 4 = 0, determiniamo la retta r per A ortogonale a . Poich la terna (2, 0, 1) dei coefficienti delle incognite nellequazione che rappresenta una terna di numeri direttori di ogni retta ortogonale a , allora una

!x = 1 + 2t # rappresentazione parametrica di r "y = 1 . # $z = -2 + t

22.4. Considerato il punto A(-2, 1, 0) e le retta r rappresentata da

!x - y = 0 " , rappresentiamo il piano per A ortogonale ad r. #2x + y - z + 1 = 0

140

Poich una terna di numeri direttori di r (1, 1, 3), ogni piano ortogonale ad r pu essere rappresentato da un equazione del tipo x + y + 3z + d = 0. Imponendo il passaggio per A si ottiene 2 + 1 + d = 0 , da cui d = 1. Ne segue che lequazione x + y + 3z + 1 = 0 rappresenta . 22.5. Consideriamo il punto A(1, -2, 3) e la retta r rappresentata da

"x + y - 1 = 0 $ # . Poich A r, esiste una ed una sola retta s per A ortogonale $3x - z = 0 %
ed incidente r. Rappresentiamo tale retta. La retta s contenuta sia nel piano per A ortogonale ad r che nel piano per A e per r. Essendo (1, -1, 3) una terna di numeri direttori di r, il piano pu essere rappresentato da unequazione del tipo x y + 3z + d = 0; imponendo il passaggio per A si ottiene d = 12, da cui x y + 2z 12 = 0 rappresenta . Il piano , che appartiene al fascio di piani di asse r, coincide con il piano di equazione 3x z = 0 poich tale piano, che contiene r, contiene anche A in quanto le coordinate di A sono una soluzione dellequazione 3x z = 0. Il sistema

"x - y + 3z - 12 = 0 $ # $3x - z = 0 %

rappresenta dunque la retta s.

23. PUNTO MEDIO DI UN SEGMENTO Siano A(x1, y1, z1) e B(x2, y2, z2) due punti. Con un ragionamento analogo a quello usato nel caso del piano (cfr. Paragrafo 11), si prova che le coordinate ( xM, yM, zM ) del punto medio M del segmento di estremi A e B sono:

141

! x + x2 #x M = 1 2 # # y + y2 "y M = 1 . # 2 # #z M = z1 + z 2 # $ 2

24. DISTANZA TRA INSIEMI NELLO SPAZIO Siano A(x1, y1, z1) e B(x2, y2, z2) due punti. La distanza d(A, B) tra A e B , per definizione, il modulo del vettore AB. Per la (3.1) e la Proposizione 13.1 si ha : d ( A, B ) = | AB | =
(x 2 - x1 )2 + (y2 - y1 )2 + (z 2 - z1 )2 .

Siano S e T due insiemi di punti dello spazio. Cos come nel caso del piano, diciamo distanza tra S e T, e la indichiamo con d(S, T), lestremo inferiore dell'insieme numerico {d( P, Q ), con P S e Q T}; poniamo cio: d(S, T) = inf { d ( P, Q ) : P S e Q T}. Distanza punto piano Siano A un punto e un piano. Considerata la retta per A ortogonale a e detto H il punto d'intersezione di tale retta con , si ha : d(A, ) = d(A, H). Se (x1, y1, z1) sono le coordinate di A e ax + by + cz + d = 0 un'equazione che rappresenta , risulta : d ( A, ) = | ax1 + by1 + cz1 + d | / a 2 + b2 + c 2 . Distanza punto retta Siano A un punto ed r una retta. Detto il piano per A ortogonale ad r e detto H il punto d'intersezione di con r, si ha : 142

d ( A , r ) = d( A, H ). Distanza tra due rette Siano r ed s due rette. Se r ed s sono incidenti , allora , chiaramente, d ( r, s ) = 0 . Se r ed s sono parallele , si ha : d ( r , s ) = d ( P , s ) , per ogni P r . Supponiamo infine r ed s sghembe. Ricordiamo che due rette si dicono sghembe se esse non sono complanari (cio non esiste nessun piano che le contiene entrambe), ovvero non sono n incidenti n parallele. In tal caso la distanza tra r ed s sar la minima tra le lunghezze dei vettori PQ , al variare del punto P su r e del punto Q su s; essa si ottiene quando PQ ortogonale sia ad r che ad s. Distanza retta - piano Siano r una retta e un piano. Se r e hanno intersezione non vuota ( cio hanno un sol punto in comune oppure r contenuta in ), allora, ovviamente, d( r, ) = 0. Se r e sono propriamente paralleli, allora d( r, ) = d( P, ), per ogni P r. Distanza tra due piani Siano e ' due piani. Se e ' hanno intersezione non vuota (cio si intersecano in una retta o coincidono), allora, ovviamente, d( , ' ) = 0. Se e ' sono propriamente paralleli, allora d( , ' ) = d( P, ' ), per ogni P .

143

ESEMPI 24.1. Determiniamo la distanza del punto A(1, 3, -1) dal piano rappresentato dall'equazione 2x - y + z - 4 = 0. Si ha : d(A, ) = | 2 - 3 - 1 - 4 | /
(2)2 + (-1)2 + (1)2 =| -6 | / 6 = 6 .

24.2. Determiniamo la distanza del punto A( 1, 2, 0 ) dalla retta r rappresentata dal

!x - y + 3 = 0 . sistema " #4x - z + 9 = 0


Poich ( 1, 1, 4 ) una terna di numeri direttori della retta r, allora ogni piano ortogonale ad r pu essere rappresentato da un'equazione del tipo x + y + 4z + d = 0. Imponendo che un tale piano passi per A, si ottiene d = -3. L'equazione x + y + 4z - 3 = 0 rappresenta dunque il piano per A ortogonale ad r. La terna ( xH, yH, zH ) delle coordinate del punto H intersezione di r con l'unica

!x - y + 3 = 0 # soluzione del sistema "4x - z + 9 = 0 . Si ha : ( xH, yH, zH ) = ( -2, 1, 1) , da cui # $x + y + 4z - 3 = 0


d(A, r) = d(A, H) = (1+ 2) 2 + (2 -1)2 + (0 -1)2 = 11 .

24.3. Consideriamo le rette r ed s rappresentate rispettivamente dai sistemi

!x = -1+ 2t # "y = -2 + t # $z = 1- t

!x = 1 # e "y = 1- t' , essendo t e t' parametri reali. # $z = 2 + t'

i) Verifichiamo che r ed s sono sghembe; ii) determiniamo la distanza tra r ed s. i) Una terna di numeri direttori di r ( 2, 1, -1) e una terna di numeri direttori di s ( 0, -1, 1). Poich tali terne non sono proporzionali, allora r ed s non sono parallele. Determiniamo ora una rappresentazione ordinaria per ciascuna delle due rette. 144

Ricavando, ad esempio, t dalla seconda equazione del sistema che rappresenta r e sostituendo nelle altre due equazioni, si ottiene il sistema

!x - 2y - 3 = 0 " #y + z + 1= 0

che

!x -1 = 0 rappresenta r in forma ordinaria. Analogamente si ottiene il sistema " #y + z - 3 = 0


che rappresenta s in forma ordinaria. La terna delle coordinate di un eventuale

!x - 2y - 3 = 0 # #y + z + 1= 0 punto d'intersezione tra r ed s una soluzione del sistema " . Essendo #x -1 = 0 # $y + z - 3 = 0


per tale sistema incompatibile, possiamo affermare che r ed s non sono incidenti. Non essendo dunque n parallele n incidenti, le rette r ed s sono sghembe. ii) Il punto P( -1 + 2t, -2 + t, 1 - t ) il generico punto di r ed il punto Q( 1, 1 - t', 2 + t' ) il generico punto di s. Consideriamo il vettore PQ( 2 - 2t, 3 - t' - t, 1 + t' + t ). Si ha : PQ r ( 2 - 2t, 3 - t' - t, 1 + t' + t ) (2, 1, -1) = 0 6 - 6t -2t' = 0 , PQ s ( 2 - 2t, 3 - t' - t, 1 + t' + t ) (0, -1, 1) = 0 -2 + 2t + 2t' = 0. Ne segue che PQ ortogonale sia ad r che ad s se, e solo se, sono verificate entrambe le condizioni 6 - 6t -2t' = 0 e -2 + 2t + 2t' = 0, cio se, e solo se, t =1 e t' = 0. Per t = 1 si ottiene il punto P0(1, -1, 0 ) di r e per t' = 0 il punto Q0( 1, 1, 2) di s. Ne segue che d( r, s) = d( P0, Q0) = | P0Q0| = 8 = 2 2 .

145

25. SFERA E CIRCONFERENZA Fissato un punto C dello spazio e un numero reale r > 0, la sfera di centro C e raggio r linsieme S dei punti dello spazio aventi distanza r da C. Dette (xo, yo, zo) le coordinate di C, si ha : P(x, y, z) S r2 . Lequazione (25.1) (x xo)2 + (y yo)2 + (z zo)2 = r2 rappresenta dunque la sfera S. Sviluppando la (25.1) e ponendo d = xo2 + yo2 + zo2 r2 , la (25.1) diventa (25.2) x2 + y2 + z2 + ax + by + cz + d = 0. Osserviamo che i numeri reali a, b, c e d che compaiono nella (25.2) sono legati dalla relazione a2 + b2 + c2 4d > 0 ; inoltre ogni equazione che si ottiene dalla (25.2) moltiplicandola per un numero reale non nullo rappresenta ancora la sfera S. Viceversa, data unequazione del tipo Ax2 + Ay2 + Az2 + Bx + Cy + Dz + E = 0, con A, B, C, D, E numeri reali e A 0, questa si pu scrivere, dividendo per A,
a2 b2 c2 nella forma (25.2). Sommando a entrambi i membri , la (25.2) + + 4 4 4

d(C,P) = r d (C,P) = r (x x )
2 2 o

+ (y yo)2 + (zzo)2 =

a = 2xo , b = 2yo , c = 2zo e

diventa (x +

a 2 b c a ) + (y + )2 + (z + )2 = 2 2 2 4

b2 c2 + - d 4 4

e dunque

rappresenta una sfera S se, e solo se,

a2 b2 c2 - d > 0 o, equivalentemente, + + 4 4 4 146

a b c a2 + b2 + c2 - 4d > 0. In tal caso il centro di S il punto C (- , - , - ) e il 2 2 2


raggio di S

a2 b2 c2 + + -d . 4 4 4

ESEMPI 25.1. Rappresentiamo la sfera S di centro C(0, 4, - 3) e raggio r = 2. Per la (25.1) unequazione che rappresenta la sfera S x2 + (y 4)2 + (z + 3)2 = 4, cio x2 + y2 + z2 8y + 6z + 21 = 0.

25.2. Lequazione x2 + y2 + z2 2x + 3y + 4z 2 = 0 pu essere scritta nella forma (x 1)2 + (y + 3/2)2 + (z + 2)2 = 1 + di centro C(1, 3/2, 2) e raggio r = 1 +

9 + 4 + 2 e dunque rappresenta la sfera 4

9 37 + 4+2 = 4 2

25.3. Lequazione x2 + y2 + z2 + x 6y + 4z + 30 = 0 non rappresenta una sfera in quanto 1 + 36 + 16 120 = 67 < 0. Ricordiamo che esiste una ed una sola sfera passante per quattro punti non complanari. Ricordiamo inoltre che lintersezione di un piano con una sfera S linsieme vuoto ( esterno ad S), costituita da un unico punto ( tangente ad S) oppure una circonferenza ( secante S ) a seconda che la distanza di dal centro di S maggiore, uguale o minore del raggio di S; se P un punto di S, esiste uno e un sol piano tangente ad S in P ed esso il piano ortogonale alla retta per P e per il centro di S. 147

Sia S una sfera, C il suo centro ed r il suo raggio. Se un piano che interseca S in una circonferenza , allora il centro C di il punto di

intersezione di con la retta per C ortogonale a ed il raggio di


r2 - d 2 (C,C' ) ; inoltre la retta tangente a in un suo punto P (cio la retta di

avente il solo punto P in comune con ) lintersezione di con il piano tangente ad S in P. Se S rappresentata dallequazione (25.2) e rappresentato

dallequazione ax + by + cz + d = 0, allora rappresentata dal sistema


!x 2 + y 2 + z 2 + ax + by + cz + d = 0 # " . # $a' x + b' y + c' z + d' = 0

(25.3)

Ne segue che ogni circonferenza dello spazio si pu rappresentare con un sistema del tipo (25.3) in quanto essa si pu sempre ottenere come intersezione di una sfera con un piano. Viceversa, un sistema del tipo (25.3) rappresenta una circonferenza se, e solo se, la prima equazione rappresenta una sfera e la seconda equazione rappresenta un piano avente dal centro della sfera distanza minore del raggio. ESEMPI 25.4. Considerata la sfera S di equazione x2 + y2 + z2 4y = 0, i) rappresentiamo il piano tangente ad S nellorigine. Il centro di S C(0, 2, 0). Il piano il piano per lorigine ortogonale alla retta OC, cio al vettore OC(0, 2, 0); unequazione che rappresenta dunque y = 0. ii) determiniamo la posizione rispetto ad S del piano rappresentato dall'equazione z 2 = 0. 148

Poich il raggio r di S 2 e d(C, ) = 2, allora tangente ad S. Il punto di tangenza il punto T(0, 2, 2) ottenuto intersecando con la retta passante per C

!x = 0 # ed ortogonale a , retta rapprentata dal sistema "y = 2 . # $z = t


iii) determiniamo la posizione rispetto ad S del piano rappresentato
2 < 2 = r, il piano interseca S in una circonferenza .

dall'equazione x y = 0. Essendo d(C, ) =

Il centro C di lintersezione di con la retta per C ortogonale a ,

!x = t # rappresentata dal sistema "y = 2 - t ; ne segue che C ha coordinate (1, 1, 0). Il # $z = 0


raggio di
r2 - d 2 (C,C' ) =
4-2 = 2 .

iv) rappresentiamo la retta tangente alla circonferenza nel suo punto P(2, 2, 0). Poich il piano tangente ad S in P rappresentato dallequazione x 2 = 0, allora

!x - y = 0 la retta richiesta rappresentata dal sistema " . #x - 2 = 0

25.5.

Rappresentiamo la circonferenza passante per i punti non allineati

A(2, 0, 0), B(0, 0, 3) e C(0, 1, 3) . La circonferenza si pu ottenere come intersezione del piano per A, B e C con una delle infinite sfere passanti per i tre punti dati. Il piano rappresentato dallequazione 3x + 2z 6 = 0. Una sfera per i tre punti A, B e C ha unequazione del tipo x2 + y2 + z2 + ax + by + cz + d = 0, con (a, b, c, d) soluzione del sistema

149

!2a + d = -4 # "3c + d = -9 # $b + 3c + d = -10

ottenuto imponendo il passaggio della sfera per A, B e C. Tra

le infinite sfere passanti per A, B e C, ne scegliamo una imponendo il passaggio per un punto non complanare con A, B e C (cio non appartenente al piano ), ad

!2a + d = -4 # #3c + d = -9 esempio per lorigine. Otteniamo cos il sistema " #b + 3c + d = -10 # $d = 0
unica soluzione (-2, -1, -3, 0).

che ha come

Una sfera passante per dunque la sfera

rappresentata dallequazione x2 + y2 + z2 2x y 3z = 0. Ne segue che un


!x 2 + y 2 + z 2 - 2x - y - 3z = 0 # sistema che rappresenta " . # $3x + 2z - 6 = 0

26. CONI, CILINDRI E SUPERFICI DI ROTAZIONE Fissati nello spazio un insieme non vuoto D e un punto V D, si dice cono di vertice V e direttice D (o anche cono che proietta D dal punto V) linsieme C dei punti dello spazio appartenenti alle rette ( dette generatrici ) che congiungono V con i punti di D. Per rappresentare C basta dunque rappresentare le rette VP, al variare di P su D. ESEMPI 26.1. Rappresentiamo il cono C di vertice il punto V(0, 0, 7) e direttice la
"x2 + y2 + z 2 - 1 = 0 circonferenza : # . $z = 0

150
!

La retta per V e per un punto P(, , ) distinto da V rappresentata

%x = " t ' parametricamente dal sistema & y = # t . Poich P(, , ) 'z = 7 + ( $ - 7) t (


%" 2 + # 2 + $ 2 - 1 = 0 , il cono C rappresentato parametricamente dal & '$ = 0 ! %" 2 + # 2 + $ 2 - 1 = 0 ' '$ = 0 ' sistema , con , , e t parametri reali. &x = " t 'y = # t ' 'z = 7 + ( $ - 7)t (

Eliminando i parametri si ottiene 49x2 + 49y2 z2 + 14z 49 = 0. !

49x2 + 49y2 (7 z)2 = 0,

cio

26.2. Rappresentiamo il cono C di vertice il punto V(1, 1, 0) e direttrice la curva


"y2 = z : # . $x = 0

La retta per V e per un punto P(, , ) distinto da V rappresentata


!

% x = 1 + (" - 1)t ' parametricamente dal sistema : & y = 1 + (# - 1) t . Poich P(, , ) 'z = $ t (
% x = 1 + (" - 1)t ' ' y = 1 + (# - 1) t %" 2 = # ' ! , C rappresentato parametricamente dal sistema &z = $ t & '$ = 0 ' 2 '# = $ '" = 0 (

!
!

151

con , , , t parametri reali. Eliminando i parametri si ottiene lequazione (y x)2 z (1 x) = 0, cio x2 + y2 2xy + xz z = 0.

Fissati nello spazio un insieme non vuoto D e una retta g, si dice cilindro di direttice D e generatrici parallele a g linsieme C dei punti dello spazio appartenenti alle rette per i punti di D parallele a g. Per rappresentare C basta dunque rappresentare tali rette, al variare di P su D. ESEMPI

" xy = 1 26.3. Rappresentiamo il cilindro C di direttrice : # $z = 0 "x + y - 1 = 0 parallele alla retta g : # . $x - z = 0

e generatrici

! Poich una terna di numeri direttori della retta g (1, -1, 1), allora la retta per il
%x = " + t ' ! punto P(, , ) parallela a g rappresentata da & y = # - t . Ne segue che una 'z = $ + t (
%x = " + t ' 'y = # - t ! 'z = $ + t , con , , e t parametri rappresentazione parametrica del cilindro & '"# = 1 ' '$ = 0 (
reali. Eliminando i parametri si ottiene lequazione (x z) (y + z) = 1, che rappresenta in forma ordinaria il cilindro C. ! 26.4. Rappresentiamo il cilindro C di direttrice la circonferenza 152

" x 2 + y 2 + z 2 - 2x = 0 : # e generatrici ortogonali al piano : x z + 3 = 0 . $5y + z + 1 = 0

Poich la retta per il punto P(, , )


!

ortogonale a rappresentata da cilindro C

%x = " + t ' &y = # 'z = $ - t (

una rappresentazione parametrica del

%" 2 + # 2 + $ 2 - 2" = 0 ' '5# + $ + 1 = 0 ' , con , , e t parametri reali. Eliminando i parametri &x = " + t 'y = # ' 'z = $ - t (

si ottiene lequazione (x + 5y + z + 1)2 + y2 + (1 + 5y)2 2(x + 5y + z + 1) = 0,


!

che rappresenta in forma ordinaria il cilindro C.

Fissati nello spazio un insieme non vuoto X e una retta a, facciamo ruotare X intorno ad a. Nella rotazione, ogni punto P di X che non appartiene ad a descrive la circonferenza appartenente al piano per P ortogonale ad a di centro il punto H = a e raggio d(P, H); se P X a, si pu dire (con abuso di linguaggio) che P descrive una circonferenza di raggio zero. Ne segue che linsieme ottenuto facendo ruotare X intorno ad a lunione di tali circonferenze e dunque per rappresentarlo basta rappresentare queste circonferenze. Fissato un punto C su a, ciascuna di queste circonferenze si pu ottenere come intersezione del piano per P ortogonale ad a con la sfera di centro C e raggio d(C, P). Se X una curva piana (cfr. Cap. VIII, Par.1), allora linsieme detto superficie di rotazione di generatrice X e asse a.

153

ESEMPI 26.5. Rappresentiamo la superficie ottenuta facendo ruotare la retta

"x + y - 1 = 0 r: # intorno allasse x. $2y - z = 0


Fissato sullasse x il punto O(0, 0, 0), la circonferenza descritta dal punto P(, , )

nella rotazione intorno allasse x si pu rappresentare come intersezione del piano di equazione x = (piano per P ortogonale allasse x) con la sfera di equazione x2 + y2 + z2 = 2 + 2 + 2 (sfera di centro lorigine e raggio d(O, P)). Poich

%" + # - 1 = 0 P(, , ) r & , allora rappresentata parametricamente '2# - $ = 0


%" + # - 1 = 0 ' '2# - $ = 0 , con , e parametri reali. & 'x = " 'x2 + y2 + z 2 = " 2 + # 2 + $ 2 (

dal sistema !

Eliminando i parametri si ottiene lequazione 5x2 y2 z2 10x + 5 = 0 che rappresenta in forma ordinaria. ! 26.6. Rappresentiamo la superficie ottenuta facendo ruotare la curva :

" xy = 1 "x - y = 0 intorno alla retta a : # . # $z = 0 $z = 0


Fissato su a il punto O(0, 0, 0), la circonferenza descritta dal punto P(, , ) nella

rotazione intorno ad a si pu rappresentare come intersezione del piano di ! equazione x + y = 0 (piano per P ortogonale ad a) con la sfera di equazione x2 + y2 + z2 = 2 + 2 + 2 (sfera di centro lorigine e raggio d(O, P)).

%"# = 1 Poich P(, , ) & , allora rappresentata parametricamente '$ = 0

154

dal sistema

%"# = 1 ' '$ = 0 , con , e parametri reali. & 'x + y - " - # = 0 'x2 + y2 + z 2 = " 2 + # 2 + $ 2 (

Eliminando i parametri si ottiene lequazione z2 2xy + 2 = 0 che rappresenta in forma ordinaria. !

155

CAPITOLO VII SPAZI VETTORIALI EUCLIDEI E DIAGONALIZZAZIONE ORTOGONALE

1. PRODOTTI SCALARI EUCLIDEI Sia V uno spazio vettoriale sul campo reale R . Un prodotto scalare euclideo in V unapplicazione s : V x V R che verifica le seguenti propriet : v , w, z V e h, k R (1.1) s(v, w) = s(w, v), (1.2) s(h v + k w, z) = h s( v, z) + k s( w, z) , s(v, h w + k z ) = h s( v, w ) + k s( v, z) . (1.3) v V, s(v, v) 0 e s(v, v) = 0

v = 0.

Le propriet (1.1), (1.2), (1.3) si possono esprimere dicendo che s simmetrica, bilineare e definita positiva. ESEMPI 1.1. Lapplicazione : R n R n R definita ponendo (x1, x2, . . . , xn)

( y1, y2, . . .,yn) = x1y1 + x2y2 +. . . + xnyn un prodotto scalare euclideo in R n (prodotto scalare standard (cfr. Cap. I, Par. 1)). Osserviamo che, ponendo

156

" x1 % $ ' $ x2 ' X=$. ' e Y= $ ' $. ' $ ' # xn &

" y1 % $ ' $ y2 ' $ . ' e identificando la matrice Xt Y con lunico elemento da cui $ ' $. ' $ ' # yn &

costituita, si pu scrivere (x1, x2, . . . , xn) ( y1, y2, . . .,yn) = Xt Y.

1.2.

! Il prodotto scalare standard (associato ad una fissata unit u) nello spazio


(cfr. Cap. VI, Par. 2) un prodotto scalare

vettoriale dei vettori geometrici euclideo.. 1.3.

Consideriamo le seguenti due applicazioni :

f : ( (x, y), (x, y) ) R 2 R 2 2xx + 4yy R g : ( (x, y), (x, y) ) R 2 R 2 xx yy R . Si verifica facilmente che f e g sono entrambe bilineari e simmetriche. La f anche definita positiva in quanto, per ogni (x, y) in R 2, risulta f((x, y), (x, y)) = 2x2 + 4y2 0 e 2x2 + 4y2 = 0 se, e solo se, (x, y) = (0, 0). Poich invece g((x, y), (x, y)) = x2 y2 e x2 y2 < 0, x, y con |x| < |y|, allora la g non definita positiva. Possiamo dire allora che f un prodotto scalare euclideo in R 2 mentre g non lo . Lapplicazione s di R 2[x] R 2[x] in R definita ponendo s(ax2+bx+c,

1.4.

ax2+bx+c) = aa+ bb+ cc , come si verifica facilmente, un prodotto scalare euclideo nello spazio vettoriale R 2[x] . Analogamente si definisce un prodotto scalare euclideo in R n[x].

157

1.5. Lapplicazione s di R

2,2

2,2

"" a b% " a' b'%% in R definita ponendo s $$ ',$ '' = ## c d& # c' d'&&

1 aa+bb+cc+3dd un prodotto scalare euclideo in R 2,2. 2 ! !


1.6. Sia A R n,n. Si definisce traccia di A, e si indica con trA, la somma degli elementi della diagonale principale di A; si pone cio trA = a11 + a22 + .... + ann. E facile verificare che trA = trAt, tr(A+B) = trA + trB, tr(hA) = h trA e tr(AtB) = (a1 b1) + (a2 b2) + ...+ ( an bn), per ogni A, B R n,n e per ogni h R . Consideriamo ora lapplicazione s : (A, B) R n,n R n,n tr(At B) R .
n

Poich tr(At B) =(a1 b1) + (a2 b2) + ...+ ( an bn) =

"a b
i, j = 1

ij ij

= (a11, a12, ..., a1n, a21,

a22, ..., a2n, ..., an1, an2, ..., ann) (b11, b12, ..., b1n, b21, b22, ..., b2n, ..., bn1, bn2, ..., bnn), 2 dalle propriet del prodotto scalare standard in R n segue che s un prodotto ! scalare euclideo in R n,n.
!

Sia V uno spazio vettoriale sul campo reale. Se s : V V R un prodotto scalare euclideo in V, la coppia (V, s) detta spazio vettoriale euclideo e, per ogni v, w V, il numero reale s(v, w) detto prodotto scalare dei vettori v e w. Osserviamo che, se W un sottospazio di V, la restrizione di s a W W un prodotto scalare euclideo in W; con tale restrizione, W esso stesso uno spazio vettoriale euclideo. Chiudiamo questo paragrafo osservando che dalla bilinearit di s segue subito che 158

(1.4)

s(h1v1+ h2v2++ htvt, w) = h1 s(v1, w) + h2 s(v2, w) +....+ ht s(vt, w),

h1, h2, , ht R e v1, v2, , vt, w V.

2. PROPRIETA DI UNO SPAZIO VETTORIALE EUCLIDEO Sia (V, s) uno spazio vettoriale euclideo. Proviamo subito che (2.1) v V, s(v, 0 ) = 0 = s (0, v).

Per la simmetria e la bilinearit di s, si ha che s(0, v) = s(v, 0 ) = s(v, 0v) = 0 s(v, v) = 0 . Sia v V. Per la (1.3), s(v, v) 0; il numero reale

s(v, v) sar detto modulo

(o lunghezza) di v e sar indicato con il simbolo |v|. Ovviamente, |v| 0; inoltre |v| = 0 se, e solo se, v = 0. E anche immediato verificare che : h R , | hv | = ! |h| |v|. Diremo versore un vettore di lunghezza 1. Se v un vettore non nullo, il vettore

v , come subito si verifica, un versore. |v|


Proposizione 2.1. Per ogni v, w V, (i) |s(v, w)| |v| |w| (disuguaglianza di Cauchy-Schwarz); (ii) |v + w| |v| + |w| (disuguaglianza triangolare). Dimostrazione. Se almeno uno tra i due vettori v e w nullo, le disuguaglianze sono banalmente verificate. Supponiamo dunque v, w 0. (i) Essendo s definito positivo, s(v+tw, v+tw) 0, t R . Per la bilinearit di s, la disuguaglianza precedente si pu scrivere cos : s(w, w) t2 + 2s(v, w) t + s(v, v) 0. Poich il trinomio di secondo grado in t su scritto, se non si annulla, 159

assume sempre lo stesso segno, allora il suo discriminante minore o uguale a zero, e dunque (s(v, w))2 s(v, v) s(w, w) = |v|2 |w|2, da cui segue la (i). (ii) Si ha : |v + w| 2 = s(v+w, v+w) = s(v, v) + 2s(v, w) + s(w, w) = |v|2+ 2s(v, w) + |w|2 (per la (i)) |v|2+ 2|v| |w| + |w|2= (|v| + |w|)2 , da cui segue la (ii). Dati due vettori non nulli v e w, dalla disuguaglianza di Cauchy-Schwarz segue

| s(v, w) | s(v, w) 1, cio -1 1. Si definisce angolo tra i due vettori v e w, |v| |w| |v| |w|
e si indica con vw, lunico numero reale [0, ] tale che cos =

s(v, w) . Si |v| |w|

ha allora vw =! /2 se, e solo se, cos vw = 0, cio s(v, w) = 0. E! allora naturale definire ortogonali due vettori v e w tali che s(v, w) = 0. Dalla ! (2.1) segue che il vettore nullo ortogonale ad ogni vettore. Per indicare che v e w ! ! sono ortogonali useremo il simbolo v w. Un sistema di vettori a due a due ortogonali si dice ortogonale. Proviamo che: Proposizione 2.2. Sia S = { v1, v2, , vt } un sistema ortogonale di vettori di V. (i) h1, h2, , ht R , il sistema S = { h1v1, h2v2,, htvt } ortogonale; (ii) se vi 0 per ogni i { 1, 2, ...., t }, il sistema S indipendente. Dimostrazione. (i) Siano i, j { 1, 2, ...., t }, con ij. Dalla bilinearit di s segue che s(hivi, hjvj) = hihj s(vi, vj) = 0. Il sistema S dunque ortogonale. (ii) Sia h1v1+ h2v2++ htvt = 0. Per ogni i {1, 2, ...., t}, s(h1v1+ h2v2++ htvt, vi) = s(0, vi) = 0. Per la (1.4) si ha allora che

h1 s(v1, vi) + .....+ hi s(vi, vi) +....+ ht s(vt, vi) = 0. Essendo il sistema S ortogonale, s(vi, vj) = 0 per ogni ij e dunque la precedente uguaglianza diventa hi s(vi, vi) = 0.

160

Ne segue hi = 0, essendo s(vi, vi) 0 in quanto per ipotesi vi 0. Si cos provato che hi = 0 per ogni i {1, 2, ..., t}; dunque S indipendente. Proposizione 2.3 (ortogonalizzazione di Gram-Schmidt). Sia W un sottospazio di V. Se W ha dimensione finita t > 0, esiste in W una base ortogonale. Dimostrazione. Sia B = {v1, v2, v3,, vt} una base di W. Utilizzando B, costruiremo una base ortogonale di W. Poniamo w1 = v1 ed osserviamo che, per ogni h R , il vettore v2 hw1 non nullo (in quanto v2 e v1 = w1 sono indipendenti) ed appartiene a W. Proviamo ora che esiste un valore di h per cui v2 hw1 ortogonale a w1. Poich s(v2 hw1, w1) = s(v2, w1) h s(w1 , w1) ed s(w1, w1) 0 (in quanto w1 = v1 non nullo), allora s(v2 hw1, w1) = 0 se, e solo se, h = s(v2, w1) / s(w1, w1). Il vettore w2 = v2
s(v 2 , w1 ) w1 s(w1,w1 )

dunque un vettore di W non nullo ed ortogonale a v1. Consideriamo ora il vettore v3 ed osserviamo che, per ogni h1, h2 R , il vettore ! v3 h1w1 h2w2 non nullo (in quanto v3 L(v1, v2) = L (w1, w2) ) ed appartiene a W. Poich s(v3 h1w1 h2w2, w1) = s(v3, w1) h1s(w1, w1) h2 s(w2, w1) = s(v3, w1) h1s(w1 , w1) ed s(w1, w1) 0, allora s(v3 h1w1 h2w2, w1) = 0 se, e solo se, h1 = s(v3, w1) / s(w1, w1). Analogamente, s(v3 h1w1 h2w2, w2) = 0 se, e solo se, h2 = s(v3, w2) / s(w2, w2). Ne segue che il vettore w3 = v3
s(v 3 , w1 ) s(v 3 , w2 ) w1 w2 s(w1,w1 ) s(w2 ,w2 )

un vettore di W non nullo ed ortogonale sia a w1 che a w2. Cos continuando si riesce a determinare in W un sistema B = {w1, w2, w3,, wt} ! ! di t vettori non nulli a due a due ortogonali :

161

w1 = v1, w2 = v2
s(v 2 , w1 ) w1, s(w1,w1 ) s(v t , w1 ) s(v t , w2 ) s(v t , wt -1 ) w1 w2 . . . . wt-1. s(w1,w1 ) s(w2 ,w2 ) s(wt -1,wt -1 )

. . . . . . . . . . . . . . . . . . . . . . . . . . . .. wt = vt !

Per la (ii) della Proposizione 2.2, B una base ortogonale di W. Lasserto cos provato. !
! !

Un sistema di vettori S = {v1, v2,, vt} di V detto ortonormale se costituito da versori a due a due ortogonali, cio se

#1 , se i = j s(vi, vj) = $ . %0 , se i " j

Proposizione 2.4. Sia W un sottospazio di V. Se W ha dimensione finita t > 0, ! esiste in W una base ortonormale. Dimostrazione. Per la Proposizione 2.3 esiste in W una base ortogonale B = {w1, w2,, wt}. Dividendo ogni vettore di B per il suo modulo, si ottiene, per la (i) della Proposizione 2.2, una base ortonormale di W. ESEMPI 2.1. La base naturale di R
n

una base ortonormale rispetto al prodotto scalare

standard in R n. La base naturale di R n[x] una base ortonormale rispetto al prodotto scalare euclideo definito nellEsempio 1.4. Analogamente, la base naturale di R
n,n

una base ortonormale rispetto al prodotto scalare euclideo definito

nellEsempio 1.6.

162

2.2. Nello spazio vettoriale euclideo R 4 con il prodotto scalare standard, troviamo una base ortonormale del sottospazio (-2, 3, 1, 0)). Applicando il procedimento di Gram-Schmidt alla base v2 = (2, 0, 0, 2), v3 = (-2, 3, 1, 0)} di W, si ha : w1 = (1, 1, 0, 2); w2 = v2
s(v 2 , w1 ) w1 s(w1,w1 )

W =

L((1, 1, 0, 2), (2, 0, 0, 2), {v1 = (1, 1, 0, 2),

= (2, 0, 0, 2)

(2, 0, 0, 2) (1, 1, 0, 2) (1, 1, 0, 2) = (1, 1, 0, 2) (1, 1, 0, 2)

(1, -1, 0, 0); w3 = v3 !


s(v 3 , w1 ) s(v 3 , w2 ) w1 ! w2 = s(w1,w1 ) s(w2 ,w2 )

(-2,3,1,0) (1,1,0,2) (-2,3,1,0) (1,-1,0,0) (1, 1, 0, 2) (1,-1, 0, 0) = (1,1,0,2) (1,1,0,2) (1,-1,0,0) (1,-1,0,0) ! ! (1/3, 1/3, 1, - 1/3).

(-2, 3, 1, 0)

La base B = {(1, 1, 0, 2), (1, -1, 0, 0), (1/3, 1/3, 1, - 1/3)} di W cos determinata ! ! ortogonale. Calcoliamo ora la lunghezza di ciascuno dei vettori di B. Si ha : |(1, 1, 0, 2)| =

6 ; |(1, -1, 0, 0)| =

2 ; |(1/3, 1/3, 1, - 1/3)| =

4/3 . Dividendo ogni


B =

vettore di B per la sua lunghezza, si ottiene la base ortonormale

{(1/ 6 , 1/ 6 , 0, 2/ 6 ), (1/ 2 , -1/ 2 , 0, 0), (1/ 12 , 1/ 12 , 3/ 12 , -1/ 12 )} ! ! ! di W.

! ! ! ! ! ! ! ! 3 2.3. Nello spazio vettoriale euclideo R con il prodotto scalare standard, troviamo
una base ortogonale contenente il vettore v = (2, 1, -3). Metodo 1. Si completa {v} in una base di R Gram-Schmidt. Metodo 2. Si determina un vettore w 0 ortogonale a v e successivamente un vettore z 0 ortogonale sia a v che a w : 163
3

e poi si applica il procedimento di

Un vettore (x, y, z) ortogonale a v se, e solo se, (x, y, z) (2, 1, -3) = 2x + y 3z = 0. Scegliamo w = (1, -2, 0). Un vettore (x, y, z) ortogonale sia a v che a w se, e solo se, (x, y, z) (2, 1, -3) = 2x + y 3z = 0 e (x, y, z) (1, -2, 0) = x 2y = 0 cio se, e solo se, esso

"2x + y - 3z = 0 soluzione del sistema # . Scelto z = (6, 3, 5), otteniamo la base $ x - 2y = 0


ortogonale {(2, 1, -3), (1, -2, 0), (6, 3, 5)}.

! 2.4. Nello spazio vettoriale euclideo (R 3, s), con s definito ponendo s((x, y, z),
(x, y, z)) = xx+ 2yy+ 4zz+ 2yz+ 2zy, determiniamo una base ortonormale del sottospazio W = { (x, y, z) R 3 : x y + z = 0 }. Poich W ha dimensione 2, basta trovare in W due versori ortogonali. Scegliamo in W un vettore non nullo, ad esempio w = (1, 1, 0). Determiniamo ora in W un vettore z 0 ortogonale a w. Un vettore (x, y, z) appartiene a W se, e solo se, x y + z = 0 ed ortogonale a w se, e solo se, s((x, y, z), (1, 1, 0)) = x + 2y + 2z = 0; ne segue che i vettori di W ortogonali a w sono tutte e sole le soluzioni del

"x - y + z = 0 sistema # . $ x + 2y + 2z = 0

Scelto z = (4, 1, -3), otteniamo la base ortogonale {(1, 1, 0), (4, 1, -3)} di W. Poich |(1, 1, 0)| = s((1, 1, 0), (1, 1, 0))

s((4,1,-3), (4,1,-3)) =

3 e |(4, 1, -3)| = ! 42 , allora {(1/ 3 , 1/ 3 , 0), (4/ 42 , 1/ 42 , -3/ 42 )}


=

una base ortonormale di W. !

! ! ! ! ! ! 2.5. Nello spazio vettoriale euclideo (R 2[x], s), dove s definito ponendo
s(ax2+bx+c, ax2+bx+c) = aa+bb+cc (cfr. Esempio 1.4), si determini una base ortogonale contenente il vettore p1(x) = 1+x. Poich dim(R 2[x]) = 3, basta

determinare due vettori non nulli p2(x) e p3(x) ortogonali tra loro ed entrambi 164

ortogonali a p1(x). Un vettore a+bx+cx2 ortogonale a p1(x) se, e solo se, s(a+bx+cx2, 1+x) = a+b = 0. Scegliamo p2(x) = 1-x. Poich un vettore a+bx+cx2 ortogonale a p1(x) se, e solo se, a+b = 0 ed ortogonale a p2(x) se, e solo se, s(a+bx+cx2, 1-x) = a-b = 0, allora un vettore a+bx+cx2 ortogonale ad entrambi i

"a + b = 0 vettori p1(x) e p2(x) se, e solo se, (a, b, c) soluzione del sistema # . $a - b = 0
Scelto p3(x) = x2, otteniamo la base ortogonale {1+x, 1-x, x2}.

165

3. RIFERIMENTI ORTONORMALI E MATRICI ORTOGONALI Sia (Vn, s) uno spazio vettoriale euclideo di dimensione n > 0. Considerato un riferimento R = ( e1, e2, . .., en), la matrice simmetrica di ordine n

"s(e1, e1 ) s(e1, e 2 ) . . . s(e1, e n ) % $ ' $s(e 2 , e1 ) s(e 2 , e 2 ) . . . s(e 2 , e n ) ' G = (s(ei, ej) ) = $. . . . . . ' $ ' #s(e n , e1 ) s(e n , e 2 ) . . . s(e n , e n )&
detta matrice di Gram associata ad s nel riferimento R. ! ESEMPI 3.1. Determiniamo la matrice di Gram associata, nel riferimento naturale di

R 2, al prodotto scalare euclideo s definito ponendo s((x, y), (x, y)) =


2xx + 4yy.

"s((1,0),(1,0)) s((1.0),(0,1))% "2 0 % Si ha : G = $ ' =$ '. #s((0,1),(1,0)) s((0,1),(0,1)) & #0 4 &


3.2. Determiniamo la matrice di Gram associata, nel riferimento naturale di R 3, al ! ! prodotto scalare euclideo s definito ponendo s((x, y, z), (x, y, z)) = xx+ 2yy+ 4zz+ 2yz+ 2zy.

"1 0 0 % $ ' Si ha : G = $0 2 2 ' . $ ' #0 2 4 &

!
166

Siano v, w Vn. Dette (x1, x2, . . . , xn) e ( y1, y2, . . .,yn) le n-uple delle componenti di v e w in R, si ha s(v, w) = s(x1e1+ x2e2++ xnen, y1e1+ y2e2++ ynen) = (per la bilinearit di s) x1 y1 s(e1, e1) + x1y2 s(e1, e2) +.....+ x1yn s(e1, en) + x2y1 s(e2, e1) + ......+ xnyn s(en, en). E dunque
n

(3.1)

s(v, w) =

"x y
i i, j = 1

s(e i ,e j ) = Xt G Y,

" x1 % " y1 % $ ' $ ' $ x2 ' $ y2 ' != $ ' . essendo X = $ . ' e Y . $ ' $ ' $. ' $. ' $ ' $ ' # xn & # yn &
Per la Proposizione 2.4 esistono in Vn riferimenti ortonormali. In questo paragrafo vedremo lutilit di tali riferimenti. ! ! Proposizione 3.1. Sia R = (e1, e2, ..., en ) un riferimento ortonormale di Vn. Si ha : (i) per ogni vettore v di Vn, le componenti di v in R sono i numeri reali s(v, e1), s(v, e2), ..., s(v, en) (detti coefficienti di Fourier di v in R); (ii) per ogni v, w Vn, s(v, w) coincide con il prodotto scalare standard delle n-uple delle loro componenti in R. Dimostrazione. (i) Sia v = x1e1+ x2e2++ xnen. Per ogni i = 1, 2, ..., n, s(v, ei) = s(x1e1+ x2e2++ xnen, ei) = x1 s(e1, ei) + .... + xi s(ei, ei) +.....+ xn s(en, ei) = xi (essendo R ortonormale). (ii) Siano v = x1e1+ x2e2++ xnen e w = y1e1+ y2e2++ ynen. Per la (3.1) s(v, w) =
n

n
i j

"x y
i, j = 1

s(e i ,e j ) = (essendo R ortonormale)

"x y
i i=1

e lasserto cos provato.

167

La (ii) si poteva anche provare osservando che, essendo R ortonormale, la matrice di Gram associata ad s in R coincide con la matrice identica In e dunque, per la (3.1), s(v, w) = Xt Y. Introduciamo ora le matrici ortogonali, strettamente legate ai riferimenti ortonormali. Una matrice quadrata A detta ortogonale se invertibile e la sua inversa coincide con la sua trasposta. Proposizione 3.2. Sia A una matrice quadrata reale di ordine n. Le seguenti affermazioni sono equivalenti : (i) A ortogonale; (ii) A At = In ; (iii) At A = In ; (iv) le righe di A costituiscono una base ortonormale di R n con il prodotto scalare standard; (v) le colonne di A costituiscono una base ortonormale di R scalare standard. Dimostrazione. Dalla (i) segue la (ii) per definizione di matrice ortogonale. Per la Proposizione 4.2 del Cap. III, dalla (ii) segue che A invertibile ed A-1 = At, cio la (i). La (i) e la (ii) sono dunque equivalenti. In modo analogo si prova lequivalenza delle (i) e (iii). Proviamo ora che (ii) e (iv) sono equivalenti. Poich le colonne di At coincidono con le righe di A, lelemento di posto (i, j) di A At ai aj. Luguaglianza A At = In equivale dunque a dire che ai aj = 1 se i = j ed ai aj = 0 se i j, cio la (iv). In modo analogo si prova lequivalenza delle (iii) e (v). Lasserto cos completamente provato. 168
n

con il prodotto

ESEMPI 3.3. Per ogni intero positivo n, la matrice identica In una matrice ortogonale.
" $ B = $ $ $ # 2% ' 2 ' 2' ' 2 &

"0 -1% 3.4. E facile verificare che le matrici A = $ ' , #1 0 &


"0 0 -1 % $ ' C = $1 0 0' sono ortogonali. $ ' #0 -1 0 &

2 2 2 2

!
!

Proposizione 3.3. La matrice di passaggio tra due riferimenti ortonormali ortogonale. Dimostrazione. Siano R = ( e1, e2, . .., en) ed R = ( e1, e2, . .., en) due riferimenti

"b11 $ b 21 ortonormali di Vn e sia B = $ $. . $ #b n1

b12 . . . b1n % ' b 22 . . . b 2n ' la matrice di passaggio da R ad R. ' . . ' b n2 . . . b nn &

Ricordiamo che, per ogni i = 1,...,n, la colonna bi = (b1i, b2i, ..., bni) la n-upla delle componenti di ei nel riferimento R. Per ogni i, j = 1, ..., n, bi bj = (per la (ii) della ! #1 , se i = j Proposizione 3.1 applicata ad R) s(ei, ej) = (essendo R ortonormale) $ . %0 , se i " j Per la (v) della Proposizione 3.2, la matrice B ortogonale.

169

4. COMPLEMENTO ORTOGONALE Sia (V, s) uno spazio vettoriale euclideo. Per ogni sottoinsieme non vuoto X di V, poniamo X " = { v V : v w , w X }. Il sottoinsieme X " detto complemento ortogonale di X.
! Proviamo che !

Proposizione 4.1. (i) Per ogni sottoinsieme non vuoto X di V, X " un sottospazio; (ii) se W un sottospazio, W W " = { 0 }; (iii) se W un sottospazio ed {e1, e2, ..., e! } una sua base, W " = t { e1, e2, ..., et } .
"

Dimostrazione. (i) Cominciamo con losservare che X " non vuoto in quanto ad ! esso appartiene almeno il vettore nullo. Siano u, v X " . Poich, per ogni w X, ! s(u+v, w) = s(u, w) + s(v, w) = 0, allora u+v ortogonale a w e dunque appartiene ! ad X " . Sia ora h R e v X " . Poich, per ogni w X, s(hv, w) = h s(v, w) = 0, ! allora il vettore hv X " . Abbiamo cos provato che X " un sottospazio.
!

(ii) Sia v W W " . Poich v W " , v ortogonale ad ogni vettore di W e dunque ! anche a se stesso. Essendo s definito positivo, da s(v, v) = 0 segue che v = 0. ! ! (iii) Evidentemente, W " { e1, e2, ..., et } . Sia ora v { e1, e2, ..., et } e ! ! w W. Essendo {e1, e2, ..., et } una base di W, risulta w = h1e1 + h2e2 + ... + htet per opportuni scalari h1, h2, ... , ht. Poich s(v, w) = s(v, h1e1 + h2e2 + ... + htet) = ! ! ! h1 s(v, e1) + h2 (v, e2) + ... + ht s(v, et) = 0, allora v ortogonale a w. Si ha cos che v W " e quindi { e1, e2, ..., et } W " . Dalla doppia inclusione segue lasserto.
" " "

170

Proposizione 4.2. Sia (Vn , s) uno spazio vettoriale euclideo di dimensione n e sia W un suo sottospazio. Il sottospazio W e il suo complemento ortogonale sono supplementari, cio Vn = W W " . Dimostrazione. Lasserto ovvio se W = { 0 } o W = Vn. Sia ora W non banale e sia t la sua dimensione. Per la Proposizione 2.3, esiste in W una base ortogonale BW ! = {e1, e2, ..., et }. Completiamo BW in una base ortogonale B = {e1, e2, ..., et , et+1, ..., en} di Vn (cfr. Proposizione 6.6 del Cap. II e la dimostrazione della Proposizione 2.3). Proviamo che {et+1, ..., en} una base di W " . Cominciamo ad osservare che ciascuno dei vettori et+1, ..., en ortogonale a tutti i vettori e1, e2, ..., et e quindi, per la (iii) della Proposizione 4.1, appartiene a W " . Sia ora v W " . Essendo v in Vn, ! v = h1e1 + ... + htet + ht+1et+1+ ... + hnen per opportuni scalari h1, h2, ... , hn. Consideriamo il prodotto scalare di v per e1. Si ha che 0 = s(v, e1) = ! ! s(h1e1 + ...+ htet + ht+1et+1+ ... + hnen, e1) = h1 s(e1, e1) + ... + ht s(et, e1) + ht+1 s(et+1, e1) +. ... + hn s(en, e1) = (essendo B ortogonale) h1 s(e1, e1). Ne segue h1 = 0, essendo s(e1, e1) 0. Analogamente si prova che anche gli scalari h2, ..., ht sono uguali a 0 e quindi il vettore v risulta combinazione lineare di et+1, ..., en . Il sistema {et+1, ..., en} dunque un sistema di generatori di W " ; poich ovviamente costituito da vettori indipendenti, esso una sua base. Essendo B una base di Vn, allora W + W " = Vn ; dalla (ii) della Proposizione 4.1 segue lasserto. ! Osserviamo esplicitamente che dalla Proposizione 4.2 segue che dim W " ! = n dim W.
!

171

ESEMPI 4.1. Nello spazio vettoriale euclideo costituito da R standard, determiniamo il complemento
3

con il prodotto scalare del sottospazio

ortogonale

W = L ((2, -1, 0), (0, 0, 1)). Si ha : W " = {(x, y, z) R 3 : (x, y, z ) (2, -1, 0) = 0 = (x, y, z ) (0, 0, 1)} = {(x, y, z) R 3 : 2x y = 0 = z} = {(x, 2x, 0), x R } = L((1, 2, 0)).
!

4.2. Nello spazio vettoriale euclideo (R 3, s), con s definito ponendo s((x, y, z), (x, y, z)) = xx+ 2yy+ 4zz+ 2yz+ 2zy (cfr. Esempio 2.4), determiniamo il complemento ortogonale del sottospazio W = L (1, 2, -1)).
W " = {(x, y, z) R 3 : s((x, y, z), (1, 2, -1)) = x + 4y 4z 2y + 4z = 0} =

{(-2y, y, z), y, z R } = L ((-2, 1, 0), (0, 0, 1)).


!

172

5.

ENDOMORFISMI SIMMETRICI E LORO DIAGONALIZZAZIONE

ORTOGONALE Sia (Vn, s) uno spazio vettoriale euclideo di dimensione n > 0. Un endomorfismo f di Vn si dice ortogonalmente diagonalizzabile se esiste un riferimento ortonormale R tale che la matrice associata ad f in R diagonale, cio se esiste un riferimento ortonormale formato da autovettori di f. In questo paragrafo caratterizzeremo tali endomorfismi. A tale scopo introduciamo gli endomorfismi simmetrici. Un endomorfismo f di Vn si dice simmetrico se (5.1) v, w V, s(v, f(w)) = s(f(v), w).

Proposizione 5.1. Sia f un endomorfismo di Vn . (i) Se f simmetrico ed R un riferimento ortonormale di Vn, la matrice MR(f) associata ad f in R simmetrica; (ii) se esiste un riferimento ortonormale R di Vn tale che la matrice MR(f) associata ad f in R simmetrica, f simmetrico. Dimostrazione. (i) Sia R = (e1, e2, ..., en). Poniamo MR(f) = A = (aij). Ricordiamo (cfr. Cap. IV, Par. 4) che, per ogni i, j = 1, ..., n, aij la componente di posto i di f(ej) nel riferimento R. Poich R ortonormale, dalla (i) della Proposizione 3.1 segue che aij = s(f(ej), ei). Per la simmetria di f, allora aij = s(f(ej), ei) = s(ej, f(ei)) = aji e quindi A simmetrica. (ii) Sia R = (e1, e2, ..., en ). Poniamo MR(f) = A = (aij). Se v e w sono due vettori e X ed Y sono rispettivamente i vettori colonna delle loro componenti in R, allora AX e AY sono rispettivamente i vettori colonna delle componenti in R di f(v) ed f(w) ( cfr. Cap.IV, Proposizione 4.2). Per la (ii) della Proposizione 3.1, si ha s(v, f(w)) =

173

Xt (AY) = (Xt A)Y = (essendo A simmetrica) (XtAt)Y = (AX)t Y = s(f(v), w) e quindi f simmetrico. Si prova che : Proposizione 5.2. Se f un endomorfismo simmetrico di Vn, il suo polinomio caratteristico ammette n radici reali. Proposizione 5.3. Un endomorfismo f di Vn ortogonalmente diagonalizzabile se, e solo se, simmetrico. Dimostrazione. Sia f ortogonalmente diagonalizzabile e sia R un riferimento ortonormale tale che la matrice associata ad f in R una matrice diagonale. Poich una matrice diagonale anche simmetrica, dalla (ii) della Proposizione 5.1 segue che f simmetrico. Viceversa, sia f simmetrico. Per provare che esiste in Vn un riferimento ortonormale formato da autovettori di f, ragioneremo per induzione sulla dimensione n di Vn. Cominciamo a provare lasserto per n = 1. Sia v 0 un vettore di V1. Poich {v} una base di V1 ed f(v) V1, allora f(v) = hv per un opportuno h R ; ne segue che v un autovettore di f e dunque ortonormale di autovettori di V1. Supponiamo ora vero lasserto per la dimensione n1 (n 2) e lo proviamo per la ! dimensione n. Sia dunque f un endomorfismo simmetrico di Vn e sia h un suo autovalore, che esiste per la Proposizione 5.2. Detto w un autovettore di autovalore h, sia W = L(w). Proviamo ora che f ( W " ) W " . Sia v W " . Poich s(w, f(v)) = (essendo f simmetrico) s(f(w), v) = s(hw, v) = hs(w, v) = 0, allora f(v) ortogonale
W a w e dunque appartiene a ! " per la (ii) della! Proposizione 4.1. Lapplicazione, ! 174 !

" v % $ ' un riferimento # | v |&

che qui indichiamo con fW " , che a v W " associa f(v) W " ovviamente lineare e dunque un endomorfismo di W " . Poich evidentemente fW " anche
! ! simmetrico, possiamo applicare lipotesi di induzione al sottospazio W " che, per la !

Proposizione 4.2 , ha dimensione n1. Esiste dunque un riferimento ortonormale ! ! " (e1, e2, ..., en-1) di W formato da autovettori di fW " . Poich ogni autovettore di ! fW " ovviamente anche autovettore di f, allora, per la Proposizione 4.2, (

w ! , e1, !2, ..., en-1) un riferimento ortonormale di Vn formato da autovettori di f. e |w|

!
!

Lasserto cos completamente provato. La proposizione precedente ci assicura che un endomorfismo simmetrico f di Vn ortogonalmente diagonalizzabile. Allo scopo di determinare un riferimento ortonormale di autovettori di f, cominciamo a provare la seguente Proposizione 5.4. Sia f un endomorfismo simmetrico di Vn. Se v e w sono autovettori relativi a due autovalori distinti h e k, allora v e w sono ortogonali. Dimostrazione. Poich s(v, f(w)) = s(v, kw) = k s(v, w) ed s(f(v), w) = s(hv, w) = h s(v, w), dalla simmetria di f segue che k s(v, w) = h s(v, w) , da cui (k h) s(v, w) = 0. Essendo h k, risulta allora s(v, w) = 0, cio v e w sono ortogonali. Diamo ora un metodo per determinare una base ortonormale formata da autovettori di un endomorfismo simmetrico f di Vn: Indichiamo con h1, h2, ..., ht gli autovalori distinti di f e con V(h1), V(h2), ..., V(ht) i relativi autospazi. Per la Proposizione 2.3, possibile determinare in ciascun autospazio V(hi) una base ortonormale Bi. Per la Proposizione 2.11 del Cap. V, 175

B1 B2 ... Bt una base di Vn formata da autovettori; tale base ortonormale per la Proposizione 5.4. ESEMPI 5.1. Sia f lendomorfismo dello spazio vettoriale euclideo R 2 (con il prodotto scalare standard) definito ponendo f(x, y) = (x+2y, 2x+4y). (a) Verifichiamo che f simmetrico; (b) determiniamo una base ortonormale di R 2 formata da autovettori di f. (a) Metodo 1. Siano (x, y), (x, y) R 2. Si ha : (x, y) f(x, y) = (x, y) (x+2y, 2x+4y) = x(x+2y) + y(2x+4y) = x(x+2y) + y(2x+4y) = f(x, y) (x, y), e dunque f simmetrico. Metodo 2. Poich il riferimento naturale di R
2

ortonormale rispetto al prodotto

scalare standard, per la (ii) della Proposizione 5.1 basta verificare che la matrice A associata ad f in tale riferimento simmetrica. ovviamente simmetrica. (b) Il polinomio caratteristico di f p(t) = t2 5t , le cui radici sono 0 e 5. Una ! base ortonormale dellautospazio V(0) {(-2/ 5 , 1/ 5 )} e una base ortonormale dellautospazio V(5) {(1/ 5 , 2/ 5 )}. Ne segue che {(-2/ 5 , 1/ 5 ), Si ha

"1 2 % A = $ ' , che #2 4 &

(1/ 5 , 2/ 5 )} una base ortonormale di R 2 formata da autovettori di f. ! !

! ! ! 5.2. ! Sia f lendomorfismo dello spazio vettoriale euclideo R scalare standard) definito ponendo f(x, y, z) = (3x+z, 2y, x+3z).
(a) Verifichiamo che f simmetrico;

! (con il prodotto

(b) determiniamo una base ortonormale di R 3 formata da autovettori di f. 176

" 3 0 1% $ ' (a) La matrice associata ad f nel riferimento naturale $0 2 0' ; essendo tale $ ' #1 0 3 &
matrice simmetrica, f simmetrico. (b) Il polinomio caratteristico di f p(t) = (2 t) (t2 6t + 8), le cui radici sono 2, ! con molteplicit algebrica 2, e 4 con molteplicit algebrica 1. Una base ortonormale di V(2) {(0, 1, 0), (1/ 2 , 0, -1/ 2 )} e una base ortonormale di V(4) {(1/ 2 , 0, 1/ 2 )}. Ne segue che {(0, 1, 0), (1/ 2 , 0, -1/ 2 ), (1/ 2 , 0, 1/ 2 )} una base ortonormale di R 3 formata da autovettori di f. ! !

6. DIAGONALIZZAZIONE ORTOGONALE DI UNA MATRICE REALE SIMMETRICA Una matrice quadrata A di ordine n sul campo reale R detta

ortogonalmente diagonalizzabile se esiste una matrice ortogonale P tale che PtAP (= P-1AP) una matrice diagonale. Una matrice A ortogonalmente diagonalizzabile dunque una matrice diagonalizzabile mediante una matrice ortogonale P (matrice che diagonalizza A). Cos come nel Paragrafo 3 del Cap. V, una matrice quadrata reale A di ordine n sar vista come matrice associata nel riferimento naturale R di R endomorfismo FA : X R
n n

all

AX R n; inoltre si penser R

dotato del

prodotto scalare standard. Proposizione 6.1. Una matrice simmetrica reale ortogonalmente

diagonalizzabile. 177

Dimostrazione. Sia A una matrice simmetrica reale di ordine n. Poich A la matrice associata allendomorfismo FA nel riferimento naturale R e tale riferimento ortonormale, dalla (ii) della Proposizione 5.1 segue che FA un endomorfismo simmetrico. Per la Proposizione 5.3, esiste un riferimento ortonormale R di R
n

formato da autovettori di FA. Diciamo D la matrice (diagonale) associata ad FA in R. Per la Proposizione 4.5 del Cap. IV, D = P-1AP, dove P la matrice di passaggio da R a R. Poich, per la Proposizione 3.3, P una matrice ortogonale, allora D = P-1AP = PtAP e lasserto provato. Si prova che il risultato espresso dalla Proposizione 6.1 si pu invertire. Vale pertanto la seguente Proposizione 6.2. Una matrice quadrata sul campo reale ortogonalmente diagonalizzabile se, e solo se, essa simmetrica. ESEMPI

"5 3 % 6.1. Assegnata la matrice simmetrica reale A = $ ' , determiniamo una matrice # 3 5&
diagonale simile ad A e una matrice ortogonale che diagonalizzi A. Il polinomio caratteristico di A p(t) = t2 10t + 16, le cui radici sono 2 ed 8, ! entrambe con molteplicit algebrica 1. Una base ortonormale di V(2) {(1/ 2 , 1/ 2 )} e una base ortonormale di V(8) {(1/ 2 , 1/ 2 )}. Ne segue che {(1/ 2 , 1/ 2 ), (1/ 2 , 1/ 2 )} una base ortonormale di R
2

formata da

" $ autovettori di A e! ! la matrice P = $ quindi ! ! $$ #

1 2 1 2

1 ! % ! ' 2' una matrice ortogonale che 1 ' ' 2 &

178
!

diagonalizza A. Una matrice diagonale simile ad A dunque la matrice D =

"2 0% PtAP = $ '. #0 8&


"1 0 0% $ ' 6.2. Assegnata la matrice simmetrica reale A = $0 -1 2 ' , determiniamo una $ ' ! #0 2 -1 &
matrice diagonale simile ad A e una matrice ortogonale che diagonalizzi A. Il polinomio caratteristico di A p(t) = (1 t) (t2 + 2t 3), le cui radici sono 1, con ! molteplicit algebrica 2, e 3 con molteplicit algebrica 1. Una base ortonormale di V(1) {(1, 0, 0), (0, 1/ 2 , 1/ 2 )} e una base ortonormale di V(3)

{(0, 1/ 2 ,

1/ 2 )}. Ne segue che {(1, 0, 0), (0, 1/ 2 , 1/ 2 ),


3

(0, 1/ 2 , 1/ 2 )} una! base ortonormale di R !

formata da autovettori di A e

! ! quindi la matrice

" $1 $ P = $0 $ $ $0 #

0 1 2 1 2

% 0 ' ' 1 ' 2' ' 1 ' 2&

una matrice ortogonale che

diagonalizza A. Una matrice diagonale simile ad A dunque la matrice D = P t A

"1 0 0 % $ ' P = $ 0 1 0' . $ ' # 0 0 - 3&

179

CAPITOLO VIII CONICHE

1. GENERALITA SULLE CURVE ALGEBRICHE PIANE Nel presente capitolo studieremo alcuni luoghi geometrici notevoli di un piano in cui supporremo fissata una unit di misura u per le lunghezze. Si definisce curva algebrica di ordine n del piano l insieme dei punti di rappresentato in un riferimento da unequazione algebrica di grado n, cio da unequazione f(x, y) = 0, dove f(x, y) un polinomio di grado n nelle indeterminate x e y a coefficienti reali. La definizione ben posta in quanto dalle formule di trasformazione delle coordinate di un punto nel passaggio da un riferimento ad un altro (cfr. Cap. VI, Par.5 ) si deduce che lo stesso insieme di punti rappresentato in ogni altro riferimento ancora da unequazione algebrica di grado n. Le rette sono curve algebriche di ordine 1. Le curve algebriche di ordine 2 sono dette coniche. ESEMPI DI CONICHE 1.1. Una circonferenza (cfr. Cap. VI, Par. 12). 1.2. Lunione di due rette (distinte o coincidenti). Siano infatti r ed r due rette rappresentate in un riferimento rispettivamente dalle equazioni ax + by + c = 0 e ax + by + c = 0. Detto P(x0, y0) un punto del piano, si ha :

180

P(x0, y0) r r P(x0, y0) r oppure P(x0, y0) r ax0 + by0 + c = 0 oppure ax0 + by0 + c = 0 (ax0 + by0 + c) (ax0 + by0 + c) = 0. Lequazione (ax + by + c) (ax + by + c) = 0, che algebrica di secondo grado, rappresenta dunque linsieme r r. 1.3. Un punto. Sia infatti A e siano x0 ed y0 le coordinate di A in un riferimento R. Lequazione (x x0)2 + (y y0)2 = 0 algebrica di secondo grado ed A lunico punto le cui coordinate in R costituiscono una soluzione di tale equazione. 1.4. Il vuoto. Esso infatti rappresentato da ogni equazione algebrica di secondo grado a coefficienti reali che non abbia soluzioni (reali), ad esempio x2 + y2 + 1 = 0 oppure x2 + y2 + 2xy + 1 = 0. Nel seguito troveremo altri esempi di coniche. Prima di concludere questo paragrafo, introduciamo la nozione di simmetria (rispetto ad un punto e rispetto ad una retta) che sar utile per studiare alcune propriet della coniche. Sia C un punto del piano. Si dice simmetrico del punto P rispetto a C il punto P tale che C punto medio del segmento PP. Si dice che C centro di simmetria per un insieme X di punti del piano (oppure che X simmetrico rispetto a C) se, per ogni P in X, il simmetrico di P rispetto a C appartiene ancora ad X. ESEMPI 1.5. Il centro di una circonferenza centro di simmetria per essa. 1.6. Ogni punto di una retta centro di simmetria per la retta stessa. 181

Sia a una retta. Si dice simmetrico del punto P rispetto ad a il punto P tale che H punto medio del segmento PP, dove H il punto di intersezione di a con la retta per P ortogonale ad a. Si dice che a asse di simmetria (ortogonale) per un insieme X di punti del piano (oppure che X simmetrico rispetto ad a) se, per ogni P in X, il simmetrico di P rispetto ad a appartiene ancora ad X. ESEMPI 1.7. Ogni retta passante per il centro di una circonferenza asse di simmetria per la circonferenza stessa. 1.8. Siano r ed s due rette ortogonali. Ciascuna di esse asse di simmetria per laltra. Osserviamo che, fissato un riferimento R, il simmetrico del punto P(x, y) rispetto allorigine il punto P(-x, -y), il simmetrico di P rispetto allasse x il punto P(x, -y) e il simmetrico di P rispetto allasse y il punto P(-x, y). Ne segue che, se un insieme X simmetrico sia rispetto allasse x che rispetto allasse y, allora X simmetrico rispetto allorigine. 2. ELLISSE, IPERBOLE E PARABOLA - Ellisse Siano F ed F due punti. Indicata con 2c la loro distanza, fissiamo un numero reale a > c. Si definisce ellisse di fuochi F ed F e semiasse maggiore a il luogo E dei punti P del piano tali che d(P, F) + d(P, F) = 2a. Se F = F, E la circonferenza di centro F e raggio a. Dora in poi supporremo F F. Fissiamo il riferimento R = (O, Rv = (ex, ey)), dove O il punto medio del segmento FF, ex 182

il versore parallelo e concorde al vettore libero FF ed ey un versore ortogonale ad ex. In tale riferimento le coordinate di F ed F sono rispettivamente (-c, 0) e (c, 0). Detto P(x, y) il generico punto del piano, si ha : P(x, y) E d(P, F) + d(P, F) = 2a
(x + c) 2 + y 2 + (x - c) 2 + y 2 = 2a

(razionalizzando) (a2 c2)x2 + a2y2 = a2(a2 c2) (ponendo b = a 2 - c 2 )


b2x2 + a2y2 = a2b2 Lequazione (2.1)
! x2 y2 + 2 = 1 a2 b x2 y2 ! + 2 = 1. a2 b
!

nelle indeterminate x e y rappresenta dunque lellisse E nel riferimento fissato. Dalla (2.1) si deduce che sia la retta che congiunge i fuochi, sia lasse del ! segmento FF sono assi di simmetria per E; ne segue che il punto medio di FF centro di simmetria per E. Per studiare landamento di E (cfr. fig. 1) basta allora esaminare la parte di E contenuta nel primo quadrante, rappresentata dalla funzione

y =

b 2 a - x 2 con 0 x a. a

Figura 1 183

Il riferimento R e ciascuno dei riferimenti ottenuti da esso cambiando il verso ad uno o ad entrambi gli assi (riferimenti in cui lellisse E rappresentata ancora dallequazione (2.1)) detto riferimento canonico per lellisse. Analogamente, sono detti riferimenti canonici i quattro riferimenti ottenuti dai precedenti scambiando lasse x con lasse y, riferimenti in cui lequazione di E diventa (2.2) Ogni equazione che
x2 y2 + 2 = 1. b2 a

rappresenta E in un riferimento canonico detta

equazione canonica dellellisse. ! - Iperbole Siano ora F ed F due punti distinti. Indicata con 2c la loro distanza, fissiamo un numero reale a, con 0 < a < c. Si definisce iperbole di fuochi F ed F e semiasse focale a il luogo I dei punti P del piano tali che | d(P, F) d(P, F) | = 2a. Fissiamo il riferimento R = (O, Rv = (ex, ey)), dove O il punto medio del segmento FF, ex il versore parallelo e concorde al vettore libero FF ed ey un versore ortogonale ad ex. In tale riferimento le coordinate di F ed F sono rispettivamente (-c, 0) e (c, 0). Detto P(x, y) il generico punto del piano, si ha : P(x, y) I | d(P, F) d(P, F) | = 2a | (x + c) 2 + y 2 2a (razionalizzando) (c2 a2)x2 a2y2 = a2(c2 a2)
(x - c) 2 + y 2 | =

(ponendo

x2 y2 b = c 2 - a 2 ) b2x2 a2y2 = a2b2 ! 2 - 2 = 1. ! a b

Lequazione

184

(2.3)

x2 y2 - 2 = 1 a2 b

nelle indeterminate x e y rappresenta dunque liperbole I nel riferimento fissato. Dalla (2.3) si deduce che sia la retta che congiunge i fuochi, sia lasse del ! segmento FF sono assi di simmetria per I; ne segue che il punto medio di FF centro di simmetria per I. Per studiare landamento di I (cfr. fig. 2) basta allora prendere in esame la parte di I contenuta nel primo quadrante, rappresentata dalla funzione

y =

b 2 x - a 2 con x a. Osserviamo anche che liperbole ha due a

asintoti (che nel riferimento R sono rappresentati rispettivamente dalle equazioni y! =

b b x e y = x ). a a

Figura 2 Il riferimento R e ciascuno dei riferimenti ottenuti da esso cambiando il verso ad uno o ad entrambi gli assi (riferimenti in cui liperbole I rappresentata ancora dallequazione (2.3)) detto riferimento canonico per liperbole. 185

Analogamente, sono detti riferimenti canonici i quattro riferimenti ottenuti dai precedenti scambiando lasse x con lasse y, riferimenti in cui lequazione di I diventa (2.4)
" x2 y2 + 2 = 1. b2 a

Ogni equazione che rappresenta I in un riferimento canonico detta ! equazione canonica delliperbole. -Parabola Siano d una retta ed F un punto non appartenente a d. Si definisce

parabola di fuoco F e direttice d il luogo P dei punti P del piano tali che d(P, F) = d (P, d ). Indichiamo con p la distanza di F da d. Detto H il punto di intersezione con d della retta per F ortogonale a d, fissiamo il riferimento R = (O, Rv = (ex, ey)), dove O il punto medio del segmento HF, ex il versore parallelo e concorde al vettore libero HF ed ey un versore ortogonale ad ex. In tale

p riferimento le coordinate di F sono ( , 0) e d rappresentata dallequazione 2 p . Detto P(x, y) il generico punto del piano, si ha : 2 ! p P(x, y) P d(P, F) = d(P, d ) (x - ) 2 + y 2 = 2
x=-

x+

p 2

(razionalizzando) y2 = 2px. Lequazione (2.5)


! y2 = 2px !

186

nelle indeterminate x e y rappresenta dunque la parabola P nel riferimento fissato. Dalla (2.5) si deduce che la retta per F ortogonale a d asse di simmetria per P e che per studiare landamento di P (cfr. fig. 3) basta considerare la parte di P contenuta nel primo quadrante, rappresentata dalla funzione x 0.
! y = 2px , con

d
Figura 3 Il riferimento R e ciascuno dei riferimenti da esso ottenuti cambiando il verso ad uno o ad entrambi gli assi detto riferimento canonico per la parabola. Analogamente, sono detti riferimenti canonici quelli ottenuti dai precedenti scambiando lasse x con lasse y.

187

Ogni equazione che rappresenta P in un riferimento canonico detta equazione canonica della parabola. Poich ellisse, iperbole e parabola sono rappresentate da equazioni algebriche di secondo grado a coefficienti reali, esse sono coniche.

188

3. STUDIO DI UNA CONICA Come abbiamo visto nei paragrafi 1 e 2, esistono vari tipi di coniche : linsieme vuoto, un punto, lunione di due rette (distinte o coincidenti), la circonferenza, lellisse, liperbole e la parabola. Lo scopo del presente paragrafo quello di mostrare che ogni conica necessariamente di uno di questi tipi.

Sia C una conica. Fissato un riferimento R = (O, Rv = (ex, ey)), sia (3.1) ax2 + by2 + cxy + dx + ey + g = 0 unequazione che rappresenta C in R. Ogni equazione proporzionale alla (3.1) mediante un coefficiente h 0 rappresenta ovviamente la stessa conica. Posto a11 = a, a12 = a21 = lequazione (3.1) diventa a11x2 + a22y2 + 2a12xy + 2a13x + 2a23y + a33 = 0. ! ! ! La matrice A = (aij), 1 i, j 3, detta matrice di C in R (associata allequazione (3.2) (3.2)). Vediamo ora due forme matriciali in cui si pu scrivere lequazione di una conica, ciascuna delle quali ci sar utile per studiare alcune propriet della conica stessa.

c d e , a13 = a31 = , a22 = b, a23 = a32 = , a33 = g, 2 2 2

Forma 1. (3.3)

" x% $ ' Ponendo X1 = $ y' , lequazione (3.2) si scrive cos : $ ' #1 &
X1t A X1 = 0.

!
189

" x = b11x' + b12 y' + c1 Sia ora R un altro riferimento e siano # le formule di $ y = b 21x' + b 22 y' + c 2
passaggio da R a R che, in forma matriciale, diventano (3.4) X = B X + C, ! " x'% "c1 % X = $ ' e C = $ ' . Osserviamo che, per la # y'& #c 2 &

" x% "b11 b12 % dove X = $ ' , B = $ ', # y& #b 21 b 22 &

" x'% $ ' Proposizione 3.3 del Cap. VII, la matrice B ortogonale. Ponendo X'1 = $ y'' e $ ' ! ! ! ! #1 & "b11 b12 c1 % $ ' B1 = $b 21 b 22 c 2 ' , la (3.4) equivalente a $ ' #0 0 1 &
(3.5) X1 = B1 X'1 .
!

t Applicando la (3.5), la (3.3) diventa (B1 X'1 )t A B1 X'1 = ( X'1 )t (B 1 A B1) X'1 = 0 ! t t t e dunque la matrice A di C in R B 1 A B1. Poich |B 1 A B1| = |B 1 | |A| | B1| =

| B1|2 |A| , ne segue, essendo | B1| = | B| e | B|2 = 1 (essendo B ortogonale), che ! ! ! ! ! (3.6) | A| = | A| . ! ! ! Forma 2.

"a11 a12 % " x% Ponendo M = $ ' , N = ( 2a13 2a23) e X = $ ' , lequazione #a 21 a 22 & # y&

(3.2) si scrive cos : (3.7) Xt M X + N X + a33 = 0. ! ! Osserviamo che la somma dei termini di secondo grado nella (3.2), cio

a11x2 + a22y2 + 2a12xy, uguale a Xt M X e che |M| = A33, complemento algebrico dellelemento a33 della matrice A.

190

Sia ora R un altro riferimento e siano le (3.4) le formule di passaggio da R a R. Applicando tali formule, la (3.7) diventa (B X + C)t M (B X + C) + N (B X + C) + a33 = 0. In tale equazione, che rappresenta C in R, la somma dei termini di secondo grado (X)t (Bt M B ) X. Ne segue che (3.8) A33 = | Bt M B | = | B |2 A33 = A33 . Si dimostra inoltre che, se A33 > 0 e a11|A| 0, allora anche a11|A| diverso da 0 ed concorde con a11|A|. Vogliamo ora determinare un opportuno riferimento (riferimento canonico) in cui lequazione della conica diventa particolarmente semplice (equazione canonica). Per far questo fissiamo lattenzione sullequazione della conica nella forma (3.7). Poich la matrice M una matrice simmetrica reale, esiste una matrice ortogonale P tale che Pt M P una matrice diagonale D avente sulla diagonale principale gli autovalori di M (cfr. Cap. VII, Par. 6). Osserviamo subito che, poich M non la matrice nulla, i suoi autovalori non possono essere entrambi uguali a zero (infatti in tal caso D sarebbe la matrice nulla e da Pt M P = P-1 M P = D =

"0 0% "0 0% -1 $ ' si otterrebbe M = P D P = $ ' ). #0 0& #0 0&


Consideriamo il riferimento ortogonale monometrico R=(O, Rv =

(ex, ey)) avente la stessa origine di R e in cui i versori ex ed ey sono i vettori ! liberi le cui componenti in Rv sono le colonne della matrice P. Evidentemente, X = P X sono le formule di passaggio da R ad R. Nel riferimento R, lequazione della conica diventa (X)t D X + (NP) X + a33 = 0. Detti h1 e h2 gli autovalori di M, tale equazione si scrive : (3. 9) h1x2 + h2y2 + n1x + n2y + a33 = 0, 191 dove n1x + n2y = (NP) X.

Distinguiamo due casi. 1 caso : h1 e h2 entrambi diversi da 0. Effettuiamo ora un nuovo cambio di riferimento; precisamente, per ogni scelta di , R , scegliamo il riferimento R = (O, Rv = (ex, ey)) dove O il punto di

$ x' = x"+ " coordinate (, ) in R. Le formule di passaggio da R ad R sono % . & y' = y"+ #
Applicando tali formule alla (3.9), lequazione della conica in R diventa: h1x2 + h2y2 + (2h1 +n1)x + (2h2 + n2)y + h12 + h22 + n1 + n2 + a33 = 0. ! Poich h1 e h2 sono entrambi diversi da 0, possibile scegliere e in modo tale che nellequazione precedente i coefficienti di x e y siano entrambi uguali a 0 (basta porre = conica diventa (3.10)
! ! avendo indicato con p il termine noto. Esaminiamo ora le varie possibilit che n1 n e = - 2 ). Con questa scelta di e , lequazione della 2h1 2h 2

h1x2 + h2y2 + p = 0,

possono presentarsi per i coefficienti della (3.10). (i) h1e h2 concordi e p = 0 (|A| = 0 e A33 > 0). Poich (0, 0) lunica soluzione della (3.10), allora C coincide con lorigine del riferimento. (ii) h1e h2 discordi e p = 0 (|A| = 0 e A33 < 0). Poich il polinomio a primo membro della (3.10) si scompone nel prodotto di due fattori di primo grado (a coefficienti reali), allora C lunione di due rette (non parallele) (cfr. Esempio 1.2). (iii) h1, h2 e p concordi (|A| 0, A33 > 0 e h1|A| > 0). Poich nessun punto del piano ha coordinate soddisfacenti lequazione (3.10), allora C = . (iv) h1, h2 concordi, ma discordi con p (|A| 0, A33 > 0 e h1|A| < 0). Dividendo la (3.10) per p si ottiene
x"2 y"2 + 2 a2 b

= 1, avendo posto -

h1 1 = 2 p a

192

h2 1 = 2 . Per la (2.1), C unellisse. Notiamo che, se h1 = h2, allora C in p b

particolare una circonferenza.


!

(v) h1 e h2 discordi e p 0 (|A| 0 e A33 < 0). Supponiamo p concorde con h1 ! (analogamente si ragiona nellaltro caso). Dividendo la (3.10) per p si ottiene
h 1 x"2 y"2 - 2 = 1, avendo posto - 1 = 2 2 p a a b

e -

h2 1 = - 2 . Per la (2.3), C p b

uniperbole.
!

2 caso. h1 oppure h2 uguale a 0. ! ! ! ! Per fissare le idee supponiamo h1 = 0 (analogamente si ragiona nellaltro caso). Effettuiamo ora un nuovo cambio di riferimento; precisamente, per ogni scelta di

$ x' = x"+ " , R , scegliamo il riferimento R tale che % sono le formule di & y' = y"+ #
passaggio da R ad R. Applicando tali formule alla (3.9), lequazione della conica in R diventa h2y2 + n1x + (2h2 + n2)y + h22 + n1 + n2 + a33 = 0. Poich h2 ! diverso da 0, possibile scegliere in modo tale che nellequazione precedente il coefficiente di y sia uguale a 0 (basta porre = lequazione della conica diventa (3.11)
" n2 %2 n2 h2y + n1x + h2 $+ + a33 = 0. ' ! n1 - n2 2h 2 # 2h 2 &
2

n2 ). Con questa scelta di , 2h 2

Esaminiamo ora le varie possibilit che possono presentarsi per i coefficienti della (3.11).
! ! (i) n1 = 0 (|A| = 0 e A33 = 0). La (3.11) diventa h2y2 + p = 0, avendo indicato con

p il termine noto. (a) Se p = 0, C coincide con lasse delle ascisse (contato due volte); (b) se p 0 e h2 e p sono concordi, allora C = ; 193

(c) se p 0 e h2 e p sono discordi, allora C lunione di due rette parallele allasse delle ascisse. (ii) n1 0 (|A| 0 e A33 = 0). In tal caso possibile scegliere in modo da annullare il termine noto nella (3.11) che diventa dunque h2y2 + n1x = 0. Per la (2.5), C una parabola. Le considerazioni fin qui svolte comportano che per stabilire di che tipo la conica C rappresentata in un riferimento R dallequazione (3.2) basta conoscere |A|,

"a11 a12 % a11|A| e A33= h1h2, essendo h1 e h2 gli autovalori della matrice M = $ '. #a 21 a 22 &
Precisamente : - Se |A| = 0, la conica, se non vuota, un punto oppure lunione di due ! rette, dette le componenenti della conica. In questultimo caso il polinomio al primo membro della (3.2) si pu scomporre nel prodotto di due polinomi di primo grado che, uguagliati a zero, danno le equazioni delle due componenti della conica (cfr. Esempio 1.2). - Se invece |A| 0, si ha :
" % % A33 < 0 % # A33 = 0 % %A > 0 % 33 $ iperbole parabola . "a11 | A | > 0 insieme vuoto # $a11 | A | < 0 ellisse

|A| 0

Sia C . Se C un punto oppure lunione di due rette, essa detta degenere; in caso contrario, essa detta non degenere. Osserviamo esplicitamente ! che una conica non degenere necessariamente unellisse, uniperbole o una parabola. 194

4.

ESERCIZI SULLE CONICHE Fissato in un piano un riferimento cartesiano ortogonale monometrico R,

studiamo la conica C rappresentata dalla seguente equazione : 4.1. x2 + y2 + 2xy + 3 = 0.

"1 1 0 % $ ' Scriviamo la matrice A associata a C in R : A = $1 1 0 ' . Essendo |A| = 0 e $ ' #0 0 3&
A33 = 0, C, se non vuota, degenere ed lunione di due rette propriamente o impropriamente parallele (cfr. Par.3, 2 caso, (i)) . Poich daltra parte si vede ! subito che x2 + y2 + 2xy + 3 = (x + y)2 + ( 3 )2 e nessuna coppia di numeri reali annulla questo polinomio, C necessariamente vuota. 4.1. x2 + y2 + 2xy - 3 = 0.

"1 1 0 % $ ' Scriviamo la matrice A associata a C in R : A = $1 1 0 ' . Essendo |A| = 0 e $ ' #0 0 - 3&
A33 = 0, allora C, se non vuota, degenere ed lunione di due rette propriamente o impropriamente parallele (cfr. Par.3, 2 caso, (i)) . Poich daltra parte si vede ! 2 2 subito che x + y + 2xy - 3 = (x + y)2 - ( 3 )2 = (x + y + 3 ) (x + y - 3 ), allora C lunione delle due rette propriamente parallele di equazione, rispettivamente, x + y +

3 =0 e x+y!

3 = 0. !

4.1. x2 + y2 + 2xy = 0. ! ! Si vede subito che x2 + y2 + 2xy = (x + y)2 e quindi C lunione delle due rette impropriamente parallele di equazione x + y = 0. 195

Daltra parte, |A| = 0 e A33 = 0 e quindi C una delle coniche esaminate nel Par.3, 2 caso, (i). Osservazione 4.1. Il 2 caso (i) del Paragrafo 3, caso in cui |A| = 0 e A33 = 0, si presenta solo se lequazione della conica del tipo (mx + ny)2 + q = 0, come negli esempi 4.1, 4.1 e 4.1. La conica rispettivamente vuota o unione di due rette propriamente o impropriamente parallele a seconda che sia q > 0, q < 0 o q = 0. 4.2. Poich x2 + y2 4y + 4 = 0. x2 + y2 4y + 4 = 0 si pu scrivere x2 + (y 2)2 = 0 e tale equazione

ammette (0, 2) come unica soluzione, allora C coincide con il punto P(0, 2) e quindi degenere.

1 0 0 Daltra parte, |A| = 0 1 - 2 = 0 e A33 = 1 > 0 (cfr. Par.3, 1 caso, (i)). 0 -2 4

4.3.

" $0 $ Scriviamo la matrice A associata a C in R : A = $2 $ $ $4 #

4xy + 8x y 2 = 0 !

2 0 1 2

% 4' ' 1 - ' . Essendo |A| = 0 e 2' ' - 2' &

A33 < 0, allora C degenere ed lunione di due rette non parallele (cfr. Par.3, 1 caso, (ii)). Poich 4 xy + 8x y 2 = (4x 1 ) (y + 2), allora le due componenti ! della conica sono le due rette di equazione 4x 1 = 0 e y + 2 = 0.

196

4.3.

2x2 xy + 3x 2y 2 = 0.
1 2 0 -1 3% 2' ' -1' . Essendo |A| = 0 ' ' -2 ' &

" $2 $ 1 Scriviamo la matrice A associata a C in R : A = $$ 2 $ 3 $ # 2

e A33 < 0, allora C degenere ed lunione di due rette non parallele (cfr. Par.3, 1 caso, (ii)). Poich 2x2 xy + 3x 2y 2 = (x + 2 ) ( 2x y 1), allora le due ! componenti della conica sono le due rette di equazione x + 2 = 0 e 2x y 1 = 0. Osservazione 4.2. Sia |A| = 0 e A33 < 0 (1 caso (ii) del Paragrafo 3). Diamo un metodo per scomporre il polinomio a primo membro della (3.2) nel caso in cui almeno uno dei coefficienti di x2 e y2 diverso da zero. Sia a11 0 (analogamente si procede se a22 0). Ordinando il polinomio secondo le potenze decrescenti della x, esso diventa a11x2 + 2(a12 y + a13) x + a22 y2 + 2 a23 y + a33 e, considerandolo come polinomio nella sola indeterminata x, esso si scompone cos : a11(x x1 ) ( x x2), avendo indicato con x1 e x2 le sue radici. 4.4. x2 + 4y2 + 2x + 7 = 0.

"1 0 1 % $ ' Scriviamo la matrice A associata a C in R : A = $0 4 0' . Poich |A| = 24 0, $ ' #1 0 7 &
A33 = 4 > 0 e a11|A| = 24 > 0, allora C = . Notiamo che per capire che C = bastava osservare che x2 + 4y2 + 2x + 7 = ! (x + 1)2 + (2y)2 + 6 e che nessuna coppia di numeri reali annulla questo polinomio.

197

4.5.

2x2 + 2xy + 2y2 + x 2y 3 = 0.

" 1% 1 $2 2' $ ' Scriviamo la matrice A associata a C in R : A = $1 2 -1' . Poich |A| = $1 ' $ -1 - 3 ' #2 &

25 0, A33 = 3 > 0 e a11 |A| = - 25 < 0, allora C non degenere ed una ellisse 2 ! (cfr. Par. 3). Vogliamo ora determinare unequazione canonica dellellisse C. A tale
-

scopo occorre per prima cosa diagonalizzare ortogonalmente la matrice simmetrica

"2 1% reale M = $ ' . Una matrice ortogonale che diagonalizza M la matrice #1 2&
" $P=$ !$ $ # 1 2 1 2 1 % ' 2' e la matrice diagonale Pt M P 1 ' ' 2&

"1 0 % $ '. #0 3&

Nel riferimento R tale che X = P X sono le formule di passaggio da R ad R, ! lequazione della conica diventa (continuando a indicare le indeterminate con x e y, anzich con x e y) x2 + 3y2 3 2 2 xy 3 = 0. 2 2

$ x = x' + " Detto R, un riferimento tale che % sono le formule di passaggio da R, & y = y' + # ! ! ad R, lequazione di C in R,
x2 + 3y2 + (2 3 2 2 3 2 ! )x + (6 )y + 2 + 32 2 2 2 2 3 = 0 2

(continuando a indicare le indeterminate con x e y). E possibile determinare e in modo tale che R, sia un riferimento canonico (cfr. Par. 3, 1 caso); basta porre ! ! ! ! 25 3 2 2 = e= . Unequazione canonica di C dunque x2 + 3y2 = 0. 6 4 12 198
! !

4.6.

2x2 + 2 3 xy 2x 1 = 0.
3 0 0 -1% ' 0 ' . Poich |A| = ' -1' &

"2 $ Scriviamo la matrice A associata a C in R : A = $ 3 ! $-1 $ #

3 0, A33 = - 3 < 0, allora C non degenere ed uniperbole (cfr. Par. 3). Vogliamo ora determinare unequazione canonica delliperbole C. Una matrice ! " 3 1% - ' $ "2 % 3 2' ' la matrice P = $ 2 ortogonale che diagonalizza la matrice M = $ e $ ' $ 1 3' 3 0& # $ ' # 2 2 &

" 3 0% la matrice diagonale Pt M P $ '. -1 #0 ! &

! Nel riferimento R tale che X = P X sono le formule di passaggio da R ad R,

lequazione della conica diventa 3x2 - y2 - 3 x + y 1 = 0. ! $ x = x' + " Detto R, un riferimento tale che % sono le formule di passaggio da R, & y = y' + # ! ad R, lequazione di C in R, 3x2 - y2 + (6 - 3 )x + (-2 + 1)y + 32 - 2 - 3 + 1 = 0. E possibile ! determinare e in modo tale che R, sia un riferimento canonico (cfr. Par. 3,

! 1 caso); basta porre =


3x2 - y2 - 1 = 0.
!

1 3 e = ! . Unequazione canonica di C dunque 2 6

199

4.7.

4x2 + y2 4xy + 2y = 0.

" 4 -2 $ Scriviamo la matrice A associata a C in R : A = $-2 1 $ #0 1

0% ' 1' . Poich |A| = -4 0 ' 0&

e A33 = 0, allora C una parabola (cfr. Par. 3). Vogliamo ora determinarne unequazione canonica. Una matrice ortogonale che diagonalizza la matrice ! " 1 2 % $ ' # 4 - 2& 5 5' M = % e la matrice diagonale Pt M P ( la matrice P = $ "2 1' 2 1 ' $ $ $ ' # 5 5&

! Nel riferimento R tale che X = P X sono le formule di passaggio da R ad R,

"0 0% $ '. #0 5&

lequazione della conica diventa 5 y2 +

4 5 2 5 x+ y = 0. 5 5 4 5 x = 0. 5

Per quanto visto nel Paragrafo 3, 2 caso (ii), esiste un riferimento canonico per C in cui lequazione della parabola 5y2 + ! !

200