Sei sulla pagina 1di 144

Note di Algebra lineare e geometria analitica

Prof. Domenico Olanda

Prefazione

Questo volume raccoglie gli appunti di alcune lezioni di algebra lineare e geometria da me
svolte presso la Facolt di Ingegneria dell'Universit "Federico II" di Napoli.

La prima parte dedicata allo studio degli spazi vettoriali di dimensione finita. La nozione di
determinante di una matrice quadrata e le ragioni del suo utilizzo sono gli aspetti essenziali del
secondo capitolo. Lo studio e la risoluzione dei sistemi di equazioni lineari largomento
sviluppato nel terzo capitolo. Il quarto capitolo dedicato allo studio dei prodotti scalari di uno
spazio vettoriale reale.
Il problema della triangolazione e della diagonalizzazione di una matrice quadrata
l aspetto essenziale del quinto capitolo.
Una esposizione breve della geometria analitica del piano e dello spazio conclude il volume.

La vastissima letteratura sugli argomenti trattati non giustifica la stesura di queste note le
quali hanno solo lo scopo di aiutare gli studenti che hanno seguito le mie lezioni, nella
preparazione dell'esame. Sar utile per lo studente integrare lo studio di questi appunti con la
lettura di qualche altro testo sugli stessi argomenti e di livello universitario.

Hilbert- Ah , quello l. Ma certo che lo conosco. Una volta stato uno dei miei allievi.
Dopo diventato poeta: evidentemente gli mancata la fantasia per dedicarsi
alla matematica.

CAPITOLO I
Spazi vettoriali

1. Gruppi abeliani.
Un'operazione (interna)

in un insieme S un'applicazione

di S xS in S . Denoteremo con x y l'immagine di

S xS
S

sulla coppia (x , y) e leggeremo " x

composto y " .
L'operazione detta associativa se risulta :
x,y,z S ,

(x

z = x

(y

z).

L'operazione detta commutativa se risulta :


x,y S ,

= y

x.

Un elemento e di S detto neutro rispetto all'operazione


x S,

se risulta :

xe= ex=x

Evidentemente se esiste l'elemento neutro rispetto all'operazione


e' due elementi neutri rispetto all'operazione , si ha allora
Sia (S, ) un insieme munito di un'operazione

esso 'unico Siano infatti e ed

e = e e' = e'.

e dotata di elemento neutro e . Un elemento

x' detto simmetrico dell'elemento x se risulta :


x x' = x' x = e
Se l'operazione

associativa il simmetrico di un elemento x se esiste , unico . Siano infatti x'

ed x" due simmetrici dell'elemento x , si ha allora , in base alla definizione


x x' = x' x = x x" = x"

x=e.

e conseguentemente :

x'= x' e= x'(x x")= (x' x) x" = e x" = x"


Sia S un insieme munito di un'operazione

. La coppia (S, ) detta un gruppo se sono

verificata le seguenti propriet :


(i)

l operazione

( ii )

esiste l'elemento neutro per loperazione

( iii )

ogni elemento di S dotato di simmetrico .

associativa ;

Quando l'operazione altres commutativa il gruppo (S, ) detto abeliano o commutativo .

Quando come segno per l'operazione si usa il simbolo + , si dir che stata adottata la
notazione additiva ed in tal caso l'elemento neutro, se esiste, si indica con 0 e viene detto zero ed
il simmetrico di un elemento x viene indicato con -x ed detto opposto di x . Se come simbolo
per rappresentare l'operazione si usa il simbolo

si dir che stata adottata la notazione

moltiplicativa ; in tal caso l'elemento neutro se esiste viene indicato con 1 e viene detto unit ed
il simmetrico di un elemento x viene indicato con x -1 o con

1
x

e viene detto inverso di x .

Diamo ora alcuni esempi di gruppi .

ESEMPIO I . Sia Z =

{..-2 , -1 , 0 , 1 , 2 .. }

linsieme degli interi relativi e +

lusuale addizione tra interi. Lo studente verifichi che ( Z , + ) un gruppo abeliano.

ESEMPIO II. Sia Q l'insieme dei numeri razionali e sia + l'usuale addizione tra numeri
razionali . Lo studente verifichi che la coppia (Q, +) un gruppo abeliano.

ESEMPIO II . Sia Q* l'insieme dei numeri razionali non nulli e sia . l'usuale
moltiplicazione tra numeri razionali . Lo studente verifichi che (Q*, .) un gruppo abeliano.
ESEMPIO III. Sia Rn l'insieme delle n-uple ordinate di numeri reali. Definiamo in Rn la
seguente operazione di addizione:
(xl, x2,..., xn) + (y1, y2,..., yn) = (xl + y1, x2 + y2 , .., xn + yn)
Lo studente verifichi che ( Rn, + ) un gruppo abeliano.
ESEMPIO IV. Una matrice A di tipo (m,n) (con m,n N ) ad elementi reali una tabella
di mn

numeri reali disposti su m righe ed n colonne.

Indicando con aij il numero che si trova nella riga di posto i e nella colonna di posto j A pu cos
scriversi
a 11 a 12 ........ a 1n

a 21 a 22 ........ a 2n
A=

...

a
........
a
m2
mn
m1

o semplicemente con A = ( aij ) .


Indichiamo con M

mn

(R) l'insieme di tutte le matrici di tipo (m,n) con elementi reali.

Definiamo in M n,m (R) la seguente operazione di addizione :


( aij ) + ( b ij ) = ( aij + b ij )

Rispetto a tale operazione l'insieme M mn (R) un gruppo abeliano avente come elemento neutro la
matrice 0 = ( 0 ) ad elementi tutti nulli e come opposto di ogni elemento A=(aij) la matrice
- A = (-aij)

ESEMPIO V . Sia R linsieme dei numeri reali . Denotiamo con R [x1,x2,..,xn] l'insieme
dei polinomi di grado al pi uno a coefficienti in R nelle indeterminate ( x1,..
Se

ao + aix1+...+ anxn

xn ).

bo+b1x1+...+ bnxn

sono due siffatti polinomi si definisce somma dei due il seguente polinomio
ao + bo + (a1+ b1) x1 +....+ (an+ bn) xn
E' facile verificare che rispetto a tale operazione l'insieme R [x1,x2,..,xn] un gruppo abeliano .

2. Nozione di campo.
Sia K un insieme con almeno due elementi e munito di due operazioni interne che indicheremo
rispettivamente con + e

Chiameremo somma e prodotto le due operazioni + e

. Supporremo che loperazione + abbia

elemento neutro che indicheremo con 0 ed esista un elemento diverso da 0 e che indicheremo con
1 che sia elemento neutro per loperazione prodotto.
La terna (K, + , . ) detta un campo se sono verificate
le seguenti propriet :
1) (K , +) un gruppo abeliano ;
2) il prodotto associativo e commutativo ;
3) ogni elemento diverso da zero ha inverso ;

4) per ogni terna a,b,c di K si ha


a(b+c)= ab + ac
(propriet distributiva del prodotto rispetto alla somma ).
In un campo valgono le seguenti ulteriori propriet :
i)

Per ogni a K risulta a0 = 0.


Dimostrazione. a(b+0) = ab = ab + a0 e ci implica a0 = 0 .

ii) Il prodotto di due elementi zero se e solo se uno dei due elementi zero .
Si ha cio
ab = 0 se e solo se a = 0 oppure b = 0.
Dimostrazione. Se a =0 oppure b=0 per la i) ab = 0 . Viceversa supponiamo ab = 0 .
Se a = 0 l'asserto provato ; se a 0 moltiplichiamo ambo i membri dell'uguaglianza ab=0 per
l'inverso a-1 di a . In tal modo si ha :

a-1(ab)= a-l0 = 0 ; poich il prodotto associativo risulta

a-1(ab) = (a-1a)b = 1b = b = 0 e l'asserto cos provato.

Da quanto ora provato segue che se a e b sono due elementi di K diversi da zero allora il loro
prodotto ab diverso da zero . Se poniamo K* = K -{0} allora facile controllare che (K*, . ) un
gruppo abeliano.
Sono esempi di campi : l'insieme dei numeri razionali ; l'insieme dci numeri reali; l'insieme
dei numeri complessi , (rispetto alle usuali operazioni di addizione e moltiplicazione).

3. Spazi vettoriali su un campo.


Sia (K , + , .) un campo i cui elementi saranno detti scalari e sia V un insieme i cui elementi
saranno detti vettori con due operazioni : una di addizione

tra vettori

+:VxV
V

e l'altra di moltiplicazione esterna


*

:KxV
V.

la quale fa corrispondere ad ogni coppia ( , v) scalare- vettore ancora un vettore indicato con
* v

Linsieme V detto uno spazio vettoriale sul campo K , rispetto alle operazioni + e

, se

sono verificate le seguenti propriet :


(3.1)

(V, +) un gruppo abeliano ;

(3.2)

*v + *w = *(v + w)

(3.3)

*v + *v = ( + )*v

(3.4)

1*v = v

(3.5)

( . )*v = *( *v )

(con 1 si indicata l'unit di K)

( per ogni coppia di scalari , e per ogni coppia di vettori v , w di V ).


Nel seguito per semplicit, scriveremo anzich . ed v anzich *v . Indicheremo
usualmente con lettere greche gli scalari e con lettere latine i vettori. Il vettore nullo (elemento
neutro rispetto alla somma in V ) sar indicato con 0
indicato con 0.
Diamo ora alcuni esempi di spazi vettoriali :

distinguendolo cos dallo zero di K che sar

ESEMPIO 1. Sia K un campo . Nell'insieme Kn (n N, n 2) delle n-ple ordinate di elementi di


K introduciamo le seguenti due operazioni di somma e prodotto:
(al,a2,...,an) + (bl,b2,...,bn) = (a1 + b1, a2 + b2,..., an + bn)

* (al , a2,..., an) = ( al , a2 . an)


E' non difficile controllare che rispetto a tali operazioni l'insieme Kn uno spazio vettoriale su K .
Tale spazio detto spazio vettoriale numerico di dimensione n sul campo K .

ESEMPIO 2. Nell'insieme Mm,n(K) delle matrici di tipo m,n ad elementi nel campo K
definiamo le seguenti due operazioni di addizione e prodotto esterno

( aij ) + ( b ij ) = ( aij + b ij )
* ( aij ) = ( aij )

Lo studente verifichi che rispetto a tali operazioni l'insieme Mm,n(K) uno spazio vettoriale su K .

ESEMPIO 3. Denotiamo con K[x1,x2,..,xn] l'insieme dei polinomi di grado al pi uno nelle
indeterminate ( x1,..

xn ) a coefficienti nel campo K. Definiamo in K[x1,x2,..,xn] le seguenti due

operazioni di addizione e prodotto esterno :

(ao + a1x1+...+ anxn) + (bo+b1x1+...+ bnxn) = ao + bo + (a1+ b1)x1 +....+ (an+ bn)xn
*(ao + a1x1 +...+ anxn ) = ao + a1x1 +...+ anxn
Si verifichi che rispetto a tali due operazioni l'insieme K[x1,x2,..,xn] uno spazio vettoriale sul
campo K .

Analizziamo ora alcune propriet valide in uno spazio vettoriale V su un campo K .


Ricordiamo che indicheremo con 0 il vettore nullo di V, cio l'elemento neutro rispetto alla somma
definita in V, e con 0 lo zero di K .
1.

Per ogni vettore v si ha 0 v = 0 .


Dimostrazione . Si scelga uno scalare . Si ha :

( + 0)v = v + 0 v = v
e questa comporta

0v = 0 .

Per ogni scalare risulta 0 = 0 .

2.

Dimostrazione . Sia v un vettore, si ha :


( 0+ v)= 0 + v = v
e questa comporta 0 = 0 .
3. Per ogni scalare e per ogni vettore v risulta :
v=0

se e solo se

= 0 oppure v = 0

Dimostrazione . Se = 0 oppure v = 0 allora per 1 e 2 v = 0.


Viceversa supponiamo v =0
v =0

1
si ha

per

ed 0. Moltiplicando ambo i membri delleguaglianza

1
1
( v )=
0=0

da cui segue
1
1
( v ) = ( ) v = 1v = v = 0.

4. Per ogni scalare e per ogni vettore v si ha :


-( v) = (-)v = (-v)
Dimostrazione. Da ( v) + (-)v = 0v = 0 segue che

10

(-)v = -( v). Da v + (-v) = 0 = 0 segue che (-v) = -( v).


Si osservi che dalla 4 segue che quando si moltiplica un vettore v per lo scalare

-1 si

ottiene il vettore -v opposto di v .

Sia V uno spazio vettoriale sul campo K . Un sottospazio di V un suo sottoinsieme non
vuoto H verificante le seguenti due propriet :

(i)

( ii )

v , w H => v + w H
K , v H => v H

Ogni sottospazio contiene almeno il vettore nullo. Infatti poich H non vuoto esso possiede
almeno un vettore v. Moltiplicando v per 0 si ottiene , per la (ii) , ancora un vettore di H e quindi H
possiede il vettore nullo.
Evidentemente scegliendo H = {0} oppure H = V si realizza un sottospazio. Tali sottospazi sono
detti banali.
Come si possono costruire sottospazi non banali ? Vediamo.

Siano v1,v2, ...,vh , h vettori ed l, 2,. h,

w = l v1+ 2 v2

+.

h scalari . Consideriamo il vettore w dato da

+ h vh

il vettore w cos ottenuto si dice che combinazione lineare dei vettori


che w dipende linearmente dai vettori v1,v2, ...,vh

v1,v2, ...,vh o si dice

Gli scalari l, 2,. h che figurano nella espressione w = l v1+ 2 v2

+.

+ h vh sono detti

i coefficienti della combinazione lineare .


Sia ora H l'insieme dei vettori w ciascuno dei quali sia una combinazione lineare dei vettori
v1,..., vh . Evidentemente H un sottospazio di V ; esso detto sottospazio generato dai vettori

11

v1,..., vh e viene indicato col simbolo [v1,v2, ...,vh ] .

Quando ogni vettore di V esprimibile come combinazione lineare dei vettori vl,...,vh cio
quando risulti V = [v1,..., vh] allora il sistema { v1,v2, ...,vh } detto un sistema di generatori per
lo spazio vettoriale V e lo spazio V detto finitamente generabile ( in quanto attraverso un numero
finito di suoi vettori si possono generare tutti gli altri ).
Noi supporremo sempre che lo spazio vettoriale

assegnato sia finitamente generabile e non

ridotto al solo vettore nullo.

A titolo di esempio si consideri lo spazio vettoriale V = R2 i cui vettori sono le coppie


ordinate di numeri reali. Si scelgano in V i seguenti sistemi di vettori :

S1 = {(1 , 0 ) , (0 , 1 )}
S2 = { (2 , 0 ) , (0 , 2 ) , ( 2 , 3 ) }
S3 = { (1 , 0 ) , (3, 1 ) }
S4 = { (1 , 0 ) , (4 , 0) }
I vettori di S1 sono un sistema di generatori in quanto ogni coppia ( a , b ) risulta una loro
combinazione lineare risultando precisamente

( a, b ) = a (1 , 0 ) + b (0 , 1 )

I vettori di S2 sono anch essi un sistema di generatori in quanto ogni altra coppia ( a , b )
risulta una loro combinazione lineare risultando ad esempio

( a, b ) =

a
b
(2 , 0 ) +
(0 , 2) + 0 ( 2 , 3 )
2
2

I vettori di S3 sono anch essi un sistema di generatori se ogni altra coppia ( a , b ) risulta
una loro combinazione lineare cio se sia possibile trovare due numeri e tali che risulti :

12

( a, b ) = (1 , 0 ) + (3 , 1 )
Questa relazione equivalente a :
( a, b ) = ( + 3 , )
e quindi basta scegliere

= b ed

= a 3b .

I vettori di S4 non sono un sistema di generatori in quanto le sole coppie che si possono
costruire con le coppie (1 , 0 ) , (4 , 0) sono le coppie del tipo (a , 0 ).
Si osservi che i vettori di S1 sono un sistema di generatori ma altres risultano quelli di S2 .
Nel sistema S1 i due vettori sono entrambi essenziali perch con un solo dei due non si
potrebbe costruire laltro. Nel sistema S2 lultimo vettore sembra invece svolgere un ruolo
marginale per la costruzione degli altri vettori . Come si pu decidere ,in presenza di un sistema di
generatori, quali vettori siano indispensabili e quali no ?
Per rispondere a questa domanda occorre introdurre la seguente nozione dipendenza ed
indipendenza lineare di un sistema di vettori.

Siano assegnati h vettori v1,v2, ...,vh . Il vettore nullo generato dai vettori v1,v2, ...,vh in modo
molto semplice quando si moltiplichi ognuno di essi per 0, si ha cio :

0 = 0 v1+ 0 v2

+.

+ 0 vh

Se questa lunica possibilit che abbiamo per costruire il vettore nullo a partire dai vettori
v1,v2, ...,vh allora tali vettori vengono detti linearmente indipendenti.

Quando i vettori non sono linearmente indipendenti essi vengono detti linearmente dipendenti.

Quindi ribadendo se i vettori v1,v2, ...,vh sono linearmente dipendenti allora esistono h scalari
l, 2,. h non tutti nulli , tali che risulti

l v1+ 2 v2

+.

+ h vh = 0

Le proposizioni che seguono aiutano a stabilire se alcuni vettori assegnati siano o meno
linearmente dipendenti .

13

Proposizione 3.1 I vettori

v1,v2, ...,vh

sono linearmente dipendenti se e solo se uno di

essi dipende dai rimanenti.


Dimostrazione. Supponiamo che i vettori v1,v2, ...,vh siano dipendenti. Esistono allora h

scalari l, 2,. h non tutti nulli , tali che risulti


l v1+ 2 v2 +. + h vh = 0

(*)
supposto ad esempio che sia

v1= -

avendo posto

l 0 dalla (*) segue :

1
( 2v2 +. + hvh) = 2v2 + . + hvh
1

i = -

i
1

i = 2,, h , e quindi abbiamo mostrato che uno dei vettori , in questo

caso v1 , dipende dai rimanenti. Viceversa supponiamo che uno dei vettori dipenda dai rimanenti e
per fissare le idee supponiamo sia lultimo di essi a dipendere dai rimanenti . Sia quindi
vh = l v1+ 2 v2 +. + h-1 vh-1 .
Da questa relazione segue
0 = l v1 + 2 v2 +. + h-1 vh-1 - vh = l v1 + 2 v2 +. + h-1 vh-1 + (-1 )vh

la quale mostra che i vettori sono linearmente dipendenti in quanto il vettore nullo stato ottenuto
con scalari non tutti nulli figurando tra essi lo scalare -1 .
Dalla proposizione ora provata segue questa propriet che ci sar spesso utile nel seguito.

Proposizione 3.2 Siano v e w due vettori entrambi non nulli . I vettori v e w sono
dipendenti se e sole essi sono proporzionali.

Un altra conseguenza della proposizione 3.1 la seguente

Proposizione 3.3 Se uno dei vettori


v1,v2, ...,vh

v1,v2, ...,vh il vettore nullo allora i vettori

sono linearmente dipendenti. Se

due dei

vettori

v1,v2, ...,vh sono tra loro

proporzionali allora i vettori v1,v2, ...,vh sono linearmente dipendenti.

Ovviamente la proposizione 3.1 che caratterizza i sistemi di vettori linearmente dipendenti

14

equivale alla proposizione che segue e che serve a caratterizzare i sistemi di vettori linearmente
indipendenti.

Proposizione 3.4 I vettori v1,v2, ...,vh sono linearmente indipendenti se e solo se nessuno
di essi dipende dai rimanenti.

Ritornando agli esempi precedenti possiamo allora osservare che :

1. I vettori di S1 sono indipendenti in quanto non proporzionali .


2. I vettori di S2 sono dipendenti in quanto il terzo vettore dipende dagli altri due.
3. I vettori di S3 sono indipendenti in quanto non proporzionali.
4. I vettori di S4 sono dipendenti in quanto proporzionali.
Le considerazioni che seguono giustificano limportanza di poter stabilire se alcuni vettori
assegnati siano o meno dipendenti.
Siano assegnati h vettori e sia H = [v1,v2, ...,vh ]
v1,v2, ...,vh

sono dipendenti, uno di essi , supponiamo

lo spazio da essi generato. Se i vettori


v1

, dipende dai rimanenti ed allora

facilmente si riconosce che lo spazio generato da v1,v2, ...,vh coincide con lo spazio W generato
dai soli vettori v2, ...,vh . Al fine di valutare da quali vettori sia costituito H sembra quindi non
essenziale la presenza del vettore v1

che pu quindi essere eliminato. Se anche i vettori v2, ...,vh

fossero dipendenti allora uno di essi supponiamo sia v2 dipende dai rimanenti . Ma allora lo spazio
W generato da v2, ...,vh coincide con lo spazio T
essere eliminato avendo constatato che risulta

generato da v3, ...,vh

e cos anche v2 pu

H = W = T = [v3,v4, ...,vh ] . Tale procedimento

iterato si arrester quando non c pi un vettore che dipende dai rimanenti e cio quando i vettori
rimasti siano linearmente indipendenti .
Queste considerazioni mostrano che se i vettori

v1,v2, ...,vh sono un sistema di generatori

per lo spazio V essi sono tutti essenziali se essi risultano indipendenti.

Un sistema di generatori indipendenti detta una base dello spazio vettoriale.

Molto importante per ci che segue il seguente :

15

Teorema di Steinitz.
Siano assegnati due sistemi di vettori S ={ a1,a2, ...,am } e T = { b1,b2, ...,bt } .

Se i

vettori di S sono linearmente indipendenti ed ognuno di essi dipende dai vettori di T allora il
numero dei vettori di S minore o eguale al numero di vettori di T , risulta cio m t .
Dimostrazione. Faremo la dimostrazione ragionando per induzione sulla cardinalit t di T .

Proviamo che il teorema vero se t=1. Se t=1 allora T possiede un sol vettore b1 e noi dobbiamo
provare che anche S non pu avere pi di un vettore . Supponiamo per assurdo che S abbia almeno
due vettori a1,a2 . Poich ogni vettore di S dipende dai vettori di T si ha
a1 = b1

a2 = b1 . Poich i vettori di S sono indipendenti a1

ed

non pu essere il

vettore nullo e quindi 0 . Risulta allora


b1 =

a1 e quindi a2 =
a1 . S ha quindi due vettori proporzionali e ci assurdo perch i

suoi vettori sono linearmente indipendenti. Supponiamo quindi t > 1 e vero il teorema per t -1.
Poich ogni vettore di S dipende dai vettori di T sussistono le seguenti relazioni :
a1 = l b1+ 2 b2

+.

+ t bt

a2 = l b1+ 2 b2

+.

+ t bt

+.

+ t bt

..
am = l b1+ 2 b2

Poich i vettori di S sono indipendenti


degli scalari l,

2,.

a1 non pu essere il vettore nullo e quindi almeno uno

non nullo e supponiamo sia

l 0 . Dalla prima relazione si pu

allora ricavare b1 come combinazione di a1 , b2, ,bt si ha cio per b1 una espressione del tipo
b1 = l a1+ 2 b2

+.

+ t bt

Sostituiamo ora tale espressione di b1 nelle relazioni


a2 = l b1+ 2 b2

+.

+ t bt

+.

+ t bt

..
am = l b1+ 2 b2

rimaste e troviamo allora che valgono relazioni di questo tipo

16

a2 - k la1 = 2b2

+.

+ t bt

..
am - kma1= 2 b2

I vettori

+.

+ t bt

w2 = a2 - k la1 ,..

wm = am - kma1 , in numero di m-1 sono indipendenti , in

quanto se uno di essi dipendesse dai rimanenti anche in S ci sarebbe un vettore che dipende dai
rimanenti, ed inoltre ognuno di essi dipende dai vettori b2, , bt che sono in numero di t-1.
Poich per t-1 il teorema vero si ha m-1 t-1 e quindi , come si voleva, m t.
Una prima importante conseguenza del teorema ora provato la seguente

Proposizione 3.5 Sia V uno spazio vettoriale e sia

B = { e1 , e2,., en } una sua base di

cardinalit n . Ogni altra base di V ha cardinalit n.


Dimostrazione. Sia B = { b1 , b2,., bt } un altra base di V .Applicando due volte il

teorema di Steinitz si ha n t e t n e quindi t = n .


Abbiamo cos provato che le basi di uno spazio vettoriale finitamente generabile hanno tutte
la stessa cardinalit. Detta n la cardinalit comune a tutte le basi

lintero n

detto la

dimensione di V.

Al fine di fornire ulteriori interpetrazioni dellintero n , dimensione di V , molto utile la


seguente :
Proposizione 3.6 Se i vettori v1,v2, ...,vh, w sono dipendenti mentre i vettori
v1,v2, ...,vh sono indipendenti allora il vettore w dipende dai vettori v1,v2, ...,vh .
Dimostrazione. Per ipotesi poich i vettori v1,v2, ...,vh, w sono dipendenti

esistono scalari ( , l, 2,. h ) non tutti nulli per cui risulti :


w + l v1+ 2 v2

(*)

+.

+ h vh = 0

Se fosse = 0 avremmo da (*)


0w + l v1+ 2 v2

+.

= l v1+ 2 v2

+ h vh = 0

+.

+ h vh = 0 + l v1+ 2 v2

+.

+ h vh =

17

e questa per la supposta indipendenza dei vettori v1,v2, ...,vh comporterebbe altres
l=0 , 2=0 , ..., h =0 e quindi gli scalari ( , l,

2,.

h ) sarebbero tutti nulli contro il

supposto. Pertanto risulta 0 e quindi da (*) segue :


w=-

1
( l v1+ 2 v2

avendo posto i = -

+.

+ h vh ) = l v1+ 2 v2

+.

+ h vh

i= 1,2,.., h.

Possiamo ora provare la seguente

Proposizione3.7 Lintero n dimensione dello spazio vettoriale V se e solo se esso


esprime il massimo numero di vettori indipendenti che V possiede.
Dimostrazione. Supponiamo che lo spazio V abbia dimensione n e sia B={ e1 , e2,., en }

una sua base. Se v1,v2, ...,vh

sono h vettori indipendenti qualsiasi di V , poich ognuno di essi

dipende dai vettori di B, in forza del teorema di Steinitz, risulta h n . Pertanto n il massimo
numero di vettori indipendenti di V.
Viceversa supponiamo che V possegga n vettori indipendenti v1,v2, ...,vn e che tale numero
sia il massimo numero di vettori indipendenti che V possiede. Se w un qualunque vettore diverso
dai vettori v1,v2, ..., vn

allora il sistema

v1,v2, ...,vn , avendo cardinalit

n+1

v1,v2, ..., vn, w , ottenuto

aggiungendo w ai vettori

costituito da vettori linearmente dipendenti. Per la

proposizione 3.6, w quindi combinazione lineare dei vettori v1,v2, ...,vn . Poich anche i singoli
vettori vi dipendono da v1,v2, ...,vn

allora v1,v2, ...,vn

un sistema di generatori per V e quindi

essendo tali vettori anche indipendenti essi costituiscono una sua base e pertanto V ha dimensione
n.

La proposizione 3.6 suggerisce un metodo per costruire insiemi di vettori indipendenti ed


una base di V . Vediamo come .
Si consideri un vettore v1 non nullo . Per la propriet 3. di pag 9 il vettore v1
indipendente. Sia H1 = [v1 ] lo spazio generato da v1.
Se H1 = V allora {v1 } una base di V . Se H1 V allora sia v2 un vettore scelto in
V- H1 . I vettori {v1 , v2} per la proposizione 3.6 sono indipendenti. Sia H2 = [v1 , v2] lo spazio
generato dai vettori {v1 , v2}. Se H2 = V allora {v1 , v2} una base di V. Se invece H2 V
possiamo scegliere un ulteriore vettore v3 in V - H2 che aggiunto ai vettori {v1 , v2} dar luogo
ad un sistema di tre vettori {v1 , v2, v3}

indipendenti. Se lo spazio ha dimensione n tale

18

procedimento sar iterato n volte e ci consentir di costruire una base di V.


Abbiamo quindi provato la seguente
Proposizione 3.8 Sia V uno spazio vettoriale di dimensione n e siano e1 , e2 ,.., et ,
t , ( t < n ) , vettori indipendenti di V . Si possono allora aggiungere altri n-t vettori opportuni
et+1 , e t+2 ,.., en in modo che e1 , e2 ,.., et et+1 , e t+2 ,.., en sia una base di V .

Al fine di fornire alcune caratterizzazioni delle basi di uno spazio vettoriale ci utile
richiamare alcune semplici definizioni . Sia X un sottoinsieme di un insieme S, ed X sia munito di
una certa propriet p . Si dice che X massimale rispetto alla propriet p se ogni insieme Y
che contenga propriamente X non ha pi la propriet p . Si dice che X minimale rispetto alla
propriet p se ogni sua parte propria non ha pi la propriet p .

Siamo ora in grado di provare alcune importanti equivalenze:

Proposizione 3.9 Per un sistema S = {v1 , v2,, vn} di vettori di uno spazio vettoriale V
sono equivalenti le seguenti affermazioni :

a) S una base (cio un sistema di generatori indipendenti )


b) S massimale rispetto alla propriet di essere indipendente
c)

S minimale rispetto alla propriet di essere un sistema di generatori .

d) S un sistema indipendente di cardinalit massima.


e)

S un sistema di generatori di cardinalit minima.

Dimostrazione. Proviamo che a) e b) sono equivalenti.

Mostriamo che a) implica b). Se aggiungiamo ad S un ulteriore vettore w il sistema


{v1 , v2, , vn, w} costituito da vettori dipendenti in quanto ,avendo supposto che {v1 , v2,, vn}
sono un sistema di generatori , w combinazione lineare di {v1 , v2,, vn} . Pertanto linsieme S
rispetto alla propriet di essere costituito da vettori indipendenti massimale. Viceversa
supponiamo di sapere che linsieme S sia costituito da vettori indipendenti e sia massimale rispetto
a tale propriet. Se aggiungiamo ad S un ulteriore vettore w il sistema {v1 , v2, , vn, w}
costituito da vettori dipendenti per la supposta massimalit di S rispetto alla propriet di essere
costituito da vettori indipendenti. Per la proposizione 3.5, w allora combinazione lineare dei
vettori di S . Per larbitrariet di w e tenendo conto che ogni vettore vi dipende da v1 , v2, , vn
provato che S un sistema di generatori.
Proviamo che a) equivalente a c). Proviamo che a) implica c). Se si priva S= {v1 , v2,, vn} di un

19

suo vettore ad esempio di v1 , i vettori{v2,, vn} che restano non sono pi un sistema di generatori
in quanto essendo {v1 , v2,, vn} indipendenti nessuno dei suoi vettori pu essere generato dai
rimanenti. Pertanto S minimale rispetto alla propriet di essere un sistema di generatori. Viceversa
se sappiamo che i vettori di S sono un sistema di generatori ma minimale rispetto a tale propriet
allora i suoi vettori sono indipendenti . Infatti se fossero dipendenti uno di essi e, per fissare le idee,
sia il primo , dipende dai rimanenti. Ma allora come gi visto in precedenza risulta [v2,, vn] =
= [v1 , v2,, vn] = V. Quindi anche T ={ v2,, vn} un sistema di generatori pur essendo una parte
propria di S il che va contro la supposta minimalit di S rispetto alla propriet di essere un sistema
di generatori.
Lequivalenza tra a) e d) stata gi acquisita con la proposizione 3.7.
Proviamo infine lequivalenza tra a) ed e). Proviamo che a) implica e). Se trovassimo t vettori
w1 , w2,, wt che generano V per il teorema di Steinitz risulta n t . Quindi ogni altro sistema di
generatori ha cardinalit almeno n . Lintero n esprime quindi la minima cardinalit di un sistema di
generatori e quindi linsieme S come sistema di generatori ha cardinalit minima. Viceversa se
sappiamo che S un sistema di generatori e che come tale ha cardinalit minima allora i vettori
v1 , v2,, vn che lo costituiscono sono indipendenti. Infatti se fossero dipendenti uno di essi e, per
fissare le idee, sia il primo , dipende dai rimanenti. Ma allora come gi visto in precedenza risulta
[v2,, vn]=[v1 , v2,, vn]= V.Quindi anche T ={ v2,, vn} un sistema di generatori pur essendo
di cardinalit n-1 mentre avevamo supposto che n fosse la cardinalit minima di un sistema di
generatori.

Dalle proposizioni provate segue che se uno spazio vettoriale V finitamente generabile ha
dimensione n , l intero n pu anche essere definito come il numero massimo di vettori
indipendenti che V possiede o come il numero minimo di generatori di V .

Possiamo ora valutare la dimensione dello spazio vettoriale numerico illustrato nellesempio I .
ESEMPIO I. (Kn , + , . K) . In tale spazio i vettori (1, 0,.. , 0), (0, 1 ,0.. 0), ..,( 0, 0,.., 1)

sono un sistema di generatori in quanto risulta :


a1 (1,0,..0) + a2 (0,1,.. 0) + ... + an (0,0,...1) = ( a1 , a2, ... , an )
In particolare si ha che solo
0 (1,0,..0) + 0 (0,1,.. 0) + ... + 0 (0,0,...1) = (0 , 0, ... 0)

20

il che prova che essi sono anche indipendenti. I vettori (1, 0,.. , 0), (0, 1 ,0.. 0), ..,( 0, 0,.., 1)
sono quindi una base , detta base canonica , di Kn che ha quindi dimensione n .
Aver stabilito che la dimensione di

Kn

sia

ci consentir di

saper valutare

semplicemente anche la dimensione degli altri spazi vettoriali mostrati negli altri esempi II e III.
Per giustificare la nostra affermazione saranno molto utili le considerazioni che seguono.
Concludiamo tale numero illustrando un esempio di spazio vettoriale sul campo reale di
dimensione tre che sar molto utilizzato nel capitolo dedicato alla geometria analitica.

ESEMPIO IV . Si consideri un punto A dello spazio reale S e sia VA linsieme di tutti i

segmenti orientati AP di primo estremo A, al variare di P in S . Indicheremo con |AP | la


lunghezza del segmento AP . Quando P = A il segmento corrispondente AA ha lunghezza zero,
sar chiamato segmento nullo, e sar indicato con 0 .
Se v = AP e w = AP

sono due elementi non nulli di VA si definisce somma di v e w il

segmento v + w = AT ottenuto col seguente procedimento

i ) se AP ed AP hanno direzione diversa , AT la diagonale del parallelogramma di lati AP


ed AP
ii ) se AP ed AP hanno la stessa direzione e lo stesso verso allora AT il segmento che ha la
direzione e verso e lunghezza | AT | = |AP | + |AP|.
iii) se AP ed AP hanno la stessa direzione ma verso opposto allora AT il segmento nullo se
|AP|= |AP|. Se invece |AP| |AP| ( supposto |AP| > |AP| ) allora AT ha la direzione
il verso di AP e lunghezza | AT | = |AP | - |AP|.

Se

v = AP e w = 0 assumeremo v + 0 = v
Se v = AP ed un numero reale . Si definisce v = AT il segmento cos ottenuto .

Il segmento AT nullo se = 0 oppure se v = 0 .


Supposto v = AP non nullo ed 0 , allora detta la direzione di AP e il verso di AP , il

21

segmento AT ha :
direzione , lunghezza | AT | = | ||AP | , verso se > 0 e verso opposto se < 0.

Si prova che linsieme VA con le due operazioni ora definite uno spazio vettoriale . I segmenti
AP saranno in seguito chiamati vettori geometrici applicati in A .
Lo spazio vettoriale VA ha dimensione tre come ora proveremo.
Siano e1 = A U1 , e2 = AU2 ed e3 = AU3 tre segmenti non nulli e non complanari .
Tali vettori sono tali che nessuno di essi pu essere generato dagli altri due e sono quindi
indipendenti . Inoltre, riferendoci ai vettori indicati in figura ,
v
P
v

e3
A

e2

e1
v
a

Si ha
AP = v = v + v = a + b + v
Ma , per opportuni scalari , ,
a = e1

b = e2

v = e3

e quindi
v = a + b + v= e1 + e2 + e3

22

I tre vettori e1, e2 , e3 sono quindi una base di VA che ha cos dimensione tre .

4. Isomorfismi tra spazi vettoriali.

Siano assegnati due spazi vettoriali V e W costruiti sullo stesso campo K .


Una funzione f : V
W tra V e W detta un isomorfismo se essa biettiva e
lineare cio se valgono per essa le seguenti propriet :

1.

f biettiva.

2.

f ( v + v ) = f( v ) + f( v )

3.

f ( v ) = f( v )

(per ogni coppia di vettori v , v e per ogni scalare )


Se una funzione f di V in W verifica solo le propriet 2. e 3. ma non biettiva si dice che essa una
funzione lineare di V in W.

Gli isomorfismi sono quindi particolari funzioni lineari perch sono quelle biettive .Quando
esiste un isomorfismo tra i due spazi vettoriali tali spazi vengono detti tra loro isomorfi.
Si prova facilmente che se f un isomorfismo tale risulta anche la funzione f-1 e che
componendo due isomorfismi si ottiene ancora un isomorfismo.

Lo studente verifichi che se si associa ad un polinomio

ao + a1x1+...+ anxn

la (n+1)-pla (ao , a1,.. an) dei suoi coefficienti si realizza un isomorfismo tra gli spazi vettoriali
K[x1,...,xn] e Kn+1.
Se si associa ad una matrice
a 11 a 12 ........ a 1n

a 21 a 22 ........ a 2n

...

a
a
........
a
m2
mn
m1

il vettore numerico

23

( a11 a12. a1n , a21 a22. a2n

, ., am1 am2. amn )

di Kmn che si ottiene disponendo in sequenza ed in orizzontale una dopo laltra le righe della
matrice si realizza un isomorfismo tra gli spazi vettoriali Mm,n(K) e Kmn .
Vediamo ora se per ogni spazio vettoriale possiamo trovarne un altro magari pi semplice
ad esso isomorfo. Vediamo.
Sia quindi V uno spazio vettoriale sul campo K di dimensione n e sia B = ( e1 , e2,., en )
una sua base ordinata ( riferimento ). Poich i vettori e1 , e2,., en sono un sistema di generatori
per V ogni vettore v risulta una loro combinazione lineare si ha cio

v = x1e1 +...+ xnen


I numeri (x1,..,xn) che consentono di esprimere v come combinazione di ( e1 , e2,., en ) sono
dette le coordinate di v nella base fissata.
Mostriamo ora che le coordinate di v sono univocamente determinate da v e che quindi v si pu
scrivere in unico modo come combinazione lineare dei vettori e1 , e2,., en . Supponiamo quindi
che v sia stato ottenuto anche attraverso gli scalari (y1,..,yn) si abbia cio
v = y1e1 +...+ yn en
Da
v = x1e1 +...+ xn en = y1 e1 +...+ yn en
segue
( x1 - y1 ) e1 + ( x2 y2 ) e2 +..+ ( xn yn ) en = 0
e questa comporta , per lindipendenza di

e1 , e2,., en

( x1 - y1 ) = ( x2 y2 ) =..= ( xn yn ) =0
e cio
x1 = y1 , x2 = y2,, xn = yn

24

Pertanto gli unici scalari che danno luogo a v sono i numeri ( x1 , x2,., xn ) .
Quanto provato ci consente quindi di costruire una funzione tra V e Kn associando ad ogni
vettore v di V la n-pla ( x1 , x2,., xn ) delle sue coordinate

f:v V

( x1 , x2,., xn ) Kn

Tale funzione , come facile verificare, biettiva e lineare e quindi un isomorfismo tra V e Kn ,
detto coordinazione di V nel riferimento fissato.
Abbiamo cos provato la seguente importante

Proposizione 4.1 Ogni spazio vettoriale V sul campo K di dimensione finita n isomorfo allo
spazio vettoriale numerico Kn.

Vediamo ora quali sono i vantaggi di aver acquisito un siffatto risultato.


Tali vantaggi appariranno chiari quando si siano provate alcune propriet degli isomorfismi
che ora andiamo ad illustrare nelle proposizioni che seguono. Da qui in avanti

f : Vn
Wm
una applicazione lineare tra gli spazi vettoriali Vn e Wm costruiti sullo stesso campo K e
dimensione finita n ed m rispettivamente.

Una propriet notevole delle applicazioni lineari espressa dal seguente

Teorema fondamentale. Un applicazione lineare

f : Vn
Wm

determinata quando si conoscono i valori che essa assume sui vettori di una base ordinata
(e1, e2,.,en ) di Vn .
Dimostrazione. Sia quindi (e1, e2,.,en ) una base ordinata di Vn

e supponiamo di

conoscere i vettori immagine f(e1) , f ( e2) , ,f (en) Questa conoscenza ci permetter di calcolare f
su un qualunque vettore v di Vn . Infatti sia v un qualunque vettore di Vn .
Poich (e1, e2,.,en ) una base esistono n scalari ( 1, 2,., n )

per cui si abbia

25

v= l e1+ 2 e2

+.

+ n en

Applicando f a tale relazione, tenendo conto della sua linearit, si ha :


f(v)= l f (e1)+ 2 f ( e2)

+.

+ n f (en)

la quale prova lasserto.

Proposizione 4.2 Una applicazione lineare f tra V e W trasforma il vettore nullo di V nel
vettore nullo di W. Ne segue che se f iniettiva in particolare se f un isomorfismo esso trasforma
altres un vettore non nullo di V in un vettore non nullo di W.
Dimostrazione. Sia v un vettore qualunque di V , per la linearit di f risulta

f(v) = f(v + 0)= f(v) + f(0)


da cui segue ovviamente f(0) = 0.
Se f iniettiva ed v 0 allora f(v) f(0) = 0
Proposizione 4.3 Una applicazione lineare f tra V e W trasforma vettori dipendenti di V in
vettori dipendenti di W. Inoltre se f iniettiva essa trasforma altres vettori indipendenti di V in
vettori indipendenti di W. Un isomorfismo conserva pertanto con la sua inversa la dipendenza e
lindipendenza lineare in quanto trasforma vettori dipendenti di V in vettori dipendenti di W e
trasforma vettori indipendenti di V in vettori indipendenti di W.
Dimostrazione. Siano v1,v2, ...,vh , h vettori dipendenti di V. Poich i vettori v1,v2, ...,vh,

sono dipendenti esistono scalari ( l, 2,. h ) non tutti nulli per cui risulti :
l v1+ 2 v2

+.

+ h vh = 0

Applicando f ad ambo i membri, tenendo conto della linearit e della proposizione 4.2 si ha
l f(v1)+ 2 f(v2)

+.

+ h f(vh ) = f( 0 ) = 0

la quale mostra che anche i vettori trasformati f(v1) , f(v2)

,,

f(vh )

sono dipendenti. Supponiamo

f iniettiva e siano v1,v2, ...,vh , h vettori indipendenti di V. Dobbiamo provare che anche i vettori
f(v1) , f(v2)

,,

i quali si abbia

f(vh ) sono indipendenti. Supponiamo quindi che ( l, 2,. h )

siano scalari con

26

l f(v1)+ 2 f(v2)

+.

+ h f(vh ) = 0

e vediamo se tali scalari sono tutti nulli.


Tale relazione per la linearit di f equivale a
f( l v1+ 2 v2

+.

+ h vh ) = 0

Poich f iniettiva lunico vettore che si trasforma nel vettore nullo di W il vettore nullo di V e
cos :
l v1+ 2 v2

+.

+ h vh = 0

Per la supposta indipendenza dei vettori v1,v2, ...,vh


che i vettori f(v1) , f(v2)

,,

f(vh )

si ha allora

l= 2=. h =0 e ci prova

sono indipendenti.

Sia
f:V
W

una applicazione lineare tra gli spazi vettoriali V e W .


Possiamo considerare i sottoinsiemi di V e W seguenti:

N ={ v V , f(v)= 0 }

T = f(V) = { f(v) , v V }

Evidentemente N non vuoto perch di esso fa parte il vettore nullo ed un sottospazio di


V , detto il nucleo dellapplicazione f mentre T un sottospazio di W ed detto lo spazio
immagine di f .

Tali sottospazi, nucleo ed immagine,

possono essere usati per valutare liniettivit e

suriettivit della funzione f.


Infatti la funzione f suriettiva se solo se risulta T = W.

27

Inoltre
Proposizione 4.4 La funzione f iniettiva se e solo se il suo nucleo ridotto al vettore
nullo.
Dimostrazione. Se f iniettiva abbiamo gi osservato che lunico vettore che si trasforma

nel vettore nullo il vettore nullo e quindi N={ 0 }. Viceversa supponiamo che sia N={ 0 }. Se
per due vettori v e v risulta f(v) = f(v) si ha per la linearit di f , f( v-v) = 0 e cos v-v N.
Ma per ipotesi N={ 0 } e quindi v - v = 0 e cio v = v. Pertanto f iniettiva .

Utile per ci che segue la seguente proposizione:

Proposizione 4.5. Sia f : V


W una funzione lineare tra gli spazi vettoriali V e W. Se
e1 , e2,., en

sono generatori di V i vettori

f(e1) , f(e2)

,,

f(en ) sono un sistema di generatori

per lo spazio immagine T = f(V). In particolare se f un isomorfismo ed ( e1 , e2,., en ) una


base di V allora ( f(e1) , f(e2)

,,

f(en ) ) una base di W.

Dimostrazione. Sia w un qualunque vettore di T= f(V) . Esiste allora un vettore v in V per

cui sia w = f(v). Poich i vettori e1 , e2,., en generano V si ha per opportuni scalari l, 2,. n
v = l e1 + 2 e2 +.+ n en
Si ha allora
w = f(v) = f ( l e1 + 2 e2 +.+ n en )= l f(e1 ) + 2 f( e2 ) +.+ n f( en )
la quale mostra che i vettori f(e1) , f(e2)

,,

f(en ) sono un sistema di generatori per lo spazio T. La

parte finale della proposizione ovvia ricordando che un isomorfismo trasforma vettori
indipendenti in vettori indipendenti.

I sottospazi N e T nucleo ed immagine si condizionano a vicenda come mostra la


seguente

Proposizione 4.6. Sia f : V


W una funzione lineare tra gli spazi vettoriali V e W.
Siano N e T gli spazi nucleo ed immagine di f. Detta n la dimensione di V ,risulta

(*)

dimN + dimT = n

28

Dimostrazione. La propriet (*) ovvia se la funzione iniettiva cio se N = { 0 }ed

altrettanto vera se N = V. Supponiamo quindi N non banale e sia h = dimN . Scelti h vettori
e1 , e2,., eh

indipendenti in N cio una sua base aggiungiamo ad essi altri n-h vettori di V,

vh+1,vh+2, ...,vn in modo che i vettori e1 , e2,., eh vh+1,vh+2, ...,vn siano una base di V.
Se ora mostriamo che i vettori f( vh+1), f(vh+2), ..., f(vn) sono una base per T si ha dimT= n-h
e quindi la (*).Cominciamo a provare che sono indipendenti.Siano h+1 , h+2 , . , n scalari per i
quali risulti
h+1 f( vh+1)+ h+2 f(vh+2)+ . + n f(vn) = 0
Per la linearit di f la relazione scritta equivale a
f( h+1 vh+1 + h+2 vh+2 + . + n vn) = 0
la quale mostra che il vettore
h+1 vh+1+ h+2 vh+2 + . + n vn
appartiene al nucleo. Si ha quindi , per opportuni scalari l, 2,. h
h+1 vh+1+ h+2 vh+2 + . + n vn =

l e1 + 2 e2,.+ h eh

Da questa relazione segue


h+1 vh+1+ h+2 vh+2 + . + n vn - l e1 - 2 e2,.- h eh

=0

e quindi per lindipendenza dei vettori e1 , e2,., eh vh+1,vh+2, ...,vn si ha come si voleva

h+1

h+2

= n = 0. Proviamo infine che sono un sistema di generatori per T. Sia w un

qualunque vettore di T= f(V) . Esiste allora un vettore v in V per cui sia w = f(v). Poich i vettori
e1 , e2,., eh vh+1,vh+2, ...,vn sono una base di V si ha per opportuni scalari

l, 2,. n

v = l e1 + 2 e2 +.+ h eh + h+1 vh+1+ h+2 vh+2 + . + n vn


da cui segue, tenendo conto della linearit di f e del fatto che i vettori e1 , e2,., eh sono nel nucleo

29

w = f(v)= f( l e1 + 2 e2 +.+ h eh + h+1 vh+1+ h+2 vh+2 + . + n vn)=


= h+1 f(vh+1)+ h+2 f( vh+2) + . + n f( vn)
la quale mostra che i vettori f(vh+1), f( vh+2) , . ,f( vn) sono un sistema di generatori per lo spazio T.
Possiamo concludere tale numero provando la seguente importante

Proposizione 4.7 Due spazi vettoriali V e W costruiti sullo stesso campo e di dimensione
finita sono isomorfi se e solo se essi hanno la stessa dimensione.
Dimostrazione. Se c un isomorfismo f : V
W

e1 , e2,., en

una base di V allora f(e1), f(e2) ,

tra V e W abbiamo gi visto che se

,f(en) una base di W e quindi V e W

hanno la stessa dimensione n. Viceversa supponiamo che V e W abbiano entrambi la stessa


dimensione n . Se (e1 , e2,., en )

una base ordinata di V come gi visto, associando ad ogni

vettore v = x1 e1+...+ xn en di V la n-pla ( x1 , x2,., xn ) delle sue coordinate

f:vV

( x1 , x2,., xn ) Kn

si realizza un isomorfismo tra V e Kn . Analogamente se (w1 , w2,., wn ) una base ordinata di


W , associando ad ogni vettore w = y1 w1+...+ yn wn di W la n-pla ( y1 , y2,., yn ) delle sue
coordinate

g:w W

( y1 , y2,., yn ) Kn

si realizza un isomorfismo tra W e Kn . L applicazione


g-1 f : V

essendo una funzione composta da isomorfismi allora un isomorfismo tra V e W.

Come conseguenza di questo teorema possiamo allora valutare la dimensione degli spazi
vettoriali illustrati negli esempi II e III del n.3. Avendo gi osservato che K[x1,x2,..,xn] isomorfo a
Kn+1 e che Mm,n (R) isomorfo a Kmn si ha per quanto ora provato che
dim K[x1,x2,..,xn]= n+1

dimMm,n (R) = mn.

30

Concludiamo tale numero con una proposizione di cui faremo un grande uso nelle
applicazioni successive.
Proposizione 4.8

Sia f : V

W un isomorfismo tra gli spazi vettoriali V e W.

Un vettore v di V combinazione lineare dei vettori v1 , v2,., vh se e solo se il vettore f(v)


combinazione lineare dei vettori trasformati

f(v1) , f(v2)

,f(vh) .

Dimostrazione. Supponiamo che v sia combinazione lineare dei vettori v1 , v2,., vh si

abbia cio v= l v1 + 2 v2 +.+ h vh Applicando f e tenendo conto della sua linearit si ha che
f(v)= l f(v1 )+ 2 f(v2 )+.+ h f(vh).
Viceversa supponiamo che il vettore f(v) sia combinazione lineare dei vettori
.

f(v1) , f(v2)

,f(vh) si abbia cio


f(v) = l f(v1 )+ 2 f(v2 )+.+ h f(vh).

Tale relazione per la linearit di f equivale a


f(v) = f( lv1 + 2 v2 ++ h vh )
e questa per la iniettivit di f comporta
v = l v1 + 2 v2 +.+ h vh .
5. I sottospazi di uno spazio vettoriale.

In questo numero V uno spazio vettoriale di dimensione finita n costruito su un campo K.


Sia

la famiglia di tutti i suoi sottospazi . La famiglia

ha le seguenti propriet , di facile

dimostrazione.

1. per ogni H , T

H,

H T

dim H dimT

H T

dim H < dimT

2. lintersezione di una famiglia di sottospazi un sottospazio.

In generale lunione di sottospazi non un sottospazio. Mostriamo ci con un esempio.


Nello spazio vettoriale V = R2 delle coppie ordinate di numeri reali si considerino i due
seguenti sottoinsiemi H e T .

31

H = {(a , 0 ) , a R }
T = {(0 , b) , b R}
Facilmente si riconosce che H e T sono sottospazi mentre il sottoinsieme X = H T non
un sottospazio risultando ad esempio
(2, 0) X , (0, 5) X

mentre (2,0) + (0,5) = (2 , 5) X.

La propriet 2 consente la seguente definizione. Sia X un sottoinsieme di V. Si chiama


sottospazio generato da X il sottospazio [X] che si ottenga intersecando tra loro tutti i sottospazi

che contengono X.Tale sottospazio ovviamente il pi piccolo sottospazio (rispetto allinclusione )


che contiene X.
Ha interesse considerare lo spazio X quando X sia lunione di due sottospazi H e T .
Mostreremo ora che tale sottospazio [H T ] che si ottiene intersecando tra loro tutti i sottospazi
che contengono H e T coincide col seguente sottoinsieme di V
L = { a + b , a H , b T}
il quale contiene tutti i vettori che si ottengono sommando tra loro un vettore di H ed un vettore di
T. Evidentemente L un sottospazio di V.
Quando si scelga b = 0 e si faccia variare a in H si riconosce che tra i vettori di L ci sono in
particolare tutti quelli di H. Analogamente quando si scelga a = 0 e si faccia variare b in T si
riconosce che tra i vettori di L ci sono in particolare tutti quelli di T. Pertanto L contiene sia H che
T. Inoltre se un sottospazio J contiene H e T allora contiene anche tutti i vettori a + b con
a H e b T e quindi contiene L. L pertanto il pi piccolo sottospazio che contiene H e T e
quindi coincide con lo spazio [H T ]

da essi generato.Lo spazio [H T ]

viene anche

indicato col simbolo H T o H + T.


La propriet ora provata per i sottospazi H e T pu essere estesa facilmente ad un numero
finito di t sottospazi H1 , H2 , , Ht con t > 2 . Indicando con H1 + H2 + + Ht
generato da

H1 H2 Ht

si prova facilmente che esso coincide col sottospazio L

seguente
L = { a1 + a2 + .. + at , a1 H1 , a2 H2 , , at Ht }
Proviamo infine la seguente importante propriet :

3. per ogni H , T

(3.1)

si ha

lo spazio

( formula di Grassmann ).

dim H + dim T = dim (H T) + dim (H + T)

32

Dimostrazione. Possiamo supporre che nessuno dei due sottospazi H e T sia contenuto

nellaltro altrimenti la (3.1) ovvia.


Poniamo h = dim H

e t = dim T e siano ( e1 , e2,., eh ) e (w1 , w2,., wt )

rispettivamente una base di H e una di T. Mostriamo che se H T = { 0

} allora

i vettori

( e1 , e2,., eh w1 , w2,., wt ) costituiscono una base di H+T e cos la (3.1) provata .


Un vettore v di H + T del tipo v = a + b con a H e b T. Essendo
( e1 , e2,., eh) e (w1 , w2,., wt ) basi di H e T si ha :
v = a + b = l e1 + 2 e2 + ..+ h eh + 1w1 + 2 w2 + ..+ t wt
la quale mostra che i vettori

( e1 , e2,., eh w1 , w2,., wt ) sono un sistema di generatori per

H+T. Se essi risultano altres indipendenti allora sono una base. Siano quindi l , 2 , .., h ,
1, 2 , .., t scalari tali che risulti
l e1 + 2 e2 + ..+ h eh + 1w1 + 2 w2 + ..+ t wt = 0 .
Da questa segue
l e1 + 2 e2 + ..+ h eh = - ( 1w1 + 2 w2 + ..+ t wt ).
Posto

a = l e1 + 2 e2 + ..+ h eh

b = 1w1 + 2 w2 + ..+ t wt

Ovviamente a H e b T. Inoltre b T. Da a = -b segue allora che a H T e


b HT.

Ma essendo per ipotesi H T = { 0 }si ha

a = 0 e b = 0.

Ma

a = l e1 + 2 e2 + ..+ h eh = 0 e b = 1w1 + 2 w2 + ..+ t wt = 0


comportano essendo ( e1 , e2,., eh ) e

(w1 , w2,., wt )

vettori indipendenti

l = 2 =.= h = 1= 2 = = t= 0
come si voleva provare.
Supponiamo quindi che sia H T diverso dal vettore nullo e sia i = dim H T . Siano
( e1 , e2,., ei ) vettori indipendenti di H T cio una base di H T . Usando la proposizione
3.7 si possono trovare h -i vettori vi+1 , vi+2 ,. , vh di H (H T ) , scelti in modo che
( e1 , e2,., ei vi+1 , vi+2 ,. , vh ) sia una base di H e si possono trovare t -i vettori
wi+1 , wi+2 ,. , wt di T H T scelti in modo che ( e1 , e2,., ei wi+1 , wi+2 ,. , wt ) sia una
base di T. Se proviamo che i vettori ( e1 , e2,., ei vi+1 , vi+2 ,. , vh wi+1 , wi+2 ,. , wt ) sono una

33

base per H + T , essendo in numero di i + h-i + t-i = h + t i si ha


dim (H + T) = h + t i = dim H + dim T dim H T
e cio la (3.1).

Sia v un vettore di H+T . Il vettore v del tipo

v= a+b

con a H

b T.

Essendo ( e1 , e2,., ei vi+1 , vi+2 ,. , vh ) una base di H e ( e1 , e2,., ei wi+1 , wi+2 ,. , wt ) una
base di T si ha
v = a + b = l e1 + 2 e2 + ..+ i ei + i+1 vi+1 + i+2 vi+2 + ..+ h vh + l e1 + 2 e2 + ..+
+ i ei + i+1 wi+1 + i+2 wi+2 + ..+ t wt
la quale mostra che v combinazione lineare dei vettori ( e1 , e2,., ei vi+1 , vi+2 ,. , vh wi+1 ,
wi+2

,.

, wt

) i quali sono quindi un sistema di generatori per H + T . Mostriamo che sono

indipendenti . Siano

l , 2 ,. , h

i+1, i+2 , .., t

scalari tali che risulti

l e1 + 2 e2 + + i ei + i+1 vi+1 + i+2 vi+2 + + h vh + i+1 wi+1 + i+2 wi+2 + .+ t wt = 0


Da questa segue
i+1wi+1 + i+2 wi+2 + ..+ t wt = - ( l e1 + 2 e2 + ..+ i ei + i+1 vi+1 +

(**)

i+2 vi+2 + ..+ h vh )


Poniamo
b = i+1w1 + i+2 w2 + ..+ t wt

ed

a = l e1 + 2 e2 + ..+ i ei + i+1 vi+1 + i+2 vi+2 + ..+ h vh


Ora

b T ed a H . Quindi dallessere b = -a segue che b H T.

Poich

e1 , e2 ..ei una base di H T. si ha ,

per opportuni scalari l , 2 , .., i

b = i+1wi+1 + i+2 wi+2 + ..+ t wt = l e1 + 2 e2 + ..+ i ei


da questa segue

34

l e1 + 2 e2 + ..+ i ei - i+1wi+1 - i+2 wi+2 - ..- t wt = 0


e questa comporta, essendo ( e1 , e2,., ei wi+1 , wi+2 ,. , wt ) una base,
l = 2 = ..= i = i+1= i+2 = ..= t = 0
Ma se

i+1= i+2 = ..= t = 0 da (**) segue


l e1 + 2 e2 + ..+ i ei + i+1 vi+1 + i+2 vi+2 + ..+ h vh = 0

dalla quale segue, essendo ( e1 , e2,., ei vi+1 , vi+2 ,. , vh )

una base,

l = 2 = ..= i = i+1 = i+2 = ..= h = 0 .


Avendo provato che

l = 2 = ..= h = i+1= i+2 = ..= t = 0

(e1 , e2,., ei vi+1 , vi+2 ,. , vh wi+1 , wi+2 ,. , wt )

i vettori

sono indipendenti e lasserto provato.

Osserviamo esplicitamente che nella dimostrazione ora fatta abbiamo provato che se H e T
hanno in comune il solo vettore nullo unendo una base di H ad una base di T si ottiene un insieme
di vettori linearmente indipendente , base per lo spazio generato da H e T.
Tale propriet con un semplice processo di induzione sul numero t di sottospazi pu essere
cos generalizzata .
Proposizione 5.1 Siano H1 , H2, , Ht , t ( t 2 ) sottospazi di uno spazio vettoriale Vn
di dimensione n sul campo K. Se ogni Hi interseca nel solo vettore nullo lo spazio generato dai
rimanenti sottospazi allora unendo una base di H1 , con una base di H2 e .. con una di Ht si
ottiene un insieme di vettori linearmente indipendente , base per lo spazio H1+ H2 ++ Ht
generato da H1 H2 Ht .

Concludiamo tale numero introducendo una utile nozione. Due sottospazi H e T di uno
spazio vettoriale Vn sono detti

supplementari

H T ={ 0

se risulta

H + T = Vn

Per la formula di Grassmann gi provata , se H e T sono supplementari risulta :

35

dim H + dim T = n

Si possono costruire sottospazi supplementari ?


La proposizione che segue da risposta al quesito posto.

Proposizione 5.2

Sia e1 , e2 , , en una base di

H = [ e1 , e2 , , et ]
generati rispettivamente da

e1 , e2 , , et

Vn .I sottospazi

T = [ et+1 , e t+2, , en ]

e da

et+1 , e t+2, , en

sono tra loro

supplementari.
Dimostrazione. Poich

di Vn

e1 , e2 , , en

una base di

Vn allora per ogni vettore v

si ha :
v = 1 e1 + 2 e2+ + t et + t +1 et+1 + t+2 e t+2+ + n en

(*)

Posto a = 1 e1 + 2 e2+ + t et e
mostra che

b=

v = a + b con a H e

infine che anche H T =

t +1 et+1 + t+2 e t+2+ + n en

la relazione (*)

b T e che quindi H + T = Vn .Proviamo

. Sia v un vettore di H T . Poich e1 , e2 , , et

una base di H e et+1 , e t+2, , en una base di T, si ha per opportuni scalari 1 , 2 . t ,


t +1 , t + 2 .. n

v = 1 e1 + 2 e2+ + t et = t +1 et+1 + t + 2 e t+2+ + n en

Da questa segue

1 e1 + 2 e2+ + t et - t +1 et+1 - t + 2 e t+2+ - n en = 0

e questa comporta , essendo i vettori

e1 , e2 , , en

indipendenti, 1 = 2 = t = t +1 = t + 2

= = n = 0 .
Si ha quindi v = 0 e ci mostra per larbitrariet di v in H T che H T = { 0 }.
La proposizione che segue inverte in un certo senso la proposizione ora provata

36

Proposizione 5.3 Siano H e T due sottospazi supplementari di dimensioni t e n-t .

Se

e1 , e2 , , et

una base di H e

e1 , e2 , , et et+1 , e t+2

, en

et+1 , e t+2

, en

una base di T allora

una base di Vn.

Dimostrazione . Per la dimostrazione sufficiente provare che i vettori e1 , e2 , , et , et+1,

e t+2

, en

1 , 2 , t , t +1 , t + 2 .. , n scalari per i

sono indipendenti . Siano quindi

quali risulti

1 e1 + 2 e2+ + t et + t +1 et+1 + t + 2 e t+2+ + n en = 0


Da questa segue

1 e1 + 2 e2+ + t et = - t +1 et+1 - t + 2 e t+2 - - n en

Posto
a=

1 e1 + 2 e2+ + t et

si ha che a H e

b = - t +1 et+1 - t + 2 e t+2 - - n en

b T ma da a = b segue allora che a = b H T . Ma essendo H

e T supplementari si ha H T =

e quindi a = b = 0 .

Se il vettore
a = 1 e1 + 2 e2+ + t et = 0
si ha per lindipendenza di

e1 , e2 , , et ,

1 = 2 = = t = 0

e da
b = - t +1 et+1 - t + 2 e t+2 - - n en = 0
si ha per lindipendenza di et+1 , e t+2

, en che t +1 = t + 2 = = n = 0 e ci prova

lasserto.

Quando si tenga conto della proposizione 5.2 e della proposizione 3.7 del capitolo I facile
verificare che sussiste la seguente proposizione

Proposizione 5.4. Sia H un sottospazio dello spazio vettoriale Vn. E sempre possibile
costruire un sottospazio T supplementare di H .

Concludiamo con una propriet importante degli spazi supplementari.

Se H e T sono supplementari sappiamo che per definizione Vn = H + T e che quindi ogni

37

vettore v dello spazio si ottiene come somma di un vettore a di H e di un vettore b di T . Noi


vogliamo mostrare che la decomposizione di v come somma di un vettore a di H e di un vettore
b di T unica . Si ha cio :

se

v=a+b

Infatti da a + b = a + b

v = a + b allora

a = a e

segue a - a = b - b

e questa comporta che a - a H T e

b - b H T . Ma poich
come si voleva a = a e

H T =

b = b .

si ha a - a = 0 e

b - b = 0 e quindi

b = b .

A titolo di esempio si consideri lo spazio vettoriale R2 delle coppie ordinate di numeri reali.
In tale spazio i sottospazi H =

( a, 0 ) , a R

T =

(0 , b ) , b R

} sono

supplementari ed in accordo con la propriet sopra illustrata ogni vettore (a, b ) di R2

(a , b ) = ( a , 0 ) + ( 0 , b )

si scrive in un sol modo come somma di un vettore di H e di uno di T.

38

C A P I T O L O II
Matrici e determinanti

39

1. Introduzione.

Abbiamo visto al capitolo precedente che se in uno spazio vettoriale V di dimensione n e


costruito sul campo K si fissa un riferimento (e1 , e2,., en ) possibile costruire un isomorfismo
tra V e Kn . Tale isomorfismo associa ad ogni vettore v= x1 e1 +...+ xn en

di V la n-pla

( x1 , x2,., xn ) delle sue coordinate nel riferimento scelto.


Poich un isomorfismo conserva la dipendenza e lindipendenza lineare , allora stabilire se h
vettori v1 , v2,., vh di V siano dipendenti o indipendenti equivale a spostare tale indagine sugli h
vettori numerici delle loro coordinate. Ma c un metodo semplice e veloce per stabilire se tali
vettori numerici sono dipendenti o indipendenti ? La risposta a questa domanda viene data
introducendo la nozione di determinante di una matrice quadrata , nozione di cui ora parleremo.

Preliminarmente per essenziale fare le seguenti osservazioni.


Siano assegnati un certo numero di vettori numerici di ordine n e siano .

(a1,..., an) , (b1,..., bn), ...., (w1,...., wn)

Se supponiamo che essi siano dipendenti , esisteranno opportuni scalari , ,., non tutti
nulli tali che risulti :

(a1,..., an) + (b1,..., bn) + .. ... + (w1,...., wn) = (0,..,0).


Fissati s posti (i1,i2,...,is) tra i posti da 1 ad n si considerino i vettori numerici di ordine s ottenuti
considerando in ognuno dei vettori numerici assegnati solo le componenti di posto
ii,i2,..,is , cio consideriamo i vettori ,ora di lunghezza s , seguenti

(ai1,ai2,...,ais)

(bi1,bi2,...,bis)

. (wi1,wi2,...,wis)

E ovvio che anche essi sono dipendenti in quanto con gli stessi scalari , ,., non tutti nulli
sopra adottati si ha ancora :
(ai1,ai2,...,ais) + (bi1,bi2,...,bis) + . + (wi1,wi2,...,wis) = ( 0,0 , .,0 ).
Usando un linguaggio poco preciso ma espressivo possiamo riassumere l'osservazione fatta dicendo

40

che : se si " accorciano " dei vettori numerici dipendenti essi restano dipendenti .
Ne segue che se si " allungano " dei vettori numerici indipendenti essi restano indipendenti.

Mostriamo quanto detto con un esempio . Nello spazio V = R4 delle quaterne ordinate di
numeri reali i vettori ( 1 , 0 , 2 , 1 ) , ( 0 , 3 , 1 , 1 ) , (4 , 3 , 9 , 5 ) sono dipendenti risultando :

8 ( 1 , 0 , 2 , 1 ) + 2 ( 0 , 3 , 1 , 1 ) 2 (4 , 3 , 9 , 5 ) = (0, 0, 0, 0)
Le tre coppie (2 ,1) , ( 1, 1 ) , (9, 5 ) ottenute accorciando le tre quaterne date (considerando di
ognuna solo gli ultimi due numeri) sono anch esse dipendenti risultando ancora

8 (2 , 1 ) + 2 (1 , 1 ) 2 (9 , 5 ) = (0, 0)
Sempre nello stesso spazio le due quaterne ( 1 , 0 , 2 , 1 ) , ( 0 , 3 , 1 , 1 ) sono indipendenti in
quanto non proporzionali e cos le due sestine
( 1 , 0 , 2 , 1 , 2 , 2 ) , ( 0 , 3 , 1 , 1 , 7 , 5)
ottenute aggiungendo ad ognuna di esse ulteriori due numeri sono ancora indipendenti.
Diamo ora la nozione di determinante di una matrice quadrata.

2 . Determinante di una matrice quadrata.

Ad una matrice quadrata A dordine n ad elementi in un campo K ,si pu associare uno


scalare , elemento di K , detto determinante di A, e denotato con

A o detA

al seguente

modo :
Se n=1 e cio A = ( a )

allora si pone detA = a .

Vediamo come si calcola il determinante quando n 2 .


Sia quindi A una matrice quadrata dordine n con n 2 . Indichiamo la matrice A al seguente
modo :

41

A=

Se aij

a11 a12 . a1n

a 21 a 22 a 2n
..

a n1 a n2 a nn

un elemento della matrice A , chiameremo complemento di aij il determinante della

matrice quadrata dordine n-1 ottenuta cancellando in A la riga i e la colonna j .Tale complemento
quando venga moltiplicato per ( -1 ) i+j detto complemento algebrico di aij e viene denotato col
simbolo

Aij . Si pu provare che si ottiene lo stesso elemento di K , sia che si esegua questo

calcolo

ai1 Ai1 + ai2 Ai2 ++ ainAin

lungo una qualunque riga i = 1,2,.,n di A e sia che si esegua questo calcolo

a1j A1j + a2j A2j ++ anjAnj

lungo una qualunque colonna j = 1,2,,n di A . Tale scalare viene chiamato determinante di A .
Riepilogando , per calcolare il determinante di A , si deve scegliere una riga o una colonna e poi
eseguire la somma dei prodotti degli elementi della linea scelta per i rispettivi complementi
algebrici .

Ora se la matrice A ha ordine due ( n = 2 )

a 11
A =
a 21

a 12

a 22

42

si ha :

A11 = a22

ed

A12 = - a21

e pertanto, calcolando il determinante di A lungo la prima riga, si ha :


detA = a11 A11 + a12 A12 = a11 a22 - a12 a21 .

Avendo definito il determinante di A quando A ha ordine uno siamo stati in grado di calcolare il
determinante di A quando A ha ordine due . Ma allora sapremo calcolare il determinante anche
quando A ha ordine tre in quanto i complementi algebrici dei suoi elementi si otterranno attraverso
il calcolo di determinanti di matrici dordine due. Per le stesse ragioni, sapendo calcolare il
determinante di A quando essa ha ordine tre sapremo calcolare il determinante di A anche quando
ha ordine quattro e cos via. Sappiamo quindi calcolare il determinante di A quando essa ha ordine n
se sappiamo calcolare il determinante di una matrice dordine n-1.
A titolo di esempio si voglia calcolare il determinante della matrice C reale dordine tre seguente :

C=

1 2 -1

2 0 4
4 2 8

Sviluppando il calcolo lungo la seconda riga si ha :


detC = 2 (-18) + 4 (6) = - 12 .
E utile osservare che nel calcolo del determinante della matrice C abbiamo scelto opportunamente
la seconda riga in quanto su tale riga uno degli elementi zero e ci ha ridotto quindi il numero
degli addendi da calcolare .
Se

A una matrice quadrata dordine n ed occorre calcolare il suo determinante

auspicabile che su qualche riga o colonna figurino molti zeri perch ci riduce il numero di calcoli

43

da effettuare. C una propriet dei determinanti che viene incontro a questa nostra esigenza .
Enunceremo tale propriet omettendo la sua dimostrazione .
Sussiste allo scopo la seguente :
Proposizione 2.1 Il determinante di una matrice quadrata dordine n non cambia se si
aggiunge ad una sua riga ( o colonna ) una combinazione lineare delle altre righe ( o delle altre
colonne ).

Per il calcolo del determinante della matrice

C=

1 2 -1

2 0 4
4 2 8

possiamo applicare la propriet ora enunciata per semplificarne il calcolo. A tale scopo possiamo
sommare alla terza riga di C la seconda riga moltiplicata per -2 e si ottiene la seguente matrice B

B=

1 2

2 0
0 2

-1

4
0

la quale per il teorema precedente ha lo stesso determinante di C . Sviluppando il determinante di B


secondo lultima riga si ha detB = det C = 2 (-6) = - 12 .
E evidente che se in una matrice una sua riga o colonna ha gli elementi tutti nulli allora il
determinante di tale matrice zero. Ci premesso in forza della proposizione 2.1 si ha questa ovvia
propriet:
Proposizione 2.2 . Se in una matrice due righe ( o colonne ) sono uguali o proporzionali
allora il determinante zero.

I teoremi che seguono sono molto importanti in quanto chiariscono il perch sia molto utile
saper calcolare questo scalare che abbiamo chiamato determinante . Proviamo la seguente

44

Proposizione 2.3 . Se le righe (o colonne ) di una matrice quadrata A sono vettori


dipendenti allora risulta detA = 0 .
Dimostrazione. Supponiamo che le righe di A siano dipendenti . Allora una di tali righe

combinazione lineare delle altre e supponiamo ad esempio che lultima riga sia combinazione
lineare delle altre , risulti cio

an = 1a1 + 2a2 +..+ n-1an-1 . Se si somma ad an la seguente

combinazione lineare delle altre -1a1 - 2a2 +..- n-1an-1 sappiamo che si ottiene una matrice B
che ha lo stesso determinante di A . Ma lultima riga di B ha tutti gli elementi eguali a zero e quindi
detA=detB=0.
Dal teorema ora provato segue il seguente importante corollario:
Proposizione 2.4 . Se il determinante di una matrice quadrata A diverso da zero allora
le righe e le colonne di A sono linearmente indipendenti .

Vediamo qualche utile applicazione delle cose dette. Supponiamo si voglia stabilire se le tre
quaterne (1,1,0,1) , (0,1,2,1) , (1,0,0,3) siano o meno linearmente indipendenti . Consideriamo
la matrice A che si ottiene assumendo come sue righe le quaterne date .

1 1 0 1

A = 0 1 2 1
1 0 0 3

In tale matrice la sottomatrice quadrata

1 1 0

B= 0 1 2
1 0 0

costituita dalle prime tre colonne di A ha il determinante diverso da zero (infatti esso due )
e quindi per la proposizione 2.4 le sue righe sono indipendenti . Poich le righe di A sono un

45

allungamento delle righe di B e poich allungando vettori indipendenti essi restano indipendenti
si conclude che le quaterne assegnate sono linearmente indipendenti.
Concludiamo tale numero con qualche utile osservazione.

E apparso chiaro dalla

definizione che il calcolo del determinante di una matrice quadrata A dordine n non sia agevole
quando lordine n abbastanza grande. Ci sono per alcune matrici particolari per le quali il
calcolo del determinante non presenta difficolt. Vediamo.
Una matrice A= ( aij) quadrata dordine n detta triangolare ( bassa ) se
per ogni j > i , risulta aij = 0 mentre detta triangolare ( alta ) se per ogni j < i aij = 0 .

A=

a 11

a 21
a
31
..

a n1

0 ...... 0

a 22 0.0
a 32 a 33 0...0

a n2 ...a nn

a 11

0
A= 0

...

( triangolare bassa )

a 22 .a 2n
0 a 33 ...a 3n

0 0 ... 0 .... a nn

a 12 . a 1n

( triangolare alta )

Gli elementi ( a11, a22 , ., ann ) della matrice A sono detti gli elementi della diagonale
( principale ) di A .

Una matrice A ( aij) quadrata dordine n detta diagonale se risulta per ogni i j ,
aij = 0 .
Con un semplice ragionamento di induzione si prova facilmente che se A =( aij) una
matrice quadrata dordine n ed A triangolare o diagonale allora
det A = a11. a22 . ..ann
cio il suo determinante il prodotto degli elementi della sua diagonale principale.

46

3. Prodotto di matrici.
Siano

a = (a1 , a2 , , an ) ,

b = (b1 , b2 , , bn )

due n-ple ordinate di

elementi di un campo K .
Si definisce prodotto scalare di tali due n-ple, lo scalare

a x b = a1 b1 + a2 b2 + an bn
che si ottiene eseguendo la somma dei prodotti degli elementi di egual posto.
Siano A = (a ij ) e B = (b ij ) due matrici ad elementi nel campo K . La matrice A sia di
tipo (m , n ) e quella B di tipo ( n , p ) (quindi il numero di colonne di A deve esser eguale al
numero di righe di B ). In tale situazione si pu definire prodotto delle due matrici ( righe per
colonne ) la matrice C = AB di tipo ( m , p ) il cui generico elemento cij si ottiene eseguendo il

prodotto scalare della riga i-sima di A con la colonna j-sima di B :


cij = ai x bj

Sia ora M = Mn ,R lo spazio vettoriale di tutte le matrici quadrate dordine n sul campo K . Se A
e B sono due elementi di M il loro prodotto ( che eseguibile ) ancora un elemento di M. Tale
prodotto non ha la propriet commutativa . Mostriamo ci con un esempio.
Siano A e B le seguenti matrici quadrate dordine tre :

A=

1, 1, 0

0, 0,0
0, 0, 0

1, 0 , 0

1, 0 , 0
0, 0 , 0

B=

Eseguendo il loro prodotto si ha :

2, 0,0

AB = 0 , 0 , 0
0, 0, 0

47

Mentre risulta :

1, 1, 0

BA = 1 , 1 , 0
0, 0, 0

Nellinsieme M la seguente matrice I ( detta matrice identica )


I = ( ij ) con ij = 0 se i j e ii = 0

1 , 0 ,......, 0

0 , 1 , .......,0
I=
.....

0, 0,.......,1

lelemento neutro rispetto al prodotto tra matrici. Risulta infatti per ogni matrice A di M

AI = IA = A.

Poich la matrice I diagonale si ha :

det I = 1.
Sia A una matrice quadrata dordine n . L inversa della matrice A, se esiste , una matrice A-1
anchessa quadrata dordine n , che abbia la seguente propriet :
A A-1 = A-1 A = I .

Allo scopo di determinare quali matrici sono dotate di inversa ci utile provare preliminarmente la
seguente propriet :

Sia A una matrice quadrata dordine n . Risulta :


1.

ai1 Aj1 + ai2 Aj2 ++ ainAjn = detA

se i = j

48

2.

ai1 Aj1 + ai2 Aj2 ++ ainAjn = 0

se i j

Occorre provare la 2, essendo la 1. vera per la definizione di determinante.

Alluopo consideriamo la matrice A


a 11 a 12 .................. ..a 1n

....
a a .............. ........a
in
i1 i2
A = ..

a j1 a j2 .............. .......a jn
..

a a ....................a
nn
n1 n2

e la matrice ausiliaria B , eguale alla matrice A tranne che nella riga di posto j dove presenta di
nuovo la riga ai

a 11 a 12 .................. ..a 1n

....
a a .............. .......a
in
i1 i2
B= ..

a i1 a i2 .............. .......a in
..

a n1 a n2 ....................a nn

Per tali matrici , (essendo in tutto eguali tranne che nella riga di posto j ), risulta

Aj1 = Bj1 , Aj2 = Bj2 , , Ajn = Bjn


E quindi , come si voleva :

0= detB = bj1 Bj1 + bj2 Bj2 + .. + bjn Bjn = ai1 Aj1+ ai2 Aj2 + +ain Ajn
Un altra utile propriet , di cui omettiamo la dimostrazione , la seguente :

49

Per ogni coppia di matrici A e B in M risulta

3.

det (AB) = detA detB

Attraverso luso delle propriet 1., 2. ,3 ora stabilite siamo ora in grado di provare la
seguente importante:

Proposizione 3.1 Una matrice quadrata A ammette inversa se e solo se essa ha il


determinante diverso da zero.

Dimostrazione . Se la matrice A ammette inversa esiste una matrice A-1 tale che risulti
A A-1 = I . Si ha det(A A-1) = detA det A-1 = det I = 1 da cui segue det A 0.
Viceversa supponiamo sia detA = k 0 . Tenendo conto delle 1 e 2 la matrice :

A-1 =

A 11 A 21 .. A n1

A 12 A 22 ..A n2
..

A 1n A 2n . A nn

1
k

risulta linversa della matrice A .

4 . Rango di una matrice.


Sia assegnata una matrice

a 11 a 12 ........ a 1n

a 21 a 22 ........ a 2n
A=

...

m1 a m2 ........ a mn

50

una matrice di tipo (m ,n ) sul campo K. Indicheremo le sue m righe coi simboli a1 , a2,., am
le sue n colonne coi simboli a1 , a2,., an

Supponiamo di aver individuato nella matrice A , p

sue righe , per esempio le prime p , con queste propriet :


i) a1 , a2,., ap sono indipendenti
ii) ogni altra riga risulta una loro combinazione lineare.
Se a

i1

, a i 2 ,., a i t

sono t righe indipendenti di A poich ognuna di esse dipende da

a1 , a2,., ap allora , per il teorema di Steinitz risulta t p.


Pertanto il numero massimo di righe indipendenti di A p . Individuare nella matrice A un gruppo
di righe con le propriet i) e ii) equivale quindi a determinare quale sia il numero massimo di righe
indipendenti che A possiede.

In modo analogo supponiamo che nella matrice A ci siano s colonne per esempio le prime s
con le seguenti propriet :
j)
jj)

a1 , a2,., as sono indipendenti


ogni altra colonna risulta una loro combinazione lineare.

Se a j1 , a j2 ,., a j t sono t colonne indipendenti di A, poich ognuna di esse dipende da


a1 , a2,., as allora , per il teorema di Steinitz risulta t s .
Pertanto il numero massimo di colonne indipendenti di A s . Individuare nella matrice A un
gruppo di colonne con le propriet j) e jj) equivale quindi a determinare quale sia il numero
massimo di colonne indipendenti che A possiede. Mostreremo ora che p = s e cio che il massimo
numero di righe indipendenti di A eguaglia il massimo numero di colonne indipendenti di A .

Il numero massimo di righe ( o colonne ) indipendenti di A detto il rango di A .


Proviamo quindi la seguente

Proposizione 4.1 Il massimo numero di righe indipendenti di una matrice A eguaglia il


numero massimo di colonne indipendenti di A.
Dimostrazione. Possiamo supporre che la matrice A non abbia tutti gli elementi eguali a zero

51

altrimenti lasserto ovvio.


Siano a i1 , a i 2 ,., a i p
a j1 , a j2 ,., a j t

p righe di A con le propriet i) e ii) e siano

t colonne di A con le propriet j) e jj).

Mostreremo che p=t e ci prover

lasserto.
Poich le righe a

i1

, a i 2 ,., a i p

generano tutte le altre si ha

a1

) = l(

i1

)+2(

a i2

)+ . + p ( a i p

a2

) = l(

i1

) + 2 (

a i2

)+ . + p ( a i p

..

) = l(

am

i1

) + 2 (

ai2

)+ . + p ( a i p

Ora se volessimo descrivere la colonna di posto j di A dovremmo prendere lelemento di


posto j nella prima riga , prendere lelemento di posto j della seconda riga , prendere lelemento di
posto j dellultima riga .

( a1

) = l( a i1

) + 2 ( a i 2 ) + .+ p( a i p )

( a2

) = l( a i1

) + 2 ( a i 2 ) + .+ p( a i p )

) = l( a i1

) + 2 ( a i 2 ) + .+ p( a i p )

..
..
( a m

52

e quindi si ha

a1j

a 2j

.. = a
..

a mj

i1 j

1

1
.. + a
i2 j

..

1

2

2
.. + .. + a
ip

..

2

p

p

..
..

p

Abbiamo cos provato che ogni colonna di A combinazione lineare dei p vettori
1
2


1
2
.. , .. , .. ,


..
..


2
1

p

p

..
..

p

e conseguentemente essendo le colonne a j1 , a j2 ,., a j t

indipendenti si ha per il teorema di

Steinitz t p .
Nella matrice trasposta AT di A le righe di A sono le colonne di AT e le colonne di A sono
le righe di AT
Applicando alla matrice trasposta quanto gi provato per A si ha allora p t e lasserto cos
provato.
Illustreremo ora un teorema molto utile in quanto esso fornisce un metodo per il calcolo del
rango di una matrice.Prima per occorre dare alcune semplici definizioni.
Sia A una matrice di tipo m ,n sul campo K.
Si scelgano h righe a

i1

, a i 2 ,., a i h di A ed h colonne a j1 , a j2 ,., a jh di A. La sottomatrice H

di A i cui elementi sono quelli che si trovano contemporaneamente sulle righe e colonne scelte sar
da noi chiamata un minore dordine h di A.
Quindi la prima riga di H ha per elementi gli elementi della riga a

j1 , j2 ,., jh

i1

che occupano i posti

. La seconda riga di H ha per elementi gli elementi della riga a i 2 che occupano i

posti j1 , j2 ,., jh . Lultima riga di H ha per elementi gli elementi della riga
a i h che occupano i posti j1 , j2 ,., jh .Facciamo un esempio.

53

Sia A la seguente matrice

1, 2 , 5 ,1, 0

A= 3 , 3 , 2 , 0 , 4
1, 0 , 3 , 4 , 2

Se si scelgono la prima e la terza riga e la quarta e quinta colonna di A la matrice H che tali scelte
determinano
1, 0

H=
4, 2

Se si scelgono la prima e la seconda riga e la prima e la seconda colonna di A la matrice L che tali
scelte determinano
1, 2

L=
3, 3

Sia H il minore dordine h ottenuto scegliendo le righe a

i1

, a i 2 ,., a i h di A e le colonne a j1 ,

a j2 ,., a jh di A. Fissate una ulteriore riga ai ed una ulteriore colonna aj con i i1 , i2 , , ih


e

j j1 , j2 ,., jh

il minore Hi,j dordine h+1 ottenuto scegliendo le righe a

i1

ai di A e le colonne a j1 , a j2 ,., a jh aj di A si chiama un orlato del minore H.

Riferendoci agli esempi precedenti, si ha ad esempio

1 , 2, 1

L3,4 = 3 , 3 , 0
1 , 0, 4

1 , 0, 1

H 2,1 = 4 , 2, 3
0 , 4 , 3

Siamo ora in grado di enunciare e provare il seguente importante

, a i 2 ,., a i h ,

54

Teorema degli orlati. Sia A una matrice di tipo m,n sul campo K. Sia H un minore dordine h
di A ottenuto scegliendo le righe a i1 , a i 2 ,., a i h di A e le colonne a j1 , a j2 ,., a jh di A. Se
risulta :
1.

detH= 0

2.

detHi,j = 0 per ogni i e j ( i i1 , i2 , , ih

j j1 , j2 ,., jh )

allora :
i)

le righe

a i1 , a i 2 ,., a i h

ii)

combinazione lineare
le colonne a j1 , a j2 ,., a jh

sono indipendenti ed ogni altra riga risulta una loro

sono indipendenti ed ogni altra colonna risulta una loro

combinazione lineare.
Ne segue che il rango di A h.
Dimostrazione . Poich H ha il determinante diverso da zero allora le sue righe e le sue

colonne sono indipendenti. Le righe a

i1

, a i 2 ,., a i h di A sono un allungamento delle righe di H

e quindi sono anchesse indipendenti. Analogamente le colonne a j1 , a j2 ,., a jh di A sono un


allungamento delle colonne di H e quindi sono anchesse indipendenti. Mostriamo che ogni riga ai
di A combinazione lineare delle righe a

i1

, a i 2 ,., a i h .

Per le ipotesi fatte le matrici Hi,1 , H i,2,.., H i,n ottenute orlando H con la riga di posto i e
tutte le colonne da 1 ad n hanno tutte il determinante eguale a zero.

a i1 j1

L
detHi,1 = det
a
i h j1
a ij
1

a i1 jh

L
L

a i h jh

a i1 j1

L
detHi,2 = det
a
i h j1
a ij
1

a i1 jh

L
L

L
a i h jh

a ijh

a ijh

a i11

L
=0
a ih 1

a i1

a i1 2

L
=0
a ih 2

a i2

55

M
a i1 j1

L
detHi,n = det
a
i h j1
a ij
1

a i1 jh

L
L

L
a i h jh

a ijh

ora le matrici Hi,1 , H

i,2,..,

a i1n

L
=0
a ihn

a in

i,n

differiscono solo nellultima colonna per cui i complementi

algebrici degli elementi dellultima colonna di Hi,1

sono gli stessi di quelli degli elementi

dellultima colonna di H i,2 e di quelli degli elementi dellultima colonna di H i,n.

Indichiamo tali

complementi algebrici con 1 , 2 , , h , . Sviluppando i determinanti di Hi,1 , H i,2,.., H i,n


secondo gli elementi dellultima colonna si hanno le seguenti relazioni scalari :

i1 1

1 +. + a i h 1 h

a i1 = 0

i1 2

1 +. + a i h 2 h

a i2 = 0

i1 n

1 +. + a i h n h

a in = 0

Tali relazioni sono equivalenti alla seguente relazione vettoriale

ai = - ( 1 a

i1

,che diverso da zero , si ha

e dividendo per

ai = -

1
( 1 a

+. + h a i h )

i1

+. + h a i h )

la quale mostra che la riga ai combinazione lineare delle righe


Avendo provato che le righe a

i1

,. , a i h

i1

,. , a i h .

sono indipendenti e che generano tutte le altre

allora h il massimo numero di righe indipendenti. Poich il massimo numero di righe

56

indipendenti eguaglia il massimo numero di colonne indipendenti allora anche le colonne


indipendenti a j1 , a j2 ,., a jh sono in numero massimo e quindi ogni altra colonna risulta
una loro combinazione lineare. Il teorema cos completamente provato.
Il teorema ora provato oltre a fornire un metodo per il calcolo del rango ha questa importante
conseguenza espressa dalla seguente proposizione.

Proposizione 4.2 Sia A una matrice quadrata dordine n . Le righe e le colonne di A sono
dipendenti se e solo se il suo determinante eguale a zero.

La proposizione 4.2 ovviamente equivalente alla seguente

Proposizione 4.3 Sia A una matrice quadrata dordine n . Le righe e le colonne di A sono
indipendenti se e solo se il suo determinante diverso da zero.

57

C A P I T O L O III
Sistemi di equazioni lineari

58

1.Sistemi di equazioni lineari

In questo capitolo studieremo i sistemi di equazioni lineari , cio sistemi S di questo tipo

a11x1 + a12 x 2 .. + a1n x n = c1


a x + a x .. + a x = c
21 1
22 2
2n n
2
S
..
a m1x1 + a m2 x 2 .. + a mn x n = c m

dove sia i

coefficienti aij ed i

termini noti ci sono elementi di un fissato campo K.

Quando i termini noti c1 ,c2,,cn sono tutti eguali a zero il sistema detto omogeneo.
Una soluzione del sistema una n-pla ordinata ( y1 , y2,., yn ) di elementi di K soluzione
delle equazioni del sistema cio verificante

a11y1 + a12 y 2 .. + a1n y n = c1


a y + a y .. + a y = c
21 1
22 2
2n n
2

..
a m1y1 + a m2 y 2 .. + a mn y n = c m

Quando il sistema ha almeno una soluzione esso detto compatibile .Quando esso non ha
soluzioni detto

incompatibile. Al fine di determinare condizioni che assicurino la

compatibilit del sistema S sono utili le seguenti considerazioni.

Assegnato un sistema

a11x1 + a12 x 2 .. + a1n x n = c1


a x + a x .. + a x = c

22 2
2n n
2
S 21 1
..
a m1x1 + a m2 x 2 .. + a mn x n = c m

possiamo considerare le seguenti due matrici : la prima , denotata con A , detta matrice
incompleta , o dei coefficienti quella che ha per elementi i coefficienti delle incognite

59

a 11 , a 12 ,....a 1n

a 21 , a 22 .. a 2n
A=
..

a , a ,. a
mn
m1 m2

La seconda , detta matrice completa , e denotata con A

a11 , a12 ,....a1n c1

a 21 , a 22 .. a 2n c 2
A =

..

a , a ,. a c
mn m
m1 m2

contiene oltre i coefficienti anche i termini noti disposti come sua ultima colonna.
Indichiamo con A1 , A2 , ., An le n colonne di A e con C la colonna dei termini noti.

a 11

a 21
1
A =
..

a
m1

a 12

a 22
2
A =
..

a
m2

a 1n

a 2n
n
A =
..

a
mn

c1

c2
C=
..

c
m

Con tali notazioni il sistema S pu essere scritto in modo equivalente nella seguente forma
vettoriale :

S:

Se

(1.1)

A1 x1+ A2 x2 + . + An xn = C

( y1 , y2,., yn ) una soluzione del sistema allora si ha


A1 y1+ A2 y2 + . + An yn = C

e questa mostra che il vettore C dei termini noti combinazione lineare dei vettori A1 , A2 , ., An
colonne di A . Viceversa se il vettore C dei termini noti combinazione lineare dei vettori

60

A1 , A2 , ., An , colonne di A cio se si ha
A1 y1+ A2 y2 + . + An yn = C

(1.2 )

allora ( y1 , y2,., yn )

una soluzione del sistema.

Ci sono quindi tante soluzioni quanti sono i modi in cui C si p ottenere come combinazione
lineare dei vettori A1 , A2 , ., An .

Abbiamo cos stabilito questo importante criterio di compatibilit del sistema S.

Proposizione 1.1 Il sistema

a11x1 + a12 x 2 .. + a1n x n = c1


a x + a x .. + a x = c

22 2
2n n
2
S 21 1
..
a m1x1 + a m2 x 2 .. + a mn x n = c m

ha soluzioni se e soltanto se il vettore C


1

lineare dei vettori colonna A , A , ., A

dei termini noti si p ottenere come combinazione


della matrice A .

Usando la proposizione 1.1 possiamo ora provare un altro teorema ( Rouch-Capelli ) il


quale fornisce un altro criterio di compatibilit del sistema . Tale criterio per pi facilmente
utilizzabile nelle applicazioni.

Proposizione 1.2 Il sistema

a11x1 + a12 x 2 .. + a1n x n = c1


a x + a x .. + a x = c
21 1
22 2
2n n
2
S=
..
a m1x1 + a m2 x 2 .. + a mn x n = c m

ha soluzioni se e soltanto se le due matrici A ed A del sistema hanno lo stesso rango.

61

Dimostrazione. Indichiamo con p il rango di A e con p il rango di A.Dobbiamo far vedere

che il sistema S ha soluzioni se e soltanto se risulta p = p .


Supponiamo dapprima che sia p = p e proviamo che il sistema S ha soluzioni.
Siano a j1 , a j2 ,., a j p , p colonne indipendenti della matrice A. Tali colonne fanno parte
anche della matrice A e poich per ipotesi anche A ha rango p , tali colonne indipendenti sono in
numero massimo. Ne, segue che ogni altra colonna di A combinazione lineare delle colonne
a j1 , a j2 ,., a j p . In particolare la colonna c dei termini noti dipende dalle colonne
a j1 , a j2 ,., a j p

e quindi da tutte le colonne di A. Per la proposizione 1.1 se la colonna c dei

termini dipende da tutte le colonne di A , S ha soluzioni.


Supponiamo ora che S abbia soluzioni e mostriamo che

p = p . Siano a j1 , a j2 ,., a j p

p colonne indipendenti della matrice A ed in numero massimo cio tali che ogni altra colonna di A
risulti una loro combinazione lineare. Se mostriamo che ogni colonna di A risulta combinazione
lineare delle colonne a j1 , a j2 ,., a j p allora tali colonne sono un sistema massimo di colonne
indipendenti di A che ha cos anche essa rango p . Una qualunque colonna a j di A diversa dalla
colonna c
essendo anche colonna di A dipende da a j1 , a j2 ,., a j p . Poich per ipotesi il
sistema ha soluzioni , per la proposizione 1.1. la colonna c dipende dalle colonne di A . Ma
poich le colonne di A dipendono da a j1 , a j2 ,., a j p allora anche c
dipende dalle colonne
a j1 , a j2 ,., a j p . Avendo provato che ogni colonna di A dipende dalle colonne a j1 , a j2 ,.,
a jp

resta provato che tali colonne sono colonne indipendenti di A ed in numero massimo per

cui p il rango di A . Risulta quindi p = p ed il teorema provato.

Facciamo un esempio per mostrare lutilit del teorema ora provato.

Si voglia ad esempio stabilire per quale valore del parametro reale h il seguente sistema S
ha soluzioni .

2x + y + hz = 4

S = x - 2y + 2z = 1
3x + y + z = 5

Le due matrici A ed A del sistema S sono

62

2 1

A = 1 - 2
3 1

2
1

2 1 h 4

A = 1 - 2 2 1
3 1 1 5

La matrice

2 1

L = 1 - 2
3 1

1
5

estratta da A ha determinante diverso da zero risultando det L = 4 e pertanto A ha rango tre .


La matrice A ha rango tre se e solo se risulta detA = 7h 3 0 . Pertanto per
sistema ha soluzioni , risultando p = p = 3 , mentre per h =

3
7

3
7

il

il sistema non ha soluzioni

risultando p = 2 e p = 3 .

Le proposizioni 1.1 e 1.2 ora provate forniscono criteri per stabilire la compatibilit del
sistema ma non offrono metodi di determinazione delle soluzioni quando si sia accertato che queste
esistono.
Vedremo ora come si trovano le soluzioni di un sistema S quando si sia stabilito che le
soluzioni esistono.

Cominciamo col caso pi favorevole .

Supponiamo che il sistema

S =

a11x1 + a12 x 2 .. + a1n x n = c1


a x + a x .. + a x = c
21 1
22 2
2n n
2

..
a n1x1 + a n2 x 2 .. + a nn x n = c n

abbia n equazioni ed n incognite . In tal caso la matrice A incompleta del sistema avendo n
righe ed n colonne quadrata e quindi possibile calcolare il suo determinante . Se risulta

63

det A 0
allora il sistema ha soluzioni in quanto risulta p = p = n . Proveremo ora che nelle ipotesi in cui
siamo il sistema ha una sola soluzione . Per provare ci utile scrivere il sistema in una forma
equivalente detta forma matriciale.

Denotata al solito con

a11 , a12 ,....a1n

a , a .. a 2n
A = 21 22
..

a , a ,. a
nn
n1 n2

la matrice incompleta del sistema e con X e C

i seguenti vettori

( delle incognite e dei termini

noti )

x1

x2
X =
..

x
n

si riconosce facilmente che il sistema

c1

c2
C =
..

c
n

pu essere scritto in modo equivalente nella seguente

forma matriciale :

A X = C

64

a11 , a12 ,....a1n

a 21 , a 22 .. a 2n
..

a , a ,. a
nn
n1 n2

S:

det A=

Poich per ipotesi

x1

x2
..

x
n

c1

c2
= ..

c
n

la matrice A ammette inversa . Denotata con

matrice inversa di A , moltiplicando ambo i membri di

A X = C

per A-1

A-1 la

si ha che la

soluzione del sistema unica ed eguale a


X = A-1 C

(1.2)

Possiamo ora rendere espliciti i valori

( x1 , x2,., xn )

della soluzione trovata.

Ricordiamo che la matrice inversa di A ha nella riga di posto


elementi della colonna di posto

di A

i , i complementi algebrici degli

, ciascuno diviso per detA. Dalla (1.2) qui scritta

esplicitamente :

x1

x2
..

x
n

A11 , A 21 ,.... A n1

A12 , A 22 .. A n2
..

A , A ,. ... A
2n
nn
1n

c1

c2
..

c
n

segue quindi , per ogni i = 1,2,,n ,

(1.3)

xi =

Indichiamo ora con B


c1

c2
con la colonna
..

c
n

A 1i c1 + A 2i c 2 + ... + A ni c n

la matrice che si ottiene dalla matrice A sostituendo la sua i-sima colonna

dei termini noti .

65

a 11 , a 12 ,.... c1 ..

a 21 , a 22 ... c 2 ..
..

a , a ,... c ..
n
n1 n2

Bi =

Poich le matrici

A e B

a 1n
a 2n
a nn

differiscono solo nella colonna di posto i , allora i complementi


i

algebrici degli elementi della colonna i-sima di B

sono eguali ai complementi algebrici degli

elementi della colonna i-sima di A. Ne segue che al numeratore della (1.3) ciascun elemento
i

della colonna i-sima di B

ci

moltiplicato per il suo complemento algebrico. Il numeratore della


i

(1.3) quindi il determinante della matrice B .


Abbiamo cos provato il seguente importante risultato

Proposizione 1.3 Sia assegnato un sistema

a11x1 + a12 x 2 .. + a1n x n = c1


a x + a x .. + a x = c
21 1
22 2
2n n
2
S=
..
a n1x1 + a n2 x 2 .. + a nn x n = c n

avente n equazioni in n incognite . Se risulta det A 0 , il sistema ha una sola soluzione


( y1 , y2,., yn ) che si determina al seguente modo (

y1 =

det B1
,
detA

y2 =

(avendo al solito indicato con

det B 2
,
detA

regola di Cramer

Bi ( i= 1,2,,n )

yn =

):

det Bn
detA

la matrice che si ottiene dalla matrice A

66

c1

c2
sostituendo la sua i-sima colonna con la colonna
..

c
n

dei termini noti ) .

Facciamo un esempio. Si vogliano determinare le soluzioni del seguente sistema

x + y + z = 4

S = x - y + z = 2
x + y - 3z = 0

Le due matrici del sistema sono

1 1 1

A = 1 -1 1
1 1 - 3

1 1 1 4

A = 1 - 1 1 2
1 1 - 3 0

Essendo detA = 8 per la proposizione 1.3 tale sistema ha una sola soluzione che si determina con
la regola di Cramer .Risulta allora

4 1 1

16
1
x =
det 2 - 1 1 =
=2
8
8
0 1 - 3

1 4 1

8
1
y =
det 1 2 1 = = 1
8
1 0 - 3 8

1 1 4

8
1
z =
det 1 - 1 2 = = 1
8
1 1 0 8

67

Rimangono ora da esaminare i sistemi di equazioni compatibili in cui il numero m di


equazioni diverso dal numero n delle incognite e quelli in cui pur essendo m=n risulta

detA = 0.
Prima di passare allesame di questi casi sono molto utili le seguenti considerazioni.

Supponiamo di avere un sistema di equazioni lineari

a 11 x 1 + a 12 x 2 .. + a 1n x n + c1 = 0
a x + a x .. + a x + c = 0
22 2
2n n
2
21 1
S = ..
a x + a x .. + a x + c = 0
m2 2
mn n
m
m1 1
1 x 1 + 2 x 2 + .... + n x n + = 0

in cui una delle equazioni che qui abbiamo rappresentato , per distinguerla , con

1x1 + 2 x 2 .. + n x n + = 0

sia combinazione lineare di tutte le altre . Si abbia cio

(1.4)

1x1 + 2 x 2 .. + n x n + =

1 ( a11x1 + a12 x 2 .. + a1n x n + c1 ) +

2 ( a 21x1 + a 22 x 2 .. + a 2n x n + c 2 ) +. + m ( a m1x1 + a m2 x 2 .. + a mn x n + c m )

Consideriamo il sistema

a 11 x 1 + a 12 x 2 .. + a 1n x n + c1 = 0
a x + a x .. + a x + c = 0

22 2
2n n
2
S = 21 1
..

a m1 x 1 + a m2 x 2 .. + a mn x n + c m = 0

ottenuto privando il sistema S dell equazione 1x1 + 2 x 2 .. + n x n + = 0 .


Ogni soluzione ( y1 , y2,., yn ) del sistema S evidentemente soluzione anche del sistema S.

68

Viceversa se ( y1 , y2,., yn ) una soluzione del sistema S , stante la (1.4) , essa anche
soluzione del sistema S . In conclusione eliminando da S una equazione che sia combinazione
lineare delle altre si ottiene un sistema che ha una equazione in meno ma che ha le stesse soluzioni
del sistema S .

Al fine di determinare le soluzioni di un assegnato sistema S compatibile ci si pu quindi


limitare a considerare solo quelle equazioni di S che siano indipendenti e tali che ogni altra
equazione sia una loro combinazione lineare.

Ma come si fa a selezionare queste fortunate equazioni ? Vediamo.


Ricordiamo che lo spazio vettoriale K[x1 , x2,., xn] dei polinomi di primo grado in n
variabili

lo spazio vettoriale numerico

Kn+1

sono isomorfi , un isomorfismo essendo

lapplicazione

f : ( a1x1+ a2 x2 +.+ an xn + c )
( a1, a2, .. .., an, c)

che associa al polinomio a1x1 + a2x2..+ anxn + c la n+1 pla (a1, a2, .. an, c ) dei suoi coefficienti.
Sia ora assegnato un sistema S compatibile di m equazioni in n incognite.
a11x1 + a12 x 2 .. + a1n x n + c1 = 0
a x + a x .. + a x + c = 0

22 2
2n n
2
S = 21 1
..

a m1x1 + a m2 x 2 .. + a mn x n + c m = 0
e sia
a11 , a12 ,....a1n c1

a 21 , a 22 .. a 2n c 2
A =

..

a , a ,. a c
mn m
m1 m2
la sua matrice completa. Ora le righe della matrice A sono le immagini tramite lisomorfismo f
delle equazioni del sistema per cui un numero massimo di equazioni indipendenti del sistema si
otterr in corrispondenza ad un numero massimo di righe indipendenti di A .

69

Ora poich il sistema S per ipotesi compatibile , le due matrici A ed A del sistema hanno lo
stesso rango e sia p il rango di A ed A. Se H la sottomatrice quadrata dordine p di A con
determinante diverso da zero ( ma che ha tutti i suoi orlati con determinante nullo ) che ci ha
permesso di stabilire il rango di A allora le p righe di A che concorrono alla formazione di H sono
un sistema massimo di righe indipendenti di A . Le stesse righe nella matrice A costituiscono
anche in A che anchessa rango p , un sistema massimo di righe indipendenti di A
Le equazioni corrispondenti a tali righe sono quindi indipendenti ed inoltre ogni altra equazione
risulta una loro combinazione lineare. Attraverso il calcolo del rango di A (uguale a quello di A )
utilizzando il teorema degli orlati , abbiamo cos stabilito quali siano le equazioni del sistema S
che debbono essere mantenute e quali invece possono essere eliminate, senza alterare linsieme
delle soluzioni del sistema. Quando si sia effettuata questa scelta il sistema ha sempre la seguente
forma :
ci sono nel sistema S , p equazioni ed n incognite con p n . Vediamo perch .
Inizialmente per il sistema, ci sono tre possibili casi :
Caso 1 .

m = n ma det A = 0

In tal caso il rango p di A minore di n e quindi mantenendo le p equazioni indipendenti si hanno


p equazioni ed n incognite con p < n

Caso 2. m > n Ci siano cio pi equazioni che incognite . In tal caso la matrice A ha una forma di

rettangolo alto ma stretto con m righe ed n colonne . Poich il rango esprime il massimo
numero di colonne indipendenti risulta p n . Se p = n si ricade nel caso esaminato nella
proposizione 1.3 e pertanto possiamo supporre che sia p < n. Anche in questo caso mantenendo le
p equazioni indipendenti si hanno
p equazioni ed n incognite con p < n.

Caso 3.

m < n . Ci siano cio meno equazioni rispetto al numero di incognite . . In tal caso la

matrice A ha una forma di rettangolo basso ma largo con m righe ed n colonne. Poich il rango
p di A esprime il massimo numero di righe indipendenti risulta p m < n. Anche in questo caso
mantenendo le p equazioni indipendenti si hanno

70

p equazioni ed n incognite con p < n.

Dopo quanto detto dobbiamo quindi prendere in considerazione un sistema S compatibile con p
equazioni indipendenti ed n incognite con p < n

a11x1 + a12 x 2 .. + a1n x n + c1 = 0


a x + a x .. + a x + c = 0
21 1
22 2
2n n
2
S=
..
a p11x1 + a p2 x 2 .. + a pn x n + c p = 0

e vedere come si trovano le sue soluzioni.


Essendo le p equazioni del sistema indipendenti la matrice

a11 a12 .. a1n

a 21 a 22 ..a 2n
A=
..

a a . a
pn
p1 p2

incompleta del sistema ha rango p e quindi essa possiede una sottomatrice quadrata H dordine p
con il determinante diverso da zero corrispondente a p colonne indipendenti di A.
Per rendere semplice la scrittura, quindi solo per semplicit , supponiamo che siano le prime p
colonne di A a determinare con le sue p righe tale sottomatrice H.

a11 a12 a1p .. a1n

a 21 a 22 a 2p ..a 2n
A=
..
a a a . a
pp
pn
p1 p2

71

Se ora assegniamo alle incognite ( xp+1 , xp+2 , , xn ) i valori (yp+1 , yp+2 , , yn )


Il sistema S assume la seguente forma :

a11x1 + a12 x 2 .. + a1p x p = a1p +1y p +1 - .... - a1n y n c1

- a 2n y n c 2
a 21x1 + a 22 x 2 .. + a 2p x p = - a 2p +1y p +1 S =
..
a p11x1 + a p2 x 2 .. + a pp x p = - a pp +1y p +1 - ... - a pn y n c p

cio diventa un sistema con p equazioni e p incognite e con la matrice H dei suoi coefficienti
avente il determinante diverso da zero. Tale sistema per la proposizione 1.3 ha una sola
soluzione (y1 , y2 , , yp ) e cos la n-pla

= (y1 , y2 , , yp yp+1 , yp+2 , , yn )


una soluzione del sistema S . Poich i primi p valori della soluzione sono determinati
che

dai valori yp+1 , yp+2 , , yn

ha nei suoi ultimi n-p posti si hanno queste due utili

conseguenze .
i) due soluzioni e che abbiano eguali i valori di posto p+1 , p+2 ,, n coincidono.

ii) indicando con

linsieme delle soluzioni del sistema S , la funzione

= (y1 , y2 , , yp yp+1 , yp+2 , , yn ) S


f : (yp+1 , yp+2 , , yn ) Kn-p

biettiva .

Essendo f biettiva si ha | Kn-p |

= |

S|

e cio le soluzioni del sistema S sono tante

quante le (n-p)-ple ordinate di elementi di K.


Se K infinito come spesso accade ( in quanto esso spesso sar il campo reale ) si dice
perci che il sistema S ha

n-p

soluzioni .

72

Poich ogni soluzione determinata sulla base della scelta dei valori yp+1 , yp+2 , , yn
assegnati alle incognite
( spesso

infinite

xp+1 , xp+2 , , xn

, evidente che le soluzioni del sistema

) non avendo un nesso tra loro

debbono essere calcolate una per una

applicando di volta in volta la regola di Cramer. Questa difficolt come ora vedremo pu essere
superata dopo aver discusso della risoluzione dei sistemi omogenei.

2. Sistemi omogenei.

In questo numero studieremo i sistemi di equazioni lineari omogenei

a11x1 + a12 x 2 .. + a1n x n = 0


a x + a x .. + a x = 0

22 2
2n n
S = 21 1
..

a m1x1 + a m2 x 2 .. + a mn x n = 0

cio quelli che hanno i termini noti tutti eguali a zero.


Sono ovvie le seguenti osservazioni.

a)

Il sistema S omogeneo compatibile una sua soluzione ( detta soluzione banale ) essendo

la n-pla (0,0,.,,0) .Ne segue che le due matrici A ed A hanno sempre lo stesso rango che
indichiamo con p .

b) se il rango p eguale ad n il sistema ammette, in accordo con la proposizione 1.3, soltanto


la soluzione banale (0,0,.,,0).
n-p

Possiamo quindi supporre che sia p < n in modo che il sistema ammetta | K |
Denotiamo al solito con

soluzioni.

linsieme delle soluzioni del sistema S .

Ci che distingue i sistemi omogenei rispetto a quelli non omogenei la

qualit

dellinsieme S delle soluzioni.


Infatti se il sistema non omogeneo linsieme

un sottoinsieme di Kn .

Se invece il sistema omogeneo si ha una importante propriet espressa dalla seguente

73

Proposizione 2.1 Sia

a11x1 + a12 x 2 .. + a1n x n = 0


a x + a x .. + a x = 0

22 2
2n n
S = 21 1
..
a m1x1 + a m2 x 2 .. + a mn x n = 0

un sistema omogeneo con rango p. Linsieme

delle sue soluzioni un sottospazio di Kn di

dimensione n-p.

Dimostrazione. Per rendere pi semplice la dimostrazione usiamo la forma matriciale

AX=0

( dove al solito

a 11 a 12 ........ a 1n

a 21 a 22 ........ a 2n
A=

...

a
........
a
m2
mn
m1

x1

x2
X=
..

x
n

0
0=
..

per rappresentare il sistema dato.

y1

y2
Y=
..

y
n

Se

z1

z2
Z=
..

z
n

sono due soluzioni del sistema allora

AY = 0 e AZ = 0 da cui segue A( Y+Z ) = AY + AZ = 0


Y+Z

e questa mostra che anche

una soluzione del sistema. Se Y una soluzione del sistema si ha AY = 0 se

uno scalare qualsiasi si ha

A ( Y) = AY = 0 e ci mostra che anche Y una

soluzione .

Avendo provato che linsieme

delle soluzioni di S ha le seguenti propriet :

74

Y S , Z

1)

2) K

, Y

Y+Z

resta provato che S un sottospazio di Kn . Proveremo ora che esso ha dimensione n-p .
Poich A ha rango p per semplicit supporremo che le prime p righe e che le prime p
colonne di A siano indipendenti . Linsieme delle soluzioni del sistema S coincide allora con
linsieme delle soluzioni del sistema ridotto S costituito dalle prime p equazioni di S .

a11x1 + a12 x 2 + . + a1n x n = 0


a x + a x + + a x = 0
21 1
22
2
2n n
S =

a p1x1 + a p2 x 2 + + a pn x n = 0

Per quanto detto al numero 1 di questo capitolo , ogni soluzione di S determinata sulla base
della scelta dei valori yp+1 , yp+2 , , yn assegnati alle incognite

xp+1 , xp+2 , , xn .

Sia allora

p+1

= ( 1 , 2 , .., p , 1 , 0, ,0 )

la soluzione di S ottenuta assegnando alle incognite xp+1 , xp+2 , , xn i valori


(1, 0, 0,,0)

p+2

= ( 1 , 2 , .., p , 0 , 1, ,0 )

la soluzione di S ottenuta assegnando alle incognite xp+1 , xp+2 , , xn i valori


(0, 1, 0,,0)

e .

= ( 1 , 2 , .., p , 0 , 0, ,1 )

75

la soluzione di S ottenuta assegnando alle incognite xp+1 , xp+2 , , xn i valori


(0, 0, ,,1)

Tali soluzioni sono n-ple indipendenti perch sono indipendenti gli n-p

vettori numerici

(1, 0, 0,,0) , (0, 1, 0,,0) ,,,,,,,,,, (0, 0, ,,1)

Sia ora

Y = (y1 , y 2 , .., y p yp+1 , yp+2 , , yn ) una qualunque soluzione di S. Poich

abbiamo provato che

un sottospazio allora sono ancora soluzioni di S le seguenti n-ple

yp+1 p+1 ,

Ma sempre perch

yp+2 p+2 ,

...,

yn

un sottospazio , sommando tra loro queste soluzioni si ottiene ancora

una soluzione . Ma la soluzione

yp+1 p+1 + yp+2 p+2 + , .., + yn

che si ottiene eseguendo questa somma , presenta anchessa agli ultimi n-p

posti i valori

yp+1 , yp+2 , , yn

( .

, yp+1 , yp+2 , , yn )

al pari di Y . Ne segue che

p+1 , p+2

S.

, ..,

Lo spazio

=Y

e ci prova, per larbitrariet di Y che le soluzioni

sono oltre che indipendenti anche un sistema di generatori per lo spazio

ha quindi dimensione n-p e lasserto provato.

La proposizione ora provata non solo fornisce la dimensione dello spazio S delle soluzioni
del sistema S ma offre anche un metodo per determinare una sua base.

76

Facciamo un esempio.

Si vogliano determinare le soluzioni del seguente sistema omogeneo:

2x + y + z + 2t = 0
S =
x + y + z + t = 0

La matrice di tale sistema


2 , 1, 1, 2

A =
1, 1, 1, 1

2, 1
ha rango due risultando det
1,1

= 1 e pertanto lo spazio

sottospazio di R4 di dimensione due. Una base di

delle soluzioni un

si ottiene considerando le due soluzioni

di S che si ottengono assegnando alle incognite z e t una prima volta i valori ( 1 , 0 ) e


successivamente i valori ( 0 , 1 ). Troviamo quindi queste due particolari soluzioni .
Ponendo z = 1 e t = 0 , S diventa
2x + y = 1

x + y = 1
Applicando a tale sistema la regola di Cramer si trova
soluzione di S la quaterna

= ( 0 , -1 , 1, 0 )

Ponendo z = 0 e t = 1 , S diventa
2x + y = - 2

x + y = - 1

x = 0 ed y = -1. Quindi la prima

77

Applicando a tale sistema la regola di Cramer si trova


soluzione di S la quaterna

Lo spazio

x = -1 ed y = 0. Quindi la seconda

= ( -1 , 0 , 0, 1 )

delle soluzioni di S quindi lo spazio generato dalle due quaterne trovate.

S=

[( 0 , -1 , 1, 0 ) ,( -1 , 0 , 0, 1 ) ]

Ci che ora faremo giustifica linteresse mostrato per la risoluzione di un sistema omogeneo.

Sia assegnato un sistema di equazioni lineari non omogeneo

a11x1 + a12 x 2 .. + a1n x n = c1


a x + a x .. + a x = c
21 1
22 2
2n n
2
S =
..
a m1x1 + a m2 x 2 .. + a mn x n = c m

e supponiamo sia compatibile in modo da avere interesse a ricercare le sue soluzioni.


Ponendo nel sistema S i termini noti

c1 , c2 , , cn

eguali a zero si ottiene un sistema

omogeneo

a11x1 + a12 x 2 .. + a1n x n = 0


a x + a x .. + a x = 0
21 1
22 2
2n n
So
..
a m1x1 + a m2 x 2 .. + a mn x n = 0

che detto associato ad S .


Abbiamo gia visto che nel caso sia p=p = n il sistema S ha una sola soluzione che si
trova con la regola di Cramer. Se invece p < n allora il sistema S ammette | K |n-p

soluzioni

ognuna delle quali va trovata assegnando a certe n-p incognite dei valori arbitrari ed applicando al
corrispondente sistema la regola di Cramer . Le soluzioni del sistema S si possono per pi
facilmente calcolare attraverso la determinazione delle soluzioni del sistema omogeneo associato
come mostra la seguente :

78

Proposizione 2.2 Sia assegnato un sistema

a11x1 + a12 x 2 .. + a1n x n = c1


a x + a x .. + a x = c

22 2
2n n
2
S = 21 1
..
a m1x1 + a m2 x 2 .. + a mn x n = c m

non omogeneo e compatibile . Tutte le soluzioni di S si ottengono sommando ad una sua soluzione
tutte le soluzioni del sistema

a11x1 + a12 x 2 .. + a1n x n = 0


a x + a x .. + a x = 0

22 2
2n n
So = 21 1
..
a m1x1 + a m2 x 2 .. + a mn x n = 0

omogeneo associato ad S .

Dimostrazione. Per rendere pi semplice la dimostrazione usiamo la forma matriciale


AX = C e AX = 0 per rappresentare il sistema S ed il suo omogeneo associato. Indichiamo
inoltre con una soluzione di S , con

linsieme di tutte le soluzioni di S e con

So il

sottospazio delle soluzioni di So .


Se

una soluzione di So

si ha A = 0 . Poich una soluzione di S si ha

A = C ed allora si ha
A( + )= A

+ A = C + 0 = C

Abbiamo cos mostrato che addizionando alla soluzione

una soluzione di So si ottiene

ancora una soluzione di S . Se mostriamo che una qualunque soluzione di S si ottiene in questo
modo allora il teorema provato. Sia quindi una soluzione di S . Poich e sono
soluzioni di S si ha A = C

e A

= C e quindi

A ( - ) = A - A
Pertanto = -
scelta.

= C -C=0

una soluzione di So che sommata a

fornir la soluzione

79

In definitiva sommando a tutte le soluzioni di So si ottengono tutte le soluzioni di S e


lasserto cos provato.
La proposizione ora provata risolve il problema che avevamo posto circa lincombenza di dover
applicare la regola di Cramer molte volte per trovare le soluzioni di S.
Infatti per trovare si applicher la regola di Cramer una sola volta e per trovare le soluzioni
di So baster trovare una sua base e per la sua determinazione si dovr applicare la regola di
Cramer altre n-p volte.

Concludiamo tale numero esaminando come determinare in modo rapido le soluzioni di un


particolare sistema omogeneo che spesso incontreremo nelle applicazioni successive.

Si consideri un sistema omogeneo So con n-1 equazioni indipendenti ed n incognite .

+ a1n x n = 0
a11x1 + a12 x 2 ..
a x + a x ..
+ a 2n x n = 0
21 1
22 2
S =
..
a n -1 ,1x1 + a n -1, 2 x 2 + + a n -1, n x n = 0

Poich il rango n-1 la matrice

A=

a 11 a 12 . ......

a 21 a 22 .....

...

a n -1 ,1 , a n -1, 2 ,

a 2n
...

a n -1, n
a 1n

del sistema possiede almeno una sua sottomatrice quadrata dordine n-1 con il determinante
diverso da zero. Ora le soluzioni del sistema formano un sottospazio di dimensione 1 per cui per
determinare tutte le sue soluzioni basta determinare una sua soluzione (y1 , y2 ,, yn ) non nulla.
Denotiamo con L1 , L2 , , Ln

le n matrici che si ottengono dalla matrice A cancellando

rispettivamente la prima , la seconda ,, lultima colonna. Ognuna di tali matrici quadrata


dordine n-1 e quindi di ognuna di esse si pu calcolare il determinante. Indichiamo con

1 =det L1 ,

2 = det L2 , ,

n = det Ln

80

Come gi osservato almeno uno dei numeri

1 ,

, ,

n non zero . Vogliamo

provare che la n-pla non nulla


(y1 , y2 ,, yn ) = ( 1 , - 2 , , (-1)n-1 n )
che si ottiene considerando gli n numeri ( 1 , 2 , , n ) ma presi a segno alterno una
soluzione del sistema . Occorre provare che ( 1 , - 2

, , (-1)n-1 n )

soluzione di ogni

equazione del sistema e che quindi se in ogni equazione del sistema si sostituiscono al posto delle
incognite (x1, x2, ., xn ) i numeri ( 1 , - 2 , , (-1)n-1 n ) si ottiene zero.
Vediamo.
Consideriamo le n-1 matrici quadrate dordine n , M1. M2 , , M n-1, cos ottenute:
M1 ha come prima riga la prima riga di A e le altre n-1 righe eguali alle righe di A.
M2 ha come prima riga la seconda riga di A e le altre n-1 righe eguali alle righe di A.

.
M n-1 ha come prima riga la riga di posto n-1 di A e le altre n-1 righe eguali alle righe di A.

a 11 a 12 . ......

a 11 a 12 . ......
M1 = a 21 a 22 .....

...
a , a
n -1 ,1 n -1, 2 ,

a 21 a 22 .......

a 11 a 12 . ......
M2 = a 21 a 22 .....

...
a , a
n -1 ,1 n -1, 2 ,

.
.

a 1n
a 2n

...

a n -1, n
a 1n

a 1n
a 2n

...

a n -1, n
a 2n
...

81

a n -1 ,1 , a n -1, 2 ,

a 11 a 12 . ......
Mn-1 = a 21 a 22 .....

...
a , a
n -1 ,1 n -1, 2 ,

a 1n
a 2n

...

a n -1, n

n -1, n

Ognuna di tali matrici avendo ciascuna due righe eguali ha il determinante eguale a zero.
Sviluppando det Mi i = 1,2,.. , n-1

secondo gli elementi della prima riga si ha :

det Mi = ai1 h1 + ai2 h2 + , + ain hn = 0


avendo indicato con (h1, h2 ,, , hn )
Ma i numeri ( 1 , - 2 , ,

i complementi algebrici degli elementi della prima riga .

(-1)n-1 n )

sono esattamente i complementi algebrici degli

elementi della prima riga e quindi si ha lasserto.


Concludiamo con un esempio .
Si vogliano determinare le soluzioni del seguente sistema omogeneo.
2x + 2y + 3z = 0
S=
2x + y - 4z = 0
Questo sistema ha due equazioni indipendenti e tre incognite e quindi le terne che lo soddisfano
costituiscono un sottospazio di R3 di dimensione 1. Una terna non nulla che quindi fornisce una
base per lo spazio delle soluzioni si ottiene considerando i determinanti , presi a segno alterno,
delle matrici
2 3

1 4

2 3

2 4

2 2

2 1

2, 2, 3
dei coefficienti cancellando la prima , la seconda e la terza
ottenute dalla matrice A =
2
,
1
,
4

colonna.Quindi una base per lo spazio delle soluzioni la terna ( -11 , 14 , -2 ) . Poich tale spazio
ha dimensione 1 le sue soluzioni si ottengono considerando la terna ( -11 , 14 , -2 ) e tutte quelle
ad essa proporzionali.

82

C A P I T O L O IV
Prodotti scalari

83

1. Prodotti scalari.
In questo capitolo Vn denoter sempre uno spazio vettoriale di dimensione n definito sul
campo reale. Un prodotto scalare in Vn una funzione
s : Vn x Vn R
di Vn x Vn in R , simmetrica e bilineare , cio avente le seguenti propriet:
1.

s( v , w ) = s( w , v )

2.

s( v+v ,w ) = s( v, w ) + s( v, w )

3.

s( v , w) = s( v , w )

per ogni coppia di vettori v e w e per ogni scalare .


Il numero reale s(v,w) associato da s alla coppia ordinata (v,w) chiamato prodotto
scalare di v e w .

Dalle propriet 1 , 2, 3 segue facilmente che s verifica inoltre le seguenti propriet

2. s( v , w+w) = s( v, w ) + s( v , w)
3. s( v , w) = s( v , w )
e ci giustifica il termine bilineare dato ad s.
Inoltre dalla 3 segue che

s(v ,-w) = s(v , (-1)w ) = - s (v ,w )

Facilmente possiamo provare ora la seguente

Proposizione 1.1 Il prodotto scalare di s(v , w) di v con w zero se uno dei due vettori il
vettore nullo.

84

Dimostrazione. Supponiamo ad esempio sia w = 0 . Si ha

s(v ,0) = s(v , a + (-a))= s(v ,a) + s(v ,-a)= s(v,a) s(v,a) = 0

Il prodotto scalare s si dice definito positivo se vale la seguente ulteriore propriet


4. s(v , v) 0 ed inoltre s(v , v) = 0 se e solo se v = 0
cio :
il prodotto scalare di un vettore v con se stesso un numero non negativo ed zero se e solo se v
il vettore nullo.

Ci sono due esempi importanti.

Esempio 1. Si consideri lo spazio vettoriale Rn delle n-ple ordinate di numeri reali. Come
gi detto, si chiama prodotto scalare dei vettori a = ( a1, a2,.,an) e b = ( b1, b2,.,bn) il
numero reale

< a , b > = a1, b1 + a2 b2 + + an bn


che si ottiene eseguendo la somma dei prodotti degli elementi di egual posto. Si verifica facilmente
che la funzione

<

> : Rn x Rn

sopra definita un prodotto scalare definito positivo in Rn . Tale prodotto scalare chiamato
standard o euclideo.

Esempio 2 . Si consideri un punto A dello spazio reale e sia VA linsieme di tutti i


segmenti orientati AP di primo estremo A. Come gi visto in precedenza VA uno spazio
vettoriale sul campo reale di dimensione tre .In tale spazio vettoriale si definisce prodotto scalare
dei vettori v = AP e w = AP il seguente numero reale

s ( v , w ) = | AP | | AP| cos

85

avendo indicato con | AP | e | AP| le lunghezze dei segmenti AP ed AP e con langolo


formato dalle rette AP ed AP .
Si prova che la funzione s : VA x VA

R sopra definita un prodotto scalare definito positivo

dello spazio vettoriale VA .


Riferendoci a tale esempio geometrico osserviamo quanto segue : se v = AP un vettore
si ha in base alla definizione :
s ( v , v ) = | AP | 2

Da cui segue quindi che

(i)

AP = s(v, v)

Inoltre se v = AP e w = AP sono due vettori non nulli si ha :

(ii)

v ortogonale a w se e soltanto se risulta s( v , w ) = 0.

Le propriet (i) e (ii) ora illustrate suggeriscono le seguenti definizioni .


Sia Vn uno spazio vettoriale reale dotato di un prodotto scalare s definito positivo.
Chiameremo lunghezza o norma di un vettore v il seguente numero reale | v |

non negativo

v = s(v, v)

(1 . 1)

Inoltre se v e w sono due qualunque vettori di Vn diremo che essi sono ortogonali e
scriveremo v

(1.2)

w se risulta s( v , w ) = 0. In simboli

s( v , w ) = 0

86

Ovviamente per quanto gi provato nella proposizione 1.1 si ha :

Proposizione 1.2 Il vettore nullo ha lunghezza zero ed ortogonale ad ogni altro vettore.
Se v e w sono due vettori tra loro ortogonali anche i vettori v e w , per ogni coppia
di scalari e , sono tra loro ortogonali. Risulta infatti
s( v , w) = s( v , w ) = 0.
Quindi accorciando o allungando due vettori v e w tra loro ortogonali essi
restano ortogonali.
Quando si moltiplichi un vettore non nullo v per il numero k =

w =

1
v

che si ottiene ha lunghezza eguale ad 1 .

w = s(w, w) =

s(kv, kv) =

k 2 s(v, v) = k

1
v

il vettore

Infatti risulta

s(v, v ) =

1
| v|
v

= 1.

Di qui in avanti Vn uno spazio vettoriale reale dotato di un prodotto scalare s definito
positivo.

Molto importante la seguente

Proposizione 1.3 Siano v1 , v2 ,vh h vettori , ciascuno non nullo, e a due a due
ortogonali. Allora i vettori v1 , v2 ,vh

risultano linearmente indipendenti.

Dimostrazione. Siano 1, 2 , h

h scalari per i quali risulta

1v1 + 2v2 ++ hvh = 0

Se proviamo che 1= 2 = = h = 0 allora i vettori v1 , v2 ,vh

sono indipendenti

e lasserto sar provato. Proviamo ad esempio che 1 = 0 . Si ha , tenendo conto della


proposizione 1.1 e della bilinearit di s ,
(*)

0 = s ( 0 , v1 ) = s ( 1v1 + 2v2 ++ hvh , v1 ) =

= 1 s ( v1 , v1 ) + 2 s ( v2 , v1 ) + .+ h s ( vh , v1 )

87

ora essendo per ipotesi v1 non nullo ed ortogonale a tutti gli altri vettori si ha
s ( v1 , v1 ) > 0

e s ( v2 , v1 ) = = s ( vh , v1 ) = 0 .

Dalla relazione (*) trovata segue allora 1 s ( v1 , v1 ) = 0 e quindi 1 = 0 essendo


s ( v1 , v1 ) > 0 .
Con lo stesso ragionamento , attraverso il calcolo di s ( 0 , v2 ) , , s ( 0 , vh ) si prova che
anche 2= = h = 0 e quindi lasserto.

La proposizione ora provata mostra che se siamo in grado di trovare nello spazio Vn ,

vettori non nulli e1, e2 , ., en a due a due ortogonali allora tali vettori essendo indipendenti
costiuiscono una base. Una siffatta base sar detta ortogonale . Inoltre come abbiamo gi osservato
anche possibile rendere i vettori
reciproca ortogonalit . Una base

e1, e2 , ., en ciascuno di lunghezza 1 senza alterare la


e1, e2 , ., en

che abbia i vettori a due a due ortogonali e

ciascuno di lunghezza 1 detta ortonormale.


Vedremo in seguito che molto utile disporre di una base ortonormale. Ma sempre
possibile costruire una base ortonormale ?
Viene incontro a questa nostra esigenza la seguente proposizione la quale offre un
procedimento costruttivo per costruire una base ortogonale e quindi una base ortonormale .
Proposizione 1.4 Sia Vn uno spazio vettoriale reale dotato di un prodotto scalare s
definito positivo. Se e1, e2,, et sono t (1 t < n ) vettori non nulli e a due a due ortogonali
possibile determinare un vettore non nullo e t+1 ortogonale ai vettori e1, e2,, et .
Dimostrazione . Sia wt+1 un vettore non appartenente al sottospazio H = [e1, e2,, et ]

generato dai vettori e1, e2,, et .Poich il vettore wt+1 non appartiene al sottospazio
H = [e1, e2,, et ] , per ogni scelta degli scalari 1, 2,, t il vettore
et+1 = wt+1 + 1e1 + 2e2 ++ t et
non nullo e non appartiene ad H . Vediamo se possibile scegliere gli scalari 1, 2,, t

in

modo che il vettore et+1 risulti ortogonale ai vettori e1, e2,, et .


Tenendo conto della bilinearit del prodotto scalare e del fatto che i vettori e1, e2,, et sono a
due a due ortogonali si ha :

88

s ( et+1 , e1 ) = s ( wt+1 , e1 ) + 1 s ( e1 , e1 )
s ( et+1 , e2 ) = s ( wt+1 , e2 ) + 2 s ( e2, e2 )
..

s ( et+1 , et ) = s ( wt+1 , et ) + t s ( et , et )
Pertanto il vettore et+1 risulter ortogonale ai vettori e1, e2,, et cio risulter
s ( et+1 , e1 ) = s ( et+1 , e2 ) = .= s ( et+1 , et ) = 0
quando si scelga :

1 = -

s(w t+1 , e1 )
s(e1 , e1 )

2 = -

s(w t+1 , e 2 )
s(e 2 , e 2 )

..
..

t = -

s(w t+1 , e t )
s(e t , e t )

Ovviamente quando ai vettori e1, e2,, et

sia stato aggiunto il vettore et+1

ottiene un insieme di t+1 vettori e1, e2,, et ,et+1

ora costruito si

ancora a due a due ortogonali sui quali si

pu quindi ripetere il procedimento ora illustrato cos da costruire un altro vettore et+2 ortogonale
ad essi .
Dopo n-t passi si perverr quindi a costruire n vettori e1, e2,, en a due a due ortogonali

cio, come si voleva, una base ortogonale .


Indaghiamo ora perch sia utile disporre nello spazio vettoriale Vn dotato di un prodotto
scalare s definito positivo, di un riferimento ortonormale cio di una sua base B = ( e1, e2,, en )
ordinata e ortonormale.
Siano v e w due qualsiasi vettori di Vn . Poich B = ( e1, e2,, en ) una base esistono

89

opportuni scalari ( 1, 2,, n ) e ( 1, 2,, n ) per cui si abbia


v = 1e1 + 2e2 + + n en ,

w = 1e1 + 2e2 + + n en

Tenendo conto che la base B ortonormale e che quindi :


s ( ei , ei ) = 1 per ogni i = 1, 2 ,, n
s ( ei , ej ) = 0 per i j
si ha
s ( v , w ) = 1 1 + 2 2+ + n n .
Concludendo, attraverso luso del riferimento ortonormale B, abbiamo reso semplice ed
elementare il calcolo del numero s ( v , w ) risultando tale prodotto scalare di v e w eguale al
prodotto scalare euclideo delle n-ple ( 1, 2,, n )

e ( 1, 2,, n )

delle loro

coordinate nel riferimento B.

Sia sempre Vn uno spazio vettoriale reale dotato di un prodotto scalare s definito positivo .
Sia ora H un sottospazio di Vn .
Proviamo la seguente

Proposizione 1.5 . Il sottoinsieme


H = { w Vn : w v per ogni v H

costituito dai vettori w ortogonali ad ogni vettore di H un sottospazio . I sottospazi H ed H


sono tra loro supplementari .
Dimostrazione . Il sottoinsieme H non vuoto perch di esso fa parte il vettore nullo.

Siano w e w due vettori di H . Per ogni vettore v di H si ha


s( w + w , v ) = s ( w , v ) + s ( w , v ) = 0
e questa prova , per larbitrariet di v , che anche w + w un vettore di H .
Siano w un vettore di H

e sia un numero reale . Risulta , per ogni vettore v di H ,

s ( w , v ) = s ( w , v ) = 0

90

e questa prova , per larbitrariet di v, che anche w un vettore di H .


Abbiamo cos provato che H

un sottospazio. Proviamo ora che H ed H sono tra loro

supplementari . Lasserto ovvio se H banale . Supponiamo quindi H non banale . Sia t = dimH
e sia e1, e2,, et una base ortogonale di H. Completiamo la base e1, e2,, et
in una base B = { e1, e2,, et
vettori

et+1 . en

et ,et+1 . en

. In forza della proposizione

ortogonale di H

ortogonale di Vn aggiungendo opportuni n-t


5.2 del capitolo I

lasserto sar provato se

mostriamo che H = [ et+1 . en ].


Denotiamo con L = [ et+1 . en ]
vettore di L si ha

il sottospazio generato dai vettori

w = t+1et+1 + + n en

v = 1e1 + 2e2 + + n et di H

et+1 . en . Se w un

e conseguentemente per ogni vettore

si ha

s ( w , v ) = s( t+1et+1 + + n en , 1e1 + 2e2 + + n et ) = 0


essendo s ( ei , ej ) = 0

per i j

. Pertanto per larbitrariet di v, il vettore w un vettore

di H .Abbiamo cos provato che L H . Viceversa sia w un vettore di H . Poich B una


base si ha che esistono opportuni scalari 1, 2, n per cui risulti
w = 1e1 + 2e2 + + n et

(*)

+ t+1et+1

+ + n en

Poich w un vettore di H esso risulta ortogonale ai vettori e1 ,e2 .et di H .


Si ha cos s ( w , ei ) = 0 per ogni i = 1,2,, t .
Ma poich

0 = s ( w , ei ) = i s (ei , ei )

si ha i = 0 per ogni i = 1,2,, t essendo s (ei , ei ) > 0 .


Ma se 1= 2= = t = 0 allora da (*) segue
w = t+1et+1 + + n en
la quale mostra che w un vettore di L . Avendo quindi provato che anche H L si ha
L = H e la proposizione provata.
Il sottospazio H ora illustrato detto complemento ortogonale di H .

Osserviamo infine che facile provare la seguente equivalenza

91

Proposizione 1.6

Sia Vn uno spazio vettoriale reale dotato di un prodotto scalare s

definito positivo . Siano e1, e2,, et , t suoi vettori ed H = [e1, e2,, et ] il sottospazio da essi
generato. Un vettore w ortogonale a ciascuno dei vettori e1, e2,, et

se e solo se

appartiene al sottospazio H .

Concludiamo con qualche utile applicazione delle cose provate in questo numero.
Si consideri un sistema omogeneo di m equazioni lineari ciascuna in n incognite.
a11x1 + a12 x 2 .. + a1n x n = 0
a x + a x .. + a x = 0
21 1
22 2
2n n

..
a m1x1 + a m2 x 2 .. + a mn x n = 0

e sia
a 11 a 12 ........ a 1n

a 21 a 22 ........ a 2n
A=

...

a
........
a
m2
mn
m1

la matrice del sistema.


Una n-pla ( y1, y2, , yn ) soluzione del sistema S se e solo se essa un vettore di Rn
ortogonale ai vettori riga della matrice A. Tenendo conto della proposizione 1.6 , linsieme

delle soluzioni di S coincide quindi col sottospazio ortogonale H del sottospazio


H = [a1, a2,, am ]

generato dalle righe di A.

Se la matrice A ha rango p allora dimH = p e cos dim

= dim H = n-p.

Abbiamo cos ritrovato il risultato gi stabilito per i sistemi omogenei nella proposizione 2.1
del capitolo III.

92

CAPITOLO V
Triangolazione e diagonalizzazione di una matrice quadrata

93

1. Triangolazione di una matrice quadrata.

Abbiamo visto nei capitoli precedenti quanto sia utile il calcolo del determinante di una
matrice quadrata A dordine n

ad elementi su un fissato campo K. Allo stesso tempo apparso

chiaro come tale calcolo sia poco agevole quando lordine n di A sia molto grande.
Vogliamo ora illustrare un procedimento, traducibile in un programma per il computer ,che
consenta di semplificare tale calcolo.
Sia quindi

a 11 a 12 a 1n

a 21 a 22 a 2n
A = ..

a n1 a n2 a nn

una matrice quadrata dordine n ( n 2 ) ad elementi in un fissato campo K.


Supporremo ovviamente che nessuna riga di A e nessuna colonna di A sia il vettore nullo
altrimenti gi detA = 0.
Per comodit di scrittura indicheremo con a1 , a2, ., an le n righe di A.
Abbiamo gi osservato parlando delle propriet dei determinanti , che quando nella matrice A una
sua riga ai venga sostituita con la nuova riga

a i + a j , con scalare non nullo e j i , si

ottiene una nuova matrice A che differisce da A solo nella riga di posto i ma che ha lo stesso
determinante di A. Quando si agisce sulla matrice A nel modo ora indicato si dice che si effettuata
su A una trasformazione elementare sulle sue righe. Noi opereremo per semplicit ed omogeneit
solo sulle righe di A pur consapevoli che il procedimento che illustreremo potrebbe essere
effettuato anche sulle colonne di A.
Useremo questa simbologia

a 11 a 12 a 1n

a 21 a 22 a 2n

..a i .......

a a a
nn
n1 n2

---- T i ------- a i + a j ------ >

a 11 a 12 a 1n

a 21 a 22 a 2n

........... a i + a j ...

a a a
n1 n2
nn

94

per indicare che stiamo trasformando la riga ai di posto i con la nuova riga a i + a j .
Vogliamo ora provare che

Proposizione 1.1 Con un numero finito di trasformazioni elementari sulle righe possibile
trasformare la matrice A in una matrice B che ha lo stesso determinante di A ma che ha lultima
colonna eguale a ( 0, 0, , 1 ).

In simboli

a 11 a 12 a 1n

a 21 a 22 a 2n
A= ..

a n1 a n2 a nn

-- T ----- T . ----- T --- > B=


1
2
k

b11 b12 0

b 21 b 22 0

b n1 b n2 1

Una volta provata la proposizione 1.1 possiamo evidenziare i vantaggi che ne derivano.
Il vantaggio che il determinante della matrice B eguale al determinante della matrice H che si
ottiene cancellando nella matrice B lultima sua riga e lultima sua colonna.
Quindi con questo primo passo abbiamo ricondotto il calcolo del determinante di A al calcolo del
determinante di H che per ha ordine n-1.
Se la matrice H non possiede una riga o una colonna nulla possiamo ripetere sulla matrice H il
procedimento usato per trasformare A in B e cos il determinante di H sar eguale al determinante
di una matrice H dordine n-2. Avremo quindi

det A = det B = det H= det H

Possiamo cos ,iterando il procedimento un certo numero di volte,

ricondurre il calcolo del

determinante di A , forse molto grande , al calcolo del determinante di una matrice A , abbastanza
piccola.

Proviamo quindi la proposizione 1.1

95

Dimostrazione . Iniziamo col caso pi favorevole:

Caso 1 :

ann = 1

Se ann = 1

allora il risultato si raggiunge facilmente. Infatti se la riga a i di posto i

( i < n ) ha lultimo elemento diverso da zero ed eguale ad

allora sommando alla riga a

lultima riga moltiplicata per -h si ottiene una nuova matrice B che ha lelemento bin = 0 ,come
desiderato.

In simboli :
a 11 a 12 a 1n

a 21 a 22 a 2n

..a i ....... h ---- T i ------- a i + -h a n ------ >

a n1 a n2 1

Quindi se nellultima colonna di A ci sono s

a 11 a 12 a 1n

a 21 a 22 a 2n

.......... .......... .......... ..... 0

a a . 1
n1 n2

elementi diversi da zero ( incluso 1 ) con s-1

trasformazioni elementari sulle sue righe si pu pervenire ad una matrice B con lultima colonna
eguale a (0,0,,1) come richiesto.

Caso 2 :

ann = 0

Se ann = 0 allora poich lultima colonna di A non il vettore nullo esiste i , i < n tale
che sia ain 0 . Posto h = ain allora sommando allultima riga di A la riga a i moltiplicata per
1
si ottiene una matrice B che lelemento bnn = 1
h

In simboli :
a 11 a 12 a 1n

a 21 a 22 a 2n

..a i ....... h ---- T n ------- a n + 1 a i ------ >


h

a a 0
n1 n2

a 11 a 12 a 1n

a 21 a 22 a 2n

..a i ....... h

.......... ... . 1

Dopo questo primo passo ci siamo quindi ricondotti al caso 1 gi esaminato.

Caso 3 :

ann 0 e ann 1 ed esiste i < n tale che sia

Posto a = ann e

h = ain

ain 0 .

allora sommando allultima riga di A la riga a i moltiplicata

96

per

(a 1)
h

si ottiene una matrice B che lelemento bnn = 1.

In simboli :
a 11 a 12 a 1n

a 21 a 22 a 2n

..a i ....... h

a a a
n1 n2

---- T n ------- a n + (a 1) a i ------ >


h

a 11 a 12 a 1n

a 21 a 22 a 2n

..a i ....... h

.......... ... . 1

Dopo questo primo passo ci siamo quindi ricondotti al caso 1 gi esaminato.


Infine resta il

Caso4 :

ann 0 e ann 1 e per ogni i < n

ain = 0 .

Sommando alla prima riga di A lultima riga di A si ricade nel caso 3.

In simboli

a 11 a 12 ..0

a 21 a 22 .0

---- T ------- a + a ------ >


1
n
1

a n1 a n2 a nn

.......... . a nn

a 21 a 22 0

a n1 a n2 . a nn

Riepilogando, il procedimento ora illustrato applicato alla matrice A conduce alla matrice B

a 11 a 12 a 1n

a 21 a 22 a 2n
A= ..

a n1 a n2 a nn

-- T ----- T . ----- T --- > B=


1
2
k

b 11 b 12 0

b 21 b 22 0

b n1 b n2 1

Detta H la matrice formata dalle prime n-1 righe e n-1 colonne di B

97

b11 b12 b1,n -1

b 21 b 22 b 2, n -1

H=

b n -1,1 b n -1,2 b n -1,n -1

si ha det A = det B = det H.


Se

ha una riga o una colonna nulla detH = 0. In caso contrario possiamo ripetere il

procedimento sulla matrice H normalizzandola cio rendendo lultima sua colonna eguale a
( 0,0,,1).
Ora ogni trasformazione elementare fatta sulle righe di H pu ottenersi eseguendo la stessa
operazione sulle corrispondenti righe di B che presentano ormai lultimo numero eguale a zero.
Questa osservazione in sostanza la dimostrazione della seguente proposizione che corollario
della proposizione 1.1.
Supposto che tutte le matrici H che di volta in volta appaiono si possono normalizzare allora

Proposizione 1. 2 Con un numero finito di trasformazioni elementari sulle righe possibile


trasformare la matrice A in una matrice B triangolare che ha lo stesso determinante di A che ha
b11= detA e

bii=1 i 1

In simboli

a 11 a 12 a 1n

a 21 a 22 a 2n
A= ..

a n1 a n2 a nn

-- T ----- T . ----- T --- > B=


1
2
k

b 11 0 0

b 21 1 0

b n1 b n2 1

98

2. Diagonalizzazione di una matrice quadrata.


Per ci che segue utile introdurre alcune semplici notazioni . Sia Vn uno spazio vettoriale
di dimensione finita n sul campo K. Sia
1 1 .... . 1

2 2 ..... 2
A=

.....

......
n
n n

una matrice quadrata dordine n ad elementi nel campo K. Se ( v1 , v2 ,.,vn) una n-pla ordinata
di vettori di Vn col simbolo
1 1 .... . 1

2 2 ..... 2
( v1 , v2 ,.,vn)
= ( w1 , w2 ,.,wn)
.....

......
n
n n

vogliamo rappresentare la n-pla di vettori ( w1 , w2 ,.,wn) dove :

w1 = 1 v1 + 2 v2 +.+ n vn
w2 = 1 v1 + 2 v2 +.+ n vn
.

wn = 1 v1 + 2 v2 ++ n vn .

Sia ora M(n, K) linsieme delle matrici quadrate dordine n ad elementi su un fissato
campo K.
Le matrici quadrate non degeneri di M(n, K) cio quelle che hanno il determinante diverso
da zero formano gruppo rispetto al prodotto (righe per colonne ) di matrici e tale gruppo , detto
gruppo lineare , viene indicato col simbolo GL (n,K).

Due matrici A e B di M(n, K)


risulti :

sono dette simili se esiste una matrice P non degenere tale che

99

A = P-1 B P

Per i nostri scopi utile osservare che sussiste la seguente :

Proposizione 2.1 Se A e B sono matrici simili allora risulta det A = det B.


Dimostrazione. Se A simile a B esiste una matrice P non degenere per cui si abbia
A = P-1 B P . Risulta allora
det A = det (P-1 B P) = det P-1 det B det P = det B
essendo det P-1 det P = 1 .

Al fine di poter calcolare velocemente il determinante della matrice A sarebbe quindi


auspicabile trovare una matrice B simile ad essa e di forma diagonale .
Quando assegnata una matrice A si pu trovare una matrice simile ad essa e di forma
diagonale si dice che la matrice A diagonalizzabile.
Una matrice quadrata sempre diagonalizzabile ?
Affronteremo adesso tale problema che , come vedremo, non ha sempre una risposta
positiva.
Prima di affrontare tale problema ci serve introdurre alcune semplici nozioni.
Sia Vn uno spazio vettoriale sul campo K di dimensione finita n e sia

f : Vn

una funzione lineare di Vn in s . Un vettore

Vn

non nullo

chiamato un autovettore per la

funzione f se trasformato da f in un vettore ad esso proporzionale , risulta cio

(2.1)

f (v ) = v

Lo scalare che figura nella (2.1) chiamato lautovalore dell autovettore v ed in ogni caso
esso chiamato un autovalore della funzione f .
Se un autovalore della funzione f possiamo considerare tutti gli autovettori di f che
hanno lo scalare come loro autovalore.

100

Denotiamo quindi con V il seguente sottoinsieme di Vn


V =

v Vn : f (v ) = v

Il vettore nullo pur non essendo un autovettore per f

verifica la (2.1) e quindi esso

appartiene al sottoinsieme V .
Il sottoinsieme V , come facile verificare , un sottospazio di Vn . Esso chiamato
l autospazio

corrispondente allautovalore . I vettori non nulli di

V sono quindi tutti gli

autovettori di f che hanno lo scalare come autovalore.


La dimensione del sottospazio V chiamata la molteplicit geometrica dellautovalore .
In seguito si troveranno le giustificazioni del perch abbiamo chiamato la dimensione di V
in questo modo. Poich gli autovettori sono vettori non nulli allora sempre, per ogni autovalore ,
dim V 1
Dopo queste premesse ritorniamo al problema posto allinizio.
Sia

a 11 a 12 .... a 1n

a 21 a 22 .....a 2n
A=

.....

a a .....a
nn
n1 n2

una matrice quadrata dordine n ad elementi nel campo K . Denotiamo con Kn lo spazio vettoriale
numerico di dimensione n su K . Se

x1

x
X= 2
.

x
n
un elemento di Kn eseguendo il prodotto (righe per colonne ) di A per X si ottiene un altro
vettore Y

101

y1

y
Y = 2 =
.

y
n

a 11 a 12 .... a 1n

a 21 a 22 .....a 2n
.....

a a .....a
nn
n1 n2

x1

x2
.

x
n

di Kn , dove esplicitamente :

y1 = a 11 x 1 + a 12 x 2 + .. . + a 1n x n
y = a x + a x + .. + a x
2
21 1
22 2
2n
n

..

y n = a n1 x 1 + a n2 x 2 + .. + a nn x n

La matrice A ci ha quindi consentito di costruire una funzione


Kn
A : Kn

di Kn in s che indicheremo egualmente con la lettera A in quanto saremo sempre in grado di


comprendere dal contesto se la lettera A rappresenta la matrice o la funzione che essa definisce.
La funzione A ora definita lineare in quanto risulta , per ogni coppia X , X di vettori di Kn e
per ogni scalare di K ,
1 . A( X + X ) = AX + AX
2. A ( X ) = ( AX )
Indicheremo con u1 , u2 , . , un
1

0
u1 = ,
.

0

i vettori della base canonica di Kn

0

1
u2 = , .., un =
.

0

e con a1 , a 2 , , a n

0

0
.

1

i vettori colonna della matrice A .

102

Poich una funzione lineare trasforma un sistema di generatori di Kn in un sistema di generatori


dello spazio immagine allora i vettori a1 , a 2 , , a n
lineare A dei vettori

u1 , u2 , . , un

essendo i trasformati tramite la funzione

costituiscono un sistema di generatori per lo spazio immagine

della funzione lineare A . Ne segue che se la matrice A ha rango p allora lo spazio immagine ha
dimensione p e conseguentemente il nucleo della funzione A ha dimensione n-p. Se quindi A
una matrice non degenere e quindi di rango n , la funzione lineare A biettiva ed quindi un
isomorfismo.
Per ci che segue molto importante la seguente :

Proposizione 2.2 Sia A una matrice quadrata dordine n . Sia ( p1 , p2 ,.,pn) una base
ordinata di Kn e sia P la matrice non degenere avente per colonne i vettori

( p1 , p2 ,.,pn).

Siano (Ap1 , Ap2 ,.,Apn) i vettori corrispondenti ai vettori ( p1 , p2 ,.,pn) tramite la funzione A
e sia B la matrice cos costituita :

la prima colonna di B costituita dalle coordinate di Ap1 nella base ( p1 , p2 ,.,pn).


la seconda colonna di B costituita dalle coordinate di Ap2 nella base ( p1 , p2 ,.,pn).
.
lultima colonna di B costituita dalle coordinate di Apn nella base ( p1 , p2 ,.,pn).
La matrice B cos costituita simile alla matrice A risultando precisamente
B = P-1 A P.

Dimostrazione. Usando le notazioni introdotte allinizio di questo numero si ha :

(2.1)

p11 p12 .... p1n

p 21 p 22 .....p 2n
( u1 , u2 ,.,un)
= ( p1 , p2 ,.,pn)
.....

p p .....p
nn
n1 n2

(2.2)

b11 b12 .... b1n

b 21 b 22 .....b 2n
( p1 , p2 ,.,pn)
= (Ap1 , Ap2 ,.,Apn)
.....

b b .....b
nn
n1 n2

Ora moltiplicando la matrice A per la matrice P si ottiene una matrice le cui colonne sono i vettori

103

(Ap1 , Ap2 ,.,Apn) . Quindi si ha :

(2.3)

a 11 a 12 .... a 1n p11 p12 .... p1n

a 21 a 22 .....a 2n p 21 p 22 .....p 2n
( u1 , u2 ,.,un)
.....
= (Ap1 , Ap2 ,.,Apn)
.....

a a .....a p p .....p
nn n1 n2
nn
n1 n2

Sostituendo nella (2.3) le espressioni di (2.1) e (2.2) si ha :

(2.4)

a 11 a 12 .... a 1n p11 p12 .... p1n

a 21 a 22 .....a 2n p 21 p 22 .....p 2n
( u1 , u2 ,.,un)
.....
=
.....

a a .....a p p .....p
nn n1 n2
nn
n1 n2
p11 p12 .... p1n

p 21 p 22 .....p 2n
= ( u1 , u2 ,.,un)

.....

p p .....p
nn
n1 n2

b11 b12 .... b1n

b 21 b 22 .....b 2n
.....

b b .....b
nn
n1 n2

Dalla (2.4) segue che AP = PB e quindi , come si voleva provare , B = P-1 A P.

La proposizione ora provata ci offre un suggerimento per poter risolvere il problema che
abbiamo posto e cio di trovare una matrice B simile ad A e di forma diagonale.
Sussiste infatti la seguente importante

Proposizione 2.3 . Una matrice quadrata A di M(n, K ) diagonalizzabile se e soltanto


se esiste una base ( p1 , p2 ,.,pn) di Kn costituita da autovettori della funzione lineare A.
Dimostrazione . Supponiamo che ( p1 , p2 ,.,pn) sia una base di Kn costituita da

autovettori della funzione lineare A . Detti (1, 2 , ,n) gli autovalori degli autovettori
( p1 , p2 ,.,pn) si ha
Ap1 = 1p1

Ap2 = 2p2 ,

.. . , Apn

= npn

ed allora
le coordinate di Ap1 nella base ( p1 , p2 ,.,pn) sono ( 1 , 0 , ..,0 )
le coordinate di Ap2 nella base ( p1 , p2 ,.,pn) sono ( 0 , 2 , ..,0 )

104

le coordinate di Apn nella base ( p1 , p2 ,.,pn) sono ( 0 , 0 , .., n )


e cos la matrice B indicata nella proposizione 2.2 che simile ad A ha la forma diagonale
risultando
1 0 .... ... 0

0 2 .......0
B=

.....

0 0 .........
n

Viceversa supponiamo che la matrice A sia diagonalizzabile e cio simile ad una matrice D
1 0 .... ... 0

0 2 .......0
D=

.....

0 0 .........
n

di forma diagonale . Esiste quindi una matrice P non degenere tale che risulti
D = P-1 A P

o equivalentemente AP = PD

Siano( p1 , p2 ,.,pn) le colonne della matrice P . Essendo P non degenere tali colonne sono
indipendenti e formano quindi una base di Kn . Inoltre da AP = PD segue che
Ap1 = 1p1

Ap2 = 2p2 ,

.. . , Apn

= npn

e queste mostrano che ( p1 , p2 ,.,pn) una base di autovettori per A.


La proposizione ora provata ci suggerisce di ricercare tutti gli autovettori della funzione A e
sperare che tra essi ne esistano n indipendenti .
Ma come si trovano gli autovettori di A ? Vediamo .
Ovviamente se determiniamo gli autovalori di A allora da questi attraverso gli autospazi

105

corrispondenti troveremo tutti gli autovettori di A.


Come si pu stabilire se uno scalare o assegnato autovalore per A ?
Lo scalare o autovalore per A se esiste un vettore non nullo X di Kn che sia
autovettore di A con autovalore o, cio che verifichi la relazione
AX = o X

(2.5)

Posto

x1

x
X= 2
.

x
n

ed

a 11 a 12 .... a 1n

a 21 a 22 .....a 2n
A=

.....

a a .....a
nn
n1 n2

la (2.5) esplicitamente il seguente sistema di equazioni lineari nelle incognite (x1,x2,.,xn)


a 11 x 1 + a 12 x 2 + .. . + a 1n x n = o x 1
a x + a x + .. + a x = x
21 1
22 2
2n
n
o 2

..

a n1 x 1 + a n2 x 2 + .. + a nn x n = o x n

che pu essere anche scritto al seguente modo

(a 11 - ) x 1 + a 12 x 2 + .. + a 1n x n = 0
a x + ( a - ) x + .. + a x = 0
21 1
22

2
2n n

..
a n1 x 1 + a n2 x 2 + .. + ( a nn - ) x n = 0

Ma tale sistema omogeneo ha una soluzione non banale se e soltanto se risulta


a 11 - o a 12 .... ..........a 1n

a 22 - o .......a 2n
a 21
det
=0
.....

a
.....
a

n2
nn
o
n1

106

Abbiamo quindi determinato la condizione cui deve soddisfare o per essere autovalore di A :
o autovalore di A se sottraendo nella matrice A agli elementi a11, a22, .,ann della sua
diagonale lo scalare o si ottiene una matrice con determinante zero .

Detta t una variabile possiamo allora considerare il seguente determinante

a 11 - t

a
p(t) = det ( A It ) = det 21
.....

a
n1

a 12 ..........a 1n

a 22 - t .......a 2n

a n2 ..... a nn - t

che sviluppato fornisce un polinomio di grado n e le cui radici , ma solo quelle appartenenti a K,
forniscono gli autovalori della funzione A .

Il polinomio
p(t) = det (A I t ) = (-1)n t n + ........

chiamato il

polinomio caratteristico della funzione A o della matrice A .

Tale polinomio di nostro interesse avendo stabilito che sussiste la seguente

Proposizione 2.4. Uno scalare o di K autovalore della funzione A se e solo se p(o ) =0 .


Osserviamo infine che se o un autovalore di A allora
a 11 - o a 12 .... ..........a 1n

a 22 - o .......a 2n
a 21
det
= 0
.....

a
a n2 ..... a nn - o
n1

107

a 11 - o a 12 .... ..........a 1n

a 22 - o .......a 2n
a 21
e quindi la matrice
ha rango r < n . Lo spazio delle soluzioni del
.....

a
.....
a

n2
nn
o
n1
sistema
(a 11 - ) x 1 + a 12 x 2 + .. + a 1n x n = 0
a x + ( a - ) x + .. + a x = 0
21 1
22

2
2n n

..
a n1 x 1 + a n2 x 2 + .. + ( a nn - ) x n = 0

ha allora , come sappiamo , dimensione

n-r . Ma lo spazio delle soluzioni del sistema

lautospazio corrispondente allautovalore o e quindi


se il rango della matrice (A I o ) r lautovalore o ha molteplicit geometrica n-r .

Sia ora sempre o un autovalore della funzione A . Poich lo scalare o radice del polinomio
caratteristico p( t ) allora per un il teorema di Ruffini risulta che tale polinomio divisibile per
( t - o) . Si ha cio
p ( t ) = ( t - o) q(t)
con q(t) polinomio di grado n-1 .
Se o non radice di q(t) cio si ha q(o ) 0

allora o detta una radice semplice del

polinomio p(t ) .
Se invece risulta q(o ) = 0 allora , riapplicando il teorema di Ruffini , si ha
q(t) = ( t - o) g(t)
con g(t) polinomio di grado n-2 e quindi
p ( t ) = ( t - o)2 g(t)
Se risulta g(o ) 0 allora o detta una radice doppia del polinomio p(t) .
Iterando il ragionamento si perviene alla seguente definizione .
La radice o del polinomio p(t) si dice che ha molteplicit algebrica s se risulta
p ( t ) = ( t - o)s (t)

(o) 0

Ad un autovalore o della funzione lineare A abbiamo quindi assegnato due interi :

108

il primo

(o) = dim V 0 la sua molteplicit geometrica

( e questo intero ci

informa su quanti autovettori indipendenti di autovalore o possiamo trovare )


il secondo

(o) la sua molteplicit algebrica ( e questo intero ci informa su quante

volte o appare tra le radici del polinomio caratteristico )


Noi proveremo ora che la molteplicit geometrica dellautovalore o non supera mai quella
algebrica . Prima di far ci essenziale provare la seguente

Proposizione 2.5 Due matrici A e B simili tra loro hanno lo stesso polinomio
caratteristico.
Dimostrazione. Siano quindi A e B due matrici quadrate dordine n e simili tra loro. Esiste

pertanto una matrice P non degenere per cui si abbia B = P-1 A P . Si ha allora
det ( B I t) = det (P-1 A P I t ) = det (P-1 A P P-1 I t P ) = det [P-1 (A - I t ) P] =
= det P-1 det (A - I t ) det P = det (A - I t )
essendo det P-1 det P = 1 .

Proviamo ora che :

Proposizione 2.6 Sia o un autovalore di A . La molteplicit geometrica di o non supera


la molteplicit algebrica di o .
Dimostrazione .Supponiamo che lautovalore o abbia molteplicit geometrica s . Nell

autospazio V 0 corrispondente all autovalore o si possono quindi scegliere s autovettori


(e1, e2 ,,es ) di autovalore o e tra loro indipendenti. Per la proposizione 3.8 del capitolo I, si
possono aggiungere ai vettori (e1, e2 ,,es )
che i vettori (e1, e2 ,,et , ws+1 , ws+2
A e1 = o e1 ,

altri n-s vettori ws+1 , ws+2

, , wn in modo

, , wn ) siano una base di Vn . Tenendo conto che


A e2 = o e2 , , A es = o es

la matrice B di cui alla proposizione 2.2 ha la seguente forma

109

o 0 .... ... 0 .......

0 o .......0 .......

..

B = 0 0 ....... o .......

0 a s +1 , s +1 .. a s +1 n
0 0

........

0 a n , s +1 .. ... a nn
0 0

Tale matrice , sempre per la proposizione 2.2 , simile ad A ed ha quindi per la proposizione 2.5
lo stesso polinomio caratteristico di A . Si ha quindi
p ( t ) =det (A I t ) = det ( B I t) = ( o - t )s g(t)
e questa mostra che la molteplicit algebrica di o almeno s . L asserto cos provato.
Per i nostri scopi sono molto utili le proposizioni che seguono. I vettori utilizzati in tali
proposizioni , dora in poi . per semplicit di scrittura , non saranno pi indicati in grassetto.

Proposizione 2.7. Siano p1,p2,,ph , h autovettori per la funzione lineare A e siano


1 , 2 , . , h i loro corrispondenti autovalori . Se gli autovalori 1 , 2 , . , h sono distinti gli
autovettori p1,p2,,ph sono linearmente indipendenti .
Dimostrazione. Ragioniamo per induzione sul numero h di autovettori . Se h=1 lasserto

vero in quanto un autovettore , essendo un vettore non nullo , risulta da solo linearmente
indipendente. Supponiamo quindi h > 1 e vero lasserto per h-1 .
Supponiamo per assurdo che i vettori p1,p2,,ph siano linearmente dipendenti . Poich per
lipotesi dinduzione p1,p2,,ph-1 sono indipendenti , il vettore ph combinazione lineare di
p1,p2,,ph-1 . Si ha quindi che esistono opportuni scalari 1, 2 , , h-1 per cui risulti
( 2. 6)

ph = 1p1 + 2p2 ++ h-1ph-1

Applicando ad ambo i membri della (2. 6) la funzione lineare A si ha , tenendo conto che i vettori
p1,p2,,ph sono autovettori di autovalori 1 , 2 , . , h
(2.7)

h ph = 1 1p1 + 2 2 p2 ++ h-1 h-1 ph-1

110

Moltiplicando ambo i membri della (2.6) per lo scalare h si ha :


(2.8)

h ph = 1 h p1 + 2 h p2 ++ h-1 h ph-1

Sottraendo tra loro la (2.8) e la (2.7) si ha :


0 = 1 (h - 1)p1 + 2 (h - 2) p2 ++ h-1 (h - h-1) ph-1

(2. 9 )

Poich , per lipotesi dinduzione i vettori p1,p2,,ph-1 sono linearmente indipendenti , la (2.9)
sussiste solo con scalari tutti nulli, e pertanto si ha :
1 (h - 1) = 0 , 2 (h - 2) = 0 , . , h-1 (h - h-1) = 0

(2.10)

Essendo gli autovalori 1 , 2 , . , h-1, h tra loro distinti risulta


h - 1 0 , h 2 0 , ., h h-1 0
e qundi dalla (2.10) segue che

1 = 0 , 2 = 0 , .., h-1 = 0 . Ma allora dalla (2.6) segue

che ph = 0 e ci assurdo , essendo ph un autovettore.

Proposizione 2.8.

Se 1 , 2 , . , h sono h autovalori distinti per la funzione lineare

A allora gli autospazi V 1 , V 2 , .., V h

ad essi corrispondenti sono tali che ciascuno di

essi interseca nel solo vettore nullo lo spazio generato dai rimanenti.
Dimostrazione. Per semplicit proviamo che

V 1 ( V 2 + ..+ V h ) =

Sia v un vettore di V 1 ( V 2 + ..+ V h ) e supponiamo per assurdo che v sia non nullo e
quindi un autovettore . Poich v appartiene al sottospazio V 2 + ..+ V h

(2.11)

con

allora

v = v2 + . + vh

v2 V 2 , , vh V h
Applicando ad ambo i membri della (2.11) la funzione lineare A si ottiene , ricordando

111

che v V 1 e che v2 V 2 , , vh V h
1v = 2 v2 ++ hvh

(2.12)

Moltiplicando ambo i membri della (2.11) per lo scalare 1 si ha


1v = 1 v2 ++ 1vh

(2.13)

Sottraendo tra loro la (2.12) e la (2.13) si ha :


0 = (2- 1)v2 + + (h - 1) vh

(2.14)

Poich gli autovalori 2 , . , h sono distinti , per la proposizione (2.7), gli autovettori
v2 ,. ,vh sono linearmente indipendenti e quindi la (2.14) pu sussistere solo con scalari tutti
nulli. Si ha quindi 1 = 2 = . = h

e ci contraddice lipotesi che gli autovalori siano distinti

tra loro.
Le due proposizioni ora provate hanno importanti conseguenze come ora faremo vedere.
Ricordiamo che il problema che abbiamo posto e che stiamo studiando il seguente :
Una matrice A quadrata d ordine n ad elementi in un campo K sempre diagonalizzabile ?
Una risposta al problema data dalla proposizione 2.3 la quale afferma che A diagonalizzabile se
esolo se esiste una base di autovettori per la funzione lineare A .
Ma tale base esiste sempre ? Vediamo.
Un caso favorevole espresso dalla seguente :

Proposizione 2.9

Sia A una matrice quadrata dordine n ad elementi nel campo K. Se il

polinomio caratteristico p(t) = det (A I t) di A ha n radici 1 , 2 , . , n

in K distinte

tra loro allora A diagonalizzabile.


Dimostrazione. Siano p1,p2,,pn

1 , 2 , . , n

n autovettori corrispondenti agli autovalori

. Per la proposizione 2.7 gli autovettori p1,p2,,pn

sono linearmente

indipendenti e quindi costituiscono una base per lo spazio Kn . Lasserto segue quindi dalla
proposizione 2.3.

Cosa si pu dire se invece il polinomio p(t) ha radici multiple sempre nel campo K ?

112

La proposizione che segue risponde a tale quesito ed inoltre fornisce una risposta completa
al problema della diagonalizzabilit della matrice A .

Proposizione 2.10

Sia A una matrice quadrata dordine n ad elementi nel campo K. La

matrice A diagonalizzabile se e solo se il polinomio caratteristico p(t) = det (A I t) di A ha


n radici 1 , 2 , . , n

in K

ciascuna con molteplicit geometrica eguale a quella algebrica.

Dimostrazione. Supponiamo che A sia diagonalizzabile. Per la proposizione 2.3 esiste allora

una base B =

p1,p2,,pn

costituita da autovettori per A . Raggruppiamo tali autovettori

mettendo insieme quelli che hanno lo stesso autovalore. Siano 1 , 2 , . , t gli autovalori
distinti forniti dagli autovettori p1,p2,,pn . Sia
T1

il sottoinsieme di B costituito da tutti gli autovettori di autovalore 1 .

T2

il sottoinsieme di B costituito da tutti gli autovettori di autovalore 2 .

.
Tt

il sottoinsieme di B costituito da tutti gli autovettori di autovalore t .

Siano n1 , n2 , , nt le cardinalit di T1, T2 ,.., Tt


algebriche degli autovalori

e siano s1 , s2,.., st le molteplicit

1 , 2 , . , t .

Poich ogni autospazio

V i

i = 1,2,,t

contiene i vettori di Ti , i = 1,2,,t

si ha

:
n1 dim V 1 s1
n2 dim V 2 s2

nt dim V t st

Si ha allora

n = n1 + n2 + + nt dim V 1 + dim V 2 + .+ dim V t s1 + s2 +.. + st n

Da tale diseguaglianza segue :


s1 + s2 +.. + st = n
e questa mostra che le radici 1 , 2 , . , t contate con la loro molteplicit sono in numero di n.

113

Inoltre da

n = n1 + n2 + + nt dim V 1 + dim V 2 + .+ dim V t s1 + s2 +.. + st = n


segue che per nessun i = 1,2,,t pu essere dim V i < si

altrimenti n < n .

Quindi :
dim V 1 = s1, dim V 2 = s2 , .., dim V t = st

e ci mostra che le radici

1 , 2 ,. , t hanno ciascuna molteplicit geometrica eguale a quella

algebrica.
Viceversa supponiamo ora che il polinomio caratteristico di A abbia n radici
1, 2,, n

nel campo K e che ognuna di esse abbia molteplicit algebrica eguale a quella

geometrica . Raggruppiamo le radici mettendo insieme quelle eguali tra loro. Siano
1 , 2 , . , t

le radici distinte che figurano tra le n radici 1, 2,, n .

Supponiamo che
1 appaia s1 volte tra le radici 1, 2,, n .
2 appaia s2 volte tra le radici 1, 2,, n .
.
t appaia st volte tra le radici 1, 2,, n .
Quindi
1 ha molteplicit algebrica s1 .
2 ha molteplicit algebrica s2 .
..
t ha molteplicit algebrica st .
ed inoltre ovviamente
s1 + s2 +.. + st = n.
Poich per ipotesi la molteplicit algebrica eguale a quella geometrica si ha :
dim V 1 = s1, dim V 2 = s2 , .., dim V t = st
Siano ora

114

B1 una base di V 1

, B2 una base di V 2

Essendo gli autovalori 1 , 2 , . , t

, , Bt una base di V t .

distinti gli autospazi V 1 , V 2 , .., V t

ad essi

corrispondenti sono tali che ciascuno di essi interseca nel solo vettore nullo lo spazio generato dai
rimanenti ed allora per la proposizione 5.1 del capitolo I , unendo le basi B1 , B2,.. , Bt si
ottiene un insieme B costituito da s1 + s2 +.. + st = n autovettori indipendenti di Kn , cio
una base di autovettori.
Per la proposizione 2.3 allora A diagonalizzabile e lasserto completamente provato.
Concludiamo con qualche esempio.

Esercizio 1.

Sia assegnata la seguente matrice reale

A = 1
1

0
1
0

1
1

Si stabilisca se essa diagonalizzabile.


Si dica inoltre se la funzione lineare A : R3

R3 indotta dalla matrice A biettiva .

Si determini inoltre il nucleo di A .


Svolgimento.

I vettori X = (x,y,z) del nucleo di A sono quelli per cui risulti AX = 0 .


Tali vettori sono quindi le soluzioni del seguente sistema omogeneo :

x + z = 0

x + y + z = 0
x + z = 0

Tale sistema ovviamente equivalente a

115

x + z = 0

x + y + z = 0
le cui soluzioni sono il sottospazio di dimensione 1 generato da (-1 , 0 , 1 ). Il nucleo di A non
ridotto al solo vettore nullo e quindi la funzione lineare A non biettiva.
Il polinomio caratteristico di A :

1 - t

det (A I t ) = 1
1

0
1- t
0

1 = ( 1 t ) [ ( 1 t )2 - 1] = t ( 1 t ) ( t 2 )
1 - t

Gli autovalori di A sono quindi i numeri 0 , 1, 2 . Tali valori sono distinti e quindi A
diagonalizzabile per la proposizione 2.9.

Esercizio 2.

A = 0
0

0
1
0

Si stabilisca se la seguente matrice reale

2
2

diagonalizzabile .

Svolgimento.

Il polinomio caratteristico di A :

1 - t

det (A I t ) = 0
0

0
1- t
0

2 ( 1 t )2 (2 t )
2 - t

Le radici di tale polinomio sono i numeri 1 e 2 .


Il numero 2 una radice semplice mentre 1 una radice doppia.
Gli autovettori di autovalore 1 si ottengono attraverso le soluzioni de seguente sistema omogeneo.

0x + 0y + z = 0

116

Esse sono quindi un sottospazio S di dimensione due. Due soluzioni indipendenti di tale sistema
sono (1,0,0) e (0,1,0) e quindi

S = [ (1,0,0) , (0,1,0) ] .

Lautospazio corrispondente allautovalore 1 quindi S = [ (1,0,0) , (0,1,0) ].


Avendo controllato che la molteplicit geometrica di 1 eguale a quella algebrica la matrice A
diagonalizzabile per la proposizione 2.10.

117

C A P I T O L O VI
Geometria analitica

118

1. Introduzione

In questo capitolo analizzeremo alcuni risultati di geometria analitica

utilizzati nelle

applicazioni.Spesso quindi ci sar il solo riferimento al risultato senza la sua dimostrazione.


Prima di addentrarci nellesposizione ,allo scopo di

facilitare la lettura di questo

argomento, utile ricordare due risultati di algebra lineare acquisiti nella prima parte .

Il primo risultato che richiamiamo un semplice, ma molto utile teorema .

Teorema. Se in uno spazio vettoriale h vettori { v1 , v2 , vh } sono indipendenti mentre


{v1 , v2 ,vh , w} sono dipendenti allora il vettore w dipende dai vettori v1 , v2 , vh .
Il secondo risultato che richiamiamo il seguente .

Indichiamo con V = R[ x, y ,z] lo spazio vettoriale dei polinomi di grado al pi uno nelle variabili
x,y,z a coefficienti reali. L applicazione
: V -----> R4

(ax + by + cz + d ) -----> (a , b , c , d )

che associa al polinomio ax + by + cz + d

la quaterna dei suoi coefficienti un isomorfismo

tra gli spazi vettoriali V ed R .

Per tale ragione la dipendenza tra polinomi pu essere ricondotta alla corrispondente
dipendenza tra i vettori numerici dei loro coefficienti.

Cos a titolo di esempio il polinomio ax + by + cz + d


ax + by + cz + d

dipende dai polinomi

ax + by + cz + d se e solo se la quaterna (a , b , c , d )

dipende dalle due quaterne (a , b , c , d) e (a , b , c , d) .


Il risultato che abbiamo ora richiamato vale ovviamente in generale , pu essere cio esteso allo
spazio vettoriale dei polinomi in n variabili , e laverlo ricordato per i polinomi a tre variabili
motivato dalla circostanza che ci troveremo spesso in questa situazione .

119

Svilupperemo la nostra rassegna analizzando contemporaneamente risultati di geometria


piana e dello spazio allo scopo di evidenziare lunit dei metodi usati nelluno e nellaltro caso e
l identit di risultati quando si ha a che fare con rette di un piano o con piani dello spazio.
Supporremo noto il concetto di riferimento cartesiano nel piano e nello spazio e la capacit di
assegnare in un riferimento fissato le coordinate ai punti del piano o dello spazio. Ricordiamo solo
che nel piano le coordinate di un punto sono costituite da una coppia ordinata di numeri reali
mentre nello spazio le coordinate di un punto sono una terna ordinata di numeri reali.
Riterremo dora in poi che sia sempre fissato un riferimento monometrico ortogonale.

Se r

una retta del piano ed A e B sono due suoi punti distinti le componenti del vettore

(AB) nel riferimento fissato sono date dai seguenti due numeri reali :
= xB xA

= yB - y A

r
B
A

Questi due numeri reali non entrambi nulli (essendo A e B distinti ) forniscono la misura relativa
dei segmenti evidenziati in neretto in figura, proiezioni di (AB) sugli assi del riferimento. Si noti
che se si ruota un poco (AB) questi due numeri cambiano e precisamente uno dei due aumenta e
laltro diminuisce. Pertanto questi due numeri aumentano entrambi o diminuiscono entrambi se e
solo se si allunga o si accorcia (AB) ; di pi esse ,ad esempio, si triplicano se (AB) si triplica , si
dimezzano se (AB) si dimezza e cos via.

I numeri reali ( , )

vengono chiamati numeri direttori della retta r e la loro determinazione

molto utile per le applicazioni . Se i punti A e B vengono sostituiti da altri due punti distinti C e D

120

allora (CD) = (AB) (dove un numero reale non nullo ) e quindi :


= ( xD xC ) = (xB xA ) =

=( yD - y C) = (yB - y A) =

Pertanto i numeri direttori di r sono una coppia di numeri reali non entrambi nulli e definiti a
meno di un fattore di proporzionalit non nullo.

Analogamente se siamo nello spazio ed r una sua retta scelti due punti distinti A e B su r , i tre
numeri reali ( non tutti e tre nulli )
= xB xA ,

= yB - yA

= zB - zA

sono chiamati i numeri direttori di r . Per le stesse argomentazioni precedenti i numeri


( ,

) numeri direttori di r sono mai tutti e tre nulli contemporaneamente e sono definiti

a meno di un fattore di proporzionalit non nullo .

I numeri direttori , una volta noti , possono essere utilizzati per valutare leventuale parallelismo tra
rette sia nel piano e sia nello spazio. Sussistono infatti le seguenti equivalenze :

Teorema 1 . Due rette r ed r del piano sono parallele se e solo se esse hanno gli stessi numeri
direttori (cio i numeri direttori ( , ) di r sono eguali o proporzionali ai numeri ( , )
direttori di r) .

Teorema 2 . Due rette r ed r dello spazio sono parallele se e solo se esse hanno gli stessi numeri
direttori (cio i numeri direttori ( , , , ) di r sono eguali o proporzionali ai numeri direttori
( , , , ) di r ) .

Ricordiamo che se (AB) e (CD) sono due vettori non nulli del piano o dello spazio, si
definisce loro prodotto scalare il numero reale che si ottiene eseguendo il seguente calcolo
= | AB | | CD | cos

121

avendo indicato con | AB | e | CD |

le lunghezze dei due segmenti e con langolo che essi

formano. Ovviamente i due segmenti risultano tra loro ortogonali se e solo se il loro prodotto
scalare si annulla . Avendo scelto il riferimento monometrico ed ortogonale allora ben noto che
risulta
= | AB | | CD | cos = +
avendo indicato con ( , ) le componenti di (AB) e con

(, ) le componenti di (CD).

Analogamente se (AB) e (CD) sono vettori dello spazio risulta


= | AB | | CD | cos = + + v
avendo indicato con ( , , ) le componenti di (AB) e con

(, , v ) le componenti di

(CD).

I numeri direttori una volta noti possono essere quindi utilizzati per valutare leventuale
ortogonalit tra rette sia nel piano e sia nello spazio.

Sussistono infatti le seguenti equivalenze :

Teorema I . Due rette r ed r del piano sono ortogonali se e solo se risulta :


+ = 0

Teorema II . Due rette r ed r dello spazio sono ortogonali se e solo se risulta :


+ + = 0

Questi teoremi mostrano come sia essenziale saper determinare di una retta i suoi numeri
direttori . Si possono dedurre tali numeri da una rappresentazione della retta ? Vediamo.

122

Intanto , come si rappresenta una retta ? C un modo di rappresentare allo stesso modo
una retta sia che essa sia una retta del piano o dello spazio. Vediamo come .

Sia r una retta del piano e siano A e B due suoi punti distinti . Un punto P(x,y) del piano
appartiene ad r se e solo se risulta
(AP) = (AB)
o equivalentemente se e solo se :
( x- xA , y - yA ) = ( xB xA , yB - yA )

Pertanto le coordinate di (x,y) di P sono espresse dalle seguenti relazioni

(1)

x = x A + ( x x A )

y = y A + ( y y A )

Le (1) forniscono al variare del parametro nel campo reale le coordinate (x,y) dei punti di r e
per questo motivo vengono chiamate le equazioni parametriche di r .
Si noti che nelle (1) i due numeri che accompagnano il parametro sono i numeri direttori di r.
Pertanto se la retta r rappresentata parametricamente i numeri direttori sono i due numeri che
accompagnano il parametro .

Sia ora r una retta dello spazio e siano A e B due suoi punti distinti . Un punto P(x,y,z)) dello
spazio appartiene ad r se e solo se risulta
(AP) = (AB)
o equivalentemente se e solo se :

123

( x- xA , y - yA , z - zA ) = ( xB xA , yB - yA , zB - zA)

Pertanto le coordinate di (x,y,z) di P sono espresse dalle seguenti relazioni

(2)

x = x A + (x B x A )

y = y A + (y B y A )
z = z + (z z )
A
B
A

Le (2) forniscono al variare del parametro nel campo reale le coordinate (x,y,z) dei punti di r e
per questo motivo vengono chiamate le equazioni parametriche di r .
Si noti che nelle (2) i tre numeri che accompagnano il parametro sono i numeri direttori di r.
Pertanto se la retta r rappresentata parametricamente i numeri direttori sono i tre numeri che
accompagnano il parametro .

Sia r una retta del piano ed A e B due suoi punti distitnti . Un punto P (x,y) del piano appartiene
ad r se e solo se risulta (AP) = (AB) cio se e solo se i due vettori AP ed AB sono dipendenti .
Poich il passaggio alle componenti di un vettore un isomorfismo allora la dipendenza dei due
vettori (AP) ed (AB) equivale alla dipendenza dei vettori numerici ( x- xA , y - yA ) ,
( xB xA , yB - yA ) . Questi due vettori numerici sono dipendenti se e solo se risulta :

(1*)

x - xA ,
det
xB - xA ,

x y 1

y - yA
= det x A y A 1 = 0
yB - yA
x y 1
B B

Sviluppando tale determinante si ottiene unequazione di primo grado in x ed y del tipo

124

(i)

ax + by + c = 0

soddisfatta da tutte e sole le coppie


rappresentazione cartesiana

(x, y)

coordinate dei

punti di r . La

(i) detta la

di r . Ovviamente ogni equazione proporzionale alla (i) avendo le

stesse soluzioni di (i) rappresenta sempre la retta r .


Si prova facilmente che , viceversa , unequazione di primo grado in x e y rappresenta una retta del
piano.
Quindi una retta del piano pu essere rappresentata o in forma parametrica o in forma cartesiana.
Per esempio rappresentiamo la retta per i punti A(2,5) e B (4 , 8) .
Usando la (1) tale retta si rappresenta con
x = 2 + 2

y = 5 + 3

(a)

Usando (1*)

det 2
4

y
5
8

1 =0
1

si ha :

(b)

3x - 2y +4 =0.

Si noti che allequazione (b) si poteva pervenire anche usando la rappresentazione parametrica (a).
Infatti da (a) segue

x2
2

y5
3

125

e quindi eguagliando si ha lequazione (b).

Ora se la retta r rappresentata con lequazione

ax + by + c = 0

come si possono calcolare i suoi numeri direttori ? Vediamo .


Se A (xA , yA )

B (xB , yB ) sono due punti di r allora le loro coordinate verificano

lequazione ax + by + c = 0 e pertanto si ha :

a xB + b yB + c = 0
a xA + b yA + c = 0

Sottraendo membro a membro le due relazioni sopra scritte si ha :

a (xB xA ) + b (yB yA ) =0
o equivalentemente

xB - xA
det
-b

yB - yA
= 0
a

La relazione sopra scritta mostra che la coppia ( - b , a ) proporzionale alla coppia


( xB xA

yB yA

) che appunto una coppia di numeri direttori di r . Pertanto se la retta

rappresentata dallequazione ax + by + c = 0 allora una coppia di numeri direttori di r data dalla


coppia (-b , a ).
Possiamo allora riformulare i teoremi 1 ed I al seguente modo :

Teorema 2 . Due rette del piano r ed r rappresentate da

r :

ax + by + c = 0

r :

ax + by + c = 0

126

sono parallele se e solo se risulta (-b , a ) = (-b , a) o equivalentemente


( a , b ) = (a , b ) .

(j)

A questa conclusione si poteva pervenire direttamente senza utilizzare il teorema 1 in quanto la


condizione (j) equivale a
a
det
a'

b
b'

=0

e tale condizione necessaria e sufficiente affinch il sistema

ax + by + c = 0

a' x + b' y + c' = 0

abbia infinite soluzioni o nessuna soluzione.

Il teorema I pu quindi essere cos altres enunciato

Teorema II . Due rette del piano r ed r rappresentate da

r :

ax + by + c = 0

r :

ax + by + c = 0

sono ortogonali se e solo se risulta

aa + bb = 0

127

Concludiamo tale numero cercando di rappresentare tutte le rette che passino per un fissato punto
A( xo , yo ) . Tale insieme di rette viene chiamato fascio di rette di centro A .
Siano r ed r due rette per A ( xo , yo ) rappresentate da :
r :

ax + by + c = 0

r :

ax + by + c = 0

Poich A appartiene sia ad r che ad r le sue coordinate soddisfano entrambe le equazioni. Ne


consegue che se consideriamo unequazione del tipo

(** )

con ( , )

(ax + by + c) + ( ax + by + c ) = 0

(0,0 )

ottenuta combinando linearmente le due equazioni date, essa

rappresenta una retta ancora per il punto A in quanto le coordinate di A la soddisfano qualunque sia
la scelta dei coefficienti e . Se ogni retta per A si ottiene mettendo nella (**) un opportuno
valore di ed un opportuno valore di allora al variare di questi due parametri e

la

(**) descrive tutte le rette per A e quindi rappresenta il fascio di rette di centro A.
Sia quindi r una qualunque retta per A rappresentata dallequazione :

r :

ax + by + c = 0

Il sistema formato dalle tre equazioni

ax + by + c = 0

a' x + b' y + c' = 0


ax + by + c = 0

risulta compatibile in quanto la coppia ( xo , yo ) una sua soluzione. Ne consegue che la matrice
completa ha lo stesso rango di quella incompleta e quindi ha rango due .
Risulta allora

128

a b c

det a' b' c' =0


a" b" c"

Le tre righe di tale matrice sono quindi dipendenti e poich le prime due sono indipendenti allora la
terza combinazione lineare delle prime due e cos si ha lasserto.
Due rette per il punto A( xo , yo ) di semplice rappresentazione sono quelle per A parallele agli
assi coordinati cio le rette di equazione

x - xo = 0

ed y - yo = 0

e pertanto, per ci che precede, lequazione

( x - xo ) + (y - yo) = 0

al variare di ,

rappresenta tutte le rette per A e per tale motivo viene chiamata lequazione

del fascio di rette di centro A.

2. Rette e piani dello spazio.


Sia ora un piano dello spazio e siano A, B , C tre punti di

distinti e non allineati. Un

punto P(x,y,z) dello spazio appartiene al piano se e solo se i vettori


(AP) , (AB), (AC) sono dipendenti o equivalentemente se e solo se le tre terne

( x- xA , y - yA , z - zA ), ( xB xA , yB - yA , zB - zA) , (xC xA , yC - yA , zC - zA)


sono dipendenti. Ma allora il punto P(x,y,z) dello spazio appartiene al piano se e solo se risulta

129

x - xA

det x B - x A
x - x
C A

y - yA

z - zA

yB - yA

zB - zA

yC - yA

zC - zA

y z
x

xA yA zA
= det
x
yB zB

x
C yC zC

1
=0
1

Sviluppando il determinante sopra scritto si ottiene un equazione di primo grado in x, y , z del tipo

ax + by + cz + d = 0

soddisfatta da tutte e sole le terne (x, y, z) coordinate dei punti P di

. Ovviamente ogni

equazione proporzionale ad essa avendo le stesse soluzioni rappresenta pur sempre il piano .
Si prova facilmente che , viceversa , unequazione di primo grado in x . y, z rappresenta un piano
dello spazio .
A titolo di esempio si voglia rappresentare il piano per i tre punti A ( 1 , 0 , 0 )

B(0,1,2)

C(1 , 1 , 3). Per le argomentazioni precedenti lequazione di tale piano si ottiene sviluppando il
determinante :
x

1
det
0

y z
0 0
1 2
1 3

1
=0
1

Si ha quindi che il piano richiesto ha equazione : x + 3y z 1 = 0.

Siano e due piani dello spazio rappresentati rispettivamente da :


:

ax + by + cz + d = 0

ax + by + cz + d = 0

E ben noto che il sistema S

130

ax + by + cz + d = 0

a' x + b' y + c' z + d' = 0

S:

formato dalle due equazioni che rappresentano i piani

ha soluzioni se e solo se le due

matrici
a b
A =
a' b'

c
c'

a b
A =
a' b'

c d

c' d'

hanno lo stesso rango .

Se il rango di A due allora anche A ha rango due e quindi il sistema S ha infinite soluzioni. In
questo caso quindi i due piani hanno una retta in comune ed il sistema

S fornisce una

rappresentazione di tale retta .

Se la matrice A ha rango uno allora bisogna controllare il rango di A . Se anche A ha rango uno
allora le due righe di A sono proporzionali e quindi i due piani dati coincidono e sono quindi
paralleli ( impropriamente ) . Se il rango di A due il sistema S non ha soluzioni e quindi i due

piani non avendo punti in comune sono tra loro paralleli ( propriamente ). La conclusione delle
nostre argomentazioni pu essere riassunta nel seguente teorema analogo al teorema 1.1 gi
stabilito per due rette di un piano .

Teorema 2.1

Siano e

due piani dello spazio rappresentati rispettivamente da :

ax + by + cz + d = 0

ax + by + cz + d = 0

I piani

sono paralleli se e solo se risulta

( a , b , c ) = ( a , b , c )

Abbiamo cos visto che una retta r dello spazio pu essere rappresentata in due modi : in forma

131

parametrica oppure con un sistema di due equazioni rappresentative di due piani distinti che la
contengono.

Sia r una retta dello spazio rappresentata dal seguente sistema S:

ax + by + cz + d = 0
r:
a' x + b' y + c' z + d' = 0

Come si possono dedurre i numeri direttori di r da tale rappresentazione ? Vediamo.

Se A (xA

yA

zA )

e B ( xB

yB

zB )

sono due punti di r allora le loro

coordinate verificano il sistema S che rappresenta r , e quindi valgono le seguenti relazioni :

a xB + b yB + c zB + d = 0
a xA + b yA + c zA + d = 0

a xB + b yB + c zB + d = 0
a xA + b yA + c zA + d = 0

Dalle relazioni sopra scritte , sottraendo membro a membro , si ha :

(ii)

a (x B - x A ) + b (y B - y A ) + c (z B - z A ) = 0

a' (x B - x A ) + b' (y B - y A ) + c' (z B - z A ) = 0

Le (ii) mostrano che i tre numeri direttori ( xB - xA , yB - yA , zB - zA )

che stiamo cercando

sono una soluzione non nulla del sistema omogeneo (nelle incognite l , m n ) seguente :
a l + bm + c n = 0

a' l + b' m + c' n = 0

132

e quindi essi possono ottenersi ( come gi visto nel capitolo III ) calcolando, a segno alterno, i
determinanti delle matrici

b'

c'

a'

c
c'

a'

b
b'

ottenute dalla matrice


a b

a' b'

c
c'

dei coefficienti cancellando la prima ,la seconda e la terza colonna.

Siano r una retta dello spazio rappresentata parametricamente da :

x = x o +

y = y o +
z = z +
o

r:

un piano rappresentato dall equazione ax + by + cz + d = 0 . Un punto P della retta r

ha coordinate (xo +

, yo +

zo +

) e tale punto appartiene anche al piano se

le sue coordinate soddisfano lequazione del piano cio se vale la seguente eguaglianza :

(jjj)

a ( xo + ) + b (yo + ) + c (zo + ) + d = 0 .

Quindi ogni valore di che renda soddisfatta la (jjj) d luogo ad un punto della retta che giace
anche nel piano. Bisogna quindi determinare le soluzioni della (jjj ) pensata come equazione in .
La (jjj) come equazione in di primo grado e del tipo :

133

A + B = 0

(jjj)

Avendo posto

A=a + b + c

Ora se risulta

A 0

B = a xo + + b yo + c zo + d .

lequazione (jjj) ha una sola soluzione data da =

B
ed in tal caso
A

il piano e la retta hanno un solo punto in comune quello corrispondente al valore

B
A

trovato.
Se invece A = 0 ed B = 0 allora ogni valore di

soddisfa (jjj) e quindi ogni punto della

retta giace nel piano . Quindi se A = 0 e B = 0 la retta giace nel piano . Se A = 0 ma B 0


allora la (jjj) non ha soluzioni e quindi nessun punto della retta giace nel piano.

Le argomentazioni sopra fatte portano quindi ad enunciare il seguente teorema.

Teorema 2.2

Una retta r dello spazio di numeri direttori ( , , )

rappresentato dallequazione

ax + by + cz + d = 0 sono paralleli se e solo se risulta :

a + b + c = 0.

Sia un piano passante per lorigine delle coordinate e sia


ax + by + cz = 0

lequazione che lo rappresenta .

ed un piano

134

Consideriamo il punto A ( a, b, c ) di coordinate ( a, b, c ). Tale punto distinto dallorigine,


essendo ( a, b , c ) (0,0,0 ) e non appartiene al piano in quanto aa + bb + cc > 0 .
Se P (x , y , z ) un punto del piano risulta ax + by + cz = 0 e ci mostra che i due
vettori OA

ed OP sono tra loro ortogonali . Abbiamo cos mostrato che il vettore OA

ortogonale ad ogni vettore OP del piano e quindi OA ortogonale al piano . La retta OA che ha
numeri direttori ( a, b , c ) quindi ortogonale al piano di equazione ax + by + cz = 0 .
Ovviamente un piano parallelo a conserva gli stessi coefficienti (a , b , c ) ed una retta parallela
alla retta OA conserva gli stessi numeri direttori e cos provato il seguente teorema :

Teorema 2.3
piano di equazione

Una retta r di numeri direttori ( , , )


ax + by + cz + d = 0

risulta ortogonale ad un

se e solo se risulta

( , , ) = ( a, b , c )

Siano ora dati due piani e distinti e non paralleli e sia t la retta ad essi comune.
I piani e siano rappresentati rispettivamente da

ax + by + cz + d = 0

ax + by + cz + d = 0

Si consideri un punto A non appartenente ai due piani e siano r la retta per A ortogonale a ed r la
retta per A ortogonale a . La retta r essendo ortogonale a ha numeri direttori (a , b , c ) ed r
essendo ortogonale a ha numeri direttori ( a, b, c). Il piano determinato da r ed r

135

ortogonale alla retta t e contiene il quadrilatero di lati r, r,s, s , avendo indicato con s la retta

e con s la retta .

Facendo riferimento alla figura gli angoli

e opposti tra loro in questo quadrilatero sono

ovviamente tra loro supplementari essendo retti gli altri due. Inoltre i piani e sono tra loro
ortogonali se e solo se un angolo retto. Valgono cos le seguenti equivalenze :

<=> =

<=> =

< = > r r

Ne segue che i due piani sono ortogonali se e solo se tali risultano le due rette r ed r. Tenendo
conto del teorema II di pagina 121, resta provato il seguente

Teorema 2.4 Due piani e rappresentati rispettivamente da

ax + by + cz + d = 0

ax + by + cz + d = 0

sono tra loro ortogonali se e solo se risulta

136

a a + b b + c c = 0

3. Fasci di piani

Sia r una retta rappresentata dal sistema

ax + by + cz + d = 0

a' x + b' y + c' z + d' = 0

r:

l insieme di tutti i piani che contengono la retta r chiamato fascio di piani di asse r.
Sia P (xo , yo

zo )

un punto qualsiasi di r . Allora P con le sue coordinate soddisfa entrambe le

equazioni del sistema . Ne consegue che se consideriamo unequazione del tipo

(** )

(ax + by + cz + d ) + ( ax + by + cz + d ) = 0

con ( , )

(0,0 )

ottenuta combinando linearmente le due equazioni date, essa

rappresenta ancora un piano per la retta r in quanto le coordinate di P soddisfano tale equazione
qualunque sia la scelta dei coefficienti e . Se ogni piano per r si ottiene mettendo nella (**)
un opportuno valore di ed un opportuno valore di allora al variare di questi due parametri
e la (**) descrive tutti i piani per r e quindi rappresenta il fascio di piani di asse r .
Sia quindi un qualunque piano per r rappresentato dallequazione :

ax + by + cz + d = 0 .

Il sistema formato dalle tre equazioni

ax + by + c z + d = 0

a' x + b' y + c' z + d' = 0


ax + by + cz + d" = 0

137

ha infinite soluzioni fornite dalle coordinate dei punti di r . Pertanto le due matrici del sistema
hanno lo stesso rango . Ora la matrice incompleta

a b

A= a' b'
a" b"

c'
c"

ha rango due altrimenti il sistema avrebbe una unica soluzione e cos anche quella completa

a b c d

A = a' b' c' d'


a" b" c" d"

deve avere rango due . Pertanto le tre righe di A sono dipendenti e poich le prime due sono
indipendenti si ha che la terza riga combinazione delle prime due. Si ha cos lasserto.

4. Stelle di piani .

In tale numero cercheremo di rappresentare tutti i piani che passino per un fissato punto
A( xo , yo , zo) . Tale insieme di piani viene chiamato stella di piani di centro A .
Siano , e tre piani per A ed aventi in comune il solo punto A. I piani , e
siano rappresentati da

ax + by + cz + d = 0

ax + by + cz + d = 0

ax + by + cz + d = 0

Poich i tre piani dati hanno in comune il solo punto A allora il sistema formato dalle tre equazioni
che rappresentano i tre piani , e ha una sola soluzione e quindi la sua matrice incompleta

138

ha il determinante diverso da zero.


Inoltre poich A appartiene sia a sia a e sia a le sue coordinate soddisfano tutte e
tre le equazioni. Ne consegue che se consideriamo unequazione del tipo

(*)

(ax + by + cz + d ) + ( ax + by + c z + d)+ ( ax + by + cz + d) = 0

con ( , , )

(0,0,0 )

ottenuta combinando linearmente le tre equazioni date, essa

rappresenta un piano, ancora per il punto A , in quanto le coordinate di A la soddisfano qualunque


sia la scelta dei coefficienti , e . Se ogni piano per A si ottiene mettendo nella (*) un
opportuno valore di ,un opportuno valore di ed un opportuno valore di allora al variare
dei parametri , e la (*) descrive tutti i piani per A e quindi rappresenta la stella di piani
di centro A.

Sia quindi 0 un qualunque piano per A rappresentato dallequazione :

0 :

aox + boy + coz + do = 0

Il sistema formato dalle quattro equazioni

ax + by + cz + d = 0
a' x + b' y + c' z + d' = 0
ax + by + cz + d" = 0
a o x + b o y + co z + d o = 0

risulta compatibile in quanto la terna ( xo , yo , zo ) una sua soluzione. Ne consegue che la matrice
completa ha lo stesso rango di quella incompleta e quindi ha rango tre.
Risulta allora

a b c

a' b' c'


det
a" b" c"

a
o bo co

d'
=0
d"

d o

Le quattro righe di tale matrice sono quindi dipendenti e poich le prime tre sono indipendenti
allora la quarta combinazione lineare delle prime tre e cos si ha lasserto.
Tre piani per il punto A(xo , yo , zo) di semplice rappresentazione sono quelli per A paralleli ai

139

piani coordinati cio i piani rappresentati da :

x - xo = 0

y - yo = 0

z - zo = 0

pertanto, per ci che precede, lequazione

( x - xo ) + (y - yo) + (z - zo ) = 0

al variare di , e rappresenta tutti i piani per A e per tale motivo viene chiamata lequazione
della stella di piani di centro A .

Concludiamo con

alcuni esercizi .

Prima di far ci

evidenziamo alcune

semplici propriet d'incidenza tra, punti , rette e piani dello spazio utili per le
applicazioni .

1. Siano dati un punto A ed una retta r non contenente A.


a) C una sola retta per A parallela ad r .
b) C' un sol piano che contiene A ed r . In tale piano giacciono tutte le rette per
A incidenti r .
c) C' un sol piano per A ortogonale ad r . In tale piano giacciono tutte le rette
per A ortogonali ad r .

2. Siano dati un punto A ed un piano non contenente A.


a)

C' un sol piano per A parallelo a . Tale piano contiene tutte le rette per

A parallele a .
b)

C una sola retta per A ortogonale a .

3. Siano dati una retta r ed un piano non contenente r . La retta r sia incidente il

140

piano ma non sia ortogonale al piano


a) C un sol piano per r ortogonale a .

4. Siano date due rette r ed s tra loro sghembe.


a) C un sol piano per r parallelo ad s .

Concludiamo con qualche esercizio .

Fissato nello spazio un riferimento monometrico ortogonale, siano dati il punto


A (1 , 1, 2) il piano rappresentato da 2x + y -3z + 1 = O e la retta r rappresentata da

x - 2y = 0

x +z-2 =0

r:

Si rappresentino
1. La retta per A parallela ad r .
2. La retta per A ortogonale a
3. Il piano per A parallelo a .
4. Il piano per A ortogonale ad r
5. Il piano per A ed r .
6. Il piano per r ortogonale a .
7. La retta per A incidente r e parallela a .
8. La retta per A incidente r ed ortogonale ad r .

Soluzioni .

Come gi detto i numeri direttori di r si ottengono attraverso i minori (presi a segno


alterno ) della matrice

-2
0

141

e pertanto sono (-2 , -1 , 2 ) o una terna proporzionale come ad esempio ( 2 , 1 , -2 ).

Quesito 1.

La retta richiesta dovendo essere parallela ad r deve avere gli stessi numeri direttori
di r quindi essa si rappresenta parametricamente al seguente modo:

x = 1 + 2

y =1+
z = 2 2

Quesito 2 .

La retta richiesta per essere ortogonale a

deve avere numeri direttori

proporzionali ai coefficienti (a,b,c) dellequazione del piano. Pertanto la retta richiesta si


rappresenta parametricamente al seguente modo:
x = 1 + 2

y =1+
z = 2 3

Quesito 3.

Il piano richiesto , dovendo passare per A ha una rappresentazione del tipo


a(x-1) + b(y-1) + c(z-2) = 0

(stella di piani di centro A )

Inoltre tale piano dovendo essere parallelo a deve soddisfare la condizione di parallelismo
tra piani. Bisogna pertanto scegliere (a , b ,c) proporzionali a

(2 , 1 , -3 ). Il piano

richiesto ha quindi equazione 2(x-1) + (y-1) -3(z-2) = 0 cio 2x + y -3z + 3 = 0.

Quesito 4 .

Il piano richiesto , dovendo passare per A ha una rappresentazione del tipo


a(x-1) + b(y-1) + c(z-2) = 0

(stella di piani di centro A )

Inoltre tale piano dovendo essere ortogonale ad r deve avere i coefficienti (a ,b,c )
proporzionali ai numeri direttori di r che sono (2, 1, -2). Il piano richiesto ha quindi
equazione
2(x-1) + (y-1) -2(z-2) = 0
cio

2x + y -2z + 1 = 0.

142

Quesito 5.

Un qualunque piano per la retta r si rappresenta ( al variare dei parametri h e k )


con lequazione
h(x-2y) + k (x+z-2) =0 .

Tale piano (h+k)x -2hy + kz -2k = 0 contiene il punto A se le coordinate di A sono una sua
soluzione quindi se h+ k -2k +2k -2k = h-k = 0. Quindi h=k e pertanto il piano richiesto
(scegliendo h = k =1 ) 2x-2y +z -2= 0.

Quesito 6.

Un qualunque piano per la retta r si rappresenta ( al variare dei parametri h e k )


con lequazione
h(x-2y) + k (x+z-2) =0 .
Tale piano (h+k)x -2hy + kz -2k = 0 ortogonale al piano se soddisfatta la condizione
di ortogonalit tra piani cio se 2(h+k) -2h -3k = -k=0 . Quindi
k = 0 e pertanto il piano richiesto (scegliendo h = 1) x 2y = 0.

Quesito 7

La retta richiesta dovendo passare per A ed incidere r si trova sul piano che contiene
A ed r. Dovendo inoltre passare per A ed essere parallela a si trova sul piano per A
parallelo a . Quindi la retta richiesta dovendo stare su questi due piani la retta comune a
questi due piani e quindi si rappresenta con
2x 2y + z - 2 = 0

2x + y - 3z + 3 = 0
Quesito 8

La retta richiesta dovendo passare per A ed incidere r si trova sul piano che contiene
A ed r. Dovendo inoltre passare per A ed essere ortogonale ad r si trova sul piano per A
ortogonale a r. Quindi la retta richiesta dovendo stare su questi due piani la retta comune
a questi due piani e quindi si rappresenta con

2x 2y + z - 2 = 0

2x + y - 2z + 1 = 0

143

Indice
Capitolo I - Spazi vettoriali
1.
2.
3.
4.
5.

Gruppi abeliani .. pag. 3


Nozione di campo . ..pag. 5
Spazi vettoriali ..pag. 7
Isomorfismi tra spazi vettoriali pag .22
I sottospazi di uno spazio vettoriale pag. 30

Capitolo II- Matrici e determinanti


1.
2.
3.
4.

Introduzione . pag. 39
Determinante di una matrice quadrata . . pag. 40
Prodotto di matrici pag. 46
Rango di una matrice pag .49

Capitolo III- Sistemi di equazioni lineari


1. Sistemi di equazioni lineari . ..pag. 58
2. Sistemi omogenei . . . .................................... .pag. 72

Capitolo IV- Prodotti scalari


1. Prodotti scalari . ..pag. 83

Capitolo V- Triangolazione e diagonalizzazione di una matrice quadrata


1. Triangolazione di una matrice quadrata . .pag. 93
2. Diagonalizzazione di una matrice quadrata .pag. 98

Capitolo VI- Geometria analitica


1.
2.
3.
4.

Introduzione . ..pag. 118


Rette e piani dello spazio . . .. .. pag. 128
Fasci di piani . .. pag. 136
Stelle di piani.. pag. 137

Potrebbero piacerti anche