Sei sulla pagina 1di 113

ELENA RUBEI

Dispense di
GEOMETRIA,
c.d.l. in Fisica, Universit`a di Firenze,
http://web.math.uni.it/users/rubei/didattica.html
Indice
1 Notazioni fondamentali in matematica 3
2 I numeri complessi, i campi 4
2.1 I numeri complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3 K
n
e le matrici 10
3.1 Denizione di K
n
e di matrici, somma e prodotto per uno scalare . . . . . . . . 10
3.2 Vari tipi di matrici, trasposta, traccia . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3 Prodotto scalare standard e norma . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.4 Prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.5 Matrici invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.6 Matrici ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.7 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4 Sistemi lineari 20
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non . . . . . . . . 20
4.2 Operazioni elementari di riga, matrici a scalini . . . . . . . . . . . . . . . . . . . 20
4.3 Metodo per risolvere un sistema lineare quando la sua matrice completa `e a scalini 22
4.4 Metodo per risolvere un qualsiasi sistema lineare . . . . . . . . . . . . . . . . . . 23
4.5 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5 Spazi vettoriali 27
5.1 Denizione e prime propriet`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.3 Generatori, insiemi di vettori linearmente indipendenti, basi, dimensione . . . . . 30
5.4 Somma e somma diretta di sottospazi, la formula di Grassmann . . . . . . . . . 33
5.5 Dimensione di M(mn, K) e di K
d
[x] . . . . . . . . . . . . . . . . . . . . . . 34
5.6 Un esempio fondamentale: lo spazio generato dalle colonne di una matrice (range)
e lo spazio generato dalle righe . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.7 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1
6 Applicazioni lineari 39
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale . . . . . . . . . . 39
6.2 Isomorsmi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.3 Applicazioni lineari associate a matrici . . . . . . . . . . . . . . . . . . . . . . . 43
6.4 Matrici associate ad applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . 43
6.5 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
7 Determinante, rango, inversa di una matrice 53
7.1 Spazi generati da righe e colonne e rango . . . . . . . . . . . . . . . . . . . . . 53
7.2 Il teorema di Rouche-Capelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
7.3 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
7.4 Relazione fra rango e determinante, formula di Cauchy-Binet, riassunto propriet`a
determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.5 Matrici invertibili II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.6 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
8 Autovettori e autovalori, diagonalizzabilit`a 66
8.1 Autovettori e autovalori, molteplicit`a algebrica e geometrica . . . . . . . . . . . 66
8.2 Diagonalizzabilit`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.3 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
9 Forme bilineari 78
9.1 Prime denizioni e matrici associate alle forme bilineari . . . . . . . . . . . . . . 78
9.2 I Teoremi di Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
9.3 La segnatura delle forme bilineari simmetriche . . . . . . . . . . . . . . . . . . . 82
9.4 Le forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
9.5 Il metodo babilonese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
9.6 Il teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
9.7 Esercizi. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
10 Forme hermitiane, matrici hermitiane, normali, unitarie 95
10.1 Denzioni di forme hermitiane, matrici hermitiane, normali, unitarie . . . . . . . 95
10.2 Il teorema spettrale per le matrici hermitiane . . . . . . . . . . . . . . . . . . . . 96
11 Sottospazi ani 97
11.1 Denizione di sottospazi ani, sottospazi ani paralleli e perpendicolari . . . . 97
11.2 Rette e piani nello spazio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
11.3 Mutua posizione di rette e piani nello spazio . . . . . . . . . . . . . . . . . . . . 100
11.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
12 APPENDICE 1. Triangolabilit`a, teorema spettrale per le matrici normali. 111
Ringraziamento. Ringrazio gli studenti del primo anno del corso di laurea in Fisica dellUniver-
sit`a di Firenze della.a. 2011-2012 per avermi segnalato diversi errori di stampa.
2
1 Notazioni fondamentali in matematica
signica per qualsiasi
signica esiste
signica implica
signica implica e `e implicato, se e solo se
signica appartiene, `e un elemento di
signica `e incluso
3
2 I numeri complessi, i campi
2.1 I numeri complessi
Come `e ben noto non tutte le equazioni polinomiali hanno soluzioni nei reali. Ad esempio
lequazione
x
2
= 1
non ha soluzione nei reali, cio`e non esiste un numero reale x il cui quadrato `e 1.
Linsieme dei numeri complessi `e stato introdotto proprio per consentire di trovare soluzione a
tutte le equazione polinomiali, cio`e `e stato introdotto come un insieme pi`u grande dellinsieme
dei numeri reali, nel quale ogni equazione polinomiale ha soluzione. In altre parole per ottenere
linsieme dei numeri complessi si aggiunge allinsieme dei numeri reali linsieme di tutte le soluzioni
di equazioni polinomiali.
Informalmente si denisce C (insieme dei numeri complessi) nel modo seguente:
si denisce i (unit`a immaginaria) come un numero che gode della seguente propriet`a:
i
2
= 1
e si denisce:
C = a +bi[ a, b R
Quindi un numero complesso `e un numero del tipo
z = a +bi
dove a e b sono due numeri reali e i `e lunit`a immaginaria. Si dice che a `e la parte reale del
numero complesso a +bi e bi `e la parte immaginaria. In genere si scrive:
Re(z) = a
Im(z) = b (coeciente della parte immaginaria).
La somma e il prodotto in C si deniscono nel modo seguente:
(a +bi) + (c +di) = a +c + (b +d)i
(a +bi) (c +di) = ac bd + (ad +bc)i
La denizione di prodotto pu` o sembrare strana e dicile da memorizzare, ma in realt`a si ricava
facilmente facendo valere le propriet`a distribuitiva e commutative e ricordando che i
2
= 1:
(a+bi)(c+di) = a(c+di)+bi(c+di) = ac+adi+bci+bdi
2
= ac+adi+bcibd = acbd+(ad+bc)i
Ovviamente si pu` o vedere linsieme dei numeri reali contenuto nellinsieme dei numeri complessi:
a R si pu` o vedere come il numero complesso a + 0i.
Si denisce coniugato di un numero complesso z = a+bi il numero complesso abi e si denota
z:
z = a bi
Si denisce modulo di un numero complesso z = a + bi il numero reale

a
2
+b
2
e si denota
[z[:
[z[ =
_
a
2
+b
2
4
Se z R, allora il modulo coincide con il valore assoluto: infatti in tal caso, se si scrive z = a+bi,
si ha che b = 0 e quindi [z[ =

a
2
+b
2
=

a
2
= [a[.
Si dimostrano facilmente le seguenti propriet`a:
1) [z[ = [z[
2) [z[ = 0 se e solo se z = 0
3) [z w[ = [z[[w[
4) z z = [z[
2
5) z +w = z + w
6) z w = z w
Inoltre `e semplice dimostrare che valgono le propriet`a associativa e commutativa sia per la somma
che per il prodotto, esiste un elemento neutro per la somma (0 = 0 + 0i), esiste un elemento
neutro per il prodotto (1 = 1 + 0i), vale la propriet`a distributiva, esiste lopposto per la somma
(cio`e, dato un qualsiasi numero complesso z = a+bi, esiste un numero complesso che sommato
a z d`a 0: esso sar`a a bi); inne per qualsiasi numero complesso z = a + bi diverso da 0,
esiste linverso, cio`e un numero complesso che moltiplicato per z d`a 1: esso sar`a
z
|z|
2
.
Pi`u formalmente si pu` o denire
C = (a, b)[ a, b R
denendo la somma e il prodotto nel modo seguente:
(a, b) + (c, d) = (a +c, b +d)
(a, b) (c, d) = (ac bd, ad +bc)
Linsieme dei numeri complessi pu` o essere identicato con i punti del piano in cui `e stato ssato
un sistema di riferimento cartesiano, precisamente al numero complesso a+bi si fa corrispondere
il punto del piano di coordinate cartesiane (a, b). Il piano identicato con linsieme dei numeri
complessi si chiama piano di Argand-Gauss.
(a,b)
a
b
Sia langolo formato dal semiasse positivo delle ascisse e il segmento che congiunge (0, 0) con
(a, b) tale che < e sia la lunghezza del segmento che congiunge (0, 0) con (a, b),
allora si ha ovviamente:
z = a +bi = (cos +isen )
(forma trigonometrica dei numeri complessi).
5
Supponiamo che z = a + bi = (cos + isen ) w = c + di = (cos + isen ). Si pu` o
dimostrare facilmente che
z w = ()[cos( +) +isen( +)]
Quindi in pratica moltiplicare per z = (cos +isen ) un numero complesso w signica molti-
plicare per la lunghezza del segmento che unisce lorigine col punto del piano che rappresenta
w e ruotare tale segmento di .
Osservate che, se z = (cos +isen ), allora
z
n
=
n
[cos(n) +i sen(n)]
Inne enunciamo (senza dimostrarlo) il teorema fondamentale dellalgebra.
Teorema Fondamentale dellAlgebra. Sia p(x) un polinomio a coecienti complessi di grado
n 1. Allora esso ha una radice in C.
Ovviamente se C `e una radice di p(x), allora
p(x) = (x )q(x)
per un qualche polinomio q(x) di grado n 1. Per il teorema anche il polinomio q(x) ha una
radice complessa se `e di grado maggiore o uguale a 1... Ripetendo il procedimento, alla ne
arriviamo a scrivere p(x) come prodotto di fattori di grado 1 a coecienti complessi. Quindi
possiamo enunciare il seguente corollario del Teorema Fondamentale dellAlgebra.
Corollario Sia p(x) un polinomio a coecienti complessi di grado n 1. Allora esso `e
completamente fattorizzabile in fattori di grado 1 a coecienti complessi.
2.2 Campi
Denizione 1. Un insieme K si dice un campo se sono denite su di esso due operazioni, una
detta detta somma e denotata con + e una detta prodotto e donotata con , tali che valgano le
seguenti propriet`a:
1) (a +b) +c = a + (b +c) a, b, c K (propriet`a associativa della somma)
2) esiste un elemento neutro per +, cio`e esiste un elemento, denotato in genere con O
K
o
semplicemente con 0, tale che 0
K
+a = a + 0
K
= a a K (si pu` o dimostrare che `e unico)
3) a K esiste un opposto di a, cio`e un elemento a

tale che a + a

= a

+a = 0
K
4) a +b = b +a a, b K (propriet`a commutativa della somma)
5) a (b c) = a (b c) a, b, c K (propriet`a associativa del prodotto)
6) esiste un elemento neutro per , cio`e esiste un elemento, denotato in genere con 1
K
o
semplicemente con 1, , tale che 1
K
a = a 1
K
= a a K (si pu` o dimostrare che `e unico)
7) a K 0
K
esiste un inverso, cio`e esiste un elemento a tale che a a = aa = 1
K
8) a b = b a a, b K (propriet`a commutativa del prodotto)
9) a (b + c) = a b + a c a, b, c K e (b + c) a = b a + c a a, b, c K (propriet`a
distributiva del prodotto rispetto alla somma).
Spesso il simbolo della moltiplicazione si omette.
Osservazione 2. In ogni campo K esiste un solo elemento neutro per la somma.
6
Dimostrazione.
Siano z e z

due elementi neutri per la somma.


Si ha che z +z

= z in quanto z

`e elemento neutro per la somma.


Inoltre si ha che z +z

= z

in quanto z `e elemento neutro per la somma.


Quindi z = z

, in quanto sono entrambi uguali a z +z

.
Q.e.d.
Del tutto analogamente si pu` o dimostrare:
Osservazione 3. In ogni campo K esiste un solo elemento neutro per il prodotto.
Osservazione 4. In ogni campo K si ha che
0a = 0
a K.
Dimostrazione.
Si ha:
0a = (0 + 0)a = 0a + 0a
(la prima uguaglianza segue dal fatto che 0 + 0 = 0, essendo 0 elemento neutro per la somma,
la seconda segue dalla propriet`a 9 dei campi, cio`e dalla propriet`a distributiva in K).
Sia b un opposto di 0a (esite per la propriet`a 3 dei campi). Sommando b al primo membro e
allultimo membro della catena di uguaglianze sopra, si ottiene
0a +b = (0a + 0a) +b
e quindi, applicando la denizione di opposto al primo membro e la propriet`a 1 dei campi (cio`e
la propriet`a associativa della somma) al secondo membro, ottengo
0 = 0a + (0a +b)
e quindi, per denizione di opposto,
0 = 0a + 0
da cui
0 = 0a
Q.e.d.
Osservazione 5. Per qualsiasi a K, esiste un solo opposto di a.
Dimostrazione. Siano a

e a

due opposti di a, quindi a

+a = 0 e a

+a = 0;
in particolare
a

+a = a

+a
Sommando ad entrambi i membri un opposto, w, di a , si ottiene
(a

+a) +w = (a

+a) +w
e quindi
a

+ (a +w) = a

+ (a +w)
Pertanto
a

+ 0 = a

+ 0
da cui a

= a

. Q.e.d.
7
Osservazione 6. Sia 1 lopposto di 1. Allora, per qualsiasi a K, lelemento (1) a `e
un opposto di a (quindi lunico opposto di a per losservazione precedente). Spesso si denota
semplicemente a.
Dimostrazione.
(1)a + a = (1)a + 1a = (1 + 1)a = 0a = 0
(la prima uguaglianza segue dal fatto che 1 `e lelemento neutro per la moltiplicazione, la seconda
dalla propriet`a 9 cio`e dalla propriet`a distributiva, lultima dallOsservazione 4).
Q.e.d.
In modo del tutto analogo allOsservazione 5, si dimostra
Osservazione 7. Per qualsiasi a K 0, esiste un solo inverso di a (e si denota a
1
).
Esempi di campi. Linsieme dei numeri reali con le usuali operazioni di somma e moltiplicazione
`e un campo.
Linsieme dei numeri complessi con le operazioni di somma e moltiplicazione che abbiamo denito
nella sottosezione 1 `e un campo.
8
2.3 Esercizi
Esercizio 1. Trovare, se esistono, i numeri complessi z tali che
_
[z[
2
+z = 4 + 2i
zz
2
= 8i
Eserczio 2. Trovare, se esistono, i numeri complessi z tali che
z = z
2
Eserczio 3. Trovare, se esistono, i numeri complessi z tali che
_
zRe(z) =
1+i

2
z
4
= [z[
4
Esercizio 4. Sia F linsieme
(x, y)[ x, y R
con loperazione di addizione
(x, y) + (x

, y

) = (x +x

, y +y

)
e loperazione di moltiplicazione
(x, y) (x

, y

) = (x x

, y y

)
E un campo?
Una relazione binaria tra elementi di un insieme A `e una relazione di equivalenza se `e
riessiva, cio`e se per ogni elemento a di A, si ha a a
simmetrica, cio`e se per ogni coppia a, b di elementi di A, si ha che a b implica b a
transitiva, cio`e se per ogni terna a, b, c di elementi di A, si ha che a b e b c implicano
a c.
Due elementi tra i quali sussiste la relazione di equivalenza si dicono equivalenti (per la
relazione ).
Il sottoinsieme di A che contiene tutti e soli gli elementi equivalenti a un qualche elemento a di
A prende il nome di classe di equivalenza di a (per la relazione ) e spesso si indica con [a]. In
una classe di equivalenza tutti gli elementi in essa contenuti sono tra loro equivalenti.
Linsieme delle classi di equivalenza su A si chiama insieme quoziente di A per la relazione e
viene talvolta indicato con lespressione A/ .
Esercizio 5. Sia m N 0. Sia la relazione di equivalenza su Z cos` denita: a b se e
solo se a b `e un multiplo di m. Sia Z/m il quoziente di Z per questa relazione. Deniamo
[a] + [b] = [a +b]
[a] [b] = [a b]
Dimostrare che Z/m `e un campo se e solo se m `e un numero primo.
9
3 K
n
e le matrici
3.1 Denizione di K
n
e di matrici, somma e prodotto per uno scalare
Denizione 8. Sia K un campo e sia n un numero naturale 1. Si denisce
K
n
=
_

_
_
_
_
_
x
1
.
.
.
xn
_
_
_
_
[ x
1
, ..., x
n
K
_

_
Notazione 9. Sia x =
_
_
_
_
x
1
.
.
.
xn
_
_
_
_
K
n
. Lelemento x
i
che compare ali-esimo posto si denisce
i-esima componente di x.
Denizione 10. Sia n un numero naturale 1. Si denisce la somma fra due elementi di
K
n
nel modo seguente:
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
_
_
+
_
_
_
_
_
_
y
1
.
.
.
y
n
_
_
_
_
_
_
=
_
_
_
_
_
_
x
1
+y
1
.
.
.
x
n
+y
n
_
_
_
_
_
_
(cio`e se x, y K
n
, si denisce x + y come lelemento di K
n
tale che (x + y)
i
= x
i
+ y
i
i = 1, ..., n).
Esempio
_
_
_
_
_
_
1
0
2

7
_
_
_
_
_
_
+
_
_
_
_
_
_
1
3
2
2
1
_
_
_
_
_
_
=
_
_
_
_
_
_
2
3
0
+ 2
8
_
_
_
_
_
_
Denizione 11. Sia n un numero naturale 1. Si denisce il prodotto fra un elemento di
K
n
e uno scalare (cio`e un elemento del campo K) nel modo seguente:

_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
_
_
=
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
_
_
(cio`e se x K
n
e K, si denisce x come lelemento di K
n
tale che (x)
i
= x
i
i = 1, ..., n).
Esempio
3
_
_
_
_
_
_
1
0
2

7
_
_
_
_
_
_
=
_
_
_
_
_
_
3
0
6
3
21
_
_
_
_
_
_
10
Osservazione 12. Fissando un sistema cartesiano nel piano, si stabilisce unovvia bigezione fra
R
2
e il piano.
Analogamente ssando un sistema cartesiano nello spazio, si stabilisce unovvia bigezione fra R
3
e lo spazio.
Osservazione 13. Regola del parallelogramma Per ogni elemento
_
x
y
_
di R
2
consideriamo il
segmento orientato avente
_
0
0
_
come punto iniziale e
_
x
y
_
come punto nale. In tal modo
la somma di due elementi di R
2
pu` o essere interpretata geometricamente tramite la cosiddetta
regola del parallelogramma:
y
y
x
y+y
x+x
x
Denizione 14. Siano m, n due numeri naturali 1. Una matrice mn `e una tabella con m
righe e n colonne. Si dice a coecienti in un campo K se tutti gli elementi sulla tabella sono
elementi di K.
Notazione 15. Lelemento che sta sulli-esima riga e j-esima colonna di una matrice A si denota
con a
i,j
o A
i,j
.
La riga i-esima si denota con A
(i)
.
La colonna j-esima si denota con A
(j)
.
Denizione 16. Siano m e n due numeri naturali 1. Si denisce
M(mn, K) = A[ A matrice mn a coefficienti in K
Denizione 17. Siano m, n due numero naturale 1. Si denisce la somma fra due elementi
di M(m n, K) nel modo seguente: siano A, B M(m n, K), si denisce A + B come la
matrice mn tale che
(A +B)
i,j
= A
i,j
+B
i,j
i = 1, ..., m, j = 1, ..., n.
Esempio
_
_
_
_
_
_
1 0 2
0 0 3
2 1 1
4 5
7 0 1
_
_
_
_
_
_
+
_
_
_
_
_
_
1 3 2
3 1 0
2 0 1
2 4 1
1 6

2
_
_
_
_
_
_
=
_
_
_
_
_
_
2 3 4
3 1 3
0 1 2
+ 2 8 6
8 6 1

2
_
_
_
_
_
_
11
Denizione 18. Siano m, n due numero naturale 1. Si denisce il prodotto fra un elemento
di M(mn, K) e uno scalare nel modo seguente: sia A M(mn, K) e K; si denisce
A come la matrice mn tale che
(A)
i,j
= A
i,j
i = 1, ..., m, j = 1, ..., n.
Esempio
3
_
_
_
_
_
_
1 0 2
0 0 3
2 1 1
4 5
7 0 1
_
_
_
_
_
_
=
_
_
_
_
_
_
3 0 6
0 0 9
6 3 3
3 12 15
21 0 3
_
_
_
_
_
_
Proposizione 19. Valgono le seguenti propriet`a:
1) (A+B) +C = A+(B +C) A, B, C M(mn, K) (propriet`a associativa della somma)
2) A+B = B +A A, B M(mn, K) (propriet`a commutativa della somma)
3) La matrice mn con tutti i coecienti nulli `e un elemento neutro per la somma in M(m
n, K), cio`e 0
mn
+A = A + 0
mn
= A A M(mn, K).
4) Per ogni A M(mn, K) lelemento (1)A `e opposto di A per la somma in M(mn, K),
cio`e A + (1)A = (1)A +A = 0
mn
5) ( + )A = A + A , K A M(m n, K) (propriet`a distributiva rispetto alla
somma in K)
6) (A + B) = A + B K A, B M(m n, K) (propriet`a distributiva rispetto alla
somma in M(mn, K))
7) ()A = (A) , K A M(mn, K)
8) 1A = A A M(mn, K).
Dimostrazione. Per esercizio.
Nel capitolo 3 vedremo che la proposizione sopra si pu` o enunciare brevemente dicendo che
M(mn, K) `e uno spazio vettoriale su K.
3.2 Vari tipi di matrici, trasposta, traccia
Denizione 20. Sia n N n 1. Sia A M(n n, K). Si denisce diagonale (principale) di
A ln-upla (a
1,1
, ...., a
n,n
).
Denizione 21. Sia n N n 1. Sia A M(n n, K). Si dice che A `e diagonale se
a
i,j
= 0
per i ,= j (cio`e se tutti gli elementi al di fuori della diagonale principale sono nulli).
Esempio
_
_
_
_
3 0 0 0
0 1 0 0
0 0 3 0
0 0 0 2
_
_
_
_
Esempio (fondamentale) Si dice matrice identit`a n n (e si denota con I
n
) la matrice n n
con tutti 1 sulla diagonale e 0 altrove. Per esempio
I
1
= (1)
12
I
2
=
_
1 0
0 1
_
I
3
=
_
_
1 0 0
0 1 0
0 0 1
_
_
Denizione 22. Sia n N n 1. Sia A M(n n, K). Si dice che A `e triangolare
superiore se
a
i,j
= 0
per i > j (cio`e se tutti gli elementi al di sotto della diagonale principale sono nulli).
Esempio
_
_
_
_
_
_
1 1 1 6 1
0 1 2 6 1
0 0 0 3 4
0 0 0 3 2
0 0 0 0 23
_
_
_
_
_
_
Denizione 23. Sia n N n 1. Sia A M(nn, K). Si dice che A `e triangolare inferiore
se
a
i,j
= 0
per i < j (cio`e se tutti gli elementi al di sopra della diagonale principale sono nulli).
Esempio
_
_
_
_
_
_
3 0 0 0 0
0 1 0 0 0
1 2 0 0
0 2 2 2 0
0 4 0 3 0
_
_
_
_
_
_
Denizione 24. Sia n N n 1. Sia A M(n n, K). Si dice che A `e simmetrica se
a
i,j
= a
j,i
i, j (cio`e se gli elementi simmetrici rispetto alla diagonale principale sono uguali).
Esempio
_
_
_
_
4 1 0 7
1 0 2 6
0 2 9 3
7 6 3 8
_
_
_
_
Denizione 25. Sia n N n 1. Sia A M(n n, K). Si dice che A `e antisimmetrica se
a
i,j
= a
j,i
i, j 1, .., n (cio`e se gli elementi simmetrici rispetto alla diagonale principale sono opposti).
Esempio
_
_
_
_
0 1 0 7
1 0 2 6
0 2 0 3
7 6 3 0
_
_
_
_
13
Osservazione 26. Se il campo `e tale che 1
k
+1
k
,= 0
k
(cio`e lelemento neutro del prodotto pi`u
se stesso `e diverso dallelemento neutro della somma), gli elementi sulla diagonale principale di
una matrice antisimmetrica sono nulli.
(Infatti a
i,i
= a
i,i
i 1, ..., n, pertanto 2a
i,i
= 0 e quindi a
i,i
= 0.)
Denizione 27. Siano m e n due numeri naturali 1. Sia A M(m n, K). Si denisce
trasposta di A (che si indica con
t
A) la matrice n m cos` denita:
(
t
A)
i,j
= A
j,i
i 1, ..., n, j 1, ..., m.
Proposizione 28. Propriet`a della trasposta
1)
t
(
t
A) = A A M(mn, K).
2)
t
(A +B) =
t
A +
t
B A, B M(mn, K).
3)
t
(A) =
t
A K A M(mn, K).
Dimostrazione.
1) Per ogni i 1, ..., m e per ogni j 1, ..., n si ha
(
t
(
t
A))
i,j
= (
t
A)
j,i
= A
i,j
2) Per ogni i 1, ..., n e per ogni j 1, ..., m si ha
(
t
(A +B))
i,j
= (A + B)
j,i
= A
j,i
+B
j,i
(
t
A +
t
B)
i,j
= (
t
A)
i,j
+ (
t
B)
i,j
= A
j,i
+B
j,i
3) Per ogni i 1, ..., n e per ogni j 1, ..., m si ha
(
t
(A))
i,j
= (A)
j,i
= A
j,i
= (
t
A)
i,j
Q.e.d.
Osservazione 29. Sia n N n 1. Sia A M(n n, K);
1) A `e simmetrica se e solo se A =
t
A
2) A `e antisimmetrica se e solo se A =
t
A
Denizione 30. Si denisce traccia di una matrice quadrata la somma degli elementi della sua
diagonale.
3.3 Prodotto scalare standard e norma
Denizione 31. Sia n un numero naturale 1. Si denisce prodotto scalare standard fra
due elementi v e w di K
n
lelemento di K

i=1,...,n
v
i
w
i
Esso si indica con (v, w)
Esempio Siano
v =
_
_
_
_
1
31
2
9
_
_
_
_
w =
_
_
_
_
1
0
1
1
_
_
_
_
Allora (v, w) = 1 1 + 31 0 + 2 1 + 9 (1) = 8.
14
Proposizione 32. Propriet`a del prodotto scalare standard
1) Simmetria: (v, w) = (w, v) v, w K
n
2) Bilinearit`a:
linearit`a nel primo argomento:
(v, w) = (v, w) K v, w K
n
(v +w, u) = (v, u) + (w, u) v, w, u K
n
linearit`a nel secondo argomento:
(v, w) = (v, w) K v, w K
n
(v, w +u) = (v, w) + (v, u) v, w, u K
n
3) Denita positivit`a: SE K = R, (v, v) 0 v R
n
(positivit`a); inoltre (v, v) = 0 se e solo se
v = 0.
Dimostrazione.
1) (v, w) =

i=1,...,n
v
i
w
i
=

i=1,...,n
w
i
v
i
= (w, v)
2) (v, w) =

i=1,...,n
v
i
w
i
(v, w) =

i=1,...,n
(v)
i
w
i
=

i=1,...,n
v
i
w
i
=

i=1,...,n
v
i
w
i
(v, w) =

i=1,...,n
v
i
(w)
i
=

i=1,...,n
v
i
w
i
=

i=1,...,n
v
i
w
i
(v + w, u) =

i=1,...,n
(v + w)
i
u
i
=

i=1,...,n
(v
i
+ w
i
)u
i
=

i=1,...,n
(v
i
u
i
+ w
i
u
i
) =

i=1,...,n
v
i
u
i
+

i=1,...,n
w
i
u
i
= (v, u) + (w, u)
La linearit`a nel secondo argomento si dimostra in modo analogo oppure la possiamo derivare
dalla linearit`a nel secondo argomento e la simmetria.
3) (v, v) =

i=1,...,n
v
i
v
i
=

i=1,...,n
v
2
i
0;
inoltre (v, v) = 0 se e solo se

i=1,...,n
(v
i
)
2
= 0 e questo `e vero se e solo se (v
i
)
2
= 0
i = 1, ..., n cio`e se e solo se v
i
= 0 i = 1, ..., n.
Q.e.d.
Denizione 33. Sia v R
n
. Si denisce norma o lunghezza di v il numero reale
_
(v, v)
cio`e la radice quadrata del prodotto scalare di v con se stesso (che `e positivo per la propriet`a 3
del prodotto scalare, quindi ne posso considerare la radice quadrata), cio`e


i=1,...,n
v
i
v
i
=


i=1,...,n
(v
i
)
2
Esempio Sia
v =
_
_
_
_
1
3
2
2
_
_
_
_
Allora [v[ =

18.
Proposizione 34. Propriet`a della norma
1) [v[ 0 v R
n
; inoltre [v[ = 0 se e solo se v = 0
2) [v[ = [[[v[ , v R
n
Dimostrazione.
1) Essendo la norma una radice quadrata `e ovviamente maggiore o uguale a 0. Inoltre ovviamente
[0[ =

0 0 +..... + 0 0 = 0; inoltre se v R
n
e [v[ = 0 allora
_

i=1,...,n
v
2
i
= 0, quindi

i=1,...,n
v
2
i
= 0, quindi v
2
i
= 0 i = 1, ..., n, quindi v
i
= 0 i = 1, ..., n, cio`e v = 0.
15
2) [v[ =
_
(v, v) =
_

i=1,...,n
(v)
2
i
=
_

i=1,...,n
(v
i
)
2
=
=
_

i=1,...,n

2
v
2
i
=
_

i=1,...,n
v
2
i
= [[
_

i=1,...,n
v
2
i
= [[[v[
Q.e.d.
3.4 Prodotto di matrici
Denizione 35. Siano m, n, l tre numeri naturali 1. Sia A M(mn, K) e B M(nl, K).
Si denisce AB la matrice ml cos` denita:
(AB)
i,j
=

k=1,...,n
A
i,k
B
k,j
i = 1, ..., m, j = 1, ...., l, o, equivalentemente,
(AB)
i,j
= (
t
A
(i)
, B
(j)
)
(prodotto scalare standard fra la trasposta della riga i-esima di A e la colonna j-esima di B)
i = 1, ..., m, j = 1, ...., l.
Esempio
_
_
1 0 3 2
11 2 0 2
1 1 1 1
_
_
_
_
_
_
1 0
11 20
0 2
1 1
_
_
_
_
=
_
_
1 8
31 42
9 19
_
_
Osservazione 36. Il prodotto di matrici non gode della propriet`a commutativa.
Esempio
_
1 0
1 2
__
1 10
3 1
_
=
_
1 10
5 12
_
_
1 10
3 1
__
1 0
1 2
_
=
_
9 20
4 2
_
Proposizione 37. Propriet`a del prodotto di matrici
1) (AB)C = A(BC) A M(mn, K), B M(n p, K), C M(p q, K).
2) A(B +C) = AB +AC A M(mn, K), B M(n p, K), C M(n p, K).
3) (A +B)C = AC +BC A M(mn, K), B M(mn, K), C M(n p, K).
4) (AB) = (A)B = A(B) A M(mn, K), B M(n p, K), K
5) AI
n
= A e I
m
A = A A M(mn, K)
Dimostrazione.
Per dimostrare che due matrici sono uguali, basta ovviamente dimostrare che i coecienti cor-
rispondenti sono uguali; quindi per provare unuguaglianza di matrici, basta dimostrare che per
qualsiasi i, j, il coeciente i, j del primo membro `e uguale al coeciente i, j del secondo membro.
1) ((AB)C)
i,j
=

k=1,...,p
(AB)
i,k
C
k,j
=

k=1,...,p
[

r=1,...,n
A
i,r
B
r,k
]C
k,j
=
=

k=1,...,p
[

r=1,...,n
A
i,r
B
r,k
C
k,j
] =

k=1,...,p,r=1,...,n
A
i,r
B
r,k
C
k,j
(A(BC))
i,j
=

r=1,...,n
A
i,r
(BC)
r,j
=

r=1,...,n
A
i,r

k=1,...,p
B
r,k
C
k,j
=
=

r=1,...,n

k=1,...,p
A
i,r
B
r,k
C
k,j
=

r=1,...,n,k=1,...,p
A
i,r
B
r,k
C
k,j
2) (A(B +C))
i,j
=

k=1,..,n
A
i,k
(B +C)
k,j
=
=

k=1,..,n
A
i,k
(B
k,j
+C
k,j
) =

k=1,..,n
(A
i,k
B
k,j
+A
i,k
C
k,j
) =
16
=

k=1,..,n
A
i,k
B
k,j
+

k=1,..,n
A
i,k
C
k,j
= (AB)
i,j
+ (AC)
i,j
=
= (AB +AC)
i,j
3) Analoga a 2).
4) ((AB))
i,j
= (AB)
i,j
=

k=1,...,n
A
i,k
B
k,j
=

k=1,...,n
(A
i,k
B
k,j
) =

k=1,...,n
(A
i,k
)B
k,j
=

k=1,...,n
(A)
i,k
B
k,j
= ((A)B)
i,j
Analogamente la seconda uguaglianza.
5) (AI
n
)
i,j
=

k=1,...,n
A
i,k
(I
n
)
k,j
=

k=1,...,n
A
i,k

k,j
= A
i,j
1 = A
i,j
dove
k,j
`e il cosidetto
simbolo di Kronecker, cos` denito

k,j
=
_
0 se k ,= j
1 se k = j
Analogamente laltra uguaglianza.
Q.e.d.
Proposizione 38.
t
(AB) =
t
B
t
A A M(mk, K), B M(k n, K).
Dimostrazione.
(
t
(AB))
i,j
= (AB)
j,i
=

t=1,...,k
A
j,t
B
t,i
(
t
B
t
A)
i,j
=

t=1,...,k
(
t
B)
i,t
(
t
A)
t,j
=

t=1,...,k
B
t,i
A
j,t
=

t=1,...,k
A
j,t
B
t,i
Q.e.d.
3.5 Matrici invertibili
Denizione 39. Sia n N, n 1. Sia A M(nn, K). Si dice che A `e invertibile se esiste
B M(n n, K) tale che
AB = BA = I
n
Osservazione 40. (- Denizione.) Sia n N, n 1. Sia A M(n n, K). Siano
B, C M(n n, K) tali che AB = BA = I
n
= AC = CA. Allora B = C.
In altre parole se A `e invertibile esiste una e una sola matrice B tale che AB = BA = I
n
. Tale
matrice si dice linversa di A e si denota con A
1
.
Dimostrazione.
Per ipotesi so che
AB = I
n
Moltiplico a sinistra entrambi i membri delluguaglianza per C, ottenendo cos`
C(AB) = CI
n
da cui
(CA)B = C
Dato che per ipotesi CA = I
n
, ottengo
I
n
B = C
e quindi
B = C
Q.e.d.
17
Notazione 41. GL(n, K) = A M(n n, K)[ A invertibile
Esempio. GL(1, K) = (a)[ a K 0
Osservazione 42. Sia n N, n 1.
i) Siano A, B GL(n, K). Allora AB GL(n, K) e (AB)
1
= B
1
A
1
ii) Se A GL(n, K) allora A
1
GL(n, K) e (A
1
)
1
= A
Esercizio.
_
a b
c d
_
`e invertibile se e solo se adbc ,= 0 e in tal caso linversa `e
1
adbc
_
d b
c a
_
.
3.6 Matrici ortogonali
Denizione 43. Sia n N, n 1. Sia A M(n n, R). Si dice che A `e ortogonale se
t
AA = A
t
A = I
n
Osservazione 44. La condizione
t
AA = I
n
equivale a dire che le colonne di A sono di norma
1 e ortogonali fra loro per il prodotto scalare standard. La condizione A
t
A = I
n
equivale a dire
che le righe di A sono di norma 1 e ortogonali fra loro per il prodotto scalare standard.
Osservazione 45. Le matrici ortogonali sono invertibili.
18
3.7 Esercizi
Esercizio 1. Trovare una matrice A 2 3 a coecienti in R tale che
A
_
_
x
1
x
2
x
3
_
_
=
_
x
1
x
2
x
2
x
3
_
x
1
, x
2
, x
3
, x
4
R.
Esercizio 2. Trovare una matrice A 4 4 a coecienti in R tale che
A
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
2x
1
x
2
x
4
3x
2
x
3
x
1
x
1
_
_
_
_
x
1
, x
2
, x
3
, x
4
R.
Esercizio 3. i) Sia A M(n n, R). Dimostrare che A +
t
A `e simmetrica e A
t
A `e
antisimmetrica.
ii) Dimostrare che il prodotto di uno scalare e di una matrice simmetrica `e un matrice simmetrica,
il prodotto di uno scalare e di una matrice antisimmetrica `e un matrice antisimmetrica, la somma
di due matrici simmetriche `e una matrice simmetrica e la somma di due matrici antisimmetriche
`e una matrice antisimmetrica.
iii) Dimostrare che una matrice quadrata a coecienti in R si pu` o scrivere in modo unico come
somma di una matrice simmetrica e di una antisimmetrica.
Esercizio 4. Sia D una matrice diagonale con elementi sulla diagonale d
1
, ..., d
n
. Dimostrare
che D `e invertibile se e solo se d
i
,= 0 i 1, ..., n. Dire chi `e in tal caso la matrice inversa.
Esercizio 5. Dimostrare che le matrici ortogonali 2 2 sono tutte del tipo
_
cos sen
sen cos
_
oppure
_
cos sen
sen cos
_
19
4 Sistemi lineari
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non
Denizione 46. Un sistema lineare `e un sistema di equazioni lineari cio`e un sistema di equazioni
i cui membri sono polinomi di grado 1 nelle incognite.
Osservazione 47. Un sistema lineare di m equazioni e n incognite x
1
, ..., x
n
pu` o essere scritto
nella forma
Ax = b
per una certa matrice A M(mn, K) e un certo b K
m
, dove x =
_
_
_
_
_
x1
.
.
.
xn
_
_
_
_
_
.
(Basta prendere, per ogni i, come coecienti della i-esima riga di A i coecienti di x
1
, ..., x
n
nella i-esima equazione del sistema e come b
i
il termine noto della i-esima equazione del sistema).
Denizione 48. La matrice A si dice matrice incompleta del sistema. La matrice m(n +1)
ottenuta aancando (a destra) ad A lm-upla b si chiama matrice completa del sistema e si
indica con A[b
Esempio Consideriamo il seguente sistema lineare nelle incognite x
1
, x
2
, x
3
, x
4
, x
5
.
_
_
_
2x
1
+x
3
6x
4
= 0
x
1
x
4
6x
5
= 5
x
2
x
3
x
4
= 3
La matrice incompleta A e b saranno
A =
_
_
2 0 1 6 0
1 0 0 1 6
0 1 1 1 0
_
_
b =
_
_
0
5
3
_
_
La matrice completa A[b sar`a
A[b =
_
_
2 0 1 6 0 0
1 0 0 1 6 5
0 1 1 1 0 3
_
_
Denizione 49. Un sistema lineare Ax = b si dice omogeneo se b = 0.
Vogliamo adesso illustrare un metodo sistematico per risolvere i sistemi lineari. Per fare ci` o
occorre premettere le nozioni di matrici a scalini e operazioni elementari di riga.
4.2 Operazioni elementari di riga, matrici a scalini
Denizione 50. Si deniscono operazioni elementari sulle righe di una matrice le seguenti
operazioni:
operazioni di tipo I: scambiare due righe
operazioni di tipo II: moltiplicare una riga per uno scalare non nullo
operazioni di tipo III: sommare ad una riga un multiplo di unaltra riga.
20
Denizione 51. Una matrice si dice a scalini (per righe) se soddisfa la seguente propriet`a:
se in una riga i primi k elementi sono nulli allora la riga successiva (se esiste) o `e tutta nulla o
almeno i primi k + 1 elementi sono nulli.
Denizione 52. Il primo elemento non nullo di ogni riga non nulla di una matrice a scalini si
dice pivot.
Esempi di matrici a scalini
_
_
_
_
0 1 0 6 1
0 0 2 6 1
0 0 0 3 4
0 0 0 0 12
_
_
_
_
_
_
_
_
_
_
3 1 0 9 1
0 1 0 6 1
0 0 0 3 4
0 0 0 0 2
0 0 0 0 0
_
_
_
_
_
_
Esempi di matrici non a scalini
_
_
_
_
0 1 0 6 1
0 1 2 6 1
0 2 0 3 4
0 0 0 0 12
_
_
_
_
_
_
_
_
_
_
1 1 1 6 1
0 1 2 6 1
0 2 0 3 4
0 2 0 0 12
0 0 0 0 0
_
_
_
_
_
_
Proposizione 53. Data una qualsiasi matrice, si pu` o ottenere da essa, con operazioni elementari
di riga di tipo I e III, una matrice a scalini.
Dimostrazione. Per induzione sul numero di righe della matrice.
Sia j lindice della prima colonna non nulla. Con un scambio opportuno di righe possiamo fare
in modo che il primo elemento della j-esima colonna sia diverso da zero. Con operazioni di tipo
III possiamo fare in modo che tutti gli elementi dal secondo in poi della j-esima colonna siano
nulli. Ripetiamo il procedimento sulla matrice ottenuta togliendo la prima riga.
Q.e.d.
Esempio
_
_
_
_
0 1 0 6 1
0 1 2 6 1
0 2 0 3 4
0 0 0 10 12
_
_
_
_
_
_
_
_
0 1 0 6 1
0 0 2 0 0
0 0 0 15 6
0 0 0 10 12
_
_
_
_
II I
III 2I
21
_
_
_
_
0 1 0 6 1
0 0 2 0 0
0 0 0 15 6
0 0 0 0 16
_
_
_
_
IV +
2
3
III
4.3 Metodo per risolvere un sistema lineare quando la sua matrice
completa `e a scalini
Si scrive la matrice completa del sistema e si scrivono le incognite sopra essa. Supponiamo
che non ci siano pivots nellultima colonna della matrice completa. Chiamiamo incognite
corrispondenti ad un pivot quelle che stanno sopra un pivot e incognite non corrispondenti
ad un pivot le altre.
Sfruttando le equazioni, partendo dallultima, si scrivono le incognite corrispondenti ai pivots in
funzione di quelle non corrispondenti ai pivots.
Esempio. Consideriamo il seguente sistema lineare
_
_
_
x + 2y +z 2w u = 0
z w 3u = 1
w +u = 2
Scriviamo la matrice associata e scriviamo le incognite sopra la matrice
x y z w u
_
_
1 2 1 2 1 0
0 0 1 1 3 1
0 0 0 1 1 2
_
_
Le variabili che corrispondono ai pivots sono x, z, w, quelle che non corrispondono ai pivots sono
y, u.
Voglio scrivere le variabili che corrispondono ai pivots in funzione delle variabili che non corri-
spondono ai pivots.
Dallultima equazione w + u = 2 ricavo w in funzione di u (e quindi di y, u):
w = 2 u
Dalla penultima equazione z w 3u = 1 ricavo
z = w + 3u + 1
e, sostituendo lespressione gi`a trovata di w in funzione di y, u, ricavo anche z in funzione di
y, u:
z = 2 u + 3u + 1 = 3 + 2u
Dalla prima equazione ricavo
x = 2y z + 2w +u
da cui sostituendo lespressione gi`a trovate di w e z in funzione di y, u, ricavo anche x in funzione
di y, u:
x = 2y 3 2u + 4 2u +u = 2y 3u + 1
22
Quindi linsieme delle soluzioni del sistema lineare `e
_

_
_
_
_
_
_
_
2y 3u + 1
y
3 + 2u
u + 2
u
_
_
_
_
_
_
[ y, u R
_

_
che si pu` o anche scrivere
_

_
y
_
_
_
_
_
_
2
1
0
0
0
_
_
_
_
_
_
+u
_
_
_
_
_
_
3
0
2
1
1
_
_
_
_
_
_
+
_
_
_
_
_
_
1
0
3
2
0
_
_
_
_
_
_
[ y, u R
_

_
4.4 Metodo per risolvere un qualsiasi sistema lineare
Osservazione 54. Facendo operazioni elementari di riga sulla matrice completa di un sistema
lineare non si altera linsieme delle soluzioni.
Dimostrazione. Fare unoperazione elementare di riga di tipo I (scambio di due righe) sulla
matrice associata al sistema signica scambiare due equazioni del sistema e questo ovviamente
non altera linsieme delle soluzioni.
Fare unoperazione elementare di riga di tipo III (moltiplicare una riga per uno scalre non nullo)
sulla matrice associata al sistema signica moltiplicare entrambi i membri di unequazione del
sistema per uno scalare non nullo e questo ovviamente non altera linsieme delle soluzioni.
Inne fare unoperazione elementare di riga di tipo II (sommare ad una riga un multiplo di
unaltra riga) sulla matrice associata al sistema signica sommare ad unequazione un multiplo
di unaltra equazione (membro a membro) e questo non altera linsieme delle soluzioni.
Q.e.d.
Vediamo adesso come si risolve un sistema lineare qualsiasi.
Anzi tutto si scrive la matrice completa associata al sistema. Facendo operazioni elementari di
riga, si riduce la matrice completa del sistema in forma a scalini. Si risolve il sistema lineare
associato alla matrice cos` ottenuta; linsieme delle soluzioni `e uguale all insieme delle soluzioni
del sistema iniziale per lOsservazione 54.
Esempio Consideriamo il sistema lineare
_
_
_
y +z w u = 1
x + y +z 3w u = 0
2x + 2y + 3z 5w u = 1
Scriviamo la matrice associata al sistema
_
_
0 1 1 1 1 1
1 1 1 3 1 0
2 2 3 5 1 1
_
_
Riduciamo a scalini, facendo operazioni elementari di riga.
_
_
1 1 1 3 1 0
0 1 1 1 1 1
2 2 3 5 1 1
_
_
II
I
23
_
_
1 1 1 3 1 0
0 1 1 1 1 1
0 0 1 1 1 1
_
_
III 2I
Scriviamo le incognite sopra la matrice a scalini cos` ottenuta:
x y z w u
_
_
1 1 1 3 1 0
0 1 1 1 1 1
0 0 1 1 1 1
_
_
Ricaviamo adesso le variabili che corrispondono ai pivots, cio`e x, y, z in funzione di quelle che
non corrispondono ai pivots, cio`e w, u. Dallultima equazione ricaviamo
z = w u 1
Dalla seconda equazione ricaviamo
y = z +w +u + 1
da cui sostituendo
y = w +u + 1 +w +u + 1 = 2w + 2u + 2
Dalla prima equazione ricaviamo
x = y z + 3w +u
da cui sostituendo
x = 2w 2u 2 +w +u + 1 + 3w +u = 1 + 2w
Quindi linsieme del soluzioni `e
_

_
_
_
_
_
_
_
1 + 2w
2u + 2w + 2
u w 1
w
u
_
_
_
_
_
_
[ w, u R
_

_
Osservazione 55. Un sistema lineare omogeneo ha sempre una soluzione: quella nulla.
(Infatti un sistema linare omogeneo si pu` o scrivere nella forma Ax = 0 e 0 `e una soluzione infatti
A0 = 0.)
Osservazione 56. Un sistema lineare omogeneo con pi`u incognite che equazioni ha una soluzione
non nulla.
Dimostrazione.
Quando riduco la matrice completa a scalini, il numero dei pivots `e ovviamente minore o uguale
al numero delle righe che `e uguale al numero delle equazioni del sistema, il quale per ipotesi
`e minore del numero dell incognite. Quindi il numero dei pivots `e minore del numero delle
incognite. Pertanto ci sono necessariamente delle variabili non corrispondenti a pivots, quindi
assegnando dei valori non nulli ad esse ottengo una soluzione non nulla.
Q.e.d.
24
Osservazione 57. Un sistema lineare ha soluzione se e solo se, riducendo a scalini con operazioni
elementari di riga la matrice completa, non ci sono pivots nellultima colonna.
Dimostrazione. Basta dimostrare che un sistema lineare la cui matrice completa `e a scalini ha
soluzioni se e solo se non ci sono pivots nellultima colonna.
Ma questo `e ovvio in quanto se c`e un pivot nellultima colonna (chiamiamolo p) vuol dire che
nel sistema lineare c`e lequazione 0x
1
+ .... + 0x
n
= p, che ovviamente non ha soluzioni in
quanto p ,= 0. Viceversa se non ci sono pivots nellultima colonna allora trovo le soluzioni con il
metodo illustrato sopra.
Q.e.d.
Teorema 58. Teorema di struttura delle soluzioni di un sistema lineare
Sia A M(mn, K) e sia b K
m
.
Supponiamo che il sistema Ax = b abbia una soluzione.
Sia x una soluzione del sistema lineare Ax = b.
Allora x K
n
[ Ax = b = x +y[ y K
n
e Ay = 0
Dimostrazione.
Sia S
1
:= x K
n
[ Ax = b e S
2
:= x +y[ y K
n
e Ay = 0.
Dimostriamo anzitutto che S
2
S
1
.
Sia y K
n
tale che Ay = 0. Voglio dimostrare che x + y S
1
cio`e che A(x + y) = b. Per la
propriet`a distributiva del prodotto di matrici A(x +y) = Ax +Ay = b + 0 = b.
Dimostriamo adesso che S
1
S
2
.
Sia x S
1
. Occorre dimostrare che esiste y K
n
tale che Ay = 0 e x = x + y. Denisco
y = x x. Ovviamente Ay = 0, infatti Ay = A(x x) = Ax Ax = b b = 0.
Q.e.d.
25
4.5 Esercizi
Esercizio 1. Dire quale sono le soluzioni del seguente sistema nelle incognite x
1
, x
2
, x
3
, x
4
R:
_

_
x
1
+x
3
+x
4
= 2
2x
1
+x
2
+ 3x
3
= 4
x
1
+x
4
= 1
4x
1
+ 2x
2
= 2
Esercizio 2. Dire quale sono le soluzioni del seguente sistema nelle incognite x
1
, x
2
, x
3
, x
4
R:
_
_
_
x
2
+x
3
+x
4
= 1
x
2
+x
3
= 1
x
1
+x
2
+x
3
+x
4
= 1
Esercizio 3. Dire quale sono le soluzioni del seguente sistema nelle incognite x, y, z R al
variare del parametro h R:
_
_
_
x +z = h
2hx +hy +z = 0
2hx + 2hy = h + 1
Esercizio 4. Dire quale sono le soluzioni del seguente sistema nelle incognite x
1
, x
2
, x
3
R al
variare dei parametri t, s R:
_
_
_
tx
1
+ 2tx
2
= t
(2t + 1)x
2
+ (2t + 2)x
3
= t +s
tx
1
+x
2
+tx
3
= t s
Esercizio 5. Sia A M(m n, R) e b R
m
. Dimostrare che, se x
1
, x
2
, ..., x
n
sono soluzioni
di Ax = b allora

i=1,...,n
(1)
i+1
x
i
`e soluzione di Ax = 0 se n `e pari di Ax = b se n `e dispari.
26
5 Spazi vettoriali
5.1 Denizione e prime propriet`a
Denizione 59. Sia V un insieme dotato di due operazioni, una (detta somma) + : V V V ,
laltra (detta prodotto per scalari) : K V V .
Si dice che V `e uno spazio vettoriale su K se valgono le seguenti propriet`a:
1) (v +w) +u = v + (w +u) v, w, u V (propriet`a associativa della somma)
2) v +w = w +v v, w V (propriet`a commutativa della somma)
3) Esiste un elemento neutro per la somma, cio`e esiste un elemento z di V tale che z+v = v+z =
v v V . (Si pu` o dimostrare che tale elemento `e necessariamente unico, vedere losservazione
immediatamente seguente questa denizione; lo denoteremo quindi 0
V
e lo chiameremo zero di
V .)
4) Per ogni v V esiste un opposto, cio`e un elemento v

V tale che v +v

= v

+v = 0
V
5) ( +)v = v +v , K v V (propriet`a distributiva rispetto alla somma in K)
6) (v +w) = v +w K v, w V (propriet`a distributiva rispetto alla somma in V )
7) ()v = (v) , K v V
8) 1v = v v V
Osservazione 60. In ogni spazio vettoriale V esiste un solo elemento neutro per la somma.
Dimostrazione.
Siano z e z

due elementi neutri per la somma di V


Si ha che z +z

= z in quanto z

`e elemento neutro per la somma.


Inoltre si ha che z +z

= z

in quanto z `e elemento neutro per la somma.


Quindi z = z

, in quanto sono entrambi uguali a z +z

.
Q.e.d.
Osservazione 61. In ogni spazio vettoriale V si ha che
0
K
v = 0
V
v V
Dimostrazione.
Si ha:
0
K
v = (0
K
+ 0
K
)v = 0
K
v + 0
K
v
(la prima uguaglianza segue dal fatto che 0
K
+ 0
K
= 0
K
, la seconda segue dalla propriet`a 5
degli spazi vettoriali, cio`e la propriet`a distributiva rispetto alla somma in K).
Sia w un opposto di 0
K
v (esite per la propriet`a 4 degli spazi vettoriali). Sommando w al primo
membro e allultimo membro della catena di uguaglianze sopra, si ottiene
0
K
v +w = (0
K
v + 0
K
v) +w
e quindi, applicando la denizione di opposto al primo membro e la propriet`a 1 di spazio vettoriale
cio`e la propriet`a associativa della somma al secondo membro, ottengo
0
V
= 0
K
v + (0
K
v +w)
e quindi, per denizione di opposto,
0
V
= 0
K
v + 0
V
27
da cui
0
V
= 0
K
v
Q.e.d.
Osservazione 62. Per qualsiasi v V lelemento (1)v `e un opposto di v.
Dimostrazione.
(1)v +v = (1)v + 1v = (1 + 1)v = 0
K
v = 0
V
(la prima uguaglianza segue dalla propriet`a 8 degli spazi vettoriali, la seconda dalla propriet`a
distributiva rispetto alla somma in K, lultima dallosservazione precedente).
Q.e.d.
Osservazione 63. Per qualsiasi v V , esiste un solo opposto di v (e quindi per losservazione
precedente `e (1)v).
Dimostrazione.
Siano v

e v

due opposti di v, quindi v

+v = 0
V
e v

+v = 0
V
;
in particolare
v

+v = v

+v
Sommando ad entrambi i membri un opposto, w, di v , si ottiene
(v

+v) +w = (v

+v) +w
e quindi
v

+ (v +w) = v

+ (v +w)
Pertanto
v

+ 0
V
= v

+ 0
V
da cui v

= v

. Q.e.d.
Esempio basilare. Sia n N, n, 1; ; linsieme K
n
con le operazioni di somma e di prodotto
per uno scalare denite nel capitolo 1 `e uno spazio vettoriale.
Esempio basilare. Siano n, m N, n, m 1; linsieme M(m n, K) con le operazioni di
somma e di prodotto per uno scalare denite nel capitolo 1 `e uno spazio vettoriale.
Denizione 64. Gli elementi di uno spazio vettoriale si dicono vettori.
Denizione 65. Sia V uno spazio vettoriale. Siano v
1
, ..., v
k
V e
1
, ...,
k
K. Si denisce
combinazione lineare di v
1
, ..., v
k
con coecienti
1
, ...,
k
il vettore

1
v
1
+... +
k
v
k
5.2 Sottospazi vettoriali
Denizione 66. Sia V uno spazio vettoriale su K. Un sottospazio di V `e un sottoinsieme non
vuoto S di V tale che
v +w S v, w S (chiusura per la somma)
v S K, v S (chiusura per la moltiplicazione per scalari).
Esempio. Linsieme delle matrici simmetriche nn `e un sottospazio vettoriale dellinsieme delle
matrici n n, infatti la somma di due matrici simmetriche `e simmetrica e il prodotto fra uno
scalare e una matrice simmetrica `e ancora una matrice simmetrica.
28
Osservazione 67. Un sottospazio vettoriale S di uno spazio vettoriale V contiene 0
V
.
Dimostrazione.
Essendo un sottospazio, S `e non vuoto, quindi contiene un elemento v. Allora, per la propriet`a
di chiusura per la moltiplicazione per scalari, si deve avere che O
K
v S. Ma, per losservazione
61, si ha che O
K
v = 0
V
, quindi 0
V
S.
Q.e.d.
Osservazione 68. Un sottospazio vettoriale S di uno spazio vettoriale V con le operazioni di
somma e di prodotto per scalari ereditate da V `e lui stesso uno spazio vettoriale.
Proposizione 69. Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo.
Siano v
1
, ..., v
k
V . Linsieme delle combinazioni lineari di v
1
, ..., v
k
, cio`e

1
v
1
+ .... +
k
v
k
[
1
, ...,
k
K
`e un sottospazio vettoriale di V . (In genere `e denotato v
1
, ..., v
k
) e si legge span di v
1
, ...., v
k
.)
Dimostrazione.
Sia S =
1
v
1
+.... +
k
v
k
[
1
, ...,
k
K.
Ovviamente S `e non vuoto.
S `e chiuso per la somma, infatti sommando due elementi di S,
1
v
1
+ .... +
k
v
k
e
1
v
1
+
.... +
k
v
k
, si ottiene
(
1
v
1
+.... +
k
v
k
) + (
1
v
1
+.... +
k
v
k
)
che, per le propriet`a 1),2),5) degli spazi vettoriali, `e uguale a
(
1
+
1
)v
1
+.... + (
k
+
k
)v
k
che `e un elemento di S.
S `e chiuso per la moltiplicazione per scalari, infatti, moltiplicando un elemento di S,
1
v
1
+
.... +
k
v
k
, per uno scalare , si ottiene
(
1
v
1
+.... +
k
v
k
)
che, per le propriet`a 6) e 7) degli spazi vettoriali, `e uguale a
(
1
)v
1
+.... + (
k
)v
k
che `e un elemento di S.
Q.e.d.
Proposizione 70. Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo.
Siano v
1
, ..., v
k
V .
1) v
1
, ..., v
i1
, v
i
, v
i+1
, ..., v
j1
, v
j
, v
j+1
, ...., v
k
) = v
1
, ..., v
i1
, v
j
, v
i+1
, ..., v
j1
, v
i
, v
j+1
, ...., v
k
)
(cio`e il sottospazio non cambia cambiando lordine dei generatori)
2) v
1
, ..., v
i1
, v
i
, v
i+1
, ..., v
k
) = v
1
, ..., v
i1
, v
i
, v
i+1
, ...v
k
) K0 (cio`e il sottospazio
non cambia se moltiplico un generatore per uno scalare non nullo)
3) v
1
, ..., v
i1
, v
i
, v
i+1
, ..., v
j1
, v
j
, v
j+1
, ...., v
k
) = v
1
, ..., v
i1
, v
i
+v
j
, v
i+1
, ..., v
j1
, v
j
, v
j+1
, ...., v
k
)
K (cio`e il sottospazio non cambia se ad un generatore sommo un multiplo di un altro
generatore).
Dimostrazione. Per esercizio.
29
Proposizione 71. Linsieme delle soluzioni di un sistema lineare in n incognite `e un sottospazio
vettoriale di K
n
se e solo se il sistema lineare `e omogeneo.
Dimostrazione.
Scriviamo il nostro sistema lineare nella forma matriciale Ax = b.
Vogliamo dimostrare che S := x K
n
[ Ax = b `e un sottospazio vettoriale se e solo se b = 0.
Se S `e un sottospazio vettoriale allora deve contenere 0 quindi A0 = b quindi b = 0.
Viceversa se b = 0, S = x K
n
[ Ax = 0 ed `e un sottospazio vettoriale infatti:
`e non vuoto (infatti contiene 0, perch`e A0 = 0)
`e chiuso per la somma, infatti se x e x

S, quindi Ax = 0 e Ax

= 0, allora anche x+x

S
perch`e A(x +x

) = Ax +Ax

= 0 + 0 = 0.
`e chiuso per la moltiplicazione per scalari infatti se x S, quindi Ax = 0 e K allora anche
x S perch`e A(x) = Ax = 0 = 0.
Q.e.d.
5.3 Generatori, insiemi di vettori linearmente indipendenti, basi, dimen-
sione
Denizione 72. Sia V uno spazio vettoriale. Si dice che un insieme di vettori v
1
, ..., v
k
`e un
insieme di vettori linearmente dipendenti se esistono
1
, ...,
k
K non tutti nulli tali che

1
v
1
+... +
k
v
k
= 0
Denizione 73. Sia V uno spazio vettoriale. Si dice che un insieme di vettori v
1
, ..., v
k
`e un
insieme di vettori linearmente indipendenti se lunica loro combinazione lineare uguale a 0 `e
quella con tutti i coecienti uguali a 0.
Denizione 74. Sia V uno spazio vettoriale. Un insieme di vettori di V si dice un insieme di
generatori per V se ogni elemento di V `e una loro combinazione lineare.
Osservazione 75. Un sottoinsieme di un insieme di vettori linearmente indipendenti `e ancora
un insieme di vettori linearmente indipendenti
Dimostrazione. Laermazione `e ovvia, in quanto se avessi una combinazione lineare con coe-
cienti non tutti nulli del sottoinsieme di vettori, potrei facilmente trovare una combinazione con
coecienti non tutti nulli dellinsieme di vettori (basta prendere gli stessi coecienti per i vettori
del sottoinsieme e coecienti nulli per gli altri vettori).
Q.e.d.
Osservazione 76. Se v
1
, ..., v
k
`e un insieme di vettori dipendenti di V allora esiste i
1, ..., k tale che v
i
si pu` o scrivere come combinazione lineare di v
1
, ..., v
i1
, v
i+1
, ..., v
k
.
Dimostrazione.
Dato che v
1
, ..., v
k
sono un insieme di vettori linearmenti dipendenti, esistono
1
, ...,
k
K
non tutti nulli tali che

1
v
1
+.....
k
v
k
= 0
Supponiamo
i
,= 0. Allora
v
i
=

i
v
1
........

i1

1
v
i1


i+1

1
v
i+1
........

n

i
v
n
Q.e.d.
30
Denizione 77. Sia V uno spazio vettoriale. Un insieme di vettori di V si dice una base di V
se `e un insieme di vettori linearmente indipendenti che genera V .
Teorema 78. Sia V uno spazio vettoriale.
Sia v
1
, ..., v
k
un insieme di vettori indipendenti di V .
Sia w
1
, ..., w
s
un insieme di generatori di V .
Allora k s.
Dimostrazione. Dato che w
1
, ..., w
s
`e un insieme di generatori di V , esistono
i,j
K tali
che
v
i
=

j=1...s

i,j
w
j
per i = 1, ..., k.
Consideriamo la combinazione lineare

i=1,...,k
x
i
v
i
=

i=1,...,k
x
i

j=1,...,s

i,j
w
j
=

i=1,...,k

j=1,...,s
x
i

i,j
w
j
=
=

j=1,...,s

i=1,...,k
x
i

i,j
w
j
=

j=1,...,s
(

i=1,...,k
x
i

i,j
)w
j
Se per assurdo k > s allora il sistema lineare omogeneo nelle incognite x
i
dato dalle s equazioni:

i=1,...,k
x
i

i,j
= 0
per j = 1, ..., s ha una soluzione non nulla (x
1
, ..., x
k
) per losservazione 56.
Quindi si ottiene

i=1,...k
x
i
v
i
= 0
contraddicendo lipotesi per cui v
1
, ..., v
k
`e un insieme di vettori indipendenti di V . Quindi
k s.
Q.e.d.
Corollario 79. Sia V uno spazio vettoriale.
Siano v
1
, ..., v
k
e w
1
, ..., w
s
due basi di V .
Allora k = s.
Dato che due basi di uno stesso spazio vettoriale hanno la stessa cardinalit`a, per il corollario
appena enunciato, possiamo denire:
Denizione 80. Si dice dimensione di uo spazio vettoriale la cardinalit`a di una sua base.
Teorema 81. Completamento di vettori indipendenti ad una base. Dato un insieme di
vettori linearmente indipendenti v
1
, ..., v
k
in uno spazio vettoriale V di dimensione n, allora
k n, inoltre
se k = n allora v
1
, ..., v
k
`e una base di V ,
se invece k < n `e sempre possibile trovare v
k+1
, ..., v
n
tali che v
1
, ..., v
n
formano una base
di V .
31
Dimostrazione.
Il fatto che k n segue dal Teorema 78.
Per dimostrare la restante parte della tesi, premetto la seguente osservazione
Osservazione. Se v
1
, ..., v
k
non `e una base di V allora ovviamente v
1
, ..., v
k
) , = V e scegliendo
v
k+1
non contenuto in v
1
, ..., v
k
) si ottiene che v
1
, ..., v
k
, v
k+1
sono ancora indipendenti,
infatti:
supponiamo

i=1,...,k+1

i
v
i
= 0 per certi
i
K; vogliamo dimostrare
i
= 0 per i =
1, ..., k +1; si ha
k+1
= 0 (altrimenti v
k+1
sarebbe combinazione lineare dei precedenti) quindi
rimane

i=1,...,k

i
v
i
= 0 e siccome v
1
, ..., v
k
sono indipendenti segue
i
= 0 per i = 1, ..., k.
Quindi per losservazione, se k = n, v
1
, ..., v
k
`e una base di V (se non lo fosse otterrei un
insieme di k + 1 vettori indipendenti quindi, per il Teorema 78, si avrebbe k + 1 n, che `e
assurdo).
Se k < n allora v
1
, ..., v
k
non pu` o essere una base e quindi per lOsservazione posso trovare
un vettore v
k+1
tale che v
1
, ..., v
k
, v
k+1
sono ancora indipendenti.
Continuando in questo modo aggiungiamo n k vettori no a che non troviamo una base.
Q.e.d.
Teorema 82. Estrazione di una base da vettori generatori Se v
1
, ..., v
k
generano uno spazio
vettoriale V , si pu` o trovare un sottoinsieme di essi che forma una base di V .
Dimostrazione.
Se v
1
, ..., v
k
non `e gi`a una base, cio`e non sono indipendenti, per lOsservazione 76, esiste
un vettore dellinsieme v
1
, ..., v
k
che `e combinazione lineare dei rimanenti. Allora i rimanenti
formano ancora un insieme di generatori per V
(infatti supponiamo ad esempio che sia v
k
combinazione lineare di v
1
, .., v
k1
:
v
k
=

i=1,...,k1
c
i
v
i
per certi c
i
; sia v V ; dato che v
1
, ..., v
k
generano V , esistono
1
, ...,
k
tali che
v =

i=1,...,k

i
v
i
sostituendo a v
k
lespressione

i=1,...,k1
c
i
v
i
, si ottiene
v =

i=1,...,k1

i
v
i
+
k

i=1,...,k1
c
i
v
i
=

i=1,...,k1
(
i
+
k
c
i
)v
i
e quindi v `e combinazione lineare di v
1
, .., v
k1
; quindi v
1
, .., v
k1
sono generatori per V ).
Ripetendo il procedimento sui rimanenti, alla ne si arriva ad estrarre una base da v
1
, ..., v
k
.
Q.e.d.
Teorema 83. Sia S un sottospazio vettoriale di dimensione k di uno spazio vettoriale V di
dimensione n, allora k n.
Se k = n allora S = V .
32
Dimostrazione.
Sia v
1
, ..., v
k
una base di S. Essendo linearmente indipendenti in S sono anche linearmente
indipendenti in V , quindi, per il Teorema 108, k n.
Sempre per il Teorema 108, se k = n allora v
1
, ..., v
k
`e una base di V ; quindi, se v V ,
v pu` o essere scritto come combinazione lineare di v
1
, ..., v
k
e quindi, dato che v
1
, ..., v
k
sono
elementi di S e una combinazione lineare di elementi di S `e ancora un elemento di S (essendo
S un sottospazio vettoriale), si ha che v appartiene a S.
Q.e.d.
Proposizione 84. Sia V uno spazio vettoriale di dimensione n. Se v
1
, .., v
n
sono vettori
generatori di V , allora formano una base.
Dimostrazione.
Si pu` o estrarre da v
1
, .., v
n
una base. Essa deve essere costituita da n elementi, (dato V ha
dimensione n), quindi coincide con v
1
, .., v
n
.
Q.e.d.
5.4 Somma e somma diretta di sottospazi, la formula di Grassmann
Siano V e W due spazi vettoriali sullo stesso campo K. Sul prodotto cartesiano V W si
possone denire le operazioni
(v, w) + (v

, w

) := (v +v

, w +w

)
per ogni v, v

inV e per ogni w, w

W e
c(v, w) := (cv, cw)
per ogni v V , w W, c K. Si pu` o vericare facilmente che con tali operazioni V W `e
uno spazio vettoriale su K.
Proposizione 85.
dim(V W) = dim(V ) +dim(W)
Dimostrazione. Se v
1
, .., v
k
`e una base di V e w
1
, .., w
m
`e una base di W allora i k + m
elementi (v
i
, 0), (0, w
j
) V W per i = 1, ..., k, j = 1, ..., m formano una base di V W.
Q.e.d.
Esempio. R
n
xR
m
= R
n+m
Se A, B sono due sottospazi vettoriali di uno spazio vettoriale V , poniamo
A +B := a +b[ a A, b B
Proposizione 86. Siano A, B due sottospazi vettoriali di uno spazio vettoriale V , A +B `e un
sottospazio vettoriale di V .
A +B si dice sottospazio somma di A e B.
Teorema 87. Formula di Grassmann. Se A, B sono due sottospazi di dimensione nita di
uno spazio vettoriale V , vale
dim(A +B) +dim(A B) = dim(A) +dim(B)
33
Dimostrazione. Sia v
1
, .., v
k
una base di A B. La possiamo estendere ad una base di A:
v
1
, .., v
k
, u
1
, ..., u
t
e ad una base di B: v
1
, .., v
k
, w
1
, ..., w
s
. Quindi dim(A) = k + t e
dim(B) = k +s Vogliamo dimostrare che
dim(A +B) = dim(A) +dim(B) dim(A B)
quindi che
dim(A +B) = k +t +k +s k = k +t +s
Per dimostrare questo dimostreremo che v
1
, .., v
k
, u
1
, ..., u
t
, w
1
, ..., w
s
`e una base di A +B.
Dimostriamo anzitutto che `e un insieme di generatori di A+B: per ogni elemento v di A+B,
esiste a A e b B tali che v = a+b; ovviamente a, essendo un elemento di A, si pu` o scrivere
come combinazione lineare degli elementi della base di A v
1
, .., v
k
, u
1
, ..., u
t
e, analogamente,
b si pu` o scrivere come combinazione lineare degli elementi della base di B v
1
, .., v
k
, w
1
, ..., w
s
;
quindi v = a +b sar`a combinazione lineare di v
1
, .., v
k
, u
1
, ..., u
t
, w
1
, ..., w
s
.
Dimostriamo adesso che v
1
, .., v
k
, u
1
, ..., u
t
, w
1
, ..., w
s
sono linearmente indipendenti. Siano

1
, ...,
k
,
1
, ...,
t
,
1
, ...,
s
K tali che

1
v
1
+... +
k
v
k
+
1
u
1
+... +
t
u
t
+
1
w
1
+... +
s
w
s
= 0 (1)
Quindi si ha:

1
v
1
...
k
v
k

1
u
1
...
t
u
t
=
1
w
1
+... +
s
w
s
(2)
Il secondo membro appartiene a B, il primo a A; quindi entrambi appartengono a A B. In
particolare il secondo membro, appartenendo a AB si pu` o scrivere come combinazione lineare
degli elementi di v
1
, ..., v
k
che `e appunto una base di AB. Quindi esistono
1
, ...,
k
tali che

1
w
1
+... +
s
w
s
=
1
v
1
+... +
k
v
k
da cui

1
w
1
+... +
s
w
s

1
v
1
...
k
v
k
= 0 (3)
Dato che v
1
, ..., v
k
, w
1
, ..., w
s
sono indipendenti (formando una base di B), dalluguaglianza 3 si
pu` o dedurre che
1
= ... =
s
=
1
= ... =
k
= 0. Dalluguaglianza (2) si pu` o quindi dedurre
che

1
v
1
...
k
v
k

1
u
1
...
t
u
t
= 0
Dato che v
1
, ..., v
k
, u
1
, ..., u
t
sono indipendenti (formando una base di A), si pu` o dedurre che

1
= ... =
k
=
1
= ... =
t
= 0 quindi tutti i coecienti di (1) sono nulli e quindi
v
1
, .., v
k
, u
1
, ..., u
t
, w
1
, ..., w
s
sono linearmente indipendenti. Q.e.d.
5.5 Dimensione di M(mn, K) e di K
d
[x]
Osservazione 88. La dimensione di M(mn, K) `e mn.
Dimostrazione. Sia E
i,j
la matrice mn con il coeciente i, j uguale a 1 e tutti gli altri nulli.
Linsieme E
i,j

i=1,...,m, j=1,...,n
`e una base di M(m n, K), infatti se A M(m n, K) si
ha
A =

i=1,...,m, j=1,...,n
a
i,j
E
i,j
quindi linsieme E
i,j

i=1,...,m, j=1,...,n
`e un insiem di generatori per M(mn, K) e si dimostra
anche facilmente che sono indipendenti.
Q.e.d.
34
Notazione 89. Sia K
d
[x] linsieme dei polinomi in x a coecienti in K di grado minore o uguale
a d, cio`e
a
0
+a
1
x +.... +a
d
x
d
[ a
0
, ..., a
d
K
E uno spazio vettoriale con la usuale somma di polinomi e prodotto per uno scalare.
Osservazione 90. La dimensione di K
d
[x] `e d + 1.
Dimostrazione.
Linsieme 1, x, ..., x
d
`e una base di K
d
[x].
Q.e.d.
5.6 Un esempio fondamentale: lo spazio generato dalle colonne di una
matrice (range) e lo spazio generato dalle righe
Sia A una matrice mn a coecienti in K. Ad essa si possono associare due spazi vettoriali:
il sottospazio di K
m
generato dalle colonne di A (che a volte viene chiamto range di A)
A
(1)
, ..., A
(n)
)
e il sottospazio di K
n
generato dalle righe di A
A
(1)
, ..., A
(m)
)
Ovviamente questi due spazi non sono uguali, ma in seguito dimostreremo che, sorpendente-
mente, la loro dimensione `e la stessa (e chiameremo tale numero rango della matrice).
Esempio. Sia
A =
_
_
3 0 3 3
0 1 2 1
0 2 4 2
_
_
Lo spazio generato dalle colonne `e il seguente sottospazio di R
3
:
_
_
_
3
0
0
_
_
,
_
_
0
1
2
_
_
,
_
_
3
2
4
_
_
,
_
_
3
1
2
_
_
_
=
_
_
_
3
0
0
_
_
,
_
_
0
1
2
_
_
_
=
=
_
_
_
t
_
_
3
0
0
_
_
+s
_
_
0
1
2
_
_
[ t, s K
_
_
_
Quindi per esempio
_
_
3
3
6
_
_
appartiene a tale spazio.
Lo spazio generato dalle righe `e il seguente sottospazio di R
4
:
_
_
_
_
_
3
0
3
3
_
_
_
_
,
_
_
_
_
0
1
2
1
_
_
_
_
,
_
_
_
_
0
2
4
2
_
_
_
_
_
=
_
_
_
_
_
3
0
3
3
_
_
_
_
,
_
_
_
_
0
1
2
1
_
_
_
_
_
=
35
=
_

_
t
_
_
_
_
3
0
3
3
_
_
_
_
+s
_
_
_
_
0
1
2
1
_
_
_
_
[ t, s K
_

_
Quindi per esempio
_
_
_
_
3
1
1
4
_
_
_
_
appartiene a tale spazio.
Osservazione 91. Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne.
Dimostrazione. Segue immediatamente dalla Proposizione 70.
Q.e.d.
Osservazione 92. Sia A M(mn, K) e B M(n k, K).
Allora lo spazio generato dalle colonne di AB `e contenuto nello spazio generato dalle colonne di
A.
Inoltre lo spazio generato dalle righe di AB `e contenuto nello spazio generato dalle righe di B.
Riprenderemo nel capitolo 5 lo studio dello spazio generato dalle colonne di una matrice e dello
spazio generato dalle righe; in particolare studieremo la loro dimensione (detta rango).
36
5.7 Esercizi
Esercizio 1. i) Vericate che i tre seguenti vettori costituiscono una base di R
3
:
v
1
=
_
_
1
0
2
_
_
, v
2
=
_
_
0
5
0
_
_
, v
3
=
_
_
2
0
2
_
_
ii) Esprimete il vettore v =
_
_
0
45
7
_
_
come combinazione lineare di v
1
, v
2
, v
3
.
Esercizio 2. i) Dimostrare che
B =
__
1 1
0 0
__
0 1
0 1
__
0 0
1 1
__
1 0
0 0
__
`e una base di M(2 2, R).
ii) Esprimere
_
2 3
0 2
_
come combinazione lineare degli elementi di B.
Esercizio 3. Sia S il seguente sottoinsieme di R
3
:
S = (ab, b, 0) : a, b R.
S `e un sottospazio vettoriale di R
3
? Motivare la risposta.
Esercizio 4. Dimostrare che linsieme delle matrici simmetriche n n a coecienti in R
costituisce un sottospazio vettoriale di M(n n, R) di dimensione
n
2
+n
2
.
Esercizio 5. Sia S = A M(2 2, R)[
t
A + 2A = 0.
`
E un sottospazio vettoriale di
M(2 2, R)? Se s`, calcolarne la dimensione.
Esercizio 6. Dire se il seguente sottoinsieme di R
3
`e un sottospazio vettoriale di R
3
:
S = (t
2
, s, 0) : t, s R.
Esercizio 7. Siano v
1
, ...., v
k
C
n
. Dite quali implicazioni valgono fra le seguenti aermazioni:
a) v
1
, ...., v
k
sono vettori linearmente indipendenti su C (cio`e sono vettori linearmente indipen-
denti di C
n
spazio vettoriale su C)
b) v
1
, ...., v
k
sono vettori linearmente indipendenti su R (cio`e sono vettori linearmente indipen-
denti di C
n
spazio vettoriale su R)
Esercizio 8. Dire se f R
2
[x][f(1) + f(2) = 0 `e un sottospazio vettoriale di R
2
[x] ed
eventualmente calcolarne la dimensione e trovarne una base.
Eserczio 9. Siano a, b R.
Dire per quali valori dei parametri a, b linsieme
S
a,b
:=
_
_
_
_
x
y
z
w
_
_
_
_
[ x +by +az = b
2
1, y +abw = b 1
37
`e un sottospazio vettoriale di R
4
. e per tali valori trovarne una base.
Esercizio 10. Dire per quali valori del parametro h R il vettore (1, 1, h) appartiene al
sottospazio di R
3
generato dai vettori (h
2
, 0, 1), (0, h +h
3
, 0), (0, h, 1).
Esercizio 11. Sia A la seguente matrice 3 3:
_
_
1 1 0
0 1 1
0 0 1
_
_
Calcolate la dimensione di B M(3 3)[ AB = BA Deducete da ci` o che, se B `e tale che
BA = AB, allora B pu` o essere scritto come combinazione lineare di I A A
2
.
Esercizio 12. Dire se ciascuno di questi sottoinsiemi `e un sottospazio vettoriale. Inoltre se lo
`e indicare una sua base, se non lo `e dare un controsempio o alla chiusura per la somma o alla
chiusura per il prodotto per uno scalare.
/ =
_

_
_
_
_
_
x
y
z
w
_
_
_
_
R
4
[ y +z = 0
_

_
B =
__
a b a b
a +b a +b
_
[ a, b R
_
( = v R
3
[ (v, w) < 0 dove w =
_
_
1
0
2
_
_
e ( , ) `e il prodotto scalare.
38
6 Applicazioni lineari
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale
Denizione 93. Siano V e W due spazi vettoriali su K. Si dice che f : V W `e una funzione
lineare se e solo se valgono le seguenti propriet`a:
a) f(v
1
+v
2
) = f(v
1
) +f(v
2
) v
1
, v
2
V (additivit`a)
b) f(v) = f(v) v V , K (omogeneit`a)
Denizione 94. Siano V e W due spazi vettoriali su K e sia f : V W una funzione lineare.
Si denisce nucleo (in inglese kernel) di f il seguente sottoinsieme di V :
Ker(f) = v V [ f(v) = 0
Si denisce immagine di f il seguente sottoinsieme di W:
Im(f) = w W[ v V t.c. f(v) = w = f(v)[ v V
Osservazione 95. Siano V e W due spazi vettoriali su K e sia f : V W una funzione lineare.
Allora f(0
V
) = 0
W
.
Dimostrazione. f(0
V
) = f(0
K
0
V
) = 0
K
f(0
V
) = 0
W
Q.e.d.
Osservazione 96. Siano V e W due spazi vettoriali su K e sia f : V W una funzione lineare.
Allora Ker(f) `e un sottospazio vettoriale di V e Im(f) `e un sottospazio vettoriale di W.
Dimostrazione. Siano v
1
e v
2
due elementi di Ker(f), quindi f(v
1
) = 0
W
e f(v
2
) = 0
W
.
Vogliamo dimostrare che v
1
+v
2
Ker(f), cio`e che f(v
1
+v
2
) = 0
W
. Dato che f `e lineare si
ha
f(v
1
+v
2
) = f(v
1
) +f(v
2
) = 0
W
+ 0
W
= 0
W
Sia v Ker(f), quindi f(v) = 0
W
e K, devo dimostrare che v Ker(f), cio`e che
f(v) = 0
W
. Dato che f `e lineare,
f(v) = f(v) = 0
W
= 0
W
Q.e.d.
Osservazione 97. Siano V e W due spazi vettoriali su K e sia f : V W una funzione lineare.
Allora f `e iniettiva se e solo se Ker(f) = 0
V
.
Dimostrazione. Ricordo che f `e iniettiva se e solo se f(v
1
) = f(v
2
) implica v
1
= v
2
, cio`e se e
solo se limmagine inversa f
1
(w) di un qualsiasi elemento w di Im(f) `e costituita solo da un
elemento.
Supponiamo che f sia iniettiva; in particolare f
1
(0
W
), che contiene sicuramente 0
V
, pu` o
contenere solo 0
V
, quindi f
1
(0
W
) = 0
V
, ma f
1
(0
W
) `e Ker(f), quindi Ker(f) = 0
V
.
Supponiamo che Ker(f) = 0
V
. Voglio dimostrare che se v
1
e v
2
sono due elementi di V e
f(v
1
) = f(v
2
) allora v
1
= v
2
. Dato che f(v
1
) = f(v
2
) si ha che f(v
1
) f(v
2
) = 0
W
e quindi,
dato che f `e lineare, f(v
1
v
2
) = 0
W
. Quindi v
1
v
2
Ker(f). Dato che Ker(f) = 0
V
,
si deve avere v
1
v
2
= 0
V
. Quindi v
1
= v
2
.
Q.e.d.
Teorema 98. . Relazione fondamentale. Siano V e W due spazi vettoriali su K con dim V <
+. Sia f : V W una funzione lineare. Allora
dim Ker(f) +dim Im(f) = dim V
39
Dimostrazione.
Siano k = dim Ker(f), n = dim V . Ovviamente k n; possiamo supporre k < n. Sia
v
1
, .., v
k
una base di Ker(f); completiamola ad una base di V v
1
, .., v
k
, v
k+1
, ..., v
n
. Voglia-
mo dimostrare che dim Im(f) = nk. Basta dimostrare che gli nk vettori f(v
k+1
), .., f(v
n
)
formano una base di Im(f).
Dimostriamo anzitutto che f(v
k+1
), .., f(v
n
) generano Im(f). Sia w Im(f); allora esiste
v in V tale che w = f(v). Siccome v
1
, .., v
n
`e una base di V , esistono
i
K tali che
v =

i=1,...,n

i
v
i
Pertanto
w = f(v) = f(

i=1,...,n

i
v
i
)
f lineare
=

i=1,...,n

i
f(v
i
)
f(vi)=0 per i=1,...,k
=

i=k+1,...,n

i
f(v
i
)
come volevamo.
Dimostriamo adesso che f(v
k+1
), .., f(v
n
) sono linearmente indipendenti.
Siano
i
K per i = k + 1, ..., n tali che

i=k+1,...,n

i
f(v
i
) = 0
Allora, per la linearit`a di f,
f(

i=k+1,...,n

i
v
i
) = 0
e quindi

i=k+1,...,n

i
v
i
appartiene a Ker(f) e quindi si pu` o scrivere come combinazione
lineare di v
1
, .., v
k
. Pertanto esistono coecienti reali
j
, j = 1, ..., k, tali che

i=k+1,...,n

i
v
i
=

j=1,...,k

j
v
j
da cui

i=k+1,...,n

i
v
i

j=1,...,k

j
v
j
= 0
Dato che v
1
, ...., v
n
sono linearmente indipendenti, otteniamo che tutti i coecienti della com-
binazione lineare sopra sono nulli, in particolare
i
= 0 per i = k + 1, ..., n come volevamo.
Q.e.d.
Proposizione 99. Siano V e W due spazi vettoriali su K e sia v
1
, .., v
n
una base di V . Siano
f, g due funzioni lineari. Se f(v
i
) = g(v
i
) per i = 1, ..., n, allora f = g.
Dimostrazione.
Sia v un qualsiasi elemento di V . Voglio vedere che f(v) = g(v). Dato che v
1
, .., v
n
`e una
base di V , esistono
1
, ...,
n
K tali che v =

i=1,...,n

i
v
i
. Dato che f `e lineare
f(v) = f(

i=1,...,n

i
v
i
) =

i=1,...,n

i
f(v
i
)
Analogamente
g(v) = g(

i=1,...,n

i
v
i
) =

i=1,...,n

i
g(v
i
)
ma, dato che f(v
i
) = g(v
i
) per i = 1, ..., n, le due espressioni coincidono. Quindi f(v) = g(v).
Q.e.d.
40
Proposizione 100. Siano V e W due spazi vettoriali su K e sia v
1
, .., v
n
una base di V e
siano w
1
, ...w
n
degli elementi di W. Allora esiste una e una sola applicazione lineare f : V W
tale che f(v
i
) = w
i
per i = 1, ..., n.
Inoltre se w
1
, ..., w
n
`e una base di W, allora f `e bigettiva.
Dimostrazione. Lunicit`a segue dalla proposizione precedente, quindi occorre solo dimostra-
re lesistenza. Denisco f nel modo seguente: un qualsiasi v V pu` o essere scritto come
combinazione lineare di v
1
, ..., v
n
, cio`e esistono
1
, ...,
n
K, tali che v =

i=1,...,n

i
v
i
;
denisco
f
_
_

i=1,...,n

i
v
i
_
_
:=

i=1,...,n

i
w
i
Ovviamente f(v
i
) = w
i
per i = 1, ..., n. Va dimostrato che f `e lineare. Dimostriamo ladditivit`a:
siano v =

i=1,...,n

i
v
i
e v

i=1,...,n

i
v
i
. Allora
f(v +v

) = f
_
_

i=1,...,n

i
v
i
+

i=1,...,n

i
v
i
_
_
= f
_
_

i=1,...,n
(
i
+

i
)v
i
_
_
=

i=1,...,n
(
i
+

i
)w
i
dove lultima uguaglianza vale per la denizione di f. Dimostriamo adesso lomogeneit`a. Sia
v =

i=1,...,n

i
v
i
e K. Allora
f(v) = f
_
_

i=1,...,n

i
v
i
_
_
= f
_
_

i=1,...,n
(
i
)v
i
_
_
=

i=1,...,n
(
i
)w
i
dove lultima uguaglianza vale per la denizione di f.
Dimostriamo adesso che se w
1
, ..., w
n
`e una base di W, allora f `e bigettiva.
Dimostriamo anzitutto che `e iniettiva. Siano v =

i=1,...,n

i
v
i
e v

i=1,...,n

i
v
i
. Voglio
dimostrare che, se f(v) = f(v

), allora v = v

. Se f(v) = f(v

), allora
f
_
_

i=1,...,n

i
v
i
_
_
= f
_
_

i=1,...,n

i
v
i
_
_
cio`e, per come abbiamo denito f,

i=1,...,n

i
w
i
=

i=1,...,n

i
w
i
quindi

i=1,...,n
(
i

i
)w
i
= 0
da cui, essendo w
1
, ..., w
n
una base di W e quindi un insieme di vettori indipendenti, si ha

i
= 0 i = 1, ..., n. Quindi v = v

.
Dimostriamo adesso che f `e surgettiva. Sia w W. Voglio dimostrare che appartiene al-
limmagine di f. Dato che w
1
, ..., w
n
`e una base di W, esistono
1
, ..,
n
K, tali che
w =

i=1,..,n

i
w
i
. Allora ovviamente, per come abbiamo denito f,
f
_
_

i=1,..,n

i
v
i
_
_
=

i=1,..,n

i
w
i
= w
quindii w appartiene allimmagine di f. Q.e.d.
41
6.2 Isomorsmi
Osservazione 101. Siano V e W due spazi vettoriali su un campo K e sia f : V W una
applicazione lineare bigettiva. Allora lapplicazione f
1
: W V `e lineare.
Dimostrazione. Dimostriamo anzitutto ladditivit`a di f
1
. Siano w
1
, w
2
W. Vogliamo
dimostrare che
f
1
(w
1
+w
2
) = f
1
(w
1
) +f
1
(w
2
)
Dato che f `e iniettiva basta dimostrare che
f(f
1
(w
1
+ w
2
)) = f(f
1
(w
1
) +f
1
(w
2
))
Ovviamente
f(f
1
(w
1
+w
2
)) = w
1
+w
2
e, dato che f `e lineare
f(f
1
(w
1
) +f
1
(w
2
)) = f(f
1
(w
1
)) +f(f
1
(w
2
)) = w
1
+w
2
Dimostriamo adesso lomogeneit`a di f
1
. Siano w W e K. Vogliamo dimostrare che
f
1
(w) = f
1
(w)
Dato che f `e iniettiva basta dimostrare che
f(f
1
(w)) = f(f
1
(w))
Il primo membro `e ovviamente uguale a w. Il secondo membro, dato che f `e lineare, `e uguale
a
f(f
1
(w)) = w
Q.e.d.
Denizione 102. Siano V e W due spazi vettoriali su un campo K. Un isomorsmo da V a
W `e una applicazione lineare bigettiva f : V W.
Due spazi vettoriali V e W su uno stesso campo K si dicono isomor se esiste un isomorsmo
fra V e W.
Osservazione 103. Sia V uno spazio vettoriale su un campo K di dimensione n. Sia W uno
spazio vettoriale su un campo K di dimensione m. Gli spazi V e W sono isomor se e solo se
n = m.
Dimostrazione. Segue subito dalla Relazione fondamentale per le applicazioni lineari, infatti:
sia f : V W un isomorsmo; dato che f iniettiva, la dimensione di Ker(f) `e 0 e, dato
che f `e anche surgettiva, Im(f) = W; quindi, per la Relazione Fondamentale, si ha che
dim(V ) = dim(W).
Sia v
1
, ..., v
n
una base di V e w
1
, ..., w
n
una base di w. Sia f lunica applicazione lineare
da V in W tale che f(v
i
) = w
i
i = 1, ..., n (esiste per la Proposizione 100). Per la seconda
parte della Proposizione 100, f `e una bigezione. Q.e.d.
42
6.3 Applicazioni lineari associate a matrici
Denizione 104. Sia A M(m n, K). Denisco lapplicazione associata ad A come
lapplicazione
f
A
: K
n
K
m
denita nel modo seguente:
f
A
(x) = Ax
per qualsiasi x K
n
.
Osservazione 105. f
A
`e lineare.
Dimostrazione.
a) (additivit`a) f
A
(x +y) = A(x +y)
prop. 2 prod. matrici
= Ax +Ay = f
A
(x) +f
A
(y)
b) (omogeneit`a) f
A
(x) = A(x)
prop 4 prod. matrici
= Ax = f
A
(x)
Q.e.d.
Proposizione 106. Sia f : K
n
K
m
lineare; allora esiste A M(mn, K) tale che f = f
A
.
Dimostrazione.
Sia A la matrice che ha come colonne rispettivamente f(e
1
),..., f(e
n
).
Voglio dimostrare che f = f
A
.
Per la Prop. 99 basta dimostrare che f(e
j
) = f
A
(e
j
) j = 1, ..., n.
Ma questo `e ovvio in quanto f
A
(e
j
) `e Ae
j
cio`e la j-esima colonna di A, che, per come si `e
denita A, `e proprio f(e
j
).
Q.e.d.
Osservazione 107. Sia A M(m n, K). Allora limmagine di f
A
`e generata dalle colonne
di A.
Dimostrazione.
Im(f
A
) = f
A
(x)[ x K
n
= Ax[ x K
n
= A
(1)
x
1
+ ... + A
(n)
x
n
[ x
1
, ..., x
n
K =
A
(1)
, ..., A
(n)
)
Q.e.d.
6.4 Matrici associate ad applicazioni lineari
Siano V e W due spazi vettoriali di dimensione nita. Sia T = p
1
, ..., p
n
una base ordinata
di V e / = a
1
, ..., a
m
una base ordinata di W.
Sia f : V W unapplicazione lineare.
Siano m
i,j
K per i = 1, ..., m, j = 1, ..., n, cos` deniti:
f(p
j
) =

i=1,...,m
m
i,j
a
i
Si denisce matrice associata a f nelle basi ordinate T ed /, e si denota M
A,P
(f), la matrice
mn cos` denita
(M
A,P
(f))
i,j
= m
i,j
Esempio. Sia f : R
3
R
4
lapplicazione lineare cos`denita:
f
_
_
x
y
z
_
_
=
_
_
_
_
x + 2z
3z x
y +x
2y
_
_
_
_
43
i) Sia c = e
1
, e
2
, e
3
la base canonica di R
3
e sia c

= E
1
, E
2
, E
3
, E
4
la base canonica di
R
4
. Ovviamente
f(e
1
) =
_
_
_
_
1
1
1
0
_
_
_
_
= E
1
E
2
+E
3
f(e
2
) =
_
_
_
_
0
0
1
2
_
_
_
_
= E
3
+ 2E
4
f(e
3
) =
_
_
_
_
2
3
0
0
_
_
_
_
= 2E
1
+ 3E
2
.
Quindi
M
E

,E
(f) =
_
_
_
_
1 0 2
1 0 3
1 1 0
0 2 0
_
_
_
_
ii) Sia T =
_
_
_
_
_
1
1
0
_
_
,
_
_
0
0
1
_
_
,
_
_
2
1
0
_
_
_
_
_
e sia / =
_

_
_
_
_
_
0
1
1
0
_
_
_
_
,
_
_
_
_
0
1
0
0
_
_
_
_
,
_
_
_
_
0
0
0
1
_
_
_
_
,
_
_
_
_
2
0
1
0
_
_
_
_
_

_
.
Si calcola facilmente
f
_
_
1
1
0
_
_
=
_
_
_
_
1
1
0
2
_
_
_
_
=
1
2
_
_
_
_
0
1
1
0
_
_
_
_

1
2
_
_
_
_
0
1
0
0
_
_
_
_
2
_
_
_
_
0
0
0
1
_
_
_
_

1
2
_
_
_
_
2
0
1
0
_
_
_
_
f
_
_
0
0
1
_
_
=
_
_
_
_
2
3
0
0
_
_
_
_
= 1
_
_
_
_
0
1
1
0
_
_
_
_
+ 2
_
_
_
_
0
1
0
0
_
_
_
_
+ 0
_
_
_
_
0
0
0
1
_
_
_
_
+ 1
_
_
_
_
2
0
1
0
_
_
_
_
f
_
_
2
1
0
_
_
=
_
_
_
_
2
2
3
2
_
_
_
_
= 4
_
_
_
_
0
1
1
0
_
_
_
_
+ 2
_
_
_
_
0
1
0
0
_
_
_
_
+ 2
_
_
_
_
0
0
0
1
_
_
_
_
1
_
_
_
_
2
0
1
0
_
_
_
_
Quindi
M
A,P
(f) =
_
_
_
_
1
2
1 4

1
2
2 2
2 0 2

1
2
1 1
_
_
_
_
Teorema 108. 1) Siano V, W, U tre spazi vettoriali su un campo K di dimensione nita e siano
T,B,/ basi ordinate rispettivamente di V, W, U.
Siano f : V W e g : W U due applicazioni lineari. Allora
M
A,P
(g f) = M
A,B
(g) M
B,P
(f)
44
2) Siano V e W due spazi vettoriali sullo stesso campo e siano T e T

due basi di V e / e /

due basi di W.
Sia f : V W unapplicazione lineare. Allora
M
A

,P
(f) = M
A

,A
(I
W
) M
A,P
(f) M
P,P
(I
V
)
Dimostrazione. 1) Per semplicit`a di notazione denotiamo
G = M
A,B
(g) F = M
B,P
(f)
Siano inoltre
T = p
1
, ..., p
m
B = b
1
, ..., b
k
/ = a
1
, ..., a
n

La j-esima colonna di M
A,P
(gf), per denizione di matrice associata ad unapplicazione lineare
in certe basi, ha come coecienti i coecienti di (g f)(p
j
) rispetto alla base / = a
1
, ..., a
n
.
Calcoliamo quindi (g f)(p
j
).
(g f)(p
j
) = g(f(p
j
)) = g
_
_

i=1,...,k
F
i,j
b
i
_
_
=

i=1,...,k
F
i,j
g(b
i
) =
=

i=1,...,k
F
i,j
_

t=1,...,n
G
t,i
a
t
_
==

i=1,...,k
_

t=1,...,n
F
i,j
G
t,i
a
t
_
=

t=1,...,n
_
_

i=1,...,k
G
t,i
F
i,j
_
_
a
t
=

t=1,...,n
(GF)
t,j
a
t
Quindi i coecienti di (g f)(p
j
) rispetto alla base / = a
1
, ..., a
n
sono proprio i coecienti
della j-esima colonna di GF, quindi la j-esima colonna di M
A,P
(g f) `e la la j-esima colonna
di GF. Quindi M
A,P
(g f) `e GF, cio`e M
A,B
(g)M
B,P
(f).
2) Segue immediatamente da 1, infatti
f = I
W
f I
V
quindi
M
A

,P
(f) = M
A

,P
(I
W
f I
V
)
Il secondo membro, per la parte 1, `e uguale a
M
A

,P
(I
W
f)M
P,P
(I
V
)
che, applicando ancora la parte 1, `e uguale a
M
A

,A
(I
W
)M
A,P
(f)M
P,P
(I
V
)
Q.e.d.
Corollario 109. 1) Sia V uno spazio vettoriale su un campo K di dimensione nita n e siano
B e B

due basi ordinate.


Allora
M
B,B
(I
V
) = M
B

,B
(I
V
)
1
Infatti, per il teorema precedente,
M
B,B
(I
V
)M
B

,B
(I
V
) = M
B,B
(I
V
) = I
n
45
Esempio. Nellesempio precedentemente illustrato, si poteva calcolare M
A,P
(f) a partire da
M
E

,E
(f) sfruttando la formula della parte 2 del Teorema 108. Tale formula in questo caso
diventa
M
A,P
(f) = M
A,E
(I
R
4 ) M
E

,E
(f) M
E,P
(I
R
3 )
Si calcola facilmente
M
E,P
(I
R
3 ) =
_
_
1 0 2
1 0 1
0 1 0
_
_
M
A,E
(I
R
4 ) =
_
_
_
_

1
2
0 1 0

1
2
1 1 0
0 0 0 1
1
2
0 0 0
_
_
_
_
Quindi
M
A,P
(f) = M
A,E
(I
R
4 ) M
E

,E
(f) M
E,P
(I
R
3 ) =
=
_
_
_
_

1
2
0 1 0

1
2
1 1 0
0 0 0 1
1
2
0 0 0
_
_
_
_
_
_
_
_
1 0 2
1 0 3
1 1 0
0 2 0
_
_
_
_
_
_
1 0 2
1 0 1
0 1 0
_
_
=
_
_
_
_
1
2
1 4

1
2
2 2
2 0 2

1
2
1 1
_
_
_
_
46
6.5 Esercizi
Esercizio 1. i) Dimostrare che
v
1
=
_
_
_
_
0
5
0
1
_
_
_
_
, v
2
=
_
_
_
_
1
2
0
0
_
_
_
_
, v
3
=
_
_
_
_
1
0
1
0
_
_
_
_
, v
4
=
_
_
_
_
2
10
0
2
_
_
_
_
cosituiscono una base di R
4
.
ii) Sia f lapplicazione lineare da R
4
a R
3
tale che
f(v
1
) =
_
_
0
1
1
_
_
, f(v
2
) =
_
_
0
1
1
_
_
, f(v
3
) =
_
_
1
2
0
_
_
, f(v
4
) =
_
_
0
0
4
_
_
Calcolare f
_
_
_
_
2
2
0
0
_
_
_
_
.
Esercizio 2. Sia f : R
4
R
4
lapplicazione lineare tale che
f
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
5x
1
x
2
+x
3
+ 6x
4
x
2
+ 2x
3
+ 7x
4
x
1
_
_
_
_
Trovare
i) una base del nucleo
ii) una base dellimmagine
Esercizio 3. a) Dire se esiste unapplicazione lineare g : R
3
R
3
tale che
g
_
_
0
1
1
_
_
=
_
_
1
1
1
_
_
, g
_
_
2
0
0
_
_
=
_
_
4
1
0
_
_
, g
_
_
0
0
1
_
_
=
_
_
17
1
8
_
_
e, se esiste, dire se `e unica.
b) Dire se esiste unapplicazione lineare h : R
3
R
3
tale che
h
_
_
0
1
1
_
_
=
_
_
1
1
1
_
_
, h
_
_
0
2
4
_
_
=
_
_
4
1
0
_
_
, h
_
_
0
0
1
_
_
=
_
_
1
1
8
_
_
e, se esiste, dire se `e unica.
c) Dire se esiste unapplicazione lineare f : R
3
R
3
tale che
f
_
_
0
1
1
_
_
=
_
_
1
3
0
_
_
, f
_
_
0
2
4
_
_
=
_
_
2
10
4
_
_
, f
_
_
0
0
1
_
_
=
_
_
0
2
2
_
_
e, se esiste, dire se `e unica.
47
Esercizio 4. Sia
A =
_
_
_
_
0 0 0 0
0 2 2 2
2 0 4 2
2 0 4 2
_
_
_
_
a) Trovare una base di Ker(f
A
).
b) Trovare una base di Im(f
A
).
c) Trovare M
A,P
(f
A
) dove T = e
4
, e
3
, e
2
, e
1
e
3
e / = e
3
+ 2e
4
, e
2
, e
3
, e
1
+e
3
.
d) Trovare, se esiste, unapplicazione lineare g : R
4
R
4
tale che g f
A
= 0 e tale che la
dimensione dellimmagine di g sia 2.
Esercizio 5. Sia f : R
8
[x] M(2 3, R) unapplicazione lineare. Dire quali sono i possibili
valori di dim(Ker(f)).
Esercizio 6. Sia f : M(n n, R) M(n n, R) lapplicazione cos` denita:
f(A) = A+
t
A
A M(n n, R). Dimostrare che `e lineare e studiarne limmagine e il nucleo.
Esercizio 7. Siano V e W due spazi vettoriali su un campo k di dimensione rispettivamente
n e m con n m. Sia f : V W unapplicazione lineare. Dimostrare che la dimensione del
nucleo di f `e n m.
Esercizio 8. Sia V uno spazio vettoriale di dimensione nita su un campo K.
Sia f : V V unapplicazione lineare tale che f
2
= f.
Dimostrare che
i) f[
Im(f)
= Id
ii) V = Ker(f) Im(f) (cio`e V = Ker(f) +Im(f) e Ker(f) Im(f) = 0
iii) esiste una base di V tale che la matrice associata a f in tale base (in partenza e in arrivo) `e
_
I
k
0
0 0
_
dove I
k
`e lidentit`a k k e k `e la dimensione di Im(f).
Esercizio 9. Sia f : R
2
[x] R
3
denita nel seguente modo
f(a
0
+a
1
x +a
2
x
2
) = (a
0
, a
1
+ 4a
2
, a
0
)
i) Determinare un sottospazio W di R
2
[x] tale che f[
W
sia iniettiva.
ii) Determinare unapplicazione lineare non identicamente nulla h : R
3
R
3
tale che h f = 0
Esercizio 10. Siano V e W due spazi vettoriali su uno stesso campo K. Sia f : V W
unapplicazione lineare. Sia Z un sottospazio di W. Dimostrare che
dim(f
1
(Z)) dim(Z) + dim(ker f)
48
Altri Esercizi
Esercizio 1. Trovare k R, se esiste, tale che
_
k 1
1 2
__
1 0
2 0
_
=
_
7 0
5 0
_
Esercizio 2. Sia H GL(n, K).
i) Dimostrare che
t
(H
1
) = (
t
H)
1
.
ii) Dimostrare che se H `e simmetrica, allora H
1
`e simmetrica.
Esercizio 3. Sia V linsieme del circonferenze del piano. Deniamo una somma su V e un
prodotto fra elementi di V e numeri reali nel modo seguente:
la somma della circonferenza di centro (x
1
, y
1
) e raggio r
1
e della circonferenza di centro (x
2
, y
2
)
e raggio r
2
`e la circonferenza di centro (x
1
+x
2
, y
1
+y
2
) e raggio r
1
+r
2
il prodotto fra R e la circonferenza di centro (x, y) e raggio r `e la circonferenza di centro
(x, y) e raggio r.
Dire se V con queste due operazioni `e uno spazio vettoriale su R.
Esercizio 4. Sia V = (x, y)[ x, y R. Deniamo una somma su V e un prodotto fra elementi
di V e numeri reali nel modo seguente:
(x
1
, y
1
) + (x
2
, y
2
) = (x
1
+y
2
, y
1
+x
2
)
(x, y) = (x, y)
Dire se V con queste due operazioni `e uno spazio vettoriale su R.
Esercizio 5. Sia V = (x, y)[ x, y R. Deniamo una somma su V e un prodotto fra elementi
di V e numeri reali nel modo seguente:
(x
1
, y
1
) + (x
2
, y
2
) = (x
1
+x
2
, y
1
+y
2
)
(x, y) =
_ _
x

,
y

_
se ,= 0
(0, 0) se = 0
Dire se V con queste due operazioni `e uno spazio vettoriale su R.
Esercizio 6. Sia V uno spazio vettoriale su un campo K. Siano A e B due sottospazi vettoriali
di V . Dimostrare che A B `e un sottospazio vettoriale se e solo se o A B o B A.
Esercizio 7. Siano V e W due sottospazi di R
10
di dimensione 6. Dire quali sono i possibili
valori di dim(V W).
Esercizio 8. Siano A =
_

_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
[ x
1
x
2
+x
3
x
4
= 0
_

_
e B =
_

_
_
_
_
_
t +s
2s
t
t +s
_
_
_
_
[ t, s R
_

_
.
Trovare
i) una forma cartesiana per B
ii) una base di A
iii) una base di B
iv) una base di A B
v) una base di A +B.
49
Esercizio 9. a) Dire se i seguenti tre vettori dello spazio vettoriale Z/5
3
spazio vettoriale su
Z/5 sono linearmente indipendenti:
_
_
[2]
[3]
[1]
_
_
,
_
_
[1]
[0]
[2]
_
_
,
_
_
[0]
[2]
[0]
_
_
b) Dire se i seguenti tre vettori dello spazio vettoriale Z/5
3
spazio vettoriale su Z/5 sono
linearmente indipendenti:
_
_
[2]
[3]
[1]
_
_
,
_
_
[1]
[0]
[4]
_
_
,
_
_
[4]
[3]
[4]
_
_
Esercizio 10. Dire se i seguenti tre vettori dello spazio vettoriale C
3
spazio vettoriale su C sono
linearmente indipendenti:
_
_
1
i
2 +i
_
_
,
_
_
2 +i
0
3
_
_
,
_
_
2
2 i
i
_
_
Esercizio 11. Trovare unespressione cartesiana del seguente sottospazio di R
4
S =
_
_
_
_
1
1
0
3
_
_
_
_
,
_
_
_
_
1
0
1
0
_
_
_
_
)
Esercizio 12. Dire per quali valori di h R il seguente insieme di vettori di R
3
_
_
_
_
_
2
2
h
_
_
,
_
_
0
h + 1
0
_
_
,
_
_
1
0
1
_
_
_
_
_
`e un insieme di vettori linearmente indipendenti.
Esercizio 13. Dire se il seguente sottoinsieme di C
2
[x] `e un sottospazio vettoriale e, se s`,
trovarne una base
Q = p C
2
[x][ p(2) = 0
Esercizio 14. Siano V e W due spazi vettoriali su un campo K. Sia f : V W unapplicazione.
Sia
(f) = (v, f(v)[ v V
(il graco di f). Dimostrare che f `e lineare se e solo se (f) `e un sottospazio vettoriale di
V W.
Esercizio 15. Una matrice A M(m n, R) si dice stocastica se la somma degli elementi di
ogni sua colonna `e 1.
a) Provare che A `e stocastica se e solo se (1, ..., 1) A = (1, ..., 1)
50
b) Provare che se A e B sono stocastiche allora AB `e stocastica.
c) Provare che se A `e stocastica e invertibile, allora anche A
1
`e stocastica.
Esercizio 16. Trovare unapplicazione non lineare surgettiva fra due spazi vettoriali la cui
immagine sia un sottospazio vettoriale.
Esercizio 17. Siano V e W due spazi vettoriali su uno stesso campo K. Sia Hom(V, W) lin-
sieme delle applicazioni lineari da V a W. Linsieme Hom(V, W) si pu` o dotare di un operazione
di somma e di unoperazione di prodotto fra un elemento di K e un elemento di Hom(V, W):
per qualsiasi f, g Hom(V, W), lapplicazione f +g `e lapplicazione tale che
(f +g)(x) = f(x) +g(x)
per qualsiasi x V
per qualsiasi f Hom(V, W) e K, lapplicazione f `e lapplicazione tale che
(f)(x) = f(x)
per qualsiasi x V .
Con tali operazioni Hom(V, W) `e uno spazio vettoriale su K.
Dimostrare che se V e W sono di dimensioni nite n e m rispettivamente, allora, ssate una
base di V e una base di W, si ha un isomorsmo fra Hom(V, W) e M(mn, K).
Esercizio 18. (Occorre lesercizio precedente). Siano H e K due sottospazi di dimensione 2 di
R
3
che si intersecano in un sottospazio di dimensione 1. Trovare la dimensione di
S = f Hom(R
3
, R
3
)[ f(H) H, f(K) K
Esercizio 19. Sia V uno spazio vettoriale di dimensione 2 su un campo K. Sia f : V V
lineare, non identicamente nulla e tale che f
2
= 0. Dimostrare che esiste una base B di V tale
che M
B,B
(f) =
_
0 1
0 0
_
Esercizio 20. a) Sia V uno spazio vettoriale di dimensione 3 su K e sia v
1
, v
2
, v
3
una base
di V . Sia f lunica applicazione lineare da V in V tale che
f(v
1
) = v
2
f(v
2
) = v
3
f(v
3
) = v
1
+ v
2
Esistono basi /, T di V tali che M
A,P
(f) = I?
b) Sia W uno spazio vettoriale di dimensione 4 su K e sia w
1
, w
2
, w
3
, w
4
una base di W. Sia
f l unica applicazione lineare da W in W tale che
f(w
1
) = w
1
f(w
2
) = w
1
+w
2
f(w
3
) = 2w
2
+ 3w
1
f(w
4
) = w
3
+w
4
Esistono basi /, T di W tali che M
A,P
(f) = I?
Esercizio 21. Una matrice quadrata A si dice nilpotente se esiste k 1 tale che A
k
= 0.
51
Unapplicazione lineare da uno spazio vettoriale in se stesso f : V V si dice nilpotente se
esiste k 1 tale che f
k
= 0. Ovviamente, se V `e di dimensione nita, f `e nilpotente se e solo
se, scelta una qualsiasi base B, M
B,B
(f) `e nilpotente.
Dire se le seguenti matrici sono nilpotenti:
A =
_
_
0 1 0
0 0 1
0 0 0
_
_
B =
_
_
0 1 0
1 3 0
0 0 1
_
_
C =
_
_
0 1 0
1 0 0
0 0 0
_
_
Esercizio 22. i) Siano V, W, U tre spazi vettoriali su un campo K e siano f : V W,
g : W U due applicazioni lineari. Dimostrare che
Ker(f) Ker(g f) Im(g) Im(g f)
ii) Sia V uno spazio vettoriale su un campo K e f : V V unapplicazione lineare. Dimostrare
che se esiste k N tale che Ker(f
k
) = Ker(f
k+1
) allora Ker(f
k
) = Ker(f
k+s
) s N.
iii) Dare un esempio di unapplicazione lineare f da uno spazio vettoriale in se stesso tale che
Ker(f) ,= Ker(f
2
).
52
7 Determinante, rango, inversa di una matrice
7.1 Spazi generati da righe e colonne e rango
Denizione 110. Sia A M(mn, K). Si denisce rango per righe di A la dimensione del
sottospazio di K
n
generato dalle righe di A
rk
r
(A) = dim(A
(1)
, ..., A
(m)
))
Si denisce rango per colonne di A la dimensione del sottospazio di K
m
generato dalle colonne
di A
rk
c
(A) = dim(A
(1)
, ..., A
(n)
))
Osservazione 111. Sia A M(mn, K). Allora
rk
r
(A) minm, n
in quanto rk
r
(A) `e la dimensione di un sottospazio di K
n
, quindi ha dimensione n, generato
da m elementi (le righe di A), quindi ha dimensione m. Analogamente
rk
c
(A) minm, n
Osservazione 112. Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe. Quindi il rango per righe non cambia facendo operazioni elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne. Quindi il rango per colonne non cambia facendo operazioni elementari di colonne.
Dimostrazione. Segue immediatamente dalla Proposizione 70.
Q.e.d.
Proposizione 113. Sia A una matrice a scalini allora rk
r
(A) `e uguale al numero degli scalini.
Dimostrazione.
Sia k il numero degli scalini cio`e delle righe non nulle. Siano j
1
,..., j
k
gli indici delle colonne
dove compaiono i pivots.
Per dimostrare la tesi basta dimostrare che le prime k righe sono indipendenti.
Siano
1
, ...,
k
K tali che

1
A
(1)
+.... +
k
A
(k)
= 0 (4)
Voglio dimostrare che
1
= ... =
k
= 0.
Considerando i j
1
-esimi coecienti delluguaglianza (4), ricavo

1
A
1,j1
+.... +
k
A
k,j1
= 0
cio`e

1
A
1,j1
= 0
(in quanto A
2,j1
= .... = A
k,j1
= 0) da cui

1
= 0
in quanto A
1,j1
,= 0 essendo un pivot.
Considerando i j
2
-esimi coecienti delluguaglianza (4), ricavo

1
A
1,j2
+
2
A
2,j2
+.... +
k
A
k,j2
= 0
53
cio`e

2
A
2,j2
= 0
(in quanto
1
= 0 e A
3,j2
= .... = A
k,j2
= 0) da cui

2
= 0
in quanto A
2,j2
,= 0 essendo un pivot.
Proseguendo analogamente ricaviamo
1
= ... =
k
= 0.
Q.e.d.
Proposizione 114. Sia A M(mn, K). Allora
dim(Ker(f
A
)) = n rk
r
(A)
Dimostrazione.
Ovviamente
Ker(f
A
) = x K
n
[ Ax = 0
che, se A

`e una matrice a scalini ottenuta da A con operazioni elementari di riga, `e uguale a


x K
n
[ A

x = 0
quindi allinsieme delle soluzioni del sistema lineare omogeneo con matrice incompleta A

.
Per trovare tale insieme di soluzioni devo scrivere le variabili che corrispondono ai pivots in
funzione di quelle che non corrispondono ai pivots.
Sia k = rk
r
(A) che `e uguale a rk
r
(A

). Modulo riordinare le variabili, posso supporre che le


variabili che corrispondono ai pivots siano le prime k: x
1
, ...., x
k
.
Sfruttando le equazioni scrivo x
1
, ...., x
k
in funzione di x
k+1
, ...., x
n
:
x
1
= f
1
(x
k+1
, ...., x
n
)
.
.
.
x
k
= f
k
(x
k+1
, ...., x
n
)
Quindi linsieme delle soluzioni `e
_

_
_
_
_
_
_
_
_
_
_
_
_
f
1
(x
k+1
, ...., xn)
.
.
.
f
k
(x
k+1
, ...., xn)
x
k+1
.
.
.
xn
_
_
_
_
_
_
_
_
_
_
_
[ x
k+1
, ...., x
n
K
_

_
=
_

_
x
k+1
_
_
_
_
_
_
_
_
_
_
_
.
.
.
.
.
1
0
.
.
0
_
_
_
_
_
_
_
_
_
_
_
+.... +x
n
_
_
_
_
_
_
_
_
_
_
_
.
.
.
.
.
0
.
.
0
1
_
_
_
_
_
_
_
_
_
_
_
[ x
k+1
, ...., x
n
K
_

_
quindi ha dimensione n k
Q.e.d.
Osservazione 115. Sia A M(mn, K). Allora dim(Im(f
A
)) = rk
c
(A).
Dimostrazione.
Segue immediatamente dallOsservazione 107.
Q.e.d.
Teorema 116. Sia A M(mn, K). Allora rk
r
(A) = rk
c
(A)
Dimostrazione.
rk
c
(A)
Oss.115
= dim(Im(f
A
))
Relaz.Fondam.
= n dimKer(f
A
)
Prop.114
= rk
r
(A).
Q.e.d.
54
7.2 Il teorema di Rouche-Capelli
Teorema 117. Teorema di Rouche-Capelli. Sia A M(mn, K) e sia b K
m
. Il sistema
lineare Ax = b ha soluzione se e solo se rk(A) = rk(A[b).
Dimostrazione.
Il sistema lineare Ax = b ha soluzione se e solo se esistono x
1
, ..., x
n
K tali che
x
1
A
(1)
+.... +x
n
A
(n)
= b
cio`e se e solo se b `e combinazione lineare di A
(1)
, ...., A
(n)
. Questo equivale a dire che
A
(1)
, ...., A
(n)
) = A
(1)
, ...., A
(n)
, b)
Dato che si ha sempre A
(1)
, ...., A
(n)
) A
(1)
, ...., A
(n)
, b), dire questi due sottospazi sono
uguali equivale a dire che le loro dimensioni sono uguali, cio`e che rk(A) = rk(A[b).
Q.e.d.
7.3 Determinante
Denizione 118. Una funzione D : M(nn, K) K si dice una funzione multilineare nelle
righe se vale seguente propriet`a:
per qualsiasi A M(n n, K) tale che A
(k)
= v +w (, K) si ha
D(A) = D(A

) +D(A

)
dove A

, A

sono le matrici n n tali che i ,= k A


(i)
= A

(i)
= A

(i)
, A

(k)
= v e A

(k)
= w
Una funzione D : M(n n, K) K si dice una funzione alternante delle righe se
D(A) = 0
per qualsiasi A M(n n, K) con due righe uguali.
Analogamente si deniscono la multilinearit`a e lalternanza nelle colonne.
Osservazione 119. Sia D : M(n n, K) K una funzione multilineare nelle righe. Se
D : M(n n, K) K `e alternante allora vale la seguente propriet`a:
D(A) = D(

A)
se A,

A M(n n, K) e

A `e ottenuta da A scambiando due righe.
Se il campo `e tale che 1
K
+ 1
K
,= 0
K
, vale anche il viceversa.
Dimostrazione. Sia D : M(n n, K) K una funzione multilineare nelle righe.
Supponiamo D alternante. Sia A M(n n, K). Sia

A ottenuta da A scambiando le righe h
e k. Vogliamo dimostrare che D(A) = D(

A).
Consideriamo la matrice B che ha tutte le righe uguali alle rispettive righe di A tranne lh-esima
e la k-esima che sono uguali a A
(h)
+A
(k)
. Dato che D `e alternante D(B) = 0; daltra parte,
essendo D multilineare,
D(B) = D(A) +D(

A) +D(A

) +D(A

)
dove
55
A

`e la matrice che ha la riga h-esima e la riga k-esima uguali a A


(h)
e tutte le altre uguali alle
rispettive righe di A
e
A

`e la matrice che ha la riga h-esima e la riga k-esima uguali a A


(k)
e tutte le altre uguali alle
rispettive righe di A.
Per lalternanza D(A

) = 0 e D(A

) = 0. Quindi si ha
0 = D(B) = D(A) +D(

A) +D(A

) +D(A

) = D(A) + D(

A)
da cui D(A) = D(

A).
Viceversa, supponiamo che D sia tale che D(A) = D(

A) se A,

A sono due matrici tali che

A
`e ottenuta da A scambiando due righe. Sia A una matrice con due righe uguali; se le scambio
ottengo di nuovo A; quindi
D(A) = D(A)
da cui
(1
K
+ 1
K
)D(A) = 0
da cui
D(A) = 0
se 1
K
+ 1
K
,= 0
K
. Q.e.d.
Osservazione 120. Sia D : M(n n, K) K una funzione multilineare e alternante nelle
righe che valga 1 sulla matrice identit`a. Allora
i) D `e invariante per operazioni elementari di riga di tipo III
ii) se A `e una matrice con una riga nulla, allora D(A) = 0
iii) se A `e una matrice diagonale, D(A) `e il prodotto degli elementi sulla diagonale.
Vale analogo risultato per le funzioni multilineari e alternanti per le colonne.
Proposizione 121. a) Esiste al massimo una funzione M(n n, K) K multilineare e
alternante nelle righe che valga 1 sulla matrice identit`a.
b) Esiste al massimo una funzione M(n n, K) K multilineare e alternante nelle colonne
che valga 1 sulla matrice identit`a.
Dimostrazione. a) Siano D e D

due funzioni M(n n, K) K multilineari e alternanti


nelle righe e che valgano 1 sullidentit`a. Vogliamo dimostrare che D = D

. Quindi dobbiamo
dimostrare che, data una qualsiasi matrice A n n a coecienti in K, si ha D(A) = D

(A).
Sia

A una matrice a scalini ottenuta da A con operazioni elementari di tipo I e III (cio`e con scambi
di righe e operazioni di somma di un multiplo di una riga ad unaltra riga). Per losservazione
precedente, se k `e il numero di scambi di riga eettuato si ha che
D(

A) = (1)
k
D(A) D

(

A) = (1)
k
D

(A)
Quindi per dimostrare che D(A) = D

(A), basta dimostrare che D(



A) = D

(

A).
Se

A ha lultima riga nulla allora, per losservazione precedente, si ha D(

A) = 0 e D

(

A) = 0,
quindi D(

A) = D

(

A).
Possiamo quindi supporre che

A non abbia lultima riga nulla, quindi

A `e una matrice a scalini
con lultima riga non nulla, quindi `e una matrice triangolare superiore con tutti gli elementi sulla
diagonale diversi da 0.
Sia A una matrice diagonale ottenuta da

A con operazioni elemntari di riga di tipo III. Per
losservazione precedente, si ha che
D(A) = D(

A) D

(A) = D

(

A)
56
Quindi per dimostrare che D(

A) = D

(

A), basta dimostrare che D(A) = D

(A). Ma, sempre


per losservazione precedente, D(A) `e il prodotto degli elementi sulla diagonale e anche D

(A)
`e il prodotto degli elementi sulla diagonale quindi D(A) = D

(A).
b) Si dimostra in modo del tutto analogo. Q.e.d.
Denizione 122. Si denisce det
C
: M(n n, K) K (determinante sviluppato per una
colonna) nel modo seguente. Sia A M(n n, K).
Se n = 1 e quindi A = (a) per un certo a K, si denisce
det
C
(A) = a
Sia n 2. Sia j 1, ..., n. Deniamo
det
C
(A) =

i=1,...,n
(1)
i+j
a
i,j
det
C
(A
,
)
dove A
,
`e la matrice ottenuta da A togliendo la riga i-esima e la colonna j-esima (sviluppo per
lj-esima colonna).
Si denisce det
R
: M(n n, K) K (determinante sviluppato per una riga) nel modo
seguente. Sia A M(n n, K).
Se n = 1 e quindi A = (a) per un certo a K, si denisce
det
R
(A) = a
Sia n 2. Sia i 1, ..., n. Deniamo
det
R
(A) =

j=1,...,n
(1)
i+j
a
i,j
det
R
(A
,
)
(sviluppo per li-esima riga).
Proposizione 123. a) Per qualsiasi scelta di j 1, ..., n, la funzione det
C
denita sopra `e
una funzione da M(n n, K) a K multilineare e alternante delle righe e vale 1 sulla matrice
identit`a. Quindi in particolare, per la parte a del teorema 121, la funzione det
C
`e ben denita,
cio`e non dipende da j.
b) Per qualsiasi scelta di i 1, ..., n, la funzione det
R
denita sopra `e una funzione M(nn, K)
a K multilineare e alternante delle colonne e vale 1 sulla matrice identit`a. Quindi in particolare,
per la parte b del teorema 121, la funzione det
R
`e ben denita, cio`e non dipende da i.
Dimostrazione. Anzitutto dimostriamo, per induzione su n, che, per qualsiasi scelta di j, cio`e
della colonna per cui sviluppiamo, det
C
vale 1 sullidentit`a.
Se n = 1 `e ovvio. Supponiamo quindi che sia vero per n 1 e cerchiamo di dimostrarlo per n.
Sia I la matrice identit`a n n.
det
C
(I) =

i=1,...,n
(1)
i+j
I
i,j
det
C
(I
,
) =
=

i=1,...,n
(1)
i+j

i,j
det
C
(I
,
) = (1)
j+j
det
C
(I
,
) = det
C
(I
,
) = 1
dove lultima uguaglianza vale per ipotesi induttiva in quanto I
,
`e lidentit`a (n 1) (n 1).
Dimostriamo adesso che per qualsiasi scelta di j, det
C
`e alternante. Sia A M(nn, K) con
le righe k e h uguali. Supponiamo k > h. Voglio dimostrare che det
C
(A) = 0. Per denizione
di det
C
si ha
det
C
(A) =

i=1,...,n
(1)
i+j
a
i,j
det
C
(A
,
) =
57
=

i=1,...,n, i=h,k
(1)
i+j
a
i,j
det
C
(A
,
) + (1)
h+j
a
h,j
det
C
(A

h,
) + (1)
k+j
a
k,j
det
C
(A

k,
)
Dato che A
,
ha due righe uguali se i ,= h, k, per ipotesi induttiva si ha
det
C
(A
,
) = 0
Inoltre
(1)
h+j
a
h,j
det
C
(A

h,
) = (1)
k+j
a
k,j
det
C
(A

k,
)
infatti A

k,
e A

h,
si ottengono luno dallaltra con k h 1 scambi di righe e quindi concludo.
Dimostriamo inne, per induzione su n, la multilinearit`a. Sia A M(nn, K) e supponiamo
che A
(k)
= v +w; sia A

la matrice con la riga k-esima uguale a v e le altre uguali a quelle


di A e sia A

la matrice con la riga k-esima uguale a w e le altre uguali a quelle di A.


Si ha
det
C
(A) =

i=1,...,n
(1)
i+j
a
i,j
det
C
(A
,
) =
=

i=1,...,n, i=k
(1)
i+j
a
i,j
det
C
(A
,
) + (1)
k+j
a
k,j
det
C
(A

k,
) =
ip. ind.
=

i=1,...,n, i=k
(1)
i+j
a
i,j
(det
C
(A

,
)+det
C
(A

,
))+(1)
k+j
( v
j
+ w
j
)det
C
(A

k,
) =
=

i=1,...,n, i=k
(1)
i+j
a
i,j
_
det
C
(A

,
) + det
C
(A

,
)
_
+
+(1)
k+j
a

k,j
det
C
(A

k,
) +(1)
k+j
a

k,j
det
C
(A

k,
) =
= det
C
(A

) + det
C
(A

)
Q.e.d.
Esempio. Vogliamo calcolare
det
C
_
2 3
4 1
_
Scegliamo j = 1, cio`e sviluppiamo per la prima colonna. Abbiamo
det
C
_
2 3
4 1
_
= 2 (1) 4 3 = 14
Vogliamo adesso calcolare
det
R
_
_
2 1 0
3 2 2
1 1 7
_
_
Scelgo i = 1 cio`e sviluppo per la prima riga. Si ha
det
R
_
_
2 1 0
3 2 2
1 1 7
_
_
= 2 det
_
2 2
1 7
_
1 det
_
3 2
1 7
_
+ 0 det
_
3 2
1 1
_
=
= 2 12 1(23) + 0(5) = 24 + 23 = 47
58
Proposizione 124. (e Denizione. a) La funzione det
C
: M(n n, K) K `e una funzione
multilineare e alternante delle colonne.
b) La funzione det
R
: M(n n, K) K `e una funzione multilineare e alternante delle righe.
Quindi in particolare, per il teorema 121,
det
R
= det
C
Si denisce determinante la funzione det
R
(o equivalentemente det
C
).
Dimostrazione. a) Voglio anzitutto dimostrare che se A M(n n, K) ha due colonne uguali,
ad esempio le colonne j
1
e j
2
, allora det
C
(A) = 0. Lo dimostriamo per induzione su n. Il caso
n = 2 `e banale. Sia n 3. Supponiamo che quel che vogliamo dimostrare sia vero nel caso
delle matrici (n 1) (n 1). Scegliamo j ,= j
1
, j
2
(possiamo scegliere j come vogliamo in
quanto abbiamo dimostrato che lo sviluppo del determinante per una colonna non dipende dalla
scelta della colonna). Si ha
det
C
(A) =

i=1,..,n
(1)
i+j
a
i,j
det
C
(A
,
) = 0
dove lultima uguaglianza vale per ipotesi induttiva in quanto A
,
ha due colonne uguali.
Dimostriamo adesso la multilinearit`a. Ragioniamo per induzione. Il caso n = 2 `e ovvio. Sup-
poniamo che quello che vogliamo dimostrare sia vero per le matrici (n 1) (n 1). Sia
A M(n n, K). Supponiamo che la sua k-esima colonna sia v +w. Sia A

la matrice che
ha tutte le colonne uguali a quelle di A tranne la k-esima uguale a v e sia A

la matrice che ha
tutte le colonne uguali a quelle di A tranne la k-esima uguale a w.
Scegliamo j ,= k. Si ha
det
C
(A) =

i=1,..,n
(1)
i+j
a
i,j
det
C
(A
,
)
ip. ind.
=
=

i=1,..,n
(1)
i+j
a
i,j
(det
C
(A

,
) + det
C
(A

,
)) =
=
_
_

i=1,..,n
(1)
i+j
a
i,j
det
C
(A

,
)
_
_
+
_
_

i=1,..,n
(1)
i+j
a
i,j
det
C
(A

,
)
_
_
=
=
_
_

i=1,..,n
(1)
i+j
a

i,j
det
C
(A

,
)
_
_
+
_
_

i=1,..,n
(1)
i+j
a

i,j
det
C
(A

,
)
_
_
=
= det
C
(A

) +det
C
(A

)
dove la penultima uguaglianza vale in quanto A

ha tutte le colonne, tranne la k-esima, uguali a


quelle di A e A

ha tutte le colonne, tranne la k-esima, uguali a quelle di A, quindi a

i,j
= a
i,j
e a

i,j
= a
i,j
. Q.e.d.
Corollario 125. Per qualsiasi A M(n n, K)
det(A) = det(
t
A)
59
7.4 Relazione fra rango e determinante, formula di Cauchy-Binet, rias-
sunto propriet`a determinante
Teorema 126. Sia A M(n n, K).
A GL(n, K) rk(A) = n det(A) ,= 0
Dimostrazione. Dimostriamo lequivalenza A GL(n, K) rk(A) = n
A GL(n, K) se e solo se esiste B tale che AB = BA = I e questo equivale a dire che f
A
`e un isomorsmo. Dato che f
A
va da uno spazio vettoriale a uno spazio vettoriale della stessa
dimensione, dire che f
A
`e un isomorsmo equivale a dire che `e iniettiva, cio`e che non esistono
x K
n
diversi da 0 tali che Ax = 0. Questo `e equivalente a dire che lunica combinazione delle
colonne di A uguale a 0 `e quella con coecienti nulli (perch`e Ax = x
1
A
(1)
+... +x
n
A
(n)
), cio`e
le colonne di A sono indipendenti. Questo evidentemente `e equivalente a dire che il rango di A
`e n.
Dimostriamo adesso lequivalenza rk(A) = n det(A) ,= 0
Sia

A una matrice a scalini ottenuta da A con operazioni elementari di riga di tipo I e III. Si
ha che rk(A) = n se e solo se

A ha n scalini, cio`e `e una matrice triangolare con elementi sulla
diagonale diversi da 0. Questo equivale a dire che il determinante di

A `e diverso da zero. Ma
det(

A) = det(A), quindi dire che il determinante di

A `e diverso da zero equivale a dire che il
determinante di A `e diverso da zero.
Q.e.d.
Teorema 127. (Criterio dei minori orlati). Sia A M(m n, K). Allora rk(A) `e k se
e solo se esite una sottomatrice k k con determinante diverso da 0 e tutte le sottomatrici
(k + 1) (k + 1) contenenti tale sottomatrice hanno determinante uguale a 0
Dimostrazione omessa.
Esempio. Sia A =
_
_
_
_
1 0 2 3 1
2 0 4 6 2
2 1 2 6 2
0 1 2 12 4
_
_
_
_
Esiste una sottomatrice 22 (per esempio quella formata dalle prime due colonne e la seconda e
terza riga) con determinante diverso da 0 e tutte le sottomatrici 3 3 che la contengono hanno
determinante uguale a 0; quindi il rango di A `e 2.
Teorema 128. Formula di Cauchy-Binet.
det(AB) = det(A)det(B)
A, B M(n n, K).
Dimostrazione. Se det(B) = 0 allora f
B
non `e iniettiva, quindi f
AB
= f
A
f
B
non `e iniettiva
da cui det(AB) = 0. Se det(B) ,= 0 allora consideriamo la funzione
f(A) :=
det(AB)
det(B)
Si verica facilmente che essa `e una funzione multilineare alternante delle righe che vale 1 sulla
matrice identit`a e quindi f(A) = det(A), da cui
det(A) =
det(AB)
det(B)
60
e quindi la tesi. Q.e.d.
Riassumiamo adesso le propriet`a del determinante:
Propriet`a del determinante
1) Il determinante `e una funzione multilineare delle righe.
2) Il determinante `e una funzione alternante delle righe.
3) Il determinante cambia segno se scambio due righe.
4) Sommando ad una riga un multiplo di unaltra riga il determinante non cambia.
5) Il determinante `e zero sulle matrici con una riga nulla.
6) Il determinante di una matrice `e uguale al determinante della sua trasposta.
7) Le regole 1,...., 5 valgono anche per le colonne.
8)
det(AB) = det(A)det(B)
A, B M(n n, K).
9) Il determinante di una matrice triangolare `e il prodotto degli elementi sulla diagonale.
10)
det
_
A B
0 C
_
= det(A)det(C)
A M(n n, K), B M(n m, K), C M(mm, K).
7.5 Matrici invertibili II
Proposizione 129. Siano A, B M(n n, K). Se AB = I, allora BA = I.
Dimostrazione. Dato che AB = I, si ha che
f
A
f
B
= I
(infatti da AB = I segue che f
AB
= f
I
, quindi che f
A
f
B
`e lapplicazione f
I
, che `e
lapplicazione identica).
Per dimostrare che BA = I, basta dimostrare che f
BA
= I cio`e basta dimostrare che
f
B
f
A
= I
Dato che f
A
f
B
= I, per qualsiasi x K
n
si ha che
f
A
(f
B
(x)) = x
Da questo segue subito che f
B
: K
n
K
n
`e iniettiva (infatti se f
B
(x) = 0 allora f
A
(f
B
(x)) = 0
quindi x = 0).
Osserviamo che, dato che f
B
va da uno spazio a uno spazio della stessa dimensione, se `e iniettiva
`e anche surgettiva, per la relazione fondamentale delle applicazioni lineari.
Vogliamo dimostrare che per qualisiasi y K
n
f
B
(f
A
(y)) = y. Dato che f
B
`e surgettiva, esiste
x K
n
tale che y = f
B
(x), quindi
f
B
(f
A
(y)) = f
B
(f
A
(f
B
(x))) = f
B
(I(x)) = f
B
(x) = y
61
dove la seconda uguaglianza vale dato che f
A
f
B
= I.
Q.e.d.
Sia A GL(n, K).
Un metodo per calcolare linversa `e il seguente:
aancare ad A a destra la matrice I
n
, ottenendo cos` una matrice n 2n: (A[I
n
)
fare operazioni elementari di riga sulla matrice (A[I
n
) no ad ottenere una matrice la cui prima
parte `e I
n
, cio`e del tipo (I
n
[B).
La matrice B cos` trovata `e linversa di A.
Esempio. Sia
A =
_
_
1 0 2
0 2 1
1 0 0
_
_
Aancando ad A la matrice I
3
ottengo
_
_
1 0 2 1 0 0
0 2 1 0 1 0
1 0 0 0 0 1
_
_
Faccio adesso operazioni elementari di riga.
_
_
1 0 2 1 0 0
0 2 1 0 1 0
0 0 2 1 0 1
_
_
III +I
_
_
1 0 0 0 0 1
0 2 0
1
2
1
1
2
0 0 2 1 0 1
_
_
I III
II
1
2
III
_
_
1 0 0 0 0 1
0 1 0
1
4
1
2

1
4
0 0 1
1
2
0
1
2
_
_
1
2
II
1
2
III
La matrice
B =
_
_
0 0 1

1
4
1
2

1
4
1
2
0
1
2
_
_
`e linversa di A.
Il motivo per cui il metodo sopra illustrato trova linversa di A `e il seguente.
Evidentemente una matrice B `e tale che AB = I se e solo se
AB
(1)
= e
1
.
.
.
AB
(n)
= e
n
Quindi si tratta di risolvere gli n sistemi lineari con matrici complete (A[e
j
) per j = 1, ..., n.
In pratica, il metodo illustrato sopra per trovare linversa di A risolve i sistemi lineari (A[e
j
)
per j = 1, ..., n contemporaneamente, riducendo a scalini con operazioni elementari di riga la
matrice (A[e
1
, .., e
n
) no a ottenere una matrice del tipo (I[B).
62
Osservate inne che se, con operazioni elementari di riga, riduco il sistema con matrice completa
(A[e
j
) no ad ottenere un matrice (I[B
(j)
), linsieme delle soluzioni del sistema con matrice
completa (A[e
j
) `e uguale allinsieme delle soluzioni del sistema con matrice completa (I[B
(j)
)
che evidentemente `e costituito solo da B
(j)
. Quindi B
(j)
`e soluzione del sistema con matrice
completa (A[e
j
) per qualsiasi j = 1, ..., n. Quindi la matrice B `e linversa di A.
63
7.6 Esercizi
Esercizio 1. Siano
A =
_
_
_
_
_
_
3 0 0 0 0
2 1 0 0 0
36 0 501 500 500
21 2 502 501 500
133 23 500 500 500
_
_
_
_
_
_
, B =
_
_
_
_
_
_
1 0 0 0 0
0 2600 0 0 0
23 89 1 2 3
0 5 1 2 4
2 3 288 2 3
_
_
_
_
_
_
, C =
_
_
_
_
_
_
1 0 0 0 0
0 0 0 0 0
1 0 0 0 2
0 0 4 34 7
0 0 0 0 3
_
_
_
_
_
_
i) Calcolare il determinante di A
ii) Calcolare il determinante di B
1
AB
iii) Calcolare il determinante di CA
Esercizio 2. Sbarrare le aermazioni giuste.
Sia A una matrice.
a) Lo spazio generato dalle colonne di A non cambia facendo operazioni elementari di righe.
b) Lo spazio generato dalle colonne di A non cambia facendo operazioni elementari di colonne.
c) Lo spazio generato dalle righe di A non cambia facendo operazioni elementari di righe.
d) Lo spazio generato dalle righe di A non cambia facendo operazioni elementari di colonne
Esercizio 3. Trovare A e B M(2 2, R) tali che
_
C A
B D
_
e
_
C A
B D

_
siano di rango
3, dove:
C =
_
1 0
0 2
_
, D =
_
3 0
0 4
_
, D

=
_
3 0
0 0
_
Esercizio 4. Sia
A
x,y
=
_
_
_
_
_
_
_
_
x x x x x x
x y x x y x
x x x x x x
x x x x x x
0 x x x x 0
0 0 x x 0 0
_
_
_
_
_
_
_
_
1) Discutere il rango di A
x,y
al variare dei parametri x e y.
2) Dire per quali valori dei parametri x e y si ha che e
2
+e
5
ImA
x,y
.
Esercizio 5.
Siano
A =
_
_
1 2 3
1 2 0
1 0 3
_
_
B =
_
_
500 500 500
1000 1001 1002
2000 2003 2004
_
_
Calcolare:
i) det(A)
ii) det(B)
iii) det(ABAB
1
)
iv) A
1
64
Esercizio 6. Sia
A
x,y
=
_
_
_
_
_
_
x 0 y y x
0 x x x 0
0 0 x 0 0
0 x x x 0
x y y 0 x
_
_
_
_
_
_
i) Dire per quali valori dei parametri x e y, il vettore e
2
e
4
appartiene al nucleo di A
x,y
.
ii) Discutere il rango di A
x,y
al variare dei parametri x e y.
iii) Per x = y = 1 trovare una base del nucleo di A
x,y
.
iv) Al variare dei parametri x e y trovare una base dello spazio generato dalle righe di A
x,y
.
Esercizio 7. Siano x, y R e sia
N
x,y
=
_
_
_
_
_
_
y x x x y
y y x x y
y x y x y
y x x y y
y x x x y
_
_
_
_
_
_
a) Discutere il rango di N
x,y
al variare dei parametri x e y.
b) Dire se N
x,y
[ x, y R e un sottospazio vettoriale dello spazio M(5 5, R) e se la risposta
e aermativa dire di che dimensione.
65
Matrici associate alle applicazioni lineari, complementi
Osservazione 130. Sia V uno spazio vettoriale su un campo K di dimensione nita n. Fissata
una base ordinata B di V , si pu` o denire un isomorsmo

B
: V K
n
denito nel modo seguente:
B
(v) `e la n-upla delle coordinate di v rispetto alla base B.
Proposizione 131. Siano V e W due spazi vettoriali su un campo K di dimensione nita n e
m rispettivamente. Sia T una base di V e / una base di W. Sia v V e sia x =
P
(v), cio`e
sia x la n-upla delle coordinate di v rispetto a T. Allora

A
(f(v)) = M
A,P
(f)x
cio`e, detta y la m-upla delle coordinate di f(v) rispetto alla base / si ha
y = M
A,P
(f)x
In altre parole il seguente diagramma `e commutativo:
V
f
W

P

1
P

A

1
A
K
n
MA,P(f)
K
m
Dimostrazione. Sia T = p
1
, ..., p
n
e / = a
1
, ..., a
m
. Si ha
f(v) = f(

j=1,..,n
x
j
p
j
) =

j=1,..,n
x
j
f(p
j
) =

j=1,..,n
x
j

i=1,...,m
M
A,P
(f)
i,j
a
i
=
=

i=1,...,m
_
_

j=1,..,n
M
A,P
(f)
i,j
x
j
_
_
a
i
=

i=1,...,m
(M
A,P
(f)x)
i,1
a
i
quindi i = 1, ..., m si ha che
y
i
= (M
A,P
(f)x)
i,1
Quindi y = M
A,P
(f)x. Q.e.d.
In particolare: sia V uno spazio vettoriale di dimensione nita n e siano B e B

due basi di V ;
se v V e x `e ln-upla delle coordinate di v rispetto a B e x

`e ln-upla delle coordinate di v


rispetto a B

, si ha
x

= M
B

,B
(I
V
)x
8 Autovettori e autovalori, diagonalizzabilit`a
8.1 Autovettori e autovalori, molteplicit`a algebrica e geometrica
Denizione 132. Sia V uno spazio vettoriale su un campo K e f : V V unapplicazione
lineare. Un vettore v V si dice autovettore di f se `e diverso da 0 e se esiste K tale che
f(v) = v
66
(quindi se f manda v in un suo multiplo). In tal caso si dice che `e un autovalore di f
(lautovalore di f relativo a v). Linsieme degli autovalori di f si dice lo spettro di f.
Autovettori ed autovalori di una matrice quadrata A M(n n, K) sono per denizione
autovalori ed autovettori di f
A
. Quindi x K
n
`e un autovettore di A con autovalore se x ,= 0
e se
Ax = x
Ovviamente se V `e uno spazio vettoriale su K di dimensione nita n e B `e una qualsiasi base di
V , allora v `e un autovettore per f se e solo se, detta x ln-upla delle coordinate di v rispetto a
B, x `e autovettore di M
B,B
(f).
Esempi. Sia f = f
A
: R
3
R
3
dove
A =
_
_
1 2 0
2 1 1
0 0 1
_
_
Il vettore
_
_
1
1
0
_
_
`e autovettore di f di autovalore 3.
Sia g = f
B
: R
3
R
3
dove
B =
_
_
1 5 0
2 1 0
0 3 2
_
_
Il vettore
_
_
0
0
1
_
_
`e autovettore di g di autovalore 2.
Denizione 133. Sia A M(n n, K). Il polinomio caratteristico di A `e:
p
A
(t) := det(A tI)
dove I la matrice identit`a n n.
Sia V uno spazio vettoriale su K di dimensione nita n. Sia f : V V unapplicazione lineare.
Il polinomio caratteristico di f `e denito nel modo seguente:
p
f
(t) := det(M
B,B
(f) tI)
dove I la matrice identit`a n n e B `e una qualsiasi base di V .
Per dimostrare che il polinomio caratteristico di f non dipende dalla base scelta, occorre pre-
mettere una denizione e un lemma.
Denizione 134. Due matrici A e B si dicono simili se esiste C invertibile tale che
A = C
1
BC
Lemma 135. Due matrici simili hanno lo stesso polinomio caratteristico.
67
Dimostrazione. Supponiamo che A e B siano simili, quindi esiste C tale che A = C
1
BC.
Allora
p
A
(t) = det(A tI) = det(C
1
BC tI) = det(C
1
(B tI)C) =
= det(C
1
)det(B tI)det(C) = det(B tI) = p
B
(t)
Q.e.d.
Unimmediata conseguenza del lemma sopra `e che il polinomio caratteristico di unapplicazione
lineare f : V V non dipende dalla base di V scelta. Infatti se scelgo invece di B unaltra base
B

, si ha che la matrice M
B

,B
(f) `e simile alla matrice M
B,B
(f), precisamente:
M
B

,B
(f) = M
B

,B
(I)M
B,B
(f)M
B,B
(I) = M
B,B
(I)
1
M
B,B
(f)M
B,B
(I)
Esempio. Sia f = f
A
: R
3
R
3
dove
A =
_
_
1 2 0
2 1 1
0 0 1
_
_
Osserviamo che A = M
E,E
(f) = A dove c `e la base canonica di R
3
. Quindi
p
f
(t) = p
A
(t) = det
_
_
1 t 2 0
2 1 t 1
0 0 1 t
_
_
= (1t)[(1t)(1t)4] = (1t)(t
2
2t 3)
Lemma 136. Sia V uno spazio vettoriale su K di dimensione nita. Un numero K `e
un autovalore di unapplicazione lineare f : V V se e solo se `e una radice del polinomio
caratteristico di f.
Dimostrazione `e un autovalore di f
v V 0 tale che f(v) = v
v V 0 tale che (f I)v = 0
Ker(f I) ,= 0
f I non `e iniettiva
Thm.126

scelta una qualsiasi base B di V , det[M


B,B
(f I)] = 0
scelta una qualsiasi base B di V , det[M
B,B
(f) M
B,B
(I)] = 0
scelta una qualsiasi base B di V , det[M
B,B
(f) I] = 0
p
f
() = 0 Q.e.d.
Osservazione 137. Sia V uno spazio vettoriale di dimensione nita n su un campo K. Sia
f : V V lineare. Linsieme degli autovettori di f con autovalore , unito al vettore zero,
coincide con Ker(f I) e si dice autospazio di f relativo a .
Denizione 138. Sia V uno spazio vettoriale di dimensione nita n su un campo K. Sia
f : V V lineare. Sia un suo autovalore.
La dimensione di Ker(f I) si dice molteplicit`a geometrica di .
La molteplicit`a di come radice del polinomio caratteristico di f (cio`e il massimo s tale che
(t )
s
divide p
f
) si dice molteplicit`a algebrica di .
68
Esempio. Sia f = f
A
: R
4
R
4
dove
A =
_
_
_
_
1 3 0 0
1 3 1 1
0 0 2 2
0 0 2 2
_
_
_
_
Osserviamo che A = M
E,E
(f) = A dove c `e la base canonica di R
4
. Quindi
p
f
(t) = p
A
(t) = det
_
_
_
_
1 t 3 0 0
1 3 t 1 0
0 0 2 t 2
0 0 2 2 t
_
_
_
_
= t
2
(t 4)
2
Quindi gli autovalori sono 0 e 4 e si ha
m
a
(4) = 2 m
a
(0) = 2
Lautospazio relativo a 4 `e
Ker(A 4I) =
_
_
_
_
1
1
0
0
_
_
_
_
)
e lautospazio relativo a 0 `e
Ker(A0I) = Ker(A) =
_
_
_
_
3
1
0
0
_
_
_
_
,
_
_
_
_
0
0
1
1
_
_
_
_
)
In particolare
m
g
(4) = 1 m
g
(0) = 2
Osservazione 139. Sia V uno spazio vettoriale di dimensione nita n su un campo K. Sia
f : V V lineare. Se M
B,B
(f) `e una matrice diagonale, allora sulla diagonale appaiono gli
autovalori di f e le molteplicit`a algebriche sono uguali alle molteplicit`a geometriche.
8.2 Diagonalizzabilit`a
Denizione 140. (-Osservazione) Sia V uno spazio vettoriale di dimensione nita n su un
campo K. Sia f : V V lineare. Si dice che f `e diagonalizzabile se e solo se esiste una base
di V fatta da autovettori di f. Se V ha dimensione nita, questo equivale a dire che esiste una
base B = b
1
, ..., b
n
di V tale che la matrice M
B,B
(f) `e diagonale; infatti dire che M
B,B
(f) `e
diagonale equivale proprio a dire che f(b
j
) `e un multiplo di b
j
j = 1, .., n.
Una matrice quadrata A si dice diagonalizzabile se f
A
`e diagonalizzabile. Questo equivale a
dire che A `e simile ad una matrice diagonale.
Infatti: se f
A
`e diagonalizzabile, esiste una base B di K
n
tale che M
B,B
(f
A
) `e diagonale, ma
M
B,B
(f
A
) = M
E,B
(I)
1
M
E,E
(f
A
)M
E,B
(I) = M
E,B
(I)
1
AM
E,B
(I)
69
quindi A `e simile ad una matrice diagonale. Viceversa se esiste C invertibile tale che C
1
AC `e
diagonale, sia B = C
(1)
, ..., C
(n)
; ovviamente M
E,B
(I) = C, quindi
C
1
AC = M
E,B
(I)
1
AM
E,B
(I) = M
E,B
(I)
1
M
E,E
(f
A
)M
E,B
(I) = M
B,B
(f
A
)
quindi M
B,B
(f
A
) `e diagonale.
Teorema 141. Sia V uno spazio vettoriale di dimensione n su un campo K. Sia f : V V
unapplicazione lineare. Siano v
1
, ..., v
k
autovettori di f corrispondenti ad autovalori distinti.
Allora v
1
, ..., v
k
sono indipendenti.
Dimostrazione. Siano
1
, ...,
k
gli autovalori corrispondenti a v
1
, .., v
k
. Ragioniamo per indu-
zione su k. Il caso k = 1 `e banale. Siano a
1
, ..., a
k
K tali che
a
1
v
1
+... +a
k
v
k
= 0 (5)
Vogliamo dimostrare che a
1
= ... = a
k
= 0. Applicando f ad entrambi i membri, si ottiene
(dato che f `e lineare)
a
1
f(v
1
) +... +a
k
f(v
k
) = 0 (6)
da cui
a
1

1
v
1
+... +a
k

k
v
k
= 0 (7)
Moltiplicando (5) per
1
e sottraendo da (7) segue
(
2

1
)a
2
v
2
+... + (
k

1
)a
k
v
k
= 0
Per ipotesi induttiva v
2
, ..., v
n
sono linearmente indipendenti. Quindi (
i

1
)a
i
= 0 per
i = 2, ..., k. Siccome
i

1
,= 0, segue a
i
= 0 per i = 2, ..., k. Sostituendo in (5), si ottiene
anche a
1
= 0 come volevamo. Q.e.d.
Proposizione 142. Sia V uno spazio vettoriale di dimensione n su un campo K. Sia f : V V
unapplicazione lineare. La molteplicit`a geometrica di un qualsiasi autovalore di f `e minore o
uguale della sua molteplicit`a algebrica.
Dimostrazione. Sia k la molteplicit`a geometrica di . Sia v
1
, ..., v
k
una base di Ker(f I).
Completo ad una base di V . La matrice di f rispetto a questa base `e
_
I
k

0
_
dove I
k
`e la matrice identit`a k k. Quindi p
f
(t) `e il determinante di
_
I
k
tI
k

0 tI
nk
_
cio`e
_
( t)I
k

0 tI
nk
_
Sviluppando successivamente rispetto alle prime k colonne, si ottiene che ( t)
k
divide p
f
(t)
e quindi la tesi. Q.e.d.
Lemma 143. Il polinomio caratteristico di A M(n n, K) ha grado n.
70
Dimostrazione. Per induzione su n. Per le matrici 1 1 lenunciato `e ovvio. Supponiamolo vero
per le matrici (n 1) (n 1). Sia A M(n n, K). Si ha
p
A
(t) = det(A tI) = det
_
_
_
_
_
_
_
_
a
1,1
t a
1,2
. . a
1,n
a
2,1
a
2,2
t . . a
2,n
. . . . .
. . . . .
. . . . .
a
n,1
a
n,2
. . a
n,n
t
_
_
_
_
_
_
_
_
=
Sviluppando per la prima colonna si ha
(a
1,1
t)det((A tI)

1,

1
) a
2,1
det((A tI)

2,

1
) +.......... a
n,1
det((A tI)
n,

1
) =
(a
1,1
t)det(A

1,

1
tI
n1
) a
2,1
det((A tI)

2,

1
) +.......... a
n,1
det((A tI)
n,

1
)
Osserviamo che per ipotesi induttiva det(A

1,

1
tI
n1
) ha grado n1 in t. Inoltre ogni termine
det((AtI)

i,

1
) per i = 2, .., n ha grado minore o uguale di n2 in t in quanto la matrice di cui
`e il determinente ha solo n 2 coecienti di grado 1 in t. Quindi il primo termine della somma
sopra ha grado n in t, gli altri hanno grado minore o uguale di n 2, quindi tutta la somma ha
grado n. Q.e.d.
Teorema 144. Criterio necessario e suciente di diagonalizzabilit`a. Sia V uno spazio
vettoriale su un campo K di dimensione nita n. Sia f : V V lineare. Lapplicazione f `e
diagonalizzabile se e solo il polinomio caratteristico di f si fattorizza completamente in fattori
di grado 1 a coecienti in K e per ogni autovalore di f la molteplicit`a geometrica `e uguale alla
molteplicit`a algebrica.
Dimostrazione. Siano
1
, ...,
k
autovalori distinti di f. Dato che il polinomio caratteristico
di f si fattorizza completamente in fattori di grado 1 a coecienti in K, si ha, per il lemma
precedente,

i=1,...,k
m
a
(
i
) = n
Dato che le molteplicit`a algebriche sono uguali alle geometriche, sostituendo ricavo

i=1,...,k
m
g
(
i
) = n
Denisco per praticit`a n
i
= m
g
(
i
), quindi ho

i
n
i
= n
Siano B
1
,...,B
k
basi rispettivamente di Ker(f
1
I),...., Ker(f
k
I). Ovviamente la car-
dinalit`a di B
i
`e n
i
. Sia B
i
= v
i
1
, ..., v
i
ni
per i = 1, ..., k. Voglio dimostrare che linsieme
v
i
j

i=1,...,k, j=1,...,ni
`e un insieme di vettori indipendenti. Siano
i
j
K per i = 1, ..., k, j =
1, ..., n
i
tali che

i=1,...,k, j=1,...,ni

i
j
v
i
j
= 0
Voglio dimostrare che
i
j
= 0 per i = 1, ..., k, j = 1, ..., n
i
71
Posso scrivere tale uguaglianza cos`:

i=1,...,k
_
_

j=1,...,ni

i
j
v
i
j
_
_
= 0
Ciascun addendo

j=1,...,ni

i
j
v
i
j
appartiene a Ker(f
i
I) (perche `e combinazione lineare
di una sua base). Quindi per il Lemma 141, tali addendi sono necessariamente nulli, cio`e per
qualsiasi i = 1, ..., k

j=1,...,ni

i
j
v
i
j
= 0
Per qualsiasi i = 1, ..., k, dato che v
i
1
, ..., v
i
ni
sono una base di Ker(f
i
I), quindi sono
linearmenti indipendenti, dalluguaglianza sopra si ha

i
j
= 0
per j = 1, ..., n
i
. Quindi linsieme v
i
j

i=1,...,k, j=1,...,ni
`e un insieme di vettori linearmente
indipendenti.
Sia
B = v
i
j

i=1,...,k, j=1,...,ni
cio`e lunione dei B
i
per i = 1, ..., k. la cardinalit`a di B `e

i
n
i
cio`e n; quindi B, essendo un
insieme di vettori indipendenti ed avendo cardinalit`a uguale alla dimensione di V , costituisce un
base di V . Essa `e fatta da autovettori per f, quindi M
B,B
(f) `e diagonale.
Se f `e diagonalizzabile, allora esiste B base di V tale che la matrice M
B,B
(f) `e una matrice
diagonale D. Concludo per lOsservazione 139.
Q.e.d.
Esempi.
1) Sia f = f
A
: R
3
R
3
dove
A =
_
_
1 2 0
2 1 1
0 0 1
_
_
Allora
p
f
(t) = p
A
(t) = det
_
_
1 t 2 0
2 1 t 1
0 0 1 t
_
_
= (1t)[(1t)(1t)+4] = (1t)(t
2
2t+5)
Osserviamo che p
f
non si fattorizza completamente in fattori di grado 1 a coecienti reali.
Quindi f = f
A
: R
3
R
3
non `e diagonalizzabile (A non `e diagonalizzabile su R).
2) Sia f = f
B
: R
3
R
3
dove
B =
_
_
1 2 0
2 1 1
0 0 1
_
_
Allora
p
f
(t) = p
B
(t) = (1 t)[(1 t)(1 t) 4] = (1 t)(t
2
2t 3) = (t 3)(t + 1)
2
72
Osserviamo che p
f
si fattorizza completamente in fattori di grado 1 a coecienti reali. Gli
autovalori sono 3 e 1. Ovviamente la molteplicit`a algebrica di 3 `e 1, quella di 1 `e 2; quindi la
molteplicit`a geometrica di 3 `e necessariamente 1, inoltre si calcola facilmente che la molteplicit`a
geometrica di 1 `e 1; quindi B non `e diagonalizzabile su R.
3) Sia f = f
C
: R
3
R
3
dove
C =
_
_
3 1 1
2 4 2
3 3 5
_
_
Allora
p
f
(t) = p
C
(t) = t
3
+ 12t
2
36t + 32 = (2 t)
2
(8 t)
Osserviamo che p
f
si fattorizza completamente in fattori di grado 1 a coecienti reali. Gli
autovalori sono 2 e 8. Ovviamente la molteplicit`a algebrica di 2 `e 2, quella di 8 `e 1; quindi la
molteplicit`a geometrica di 8 `e necessariamente 1; inoltre si calcola facilmente che la molteplicit`a
geometrica di 2 `e 2; quindi C `e diagonalizzabile su R.
4) Sia f = f
A
: C
3
C
3
dove
A =
_
_
1 2 0
2 1 1
0 0 1
_
_
Allora
p
f
(t) = p
A
(t) = det
_
_
1 t 2 0
2 1 t 1
0 0 1 t
_
_
= (1 t)[(1 t)(1 t) + 4] =
= (1 t)(t
2
2t + 5) = (1 t)(t 1 2i)(t 1 + 2i)
Osserviamo che p
f
si fattorizza completamente in fattori di grado 1 a coecienti complessi. Gli
autovalori sono 1, 12i, 1+2i, tutti e tre con molteplicit`a algebrica uguale a 1. Quindi anche
le loro molteplicit`a geometriche sono uguali a 1.
Quindi f = f
A
: C
3
C
3
`e diagonalizzabile (A `e diagonalizzabile su C).
73
8.3 Esercizi
Esercizio 1.
i) Provare che la similitudine una relazione di equivalenza.
ii) Provare che se A `e una matrice 2 2 allora p
A
(t) = t
2
tr(A)t +det(A)
iii) Provare che gli autovalori di una matrice triangolare sono gli elementi sulla diagonale.
Esercizio 2. Sia
A =
_
_
_
_
0 0 3 0
0 0 0 1
12 0 0 0
0 4 0 0
_
_
_
_
i) Calcolare il determinante di A, il determinante di 2A, linversa di A, linversa di 2A.
ii) Dire quali sono gli autovalori reali di A, le loro molteplicit`a algebriche e geometriche e dire se
A `e diagonalizzabile su R.
Esercizio 3. Sia
A
h,k
=
_
_
h 0 h
0 h 0
k 0 k
_
_
Dire per quali valori di h e k nellinsieme dei reali, A
h,k
`e diagonalizzabile su R.
74
Altri esercizi
Esercizio 1. i) Trovare due matrici A e B n n con n 2 non nulle e tali che det(A + B) =
det(A) +det(B).
ii) Trovare due matrici A e B nn con n 2 invertibili e tali che det(A+B) = det(A)+det(B).
Esercizio 2. Sia E la matrice n n con tutti 1 sullantidiagonale e 0 altrove. Calcolarne il
determinante in funzione di n.
Esercizio 3. Sia
A =
_
_
_
_
1 3 0 0
0 3 0 0
0 0 2 0
0 0 1 2
_
_
_
_
Calcolare:
i) det(A)
ii) det(A
2
)
iii) M
A,P
(f
A
) dove / = T = e
1
+e
2
.e
3
, e
2
, e
1
+e
4

iv) Dire se A `e diagonalizzabile su R.


Esercizio 4. Sia
C =
_
_
_
_
1 1 0 0
1 1 0 0
0 0 1 2
0 0 1 2
_
_
_
_
a) Trovare una base dello spazio generato dalle righe di C.
b) Trovare una base dello spazio generato dalle colonne di C.
c) Trovare una base del nucleo di f
C
d) Trovare M
A,P
(f
C
) dove / = T = e
1
+e
2
.e
3
, e
2
, e
1
+e
4

e) Dire se C `e diagonalizzabile su R.
Esercizio 5. Sia h R e sia
E
h
=
_
_
_
_
1 h 0 0
h 1 0 h
0 0 h 0
0 0 0 0
_
_
_
_
a) Discutere il rango di E
h
al variare del parametro h R.
b) Per ogni valore di h trovare una base dello spazio generato dalle colonne di E
h
e completarla
ad una base di R
4
.
c) Discutere la digonalizzabilit`a di E
h
su R al variare del parametro h R.
Esercizio 6. Sia C la matrice 44 con coeciente i, j uguale a i+j e sia A =
_
_
_
_
0 0 0 1
0 0 2 0
0 3 0 0
4 0 0 0
_
_
_
_
a) Trovare una base dello spazio generato dalle righe di C e una forma cartesiana di tale spazio.
b) Calcolare det(CAC).
c) Calcolare M
A,E
(f
A
) dove / = e
1
+e
2
.e
3
, e
2
, e
1
+e
4
.
75
d) Dire se A `e diagonalizzabile su R.
Esercizio 7. Siano x
1
, ..., x
n
R. Dimostrare che
det
_
_
_
_
_
_
1 . . . 1
x
1
. . . x
n
. . . . .
. . . . .
x
n1
1
. . . x
n1
n
_
_
_
_
_
_
=

i<j
(x
j
x
i
)
(determinante di Vandermonde).
Esercizio 8. Sia n N. Calcolare il determinante e il rango della matrice n n
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 2 3 . . . n 2 n 1 n
2 3 4 . . . n 1 n n
3 4 5 . . . n n n
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
n 2 n 1 n . . . n n n
n 1 n n . . . n n n
n n n . . . n n n
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Esercizio 9. Sia A M(3 3, R) tale che
A
7
=
t
(A
7
) =
Dimostrare che A non `e invertibile.
Esercizio 10. Sia
A =
_
_
0 1 0
1 0 0
0 0 1
_
_
Dire se f
A
: C
3
C
3
`e diagonalizzabile.
Esercizio 11. Sia
A =
_
_
_
_
2 4 0 0
1 2 0 0
0 0 2 4
0 0 1 2
_
_
_
_
Dire se f
A
: C
4
C
4
`e diagonalizzabile.
Esercizio 12. Sia
A =
_
_
_
_
2 4 0 0
1 2 1 0
0 0 2 4
0 0 1 2
_
_
_
_
Dire se f
A
: C
4
C
4
`e diagonalizzabile.
76
Esercizio 13. Sia a R. Sia
A =
_
_
1 0 a
0 6 0
1 0 1
_
_
Dire per quali valori di a, f
Aa
: R
3
R
3
`e diagonalizzabile.
Esercizio 14. Sia t R. Sia
A
t
=
_
_
0 0 t
0 2 0
1 0 0
_
_
Discutere la diagonalizzabilit`a di f
At
: R
3
R
3
al variare del parametro t.
Esercizio 15. Sia A M(3 3, R) con autovalori 0, 1, 2. Calcolare
a) det(A
2
)
b) det(A
2
+A I)
Esercizio 16. Dimostrare che gli autovalori di una matrice sono esattamente gli autovalori della
matrice trasposta.
Esercizio 17. Sia
A =
_
_
0 1 0
1 0 0
0 0 i
_
_
Dire se f
A
: C
3
C
3
`e diagonalizzabile.
77
9 Forme bilineari
9.1 Prime denizioni e matrici associate alle forme bilineari
Denizione 145. Sia V uno spazio vettoriale su un campo K. Unapplicazione
b : V V K
si dice bilineare se
1) b(v +w, u) = b(v, u) + b(w, u) v, w, u V , , K
2) b(u, v +w) = b(u, v) + b(u, w) v, w, u V , , K
Osserviamo che se bV V K `e una forma bilineare allora b(v, 0
V
) = b(0
V
, v) = 0
K
v V ,
infatti ad esempio b(v, 0
V
) = b(v, 0
K
0
V
) = 0
K
b(v, 0
V
) = 0
K
.
Denizione 146. Una forma bilineare b : V V K si dice simmetrica se
b(v, w) = b(w, v)
v, w V .
Denizione 147. Sia V uno spazio vettoriale su R. e sia b : V V R una forma bilineare.
Si dice denita positiva se b(v, v) > 0 v V , v ,= 0.
Si dice denita negativa se b(v, v) < 0 v V , v ,= 0.
Si dice semidenita positiva se b(v, v) 0 v V .
Si dice semidenita negativa se b(v, v) 0 v V .
Denizione 148. Sia V uno spazio vettoriale di dimensione nita su un campo K. e sia
b : V V K una forma bilineare. Sia B = v
1
, ..., v
n
una base di V su K. Si denisce
matrice associata a b nella base B la matrice n n il cui coeciente i, j `e
b(v
i
, v
j
)
i, j 1, ..., n. Essa si denota M
B
(b).
Osservazione 149. Sia V uno spazio vettoriale su un campo K di dimensione nita. e sia
b : V V K una forma bilineare. Sia B = v
1
, ..., v
n
una base di V su K. Siano v e w
appartenenti a V e siano x e y rispettivamente le n-uple dei loro coecienti rispetto a B. Allora
b(v, w) =
t
xM
B
(b)y
Dimostrazione
b(v, w) = b
_
_

i=1,...,n
x
i
v
i
,

j=1,...,n
y
j
v
j
_
_
=

i=1,...,n

j=1,...,n
x
i
y
j
b(v
i
, v
j
) =
=

i=1,...,n

j=1,...,n
x
i
y
j
M
B
(b)
i,j
=
t
xM
B
(b)y
Q.e.d.
Osservazione 150. Sia V uno spazio vettoriale su un campo K di dimensione nita. e sia
b : V V K una forma bilineare. Sia B = v
1
, ..., v
n
una base di V su K. La forma
bilineare b `e simmetrica se e solo se M
B
(b) `e simmetrica.
78
Dimostrazione. Se b `e simmetrica allora in particolare, per qualsiasi i, j 1, ..., n, b(v
i
, v
j
) =
b(v
j
, v
i
), cio`e M
B
(b)
i,j
= M
B
(b)
j,i
; quindi M
B
(b) `e simmetrica.
Dimostriamo adesso che se M
B
(b) `e simmetrica, allora b `e simmetrica; siano v e w due elementi
di V ; voglio dimostrare che b(v, w) = b(w, v). Scrivo v e w come combinazioni lineari di B:
v =

i=1,..,n

i
v
i
, w =

i=1,..,n

i
v
i
. Quindi
b(v, w) = b

X
i=1,..,n
ivi,
X
i=1,..,n
ivi
!
= b

X
i=1,..,n
ivi,
X
j=1,..,n
jvj
!
=
X
i=1,..,n
X
j=1,..,n
ijb(vi, vj)
e
b(w, v) = b

X
i=1,..,n
ivi,
X
i=1,..,n
ivi
!
= b

X
j=1,..,n
jvj,
X
i=1,..,n
ivi
!
=
X
j=1,..,n
X
i=1,..,n
jib(vj, vi)
Dato che M
B
(b) `e simmetrica, si ha che M
B
(b)
i,j
= M
B
(b)
j,i
, cio`e b(v
i
, v
j
) = b(v
j
, v
i
), quindi
b(v, w) = b(w, v)
Q.e.d.
Proposizione 151. (Formula di cambio di base per le matrici associate alle forme bili-
neari.) Sia V uno spazio vettoriale su un campo K di dimensione nita. e sia b : V V K
una forma bilineare. Siano B = v
1
, ..., v
n
e B

= w
1
, ..., w
n
due basi di V su K. Allora
M
B
(b) =
t
M
B,B
(I
V
)M
B
(b)M
B,B
(I
V
)
Dimostrazione. Per dimostrare la tesi, dimostro che, per qualsiasi i, j 1, ..., n, il coeciente
i, j del primo membro `e uguale al coeciente i, j del secondo membro. Per semplicit`a di
notazione, chiamo A la matrice M
B,B
(I
V
).
Esaminiamo il coeciente i, j del primo membro
M
B
(b)
i,j
= b(w
i
, w
j
) = b
_

t
A
t,i
v
t
,

s
A
s,j
v
s
_
=

s
A
t,i
A
s,j
b(v
t
, v
s
)
Esaminiamo il coeciente i, j del secondo membro
(
t
A M
B
(b) A)
i,j
=

s=1,...,n
(
t
A M
B
(b))
i,s
A
s,j
=
=

s=1,...,n
_

t=1,...,n
(
t
A)
i,t
M
B
(b)
t,s
_
A
s,j
=
=

s=1,...,n
_

t=1,...,n
A
t,i
M
B
(b)
t,s
_
A
s,j
=
=

s=1,...,n

t=1,...,n
A
s,j
A
t,i
M
B
(b)
t,s
=
=

s=1,...,n

t=1,...,n
A
s,j
A
t,i
b(v
t
, v
s
)
Q.e.d.
79
Esempi. 1) Il prodotto scalare standard su K
n
`e una forma bilineare simmetrica. Se K = R `e
denita positiva.
2) Lapplicazione b : R
3
R
3
R tale che
b
_
_
_
_
x
1
x
2
x
3
_
_
,
_
_
y
1
y
2
y
3
_
_
_
_
= x
1
y
3
+x
2
y
2
`e una forma bilineare (si vericano facilmente sia la linearit`a nel primo argomento che nel secondo)
non simmetrica.
3) Sia A M(n n, K). Lapplicazione b
A
: K
n
K
n
K tale che
b(x, y) =
t
xAy
`e bilineare, infatti
b(x +x

, y) =
t
(x +x

)Ay = (
t
x +
t
x

)Ay =

t
xAy +
t
x

Ay = b(x, y) +b(x

, y)
e
b(x, y +y

) =
t
xA(y +y

) =
t
xAy +
t
xAy

=
= b(x, y) +b(x, y

)
Quindi per dimostrare che lesempio in 2) `e una forma bilineare si pu` o, oltre che vericare
direttamente la denizione, anche trovare una matrice A 3 3 tale che
t
xAy = x
1
y
3
+x
2
y
2
x, y K
3
. E facile vedere che `e A =
_
_
0 0 1
0 1 0
0 0 0
_
_
la matrice tale che
t
xAy = x
1
y
3
+x
2
y
2
x, y K
3
.
9.2 I Teoremi di Gram-Schmidt
Denizione 152. Sia V uno spazio vettoriale su un campo K e sia b una forma bilineare
simmetrica. Sia W un sottospazio vettoriale di V . Si denisce lortogonale di W (rispetto a b)
W

= v V [b(v, w) = 0 w W
Si pu` o vericare facilmente che W

`e anche lui un sottospazio vettoriale di V .


Teorema 153. (Gram-Schmidt I.) Sia V uno spazio vettoriale su R di dimensione n. Sia b
una forma bilineare simmetrica e denita positiva su V . Allora esiste una base di V ortonormale
per b, cio`e una base B = v
1
, ..., v
n
di V tale che
b(v
i
, v
j
) =
i,j
i, j 1, ..., n o, in altre parole, una base B tale che
M
B
(b) = I
n
80
Dimostrazione. Per induzione su n. Se n = 1 e v `e una base di V , basta considerare la base
data da
v

b(v,v)
, infatti:
b
_
v
_
b(v, v)
,
v
_
b(v, v)
_
=
1
_
b(v, v)
1
_
b(v, v)
b(v, v) = 1
Dimostriamo adesso il passo induttivo, quindi diamo per buono lenunciato nel caso che lo spazio
vettoriale abbia dimensione n 1 e dimostriamolo nel caso la dimensione dello spazio vettoriale
sia n.
Sia v
1
, ..., v
n
una base di V . Sia
v

1
=
v
1
_
b(v
1
, v
1
)
Per i = 2, ..., n consideriamo il vettore
v

i
= v
i

b(v
i
, v
1
)
b(v
1
, v
1
)
v
1
v
v
1
v
i
i
Osserviamo che b(v

i
, v
1
) = 0 i = 2, ..., n e quindi anche ovviamente b(v

i
, v

1
) = 0 i = 2, ..., n.
Inoltre v

1
, v

2
, ....., v

n
formano ancora una base di V perch`e sono generatori di V (infatti quel che
pu` o essere scritto come combinazione lineare di v
1
, ..., v
n
pu` o essere scritto ovviamente anche
come combinazione lineare di v

1
, .., v

n
) e la loro cardinalit`a `e n.
Sia W = v

2
, ..., v

n
). Si ha
W v
1
)

= v

1
)

dato che b(v

i
, v
1
) = 0 i = 2, ..., n.
Ovviamente W ha dimensione n1; inoltre v
1
, v
1
)

(infatti b(v
1
, v
1
) `e maggiore di 0 perch`e
b `e denita positiva, in particolare b(v
1
, v
1
) ,= 0), quindi dimv
1
)

n 1 (infatti se la sua
dimensione fosse n coinciderebbe con tutto V e quindi conterrebbe v
1
). Quindi
W = v
1
)

Per ipotesi induttiva, esiste una base di W ortonormale per b: v

2
, ...., v

n
. Allora v

1
, v

2
, ...., v

`e una base di V ortonormale per b. Q.e.d.


Denizione 154. Sia V uno spazio vettoriale su un campo K. Sia b una forma bilineare
simmetrica su V . Un vettore v V si dice isotropo per b se
b(v, v) = 0
Teorema 155. (Gram-Schmidt II.) Sia V uno spazio vettoriale di dimensione n, su un campo K
tale che 1
K
+ 1
K
,= 0
K
. Sia b una forma bilineare simmetrica su V . Allora esiste una base
ortogonale per b, cio`e una base B = v
1
, ..., v
n
di V tale che
b(v
i
, v
j
) = 0
81
i, j 1, ..., n con i ,= j o, in altre parole, una base B tale che
M
B
(b)
`e diagonale.
Dimostrazione. - Supponiamo prima che tutti i vettori di V siano isotropi rispetto a b, cio`e
b(v, v) = 0 v V .
Siano v e w due vettori qualsiasi di V . Si ha
0 = b(v +w, v +w) = b(v, v) +b(w, w) + 2b(v, w) = 2b(v, w)
da cui 2b(v, w) = 0. Per quanto abbiamo supposto sul campo, si ha b(v, w) = 0. Quindi
abbiamo dimostrato che se ogni vettore di V `e isotropo rispetto a b, allora b `e identicamnte
nullo. In tal caso ogni base di V `e una base ortogonale per b.
- Possiamo quindi supporre che esista un vettore di V , chiamiamolo v
1
, non isotropo. Comple-
tiamo v
1
a una base di V : v
1
, ...., v
n
. Possiamo adesso ragionare come nella dimostrazione
del precedente teorema. Q.e.d.
9.3 La segnatura delle forme bilineari simmetriche
Osservazione 156. Sia V uno spazio vettoriale su R di dimensione nita. e sia b : V V R
una forma bilineare simmetrica. Allora esiste una base B di V tale che M
B
(b) `e diagonale con
gli elementi della diagonale appartenenti a 0, 1, 1.
Dimostrazione. Per il teorema di Gram-Schmidt II esiste una base ortogonale per b, cio`e una
base / = v
1
, ..., v
n
di V tale che b(v
i
, v
j
) = 0 i, j 1, ..., n con i ,= j. Deniamo per
qualsiasi i 1, ..., n
v

i
=
_

_
vi

b(vi,vi)
se b(v
i
, v
i
) > 0
vi

b(vi,vi)
se b(v
i
, v
i
) < 0
v
i
se b(v
i
, v
i
) = 0
Osserviamo che B = v

1
, ..., v

n
`e ancora una base (infatti per la Prop. 70 parte 2, sono ancora
un insieme di generatori di V ). Inoltre b(v

i
, v

j
) = 0 se i ,= j e
_
_
_
b(v

i
, v

i
) = 1 se b(v
i
, v
i
) > 0
b(v

i
, v

i
) = 1 se b(v
i
, v
i
) < 0
b(v

i
, v

i
) = 0 se b(v
i
, v
i
) = 0
per qualsiasi i 1, ..., n. Quindi M
B
(b) `e diagonale con gli elementi della diagonale apparte-
nenti a 0, 1, 1.
Q.e.d.
Denizione 157. Sia V uno spazio vettoriale su R di dimensione nita. e sia b : V V R
una forma bilineare simmetrica.
Si denisce rango della forma bilineare il rango di M
B
(b) per una qualsiasi base B.
Sia B una base di V tale che M
B
(b) `e diagonale con gli elementi della diagonale appartenenti a
0, 1, 1. Il numero p degli +1 si dice positivit`a della forma bilineare simmetrica b; il numero
dei 1 si dice negativit`a. La coppia (p, ) si dice segnatura.
La somma della positivit`a e della negativit`a `e ovviamente uguale al rango.
82
Abbiamo denito rango della forma bilineare b come il rango di M
B
(b) per una qualsiasi base
B; se scelgo unaltra base avr` o lo stesso rango, in quanto `e facile dimostrare che moltiplicando
a destra o a sinistra una matrice A per una matrice invertibile C, il rango del prodotto `e uguale
al rango di A.
Ovviamente per poter aermare che la denizione di positivit`a e negativit`a `e una buona deni-
zione, bisogna dimostrare il seguente teorema.
Teorema 158. (Teorema di inerzia o di Sylvester.) Sia V uno spazio vettoriale su R di
dimensione nita. e sia b : V V R una forma bilineare simmetrica Siano B = v
1
, ..., v
n
e
B

= w
1
, ..., w
n
due basi di V tali che M
B
(b) e M
B
(b) siano diagonali con gli elementi della
diagonale appartenenti a 0, 1, 1. Allora il numero degli 1 sulla diagonale di M
B
(b) `e uguale
al numero degli 1 sulla diagonale di M
B
(b).
Dimostrazione. Sia p il numero degli elementi sulla diagonale di M
B
(b) uguali a 1 e sia p

il
numero degli elementi sulla diagonale di M
B
(b) uguali a 1. Modulo riordinare le basi, possiamo
supporre che in entrambe le matrici gli 1 sulla diagonale compaiano tutti allinzio.
Supponiamo per assurdo che p ,= p

; supponiamo per esempio che p > p

.
Sia
U = v
1
, ..., v
p
)
e sia
W = w
p

+1
, ..., w
n
)
Ovviamente dim(U) = p e dim(W) = n p

, quindi per la formula di Grassmann si ha


dim(U W) = dim(U) +dim(W) dim(U +W) p +n p

n = p p

> 0
dove la prima disuguaglianza vale in quanto dim(U + W) dim(V ) = n, quindi dim(U +
W) n. Sia v U W, v ,= 0. Quindi posso scrivere ovviamente v come v =

i=1,..,p

i
v
i
e v =

j=p

+1,..,n

j
w
j
con i
i
non tutti nulli e i
j
non tutti nulli dato che v ,= 0.
Si ha quindi
b(v, v) =

i=1,...,p

2
i
b(v
i
, v
i
) =

i=1,...,p

2
i
> 0
e, daltra parte,
b(v, v) =

i=p

+1,...,n

2
i
b(w
i
, w
i
) 0
quindi si ha un assurdo.
Analogamente se supponevamo p

> p. Q.e.d.
Osservazione 159. Sia V uno spazio vettoriale su un campo K di dimensione nita e sia
b : V V K una forma bilineare. Siano B = v
1
, ..., v
n
e B

= w
1
, ..., w
n
due basi di V
su K. Allora per la formula di cambio di base
M
B
(b) =
t
M
B,B
(I
V
)M
B
(b)M
B,B
(I
V
)
quindi
det(M
B
(b)) = det(M
B,B
(I
V
))
2
det(M
B
(b))
quindi se K = R
det(M
B
(b)) > 0 det(M
B
(b)) > 0
det(M
B
(b)) < 0 det(M
B
(b)) < 0
det(M
B
(b)) = 0 det(M
B
(b)) = 0
Quindi il determinante della matrice associata alla forma bilineare in una certa base dipende dalla
base scelta, ma il segno di tale determinante non varia al variare dalla base.
83
Osservazione 160. Sia V uno spazio vettoriale su R di dimensione nita n e sia b : V V R
una forma bilineare simmetrica di segnatura (p, ). Allora
b `e denita positiva se e solo se (p, ) = (n, 0)
b `e denita negativa se e solo se (p, ) = (0, n)
b `e semidenita positiva se e solo se = 0
b `e semidenita negativa se e solo se p = 0
Infatti sia B = v
1
, ..., v
n
una base di V tale che M
B
(b) sia diagonale con elementi sulla
diagonale appartenenti a 0, 1, 1. Per qualsiasi v V , si ha che, detta x ln-upla delle
coordinate di v rispetto a B,
b(v, v) =
t
xM
B
(b)x =

i=1,...,n
x
2
i
M
B
(b)
i,i
=

i=1,...,n
x
2
i
b(v
i
, v
i
)
Proviamo che b `e denita positiva se e solo se (p, ) = (n, 0).
Ovviamente se b `e denita positiva allora b(v
i
, v
i
) > 0 i = 1, ..., n, quindi gli elementi sulla
diagonale di M
B
(b) devono essere tutti uguali a 1, quindi la segnatura `e (n, 0).
Viceversa se la segnatura `e (n, 0), vuol dire che gli elementi sulla diagonale di M
B
(b) devono
essere tutti uguali a 1 e quindi
b(v, v) =
t
xM
B
(b)x =

i=1,...,n
x
2
i
M
B
(b)
i,i
=

i=1,...,n
x
2
i
Analogamente le altre equivalenze.
Osservazione 161. Sia V uno spazio vettoriale su R di dimensione nita n e sia b : V V R
una forma bilineare simmetrica di segnatura (p, ). Sia B = v
1
, ..., v
k
, v
k+1
, ..., v
n
una base
tale che la matrice associata in tale base sia a blocchi diagonali k k e (n k) (n k):
M
B
(b) =
_
R 0
0 S
_
con R M(k k, R) e S M((n k) (n k), R). Questo ovviamente equivale a dire che
b(v
i
, v
j
) = 0 se i 1, ..., k e j k + 1, ..., n.
Sia (p

) la segnatura di b[
v1,...,v
k

e sia (p

) la segnatura di b[
v
k+1
,...,vn
Si ha:
(p, ) = (p

) + (p

)
Infatti posso trovo una base /

di v
1
, ..., v
k
) tale che M
A
(b[
v1,...,v
k

) sia diagonale con elementi


sulla diagoonale appartenenti allinsieme 0, 1, 1 e una base /

di v
k+1
, ..., v
n
) tale che
M
A
(b[
v
k+1
,...,vn
) sia diagonale con elementi sulla diagonale appartenenti allinsieme 0, 1, 1.
Unendo /

e /

ottengo una base / di V tale che M


A
(b) sia diagonale con elementi sulla
diagonale appartenenti allinsieme 0, 1, 1; ovviamente i due blocchi diagonali k k e (n
k) (n k) saranno proprio M
A
(b[
v1,...,v
k

) e M
A
(b[
v
k+1
,...,vn
), quindi il numero degli
1 in M
A
(b) sar`a la somma del numero degli 1 in M
A
(b[
v1,...,v
k

) e del numero degli 1 in


M
A
(b[
v
k+1
,...,vn
) e cos` per il numero dei 1.
Teorema 162. (Criterio dei minori principali.) Sia A M(n n, R). Allora A `e denita
positiva se e solo se per qualsiasi i da 1 a n il determinante della sottomatrice di A formata dalle
prime i righe e i colonne `e positivo.
84
Dimostrazione omessa.
Esercizio 1. Sia V uno spazio vettoriale su R di dimensione 3 e sia B = v
1
, v
2
, v
3
una sua
base. Calcolare la segnatura della forma bilineare simmetrica b su V tale che
M
B
(b) =
_
_
0 1 1
1 2 0
1 0 3
_
_
Osserviamo che il determinante della matrice `e 5. Quindi il rango della forma bilineare `e 3.
Quindi la somma della positivit`a e della negativit`a `e 3. Inoltre, essendo il determinante negativo,
la negativit`a deve essere dispari. Quindi le possibilit`a sono (p, ) = (0, 3) e (p, ) = (2, 1).
Osserviamo che se la segnatura fosse (0, 3), si avrebbe che la forma bilineare `e denita negativa;
ma b(v
1
, v
1
) = 0 quindi b(v
1
, v
1
) non `e minore di 0, pertanto la forma bilineare non pu` o essere
denita negativa. Quindi la segnatura `e (2, 1).
Esercizio 2. Sia V uno spazio vettoriale su R di dimensione 3 e sia B = v
1
, v
2
, v
3
una sua
base. Calcolare la segnatura della forma bilineare simmetrica b su V tale che
M
B
(b) =
_
_
0 2 0
2 0 2
0 2 0
_
_
Osserviamo che il rango `e 2, quindi la segnatura pu` o essere solo o (2, 0) o (1, 1) o (0, 2).
Osserviamo che b(v
1
+ v
2
, v
1
+ v
2
) = 4 quindi b non pu` o essere semidenita negativa e b(v
1

v
2
, v
1
v
2
) = 4 quindi b non pu` o essere semidenita positiva. Pertanto la segnatura pu` o essere
solo (1, 1).
Esercizio 3. Sia V uno spazio vettoriale su R di dimensione 4 e sia B = v
1
, v
2
, v
3
, v
4
una sua
base. Calcolare la segnatura della forma bilineare simmetrica b su V tale che
M
B
(b) =
_
_
_
_
1 2 0 0
2 0 1 0
0 1 2 1
0 0 1 3
_
_
_
_
Osserviamo che il determinante della matrice `e 23, quindi il rango `e 4 e p + = 4 e deve
essere dispari. Quindi la segnatura pu` o essere solo (3, 1) o (1, 3). Osserviamo che
M
{v3,v4}
(b[
v3,v4
) =
_
2 1
1 3
_
quindi b[
v3,v4
`e denita positiva. Osserviamo che se b avesse segnatura (1, 3) esisterebbe un
sottospazio vettoriale W di V di dimensione 3 su cui b `e denita negativa; si avrebbe che
dim(W v
3
, v
4
)) 1 per la formula di Grassmann e quindi si avrebbe un assurdo perche, se
85
v W v
3
, v
4
) con v ,= 0, allora b(v, v) dovrebbe essere sia minore di 0, perche v W, sia
maggiore di 0, perche v v
3
, v
4
).
Quindi la segnatura di b `e (3, 1).
Esercizio 4. Sia V uno spazio vettoriale su R di dimensione 4 e sia B = v
1
, v
2
, v
3
, v
4
una sua
base. Calcolare la segnatura della forma bilineare simmetrica b su V tale che
M
B
(b) =
_
_
_
_
1 2 0 0
2 0 0 0
0 0 2 1
0 0 1 3
_
_
_
_
Per lOsservazione 161, la segnatura di b `e la somma della segnatura di b[
v1,v2
e della segnatura
di b[
v3,v4
. Si calcola facilmente con i soliti ragionamenti che esse sono rispettivamente (1, 1) e
(2, 0). Quindi la segnatura di b `e (3, 1).
Esercizio 5. Sia a R. Sia V uno spazio vettoriale su R di dimensione 3 e sia B = v
1
, v
2
, v
3

una sua base. Calcolare, al variare di a in R, la segnatura della forma bilineare simmetrica b
a
su
V tale che
M
B
(b
a
) =
_
_
a 2a 0
2a 0 3
0 3 a
_
_
Osserviamo che il determinante di tale matrice `e a(4a
2
+ 9), quindi `e uguale a 0 se e solo se
a = 0, `e maggiore di 0 se e solo se a < 0 `e minore di 0 se e solo se a > 0.
Quindi se a < 0 la segnatura pu` o essere solo (1, 2) o (3, 0), ma se fosse (3, 0) allora b
a
sarebbe
denita positiva e ci` o non `e possibile perche ad esempio b(v
1
, v
1
) = 0.
Se a > 0 la segnatura pu` o essere solo (2, 1) o (0, 3), ma se fosse (0, 3) allora b
a
sarebbe denita
negativa e ci` o non `e possibile perche ad esempio b(v
1
, v
1
) = 0.
Se a = 0, la matrice associata nella base B diventa
_
_
0 0 0
0 0 3
0 3 0
_
_
. Quindi per lOsservazione
161, la segnatura `e (0, 0) + (1, 1) = (1, 1).
Osserviamo che il metodo che abbiamo utilizzato nei precedenti esercizi per calcolare la segnatura
delle forma bilineari simmetriche non pu` o essere utilizzato per calcolare la segnatura di una
qualsiasi forma bilinare simmetrica: se la dimensione di V `e grande, per la segnatura ci sono molte
possibilit`a e dicilmente riusciremo, facendo i ragionamenti che abbiamo fatto negli esercizi
precedenti, a capire quale `e la segnatura giusta. Vedremo nei prossimi paragra altri due metodi
per calcolare la segnatura di una forma bilineare simmetrica: il metodo babilonese e il calcolo
del numero degli autovalori positivi e negativi.
86
9.4 Le forme quadratiche
Sia V uno spazio vettoriale su un campo K. Sia b : V V K una forma bilineare simmetrica.
Si dice forma quadratica associata a b lapplicazione
q : V K
cos`denita:
q(v) := b(v, v)
v V . Se V `e uno spazio vettoriale di dimensione nita e sso una base B di V , la forma
quadratica si pu` o esprimere come polinomio omogeneo di grado nelle coordinate rispetto a questa
base: sia v V e sia x ln-upla delle coordinate di v rispetto a B; allora
q(v) = b(v, v) =
t
xM
B
(b)x =

i,j=1,...,n
x
i
x
j
M
B
(b)
i,j
che `e un polinomio omogeneo di grado 2 in x
1
, ..., x
n
.
Osserviamo che M
B
(b) `e diagonale se e solo se la forma quadratica associata a b, q(v) =

i,j=1,...,n
x
i
x
j
M
B
(b)
i,j
, `e una combinazione lineare di quadrati nelle coordinate x
i
.
Osservazione 163. Sia K un campo tale che 1
K
+ 1
K
,= 0
K
, cio`e 2 ,= 0. Sia V uno spazio
vettoriale su K. Sia b : V V K una forma bilineare simmetrica e q la sua forma quadratica
associata. Osserviamo che
b(v +w, v +w) = b(v, v) +b(w, w) +b(v, w) +b(w, v) = b(v, v) +b(w, w) + 2b(v, w)
quindi si ha
b(v, w) =
b(v +w, v +w) b(v, v) b(w, w)
2
=
q(v +w) q(v) q(w)
2
Quindi sapendo il valore della forma quadratica associata a b su ogni vettore di V , si pu` o
ricavare il valore di b su ogni coppia di vettori di V ; in altre parole la forma quadratica determina
univocamente b.
9.5 Il metodo babilonese
Sia P(x
1
, ..., x
n
) un polinomio omogeneo di grado 2 a coecienti in un campo K tale che
1
K
+ 1
K
,= 0
K
.
Vogliamo far vedere come, cambiando opportunamente coordinate, si pu` o trasformare P in un
polinomio che sia una combinazione lineare di quadrati nelle incognite. Dimostriamo ci` o per
induzione su n.
Useremo sostanzialmente le due seguenti formule:
1) (a +b)
2
b
2
= a
2
+ 2ab a, b K
2) (a b)(a +b) = a
2
b
2
a, b K
Osserviamo anzitutto che possiamo supporre che in P compaia una variabile al quadrato.
Infatti se non comparisse o il polinomio `e nullo o contiene un monomio misto cio`e prodotto di
due distinte variabili; modulo rinominare le varibili, posso supporre siano x
1
e x
2
; quindi P ha il
coeciente di x
1
x
2
diverso da zero:
P = cx
1
x
2
+..........
87
con c ,= 0. Posso allora considerare nuove varibili cos`denite:
z
1
=
x
1
+x
2
2
, z
2
=
x
1
x
2
2
, z
i
= x
i
, per i 3
Osservo che x
1
= z
1
+z
2
e x
2
= z
1
z
2
. In tali variabili quindi P diventa il polinomio
c(z
1
+z
2
)(z
1
z
2
) +........... = cz
2
1
cz
2
2
+.........
che contiene una variabile al quadrato. Quindi ci siamo ricondotti al caso in cui nel polinomio
compare una variabile al quadrato.
Possiamo quindi supporre che in P ci sia una variabile che compare al quadrato. Ovviamente
possiamo anche supporre che in P ci sia una variabile che compare al quadrato e che compare
anche in qualche termine misto (altrimenti avremmo gi`a che P `e una combinazione lineare dei
quadrati delle variabili). Modulo riordinare le variabili, posso supporre sia x
1
compaia al quadrato
e anche in qualche termine misto. Quindi P `e del tipo
cx
2
1
+x
1
Q(x
2
, ..., x
n
) +R(x
2
, ..., x
n
)
dove Q `e un polinomio lineare diverso da 0, R ovviamente un polinomio di grado 2 omogeneo
e c una costante non nulla. Supponiamo ad esempio che in Q la variabile x
2
compaia con
coeciente non nullo. Si ha
cx
2
1
+x
1
Q(x
2
, ..., x
n
) = c
_
x
2
1
+ 2x
1
Q(x
2
, ..., x
n
)
2c
_
= c
_
_
x
1
+
Q(x
2
, ..., x
n
)
2c
_
2

_
Q(x
2
, ..., x
n
)
2c
_
2
_
dove lultima uguaglianza `e vera per la formula 1. Quindi
P(x
1
, ..., x
n
) = c
_
_
x
1
+
Q(x
2
, ..., x
n
)
2c
_
2

_
Q(x
2
, ..., x
n
)
2c
_
2
_
+R(x
2
, .., x
n
)
Possiamo adesso cambiare variabili, precisamente, possiamo considerare le variabili
y
1
= x
1
+
Q(x2,...,xn)
2c
y
2
=
Q(x2,...,xn)
2c
y
i
= x
i
per i 3
Osservate che tale cambio di variabili corrisponde a un cambio di base di K
n
in quanto `e
invertibile. Ovviamente, dalle ultime due formule, x
2
pu` o essere scritto come combinazione
lineare di y
2
, ..., y
n
, pertanto posso scrivere R

(x
2
, .., x
n
) = R

(y
2
, .., y
n
). In tali variabili il
polinomio diventa quindi
cy
2
1
cy
2
2
+R

(y
2
, .., y
n
)
Quindi adesso posso ripetere il procedimento sulla seconda parte del polinomio
cy
2
2
+R

(y
2
, .., y
n
)
che `e un polinomio in n 1 variabili. Quindi per induzione concludo.
Esempio. Consideriamo il polinomio
x
1
x
2
+ 2x
2
2
x
2
3
+ 4x
1
x
3
88
Possiamo scriverlo cos`:
2
_
x
2
2
+ 2
x
1
4
x
2
_
x
2
3
+ 4x
1
x
3
=
= 2
_
_
x
2
+
x
1
4
_
2

_
x
1
4
_
2
_
x
2
3
+ 4x
1
x
3
Considerando il seguente cambio di coordinate
y
1
=
x1
4
y
2
= x
2
+
x1
4
y
3
= x
3
esso diventa
2y
2
2
2y
2
1
y
2
3
+ 16y
1
y
3
che possiamo scrivere
2y
2
2
2(y
2
1
8y
1
y
3
) y
2
3
=
= 2y
2
2
2[(y
1
4y
3
)
2
(4y
3
)
2
] y
2
3
Considerando il seguente cambio di coordinate
z
1
= y
1
4y
3
z
2
= y
2
z
3
= 4y
3
il polinomio diventa:
2z
2
2
2z
2
1
+ 2z
2
3

1
16
z
2
3
=
2z
2
2
2z
2
1
+
31
16
z
2
3
Esempio. Consideriamo il polinomio
x
1
x
2
+x
3
x
4
Siano
y
1
=
x1+x2
2
y
2
=
x1x2
2
y
3
=
x3+x4
2
y
4
=
x3x4
2
Quindi
x
1
= y
1
+y
2
x
2
= y
1
y
2
x
3
= y
3
+y
4
x
4
= y
3
y
4
In tali coordinate, il polinomio diventa
y
2
1
y
2
2
+y
2
3
y
2
4
89
Esercizio. Sia V uno spazio vettoriale su R di dimensione 3 e sia B = v
1
, v
2
, v
3
una sua
base. Consideriamo la forma bilineare simmetrica b su V gi`a considerata nellEsercizio 2, cio`e la
forma bilineare simmetrica b su V tale che
M
B
(b) =
_
_
0 2 0
2 0 2
0 2 0
_
_
Vogliamo calcolare di nuovo la segnatura. Osserviamo che la forma quadratica associata a b `e
4xy + 4yz
Posso considerare le variabili a, b, c tali che
x = a b
y = a +b
z = c
Il polinomio diventa
4a
2
4b
2
+ 4ac + 4bc = 4b
2
+ 4
_
a
2
+ 2a
c
2
_
+ 4bc = 4b
2
+ 4
_
_
a +
c
2
_
2

_
c
2
_
2
_
+ 4bc
Consideriamo le variabili
t = a +
c
2
s =
c
2
u = b
In tali variabili il polinomio diventa
4u
2
+ 4t
2
4s
2
+ 8us = 4t
2
4(u s)
2
Cambiando ulteriormente variabili
X = t
Y = u s
Z = u +s
il polinomio diventa
4X
2
4Y
2
Pertanto la segnatura `e (1, 1).
Osservate che era molto pi`u semplice scrivere allinizio il polinomio come
4y(x +z)
e considerare le variabili
l = y
m = x +z
n = x z
In tali variabili il polinomio diventa
4lm
Considerando l = X Y , m = X +Y , n = Z, ottengo il polinomio
4X
2
4Y
2
da cui di nuovo la segnatura di b `e (1, 1).
90
9.6 Il teorema spettrale
Ricordo che per il cosiddetto teorema fondamentale dellAlgebra, i polinomi a coecenti com-
plessi hanno sempre una radice complessa; quindi sono sempre completamente fattorizzabili in
fattori di grado 1 a coecienti complessi (infatti per fattorizzare p(x) basta prima trovare una
radice , poi trovare una radice del quoziente di p(x) per x ecc.).
Pertanto il polinomio cartteristico di una matrice a coecienti reali (che pu` o essere visto come
un polinomio a coecienti complessi) `e sempre completamente fattorizzabile in fattori di grado
1 a coecienti complessi. Il seguente lemma ci dice che, se la matrice `e simmetrica, allora il suo
polinomio cartteristico `e sempre completamente fattorizzabile in fattori di grado 1 a coecienti
reali.
Lemma 164. Sia A M(n n, R) simmetrica. Allora il polinomio caratteristico di A `e
completamente fattorizzabile in fattori di grado 1 a coecienti reali (in altre parole tutte le
radici complesse del polinomio caratteristico di A, cio`e tutti gli autovalori complessi di A, sono
numeri reali).
Dimostrazione. Sia C una radice del polinomio caratteristico di A. Vogliamo dimostrare
che R.
Dato che C `e una radice del polinomio caratteristico di A, esiste v C
n
0 tale che
Av = v. Consideriamo
t
vAv
Tale espressione `e uguale a
t
v(Av) =
t
v(v) =
t
vv
ma `e anche uguale a
(
t
vA)v = (
t
v
t
A)v = (
t
Av)v =
t
vv =
t
vv
in quanto A `e simmetrica e reale quindi
t
A = A. Quindi si ha:

t
vv =
t
vv
da cui si ricava
( )
t
vv = 0
da cui = in quanto, essendo v ,=, si ha che
t
vv ,= 0. Q.e.d.
Teorema 165. (Teorema Spettrale) Sia A M(n n, R) simmetrica. Allora A `e orto-
gonalmente simile ad una matrice diagonale reale, cio`e esiste una matrice P ortogonale tale
che
P
1
AP
(che `e uguale a
t
PAP) `e diagonale.
Prima di dimostrare il teorema, osserviamo che gli elementi sulla diagonale di P
1
AP devono
essere proprio gli autovalori di A (infatti A e P
1
AP sono simili, quindi hanno lo stesso polinomio
caratteristico e quindi gli stessi autovalori e gli autovalori di una matrice diagonale sono gli
elementi sulla diagonale).
Dimostrazione del Teorema Spettrale. Per induzione su n. Se n = 1 lenunciato `e ovvio, infatti
A `e gi`a diagonale, quindi si pu` o prendere P = (1).
Supponiamolo vero per le matrici (n 1) (n 1) e dimostriamolo per le matrici n n. Sia
A M(n n, R) simmetrica. Per il lemma precedente p
A
ha una radice reale ; quindi `e un
autovalore di A, cio`e esiste v R
n
0 tale che Av = v. Sia v
1
=
v
|v|
; quindi v
1
`e ancora
91
un autovettore di A di autovalore . Per il teorema del completamento possiamo completare
v
1
ad una base v
1
, ..., v
n
di R
n
ortonormale per il prodotto scalare standard (basta prima
completare v
1
a una base qualsiasi di R
n
e poi applicare il procedimento di Gram-Schmidt).
Sia Q la matrice ortogonale che ha v
i
come i-esima colonna. Allora Qe
1
= v
1
.
Quindi la prima colonna di Q
1
AQ `e
(Q
1
AQ)e
1
= Q
1
A(Qe
1
) = Q
1
(Av
1
) = Q
1
(v
1
) = (Q
1
v
1
) = e
1
Inoltre Q
1
AQ =
t
QAQ `e simmetrica (infatti
t
(
t
QAQ) =
t
Q
t
A
t
(
t
Q)) =
t
QAQ); pertanto
Q
1
AQ =
_
_
_
_
_
_
_
_
0 . . . 0
0
.
. A

.
0
_
_
_
_
_
_
_
_
(8)
dove A

`e una matrice simmetrica (n 1) (n 1). Per ipotesi induttiva esiste R ortogonale


(n 1) (n 1) tale che R
1
A

R `e una matrice diagonale D

. Sia
S :=
_
_
_
_
_
_
_
_
1 0 . . . 0
0
.
. R
.
0
_
_
_
_
_
_
_
_
Allora
(QS)
1
AQS = S
1
Q
1
AQS
(8)
= S
1
_
_
_
_
_
_
_
_
0 . . . 0
0
.
. A

.
0
_
_
_
_
_
_
_
_
S =
=
_
_
_
_
_
_
_
_
1 0 . . . 0
0
.
. R
.
0
_
_
_
_
_
_
_
_
1
_
_
_
_
_
_
_
_
0 . . . 0
0
.
. A

.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 . . . 0
0
.
. R
.
0
_
_
_
_
_
_
_
_
=
=
_
_
_
_
_
_
_
_
1 0 . . . 0
0
.
. R
1
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 . . . 0
0
.
. A

.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 . . . 0
0
.
. R
.
0
_
_
_
_
_
_
_
_
=
=
_
_
_
_
_
_
_
_
0 . . . 0
0
.
. D

.
0
_
_
_
_
_
_
_
_
92
che `e una matrice diagonale. Quindi P = QS `e la matrice cercata, infatti (QS)
1
AQS `e
diagonale e QS, essendo prodotto di matrici ortogonali, `e ortogonale. Q.e.d.
Osserviamo che il teorema spettrale ci fornisce un altro metodo per calcolare la segnatura di
una forma bilineare simmetrica. Sia V uno spazio vettoriale su R di dimensione nita n e sia B
una sua base. Consideriamo la forma bilineare simmetrica b su V . Allora M
B
(b) `e simmetrica.
Pertanto per il teorema spettrale esiste una matrice ortogonale P tale che
t
PM
B
(b)P `e uguale
a una matrice diagonale D. Gli elementi sulla diagonale di D saranno gli autovalori di M
B
(b).
Sia B

la base di V tale che M


B,B
(I
V
) = P. Allora, per la formula di cambio di base,
M
B
(b) =
t
(M
B,B
(I
V
))M
B
(b)M
B,B
(I
V
) =
t
PM
B
(b)P = D
quindi M
B
(b) `e una matrice diagonale con sulla diagonale gli autovalori di M
B
(b). Da B

possiamo facilmente ricavare una base tale la matrice associata a b in tale base sia diagonale con
elementi della diagonale appartenenti a 1, 1, 0 come abbiamo fatto nellOsservazione 156.
Ovviamente il numero degli 1 sar`a uguale al numero degli elementi positivi della diagonale di
D, quindi uguale al numero degli autovalori positivi di M
B
(b) e il numero dei 1 sar`a uguale
al numero degli elementi negativi della diagonale di D, quindi uguale al numero degli autovalori
negativi di M
B
(b).
Quindi in pratica per calcolare la segnatura di una forma bilineare simmetrica b basta calcolare
quanti sono gli autovalori positivi e gli autovalori negativi di M
B
(b) dove B `e una qualsiasi base
dello spazio vettoriale.
Ovviamente tale metodo non `e infallibile: dicilmente riusciremo a calcolare gli autovalori di
grandi matrici.
Esercizio. Sia V uno spazio vettoriale su R di dimensione 3 e sia B = v
1
, v
2
, v
3
una sua
base. Consideriamo la forma bilineare simmetrica b su V gi`a considerata nellEsercizio 2, cio`e la
forma bilineare simmetrica b su V tale che
M
B
(b) =
_
_
0 2 0
2 0 2
0 2 0
_
_
Vogliamo calcolare di nuovo la segnatura. Il polinomio caratteristico della matrice sopra `e
t(t
2
8)
pertanto gli autovalori sono

8,

8, 0, quindi la segnatura di b `e (1, 1).


93
9.7 Esercizi.
Esercizio 1. Sia V uno spazio vettoriale su R di dimensione 3 e sia B = v
1
, v
2
, v
3
una sua
base.
Calcolare la segnatura della forma bilineare simmetrica b su V tale che
M
B
(b) =
_
_
0 0 2
0 3 0
2 0 0
_
_
Trovare la matrice associata a b nella base / = v
1
+v
2
, v
3
, v
2
+ 2v
1
.
Esercizio 2. Sia V uno spazio vettoriale su R di dimensione 4 e sia B una sua base.
Calcolare la segnatura della forma bilineare simmetrica b su V tale che
M
B
(b) =
_
_
_
_
2 0 0 1
0 3 4 0
0 4 3 0
1 0 0 2
_
_
_
_
Trovare, se esiste, v V tale che b(v, v) sia minore di 0.
Esercizio 3. Sia h R. Sia V uno spazio vettoriale su R di dimensione 4 e sia B una sua base.
Calcolare, al variare di h in R, la segnatura della forma bilineare simmetrica b
h
su V tale che
M
B
(b
h
) =
_
_
_
_
0 h 0 0
h 0 h + 1 0
0 h + 1 1 2h
0 0 2h 2h
_
_
_
_
94
10 Forme hermitiane, matrici hermitiane, normali, unitarie
10.1 Denzioni di forme hermitiane, matrici hermitiane, normali, unita-
rie
Denizione 166. Sia V uno spazio vettoriale su C. Una forma hermitiana (o prodotto hermi-
tiano) su V `e una applicazione
h : V V C
tale che
1) h(v, w) = h(w, v) v, w V
2) h(v +u, w) = h(v, w) + h(u, w) v, u, w V , , C; questa seconda propriet`a si
dice brevemente dicendo che h `e C-lineare nella prima variabile.
Osserviamo che dalle propriet`a 1) e 2) segue che, se h `e una forma hermitiana, allora h `e C-lineare
nella secoonda variabile, cio`e
h(w, v +u) = h(w, v) + h(w, u)
v, u, w V , , C; infatti
h(w, v +u)
1)
= h(v +u, w)
2)
= h(v, w) +h(u, w) =
= h(v, w) + h(u, w)
1)
= h(w, v) + h(w, u)
dove la terza uguaglianza vale perche il coniugato di una somma `e la somma dei coniugati e il
coniugato di un prodotto `e il prodotto dei coniugati.
Denizione 167. Sia H M(n n, C). Si denisce H

la matrice
t
H (la trasposta della
coniugata di H).
Denizione 168. Sia H M(n n, C).
H si dice hermitiana se H = H

(`e uguale alla sua stella)


H si dice unitaria se HH

= H

H = I (la sua inversa `e la sua stella)


H si dice normale se HH

= H

H (commuta con la sua stella)


Osserviamo che ovviamente sia le matrici hermitiane sia le matrici unitarie sono normali.
Osserviamo anche che se H M(n n, R), allora `e hermitiana se e solo se `e simmetrica
ed `e unitaria se e solo se `e ortogonale; quindi in un certo senso le matrici hermitiane sono
una genalizzazione delle matrici simmetriche al caso complesso e le matrici unitarie sono una
generalizzazione delle matrici ortogonali al caso complesso.
Esaminiamo adesso che legame c`e fra le forme hermitiane e le matrici hermitiane.
Sia V uno spazio vettoriale su C di dimensione nita n. Sia B = v
1
, ..., v
n
una sua base.
Sia
h : V V C
una forma hermitiana su V . Deniamo H M(n n, C) come la matrice tale che
H
i,j
= h(v
i
, v
j
)
i, j 1, ..., n. Osserviamo che essa `e una matrice hermitiana, infatti
(
t
H)
i,j
= H
j,i
= H
j,i
= h(v
j
, v
i
) = h(v
i
, v
j
) = H
i,j
95
i, j 1, ..., n; quindi
t
H = H. Dalla matrice H si pu` o ricavare il valore di h su qualsiasi
coppia di vettori di V , infatti: siano v e w due elementi di V , sia x ln-upla delle coordinate di
v rispetto a B e sia y ln-upla delle coordinate di w rispetto a B. Allora
h(v, w) = h
_
_

i=1,...n
x
i
v
i
,

j=1,...n
y
j
v
j
_
_
=

i=1,...n

j=1,...n
x
i
y
j
h(v
i
, v
j
) =
=

i=1,...n

j=1,...n
x
i
y
j
H
i,j
=
t
xH y
10.2 Il teorema spettrale per le matrici hermitiane
In modo analogo a quanto dimostrato per le matrici simmetriche possiamo dimostrare i seguenti
lemma e teorema.
Lemma 169. Sia H M(n n, C) hermitiana. Se C `e un autovalore di H allora R.
Teorema 170. (Teorema Spettrale per le matrici hermitiane) Sia H M(nn, C) hermi-
tiana. Allora H `e unitariamente simile ad una matrice diagonale reale, cio`e esiste una matrice
U unitaria tale che
U
1
HU
`e diagonale.
Il teorema sopra pu` o essere ulteriormente generalizzato, precisamente si pu` o vedere come corol-
lario del seguente teorema di cui omettiamo la dimostrazione.
Teorema 171. Sia H M(n n, C).
a) H `e normale se e solo se `e unitariamente simile a una matrice diagonale.
b) H `e hermitiana se e solo se `e unitariamente simile a una matrice diagonale reale.
c) H `e unitaria se e solo se `e unitariamente simile a una matrice diagonale con coecienti sulla
diagonale di norma 1.
Dimostrazione omessa.
96
11 Sottospazi ani
11.1 Denizione di sottospazi ani, sottospazi ani paralleli e perpen-
dicolari
Denizione 172. Sia V uno spazio vettoriale su un campo K. Un sottoinsieme S di V si dice
sottospazio ane se esiste v V e Z sottospazio vettoriale di V tale che
S = v +Z
cio`e S = v +z[ z Z.
Il sottospazio vettoriale Z si dice direzione di S (e si scrive Z = dir(S)).
La dimensione di S per denizione `e la dimensione di Z.
In pratica un sottospazio ane `e il traslato di un sottospazio vettoriale.
Esempio. Sia
S =
__
5
0
_
+t
_
2
1
_
[ t R
_
S `e un sottospazio ane infatti
S =
_
5
0
_
+Z
dove
Z =
_
t
_
2
1
_
[ t R
_
=
_
2
1
_
)
5
Z
S
Esempio. Sia
S =
_
_
_
_
_
1
0
3
_
_
+t
_
_
2
1
4
_
_
+s
_
_
0
1
3
_
_
[ s, t R
_
_
_
S `e un sottospazio ane infatti
S =
_
_
1
0
3
_
_
+Z
97
dove
Z =
_
_
_
t
_
_
2
1
4
_
_
+s
_
_
0
1
3
_
_
[ s, t R
_
_
_
=
_
_
2
1
4
_
_
,
_
_
0
1
3
_
_
)
Esempio fondamentale. Sia A M(m n, K), b K
m
. Se il sistema Ax = b ha soluzione,
linsieme S delle soluzioni di Ax = b `e un sottospazio ane di K
n
; infatti, se x `e una soluzione
del sistema Ax = b
S = x +S
0
dove S
0
`e linsieme delle soluzioni del sistema omogeneo associato Ax = 0.
Denizione 173. Due sottospazi ani di K
n
si dicono paralleli se uno dei due ha la direzione
contenuta nella direzione dellaltro.
Due sottospazi ani di K
n
, S
1
e S
2
, di direzioni rispettivamente Z
1
e Z
2
, si dicono perpendi-
colari (o ortogonali) se
Z
1
Z

2
nel caso che dim(Z
1
) +dim(Z
2
) n
Z

1
Z
2
nel caso che dim(Z
1
) +dim(Z
2
) n
dove per qualsiasi sottospazio vettoriale W,
W

= v K
n
[(v, w) = 0 w W
((v, w) denota il prodotto scalare standard di v e w).
Denizione 174. Sia p un punto di R
n
e sia S un sottospazio ane di R
n
. Si denisce
proiezione ortogonale di p su S, il punto di S che `e intersezione fra S e il sottospazio ane di
R
n
passante per p e con direzione dir(S)

.
Osserviamo che eettivamente S e il sottospazio ane di R
n
passante per p e con direzione
dir(S)

si intersecano e si interesecano in un sol punto; per dimostrarlo premettiamo la seguente


osservazione.
Osservazione. Preso un qualsiasi sottospazio vettoriale Z di R
n
, e considerato il suo perpendi-
colare Z

rispetto al prodotto scalare standard, si ha che


dim(Z

) = n dim(Z)
(infatti Z

`e linsieme delle soluzioni di un sistema lineare omogeneo in n incognite con matrice


di rango dim(Z)); inoltre
Z Z

= 0
(perche se v Z Z

allora (v, v) = 0, quindi v = 0); quindi per la formula di Grassmann


R
n
= Z +Z

quindi ogni elemento di R


n
si scrive come somma di un elemento di Z e di uno di Z

; inoltre
dato che Z Z

= 0, tale modo di scrivere un elemento di R


n
come somma di un elemento
di Z e di uno di Z

`e unico.
Dimostriamo adesso che eettivamente S e il sottospazio ane T di R
n
passante per p e con
direzione dir(S)

si intersecano e si interesecano in un sol punto: sia Z = dir(S), quindi


98
S = q + Z per qualche q R
n
e T = p + Z

; vogliamo dimostrare che q + Z e p + Z

si
intersecano in un solo punto, quindi che esistono unici z Z e h Z

tali che
q + z = p +h
cio`e
q p = z +h
Questo deriva immediatamente dallOsservazione appena fatta.
Un sottospazio ane di dimensione 1 si dice retta, un sottospazio ane di dimensione 2 si dice
piano. Un sottospazio ane di dimensione n 1 di uno spazio vettoriale V di dimensione n si
dice iperpiano.
11.2 Rette e piani nello spazio
Osservazione 175. a) Sia Z un sottospazio vettoriale di dimensione 2 di R
3
; allora esistono
a, b, c R non tutti nulli tali che
Z =
_
_
_
_
_
x
y
z
_
_
R
3
[ ax +by +cz = 0
_
_
_
b) Sia W un sottospazio vettoriale di dimensione 1 di R
3
; allora esistono a, b, c, a

, b

, c

R tali
che (a, b, c) e (a

, b

, c

) non sono uno multiplo dellaltro e


W =
_
_
_
_
_
x
y
z
_
_
R
3
[ ax +by +cz = 0 e a

x + b

y +c

z = 0
_
_
_
Infatti: siano v e w due generatori di Z, linsieme delle soluzioni del sistema in a, b, c
_
av
1
+bv
2
+cv
3
= 0
aw
1
+bw
2
+cw
3
= 0
ha dimensione 1 (in quanto il rango della matrice incompleta `e 2); sia u un generatore di W,
linsieme delle soluzioni dellequazione in a, b, c
au
1
+bu
2
+cu
3
= 0
ha dimensione 2 (in quanto il rango della matrice incompleta del sistema `e 1).
Per lOsservazione precedente, dato un piano in R
3
, esisteranno a, b, c, d R con a, b, c non
tutti nulli tali che
=
_
_
_
_
_
x
y
z
_
_
R
3
[ ax +by +cz = d
_
_
_
Inoltre, data una retta r in R
3
, esistono a, b, c, d, a

, b

, c

, d

R tali che (a, b, c) e (a

, b

, c

)
non sono uno multiplo dellaltro e
r =
_
_
_
_
_
x
y
z
_
_
R
3
[ ax +by +cz = d e a

x +b

y +c

z = d

_
_
_
99
Osserviamo che se
=
_
_
_
_
_
x
y
z
_
_
R
3
[ ax +by +cz = d
_
_
_
allora
dir() =
_
_
_
_
_
x
y
z
_
_
R
3
[ ax +by +cz = 0
_
_
_
e quindi dir()

=
_
_
a
b
c
_
_
)
ax+by+cz=0
a
b
c
11.3 Mutua posizione di rette e piani nello spazio
Mutua posizione di due piani nello spazio
Siano e

due piani in R
3
. Quindi, per quanto detto nel paragrafo precedente, esistono
a, b, c, d R con a, b, c non tutti nulli tali che
=
_
_
_
_
_
x
y
z
_
_
R
3
[ ax +by +cz = d
_
_
_
ed esistono a

, b

, c

, d

R con a

, b

, c

non tutti nulli tali che

=
_
_
_
_
_
x
y
z
_
_
R
3
[ a

x +b

y +c

z = d

_
_
_
Consideriamo la matrice
_
a b c d
a

_
Deniamo A la sottomatrice formata dalle prime tre colonne e D lultima colonna
A =
_
a b c
a

_
D =
_
d
d

_
Ovviamente linsieme delle soluzioni del sistema la cui matrice completa `e (A[D) `e

.
Osserviamo che
1 rk(A) rk(A[D) 2
100
(infatti; A `e non nulla quindi rk(A) 1; lo spazio generato dalle colonne di A `e contenuto nello
spazio generato dalle colonne di (A[D) quindi rk(A) rk(A[D); inne (A[D) ha solo due righe
quindi rk(A[D) 2). Si possono avere quindi solo i seguenti tre casi:
rk(A) = rk(A[D) = 1
rk(A) = 1, rk(A[D) = 2
rk(A) = rk(A[D) = 2.
Si vede facilmente che
rk(A) = rk(A[D) = 1 i due piani coincidono
rk(A) = 1, rk(A[D) = 2 i due piani sono paralleli ma distinti
rk(A) = rk(A[D) = 2 i due piani si intersecano in una retta.
Infatti:
rk(A) = rk(A[D) = 1 rk(A[D) = 1 le due righe di (A[D) sono proporzionali le due
equazioni che deniscono e

sono proporzionali i due piani coincidono.


rk(A) = 1, rk(A[D) = 2 rk(A) = 1 e rk(A[D) ,= rk(A) dir() = dir(

) e

=
rk(A) = rk(A[D) = 2

,= e la dimensione di

= 3 2 = 1
Mutua posizione di un piano e una retta nello spazio
Sia un piano e r una retta in R
3
. Quindi esistono a, b, c, d R con a, b, c non tutti nulli tali
che
=
_
_
_
_
_
x
y
z
_
_
R
3
[ ax +by +cz = d
_
_
_
ed esistono a

, b

, c

, d

, a

, b

, c

, d

R con (a

, b

, c

) e (a

, b

, c

) non proporzionali tali che


r =
_
_
_
_
_
x
y
z
_
_
R
3
[ a

x +b

y +c

z = d

e a

x +b

y +c

z = d

_
_
_
Consideriamo la matrice
_
_
a b c d
a

_
_
Deniamo A la sottomatrice formata dalle prime tre colonne e D lultima colonna
A =
_
_
a b c
a

_
_
D =
_
_
d
d

_
_
Ovviamente linsieme delle soluzioni del sistema la cui matrice completa `e (A[D) `e r.
Osserviamo che
2 rk(A) rk(A[D) 3
(infatti: (a

, b

, c

) e (a

, b

, c

) sono non proporzionali quindi rk(A) 2; lo spazio generato dalle


colonne di A `e contenuto nello spazio generato dalle colonne di (A[D) quindi rk(A) rk(A[D);
inne (A[D) ha solo tre righe quindi rk(A[D) 3). Si possono avere quindi solo i seguenti tre
casi:
rk(A) = rk(A[D) = 2
rk(A) = 2, rk(A[D) = 3
rk(A) = rk(A[D) = 3
101
Si vede facilmente che
rk(A) = rk(A[D) = 2 la retta `e contenuta nel piano
rk(A) = 2, rk(A[D) = 3 la retta `e parallela al piano, ma disgiunta
rk(A) = rk(A[D) = 3 la retta e il piano si intersecano in un punto.
Mutua posizione di due rette nello spazio
Siano r e r

due rette in R
3
. Quindi esistono a, b, c, d, a

, b

, c

, d

R con con (a, b, c) e (a

, b

, c

)
non proporzionali tali che
r =
_
_
_
_
_
x
y
z
_
_
R
3
[ ax +by +cz = d e a

x +b

y +c

z = d

_
_
_
ed esistono a

, b

, c

, d

, a

, b

, c

, d

R con (a

, b

, c

) e (a

, b

, c

) non proporzionali
tali che
r

=
_
_
_
_
_
x
y
z
_
_
R
3
[ a

x +b

y +c

z = d

e a

x +b

y +c

z = d

_
_
_
Consideriamo la matrice
_
_
_
_
a b c d
a

_
_
_
_
Deniamo A la sottomatrice formata dalle prime tre colonne e D lultima colonna
A =
_
_
_
_
a b c
a

_
_
_
_
D =
_
_
_
_
d
d

_
_
_
_
Ovviamente linsieme delle soluzioni del sistema la cui matrice completa `e (A[D) `e r r

.
Osserviamo che
2 rk(A) 3
infatti: (a, b, c) e (a

, b

, c

) sono non proporzionali quindi rk(A) 2; inoltre A ha tre colonne


quindi rk(A) 3; inoltre la matrice (A[D) `e ottenuta da A aggiungendo una colonna sola, quindi
lo spazio generato dalle colonne di (A[D) ha dimensione al pi`u uno di pi`u della dimensione dello
spazio genarto dalle colonne di A quindi
rk(A[D) = rk(A) o rk(A) + 1
Si possono avere quindi solo i seguenti quattro casi:
rk(A) = rk(A[D) = 2
rk(A) = 2, rk(A[D) = 3
rk(A) = rk(A[D) = 3
rk(A) = 3, rk(A[D) = 4
Si vede facilmente che
rk(A) = rk(A[D) = 2 le due rette coincidono
rk(A) = 2, rk(A[D) = 3 le due rette sono parallele disgiunte
102
rk(A) = rk(A[D) = 3 le due rette si intersecano in un punto (cio`e sono incidenti).
rk(A) = 3, rk(A[D) = 4 le due rette non si interesecano e non sono parallele (in tal caso si
dice che sono sghembe)
Esercizio. Sia
=
_
_
_
_
_
1
0
3
_
_
+t
_
_
2
1
4
_
_
+s
_
_
0
1
3
_
_
[ s, t R
_
_
_
a) Trovare unespressione cartesiana di .
b) Trovare la retta r perpendicolare a e passante per
_
_
1
4
5
_
_
.
c) Sia

=
_
_
_
_
_
x
y
z
_
_
[ y 3z = 4
_
_
_
. Dire se e

sono perpendicolari.
a) Al ne di trovare unespressione cartesiana di osserviamo che
_
_
x
y
z
_
_
se e solo se
esistono s, t R tali che
_
_
x
y
z
_
_

_
_
1
0
3
_
_
= t
_
_
2
1
4
_
_
+s
_
_
0
1
3
_
_
Questo equivale a dire che
_
_
x 1
y 0
z + 3
_
_

_
_
2
1
4
_
_
,
_
_
0
1
3
_
_
)
cio`e che il rango di
_
_
x 1 2 0
y 1 1
z + 3 4 3
_
_
`e minore strettamente di 3, quindi che
det
_
_
x 1 2 0
y 1 1
z + 3 4 3
_
_
= 0
Quindi
=
_
_
_
_
_
x
y
z
_
_
[ det
_
_
x 1 2 0
y 1 1
z + 3 4 3
_
_
= 0
_
_
_
=
_
_
_
_
_
x
y
z
_
_
[ 7x 6y 2z 13 = 0
_
_
_
b) Ovviamente
dir() =
_
_
_
_
_
x
y
z
_
_
[ 7x 6y 2z = 0
_
_
_
103
Quindi dir()

=
_
_
7
6
2
_
_
). La retta r perpendicolare a e passante per
_
_
1
4
5
_
_
`e quindi
_
_
_
_
_
1
4
5
_
_
+t
_
_
7
6
2
_
_
[ t R
_
_
_
c) Ovviamente
dir(

) =
_
_
_
_
_
x
y
z
_
_
[ y 3z = 0
_
_
_
e
dir() =
_
_
_
_
_
x
y
z
_
_
[ 7x 6y 2z = 0
_
_
_
Quindi dir()

=
_
_
7
6
2
_
_
). Si osserva subito che dir()

dir(

) (infatti 6 3(2) =
0), quindi i due piani sono perpendicolari.
104
11.4 Esercizi
Esercizio 1. Trovare unespressione cartesiana del piano in R
3
passante per P =
_
_
0
1
1
_
_
e
perpendicolare alla retta di equazioni 2x z 1 = x +y = 0.
Esercizio 2. Sia P =
_
_
6
1
1
_
_
. Trovare la proiezione ortogonale di P sul piano
=
_
_
_
_
_
1
0
3
_
_
+t
_
_
2
1
0
_
_
+s
_
_
0
0
3
_
_
[ s, t R
_
_
_
Esercizio 3. Sia P =
_
_
2
0
1
_
_
. Trovare la proiezione ortogonale di P sulla retta
r =
_
_
_
_
_
1
0
3
_
_
+t
_
_
1
1
1
_
_
[ t R
_
_
_
Esercizio 4. Sia a un numero reale. Sia
r =
_
_
_
_
_
x
y
z
_
_
[ y +z = 1 e 2x +y = 0
_
_
_
Sia
s
a
=
_
_
_
_
_
x
y
z
_
_
[ x + (2a 1)y = 1 e ay + (a + 1)z = 0
_
_
_
Discutere la mutua posizione di r e s
a
al variare del parametro a in R.
Esercizio 5. Trovare unespressione cartesiana del piano in R
3
contenente la retta
r =
_
_
_
_
_
0
2
3
_
_
+t
_
_
1
1
1
_
_
[ t R
_
_
_
e parallelo alla retta
s =
_
_
_
_
_
x
y
z
_
_
[ y +z = 1 e 2x +y = 2
_
_
_
Esercizio 6. i) Sia il piano nello spazio ane di equazione x y +2z = 1 e sia P =
_
_
1
2
1
_
_
.
Trovare unespressione cartesiana della retta u perpendicolare a e passante per P.
105
ii) Sia r la retta di equazioni x = 2, y = 1 e s la retta
_
_
_
_
_
0
0
2
_
_
+t
_
_
1
2
0
_
_
[ t R
_
_
_
. Trovare,
se esiste, il piano contenente s e tale che la proiezione di r su sia P (suggerimento:
utilizzare i).
106
Altri esercizi
Esercizio 1. Sia A M(n n, K).
i) Dimostrare che, se A `e antisimmetrica, allora A
k
`e simmetrica se k `e pari, `e antisimmetrica
se k `e dispari.
ii) Sia K tale che 1
K
+ 1
K
,= 0
K
. Dimostrere che, se A `e antisimmetrica e n `e dispari, allora
det(A) = 0.
Esercizio 2. Sia V spazio vettoriale su un campo K; siano K con ,= 0 e v V .
Dimostrare che se v = 0 allora v = 0.
Esercizio 3. i) Dimostrare che
tr(AB) = tr(BA)
A, B M(n n, K).
ii) Dimostrare che
tr(B
1
AB) = tr(A)
A M(n n, K), B GL(n, K).
Esercizio 4. (Ricordo che una matrice quadrata si dice nilpotente se esiste una sua potenza
nulla). Siano A, B M(n n, K) due matrici nilpotenti che commutano fra loro (cio`e AB =
BA). Dimostrare che A +B e AB sono nilpotenti.
Esercizio 5. Sia N una matrice nilpotente non nulla. Sia r N, r 2, tale che N
r
= 0.
Dimostrare che I N `e invertibile e che la sua inversa `e
I +N +... +N
r1
Esercizio 6. i) Dimostrare che una matrice nilpotente ha solo lautovalore nullo.
ii) Dimostrare che una matrice nilpotente `e diagonalizzabile se e solo se `e nulla.
Esercizio 7. Sia B la seguente base (ordinata) di R
3
:
B =
_
_
_
_
_
1
0
2
_
_
,
_
_
1
0
2
_
_
,
_
_
1
3
0
_
_
_
_
_
i) Trovare le coordinate di v =
_
_
5
6
2
_
_
rispetto a B.
Sia B

=
_
_
_
_
_
1
0
0
_
_
,
_
_
1
1
1
_
_
,
_
_
0
3
0
_
_
_
_
_
.
ii) Trovare M
B

,B
(I).
iii) Trovare le coordinate di v rispetto a B

.
Esercizio 8. Sia S =
_
0 1
2 0
_
,
_
1 3
0 4
_
). Trovare unespressione cartesiana di S.
Sia Z =
_
1 0
6 4
_
,
_
1 2
4 4
_
).
107
Trovare una base di S Z e una base di S +Z.
Trovare inne unapplicazione lineare f : M(2 2, R) M(2 2, R) tale che Ker(f) = S e
Im(f) = Z (dire quale `e la matrice associata a f nella base canonica di M(2 2, R)).
Esercizio 9. Sia A M(nn, K) simmetrica e siano
1
e
2
due suoi autovalori distinti. Siano
v
1
e v
2
due autovettori di A con autovalori rispettivamente
1
e
2
. Dimostrare che allora v
1
e
v
2
sono ortogonali per il prodotto scalare standard.
Esercizio 10. Sia b una forma bilineare simmetrica su V spazio vettoriale su R. Sia p la positivit`a
di b. Sia W un sottospazio vettoriale di V tale che b ristretta a W W sia denita positiva.
Dimostrare che dim(W) p. (Suggerimento: considerare una base B = v
1
, .., v
n
di V tale
che M
B
(b) sia diagonale con elementi sulla diagonale appartenenti a 0, 1, 1; considerare il
sottospazio U di V generato dai v
i
tali che b(v
i
, v
i
) 0, 1; applicare la formula di ....).
Esercizio 11. Trovare la segnatura della forma bilineare simmetrica b su R
3
che nella base
canonica `e espressa dalla matrice
_
_
0 2 1
2 1 0
1 0 0
_
_
Calcolare b(e
1
+e
2
, 3e
3
).
Esercizio 12. Sia b : R
3
R
3
R la forma bilineare cui `e associata rispetto alla base canonica
la matrice
A =
_
_
h h + 1 0
h + 1 h 2
0 2 0
_
_
i) Dire qual`e la segnatura di b se h = 0.
ii) Discutere la segnatura di b al variare del parametro h.
iii) Se h = 0 trovare una matrice ortogonale P tale che
t
PAP sia diagonale (pu`o servire lesercizio
9).
Esercizio 13. Dire quali delle seguenti matrici sono hermitiane:
A =
_
1 i
i 3
_
B =
_
i + 2 3
3 5
_
C =
_
_
7 2 +i 6
2 i 8 i
6 i 9
_
_
Esercizio 14. Dimostrare che gli elementi sulla diagonale di una matrice hermitiana sono reali.
Esercizio 15. Dimostrare che
i) (A +B)

= A

+B

A, B M(n n, C)
ii) (AB)

= B

A M(mn, C) B M(n r, C)
iii) (A)

= A

iv) (A

= A
Esercizio 16. i) Dimostrare che la somma di due matrici hermitiane `e hermitiana.
ii) Dimostrare che se H `e hermitiana e invertibile allora anche H
1
`e hermitiana.
Esercizio 17. i) Trovare un esempio di una matrice 2 2 che sia normale ma non hermitiana
ne unitaria.
108
ii) Trovare un esempio di una matrice 2 2 che sia normale ma non hermitiana ne unitaria ne
diagonale.
Esercizio 18. (dicile) a) Sia n > 1. Sia f : M(nn, R) R unapplicazione lineare tale che
f(AB) = f(A)f(B) A, B M(n n, R). Dimostrare che f `e lapplicazione identicamente
nulla. (Suggerimento: cercare di capire che valori assume f sugli elementi della base canonica
di M(n n, R).)
b) Lenunciato `e vero per n = 1?
Esercizio 19. Sia A M(n n, K) tale che
A
3
+ 2A
2
+ 3A I = 0
Dimostrare che A `e invertibile e che A
1
= A
2
+ 2A + 3I.
Esercizio 20. Sia V uno spazio vettoriale di dimensione nita su un campo K. Sia f : V V
unapplicazione lineare. Si denisce determinante di f come il determinante di M
B,B
(f) dove B
`e una qualsiasi base di V .
i) Perch`e la denizione sopra `e una buona denizione?
ii) Sia C M(n n, K). Sia
C
: M(n n, K) M(n n, K) lapplicazione

C
(A) = AC CA
Dimostrare che il determinante di
C
`e 0 qualsiasi sia C.
iii) Sia C M(n n, K). Sia
C
: M(n n, K) M(n n, K) lapplicazione

C
(A) = CA
Dimostrare che il determinante di
C
`e det(C)
n
.
Esercizio 21. i) Trovare unespressione parametrica della retta r di R
3
passante per P =
_
_
1
2
4
_
_
e Q =
_
_
1
3
0
_
_
. Trovarne anche unespressione cartesiana.
ii) Trovare unespressione cartesiana e una parametrica del piano perpendicolare a r e passante
per T =
_
_
1
0
0
_
_
iii) Trovare unespressione cartesiana e una parametrica del piano perpendicolare a r e passante
per 0
R
3.
iv) Trovare una retta s sghemba rispetto a r.
Esercizio 22. Sia A M(n n, K). Dimostrare che A e
t
A hanno gli stessi autovalori ma non
necessariamente gli stessi autovettori.
Esercizio 23. Sia A M(mn, R). Dimostrare che
t
AA `e simmetrica e semidenita positiva.
Esercizio 24. Dimostrate la cosiddetta regola del parallelogramma:
[u +v[
2
+[u v[
2
= 2([u[
2
+[v[
2
)
u, v R
n
.
Esercizio 25. Trovare una forma bilineare simmetrica b su R
3
tale che la segnatura sia (1, 2) e
b(e
1
, e
1
) = 0 (denirla dicendo ad esempio qual`e la sua matrice associata nella base canonica).
109
Esercizio 26. (dicile) Siano A, B M(mn, R). Dimostrare che limmagine di A `e uguale
allimmagine di B se e solo se esiste una matrice C GL(n, R) tale che A = BC.
Esercizio 27. Siano x, y R e sia A
x,y
la matrice 2n 2n con i coecienti della diagonale
uguali a x e i coecienti della diagonale secondaria uguali a y e tutti gli altri coecienti uguali
a 0. Calcolare il rango di A
x,y
al variare di x e y in R.
Esercizio 28. (dicile) Siano A, B M(n n, R). Dimostrare che
_
I B
A I
_
`e invertibile
se e solo se det(I AB) ,= 0 e det(I BA) ,= 0 (suggerimemto: provare a costruire linversa
a blocchi).
110
12 APPENDICE 1. Triangolabilit`a, teorema spettrale per
le matrici normali.
In questa appendice esamineremo quando una matrice `e triangolabile, cio`e quando `e simile ad
una matrice triangolare; inoltre dimostreremo il Teorema 171 che nel Capitolo 10 abbiamo solo
enunciato.
Proposizione 176. Una qualsiasi matrice H M(n n, C) `e simile ad un matrice triangolare
superiore (cio`e esistono R M(n n, C) e T M(n n, C), T triangolare superiore, tali che
H = R
1
TR).
Dimostrazione. Per induzione su n. Il caso n = 1 `e ovvio. Sia A M(n n, C). Sia C
un suo autovalore. Sia v
1
un autovettore di A di autovalore . Completiamo v
1
ad una base
di C
n
: v
1
, ..., v
n
. Sia B la matrice ottenuta aancando v
1
, ..., v
n
. Allora Be
1
= v
1
quindi
B
1
v
1
= e
1
. Pertanto
B
1
ABe
1
= B
1
Av
1
= B
1
(v
1
) = B
1
v
1
= e
1
Quindi
B
1
AB =
_
_
_
_
_
. . .
0
.
.
. A

0
_
_
_
_
_
Per ipotesi induttiva esiste C Gl(n 1, C) tale che C
1
A

C `e una matrice triangolare T

.
Quindi
_
_
_
_
_
1 0 . . . 0
0
.
.
. C
0
_
_
_
_
_
1
B
1
AB
_
_
_
_
_
1 0 . . . 0
0
.
.
. C
0
_
_
_
_
_
=
=
_
_
_
_
_
1 0 . . . 0
0
.
.
. C
0
_
_
_
_
_
1
_
_
_
_
_
. . .
0
.
.
. A

0
_
_
_
_
_
_
_
_
_
_
1 0 . . . 0
0
.
.
. C
0
_
_
_
_
_
=
=
_
_
_
_
_
1 0 . . . 0
0
.
.
. C
1
0
_
_
_
_
_
_
_
_
_
_
. . .
0
.
.
. A

0
_
_
_
_
_
_
_
_
_
_
1 0 . . . 0
0
.
.
. C
0
_
_
_
_
_
=
=
_
_
_
_
_
. . .
0
.
.
. C
1
A

C
0
_
_
_
_
_
=
_
_
_
_
_
. . .
0
.
.
. T

0
_
_
_
_
_
che `e una matrice triangolare superiore. Q.e.d.
In modo del tutto analogo si domostra:
111
Proposizione 177. Una qualsiasi matrice nn a coecienti in un campo K tale che il polinomio
caratteristico `e completamente fattorizzabile in fattori di grado a coecienti in K `e simile ad un
matrice triangolare superiore.
Per le matrici a coecienti complessi si pu` o dimostrare di pi`u, precisamente la seguente propo-
sizione:
Proposizione 178. Una qualsiasi matrice H M(nn, C) `e unitariamente simile ad un matrice
triangolare superiore (cio`e esistono U M(n n, C) unitaria e T M(n n, C) triangolare
superiore tali che H = U
1
TU).
La dimostrazione `e analoga a quella del Lemma 176, per costruire U unitaria occorre ortonor-
malizzare v
1
, ..., v
n
rispetto al cosidetto prodotto hermitiano standard (x, y)
t
xy.
Lemma 179. Una matrice T M(n n, C) triangolare superiore `e normale se e solo se `e
diagonale.
Una matrice T M(nn, C) triangolare superiore `e hermitiana se e solo se `e diagonale reale.
Una matrice T M(n n, C) triangolare superiore `e unitaria se e solo se `e diagonale con
elementi sulla diagonale di norma 1.
Dimostrazione. Dimostriamo la prima aermazione. Sia T triangolare superiore.
T =
_
_
_
_
_
_
_
_
t
1,1
t
1,2
. . . t
1,n1
t
1,n
0 t
2,2
. . . t
2,n1
t
2,n
. . . . .
. . . . .
. . . . .
0 . . 0 t
n,n
_
_
_
_
_
_
_
_
Dire che T `e normale equivale a dire che TT

= T

T, cio`e che
_
_
_
_
_
_
_
_
t
1,1
t
1,2
. . . t
1,n1
t
1,n
0 t
2,2
. . . t
2,n1
t
2,n
. . . . .
. . . . .
. . . . .
0 . . 0 t
n,n
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
t
1,1
0 . . . . . . 0
t
1,2
t
2,2
0 . . . 0
. . . . .
. . . . .
t
1,n1
t
2,n1
. . 0
t
1,n
t
2,n
. . t
n,n
_
_
_
_
_
_
_
_
=
=
_
_
_
_
_
_
_
_
t
1,1
0 . . . . . . 0
t
1,2
t
2,2
0 . . . 0
. . . . .
. . . . .
t
1,n1
t
2,n1
. . 0
t
1,n
t
2,n
. . t
n,n
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
t
1,1
t
1,2
. . . t
1,n1
t
1,n
0 t
2,2
. . . t
2,n1
t
2,n
. . . . .
. . . . .
. . . . .
0 . . 0 t
n,n
_
_
_
_
_
_
_
_
Questo evidentemente equivale a dire che
[t
1,1
[
2
+[t
1,2
[
2
+ +[t
1,n1
[
2
+[t
1,n
[
2
= [t
1,1
[
2
[t
2,2
[
2
+[t
2,3
[
2
+ +[t
2,n1
[
2
+[t
2,n
[
2
= [t
2,2
[
2
...
cio`e che t
i,j
= 0 i, j 1, ..., n con i ,= j.
La dimostrazione delle altre due aermazioni `e lasciata al lettore per esercizio. Q.e.d.
112
Osservazione 180. Siano A, B M(n n, C). Allora
(AB)

= B

Lemma 181. a) Se una matrice complessa `e unitariamente simile ad unaltra, allora la prima `e
normale se e solo se la seconda `e normale.
b) Se una matrice complessa `e unitariamente simile ad unaltra, allora la prima `e hermitiana se
e solo se la seconda `e hermitiana.
c) Se una matrice complessa `e unitariamente simile ad unaltra, allora la prima `e unitaria se e
solo se la seconda `e unitaria.
Dimostrazione. Siano A, B M(n n, C) due matrici unitariamente simili, quindi esiste U
unitaria tale che B = U
1
AU. Si ha (ricordando che U `e unitaria quindi U
1
= U

)
B `e normale BB

= B

B
(U
1
AU)(U
1
AU)

= (U
1
AU)

(U
1
AU)
U
1
AUU

(U
1
)

= U

(U
1
)

U
1
AU
U

AA

U = U

AU
AA

= A

A A `e normale
La dimostrazione delle altre due aermazioni `e lasciata al lettore per esercizio. Q.e.d.
Siamo adesso pronti per dimostrare il teorema spettrale per le matrici normali, che abbiamo
gi`a enunciato (senza dimostrarlo) nel Capitolo 10:
Teorema 182. Sia H M(n n, C).
a) H `e normale se e solo se `e unitariamente simile a una matrice diagonale.
b) H `e hermitiana se e solo se `e unitariamente simile a una matrice diagonale reale.
c) H `e unitaria se e solo se `e unitariamente simile a una matrice diagonale con coecienti sulla
diagonale di norma 1.
Dimostrazione. Sia H M(n n, C). Allora per la Proposizione 178 esistono matrici U
unitaria, T triangolare superiore tali che H = U
1
TU.
Se H `e normale allora, per il Lemma 181 anche T `e normale, e quindi, essendo triangolare e
normale `e necessariamente diagonale (per il Lemma 179).
Se H `e hermitiana allora, per il Lemma 181 anche T `e hermitiana, e quindi, essendo triangolare
e hermitiana `e necessariamente diagonale reale (per il Lemma 179).
Se H `e unitaria allora, per il Lemma 181 anche T `e unitaria, e quindi, essendo triangolare e
unitaria `e necessariamente diagonale con coecienti sulla diagonale di norma 1 (per il Lemma
179).
Segue subito dal Lemma 179 e dal Lemma 181 (infatti ad esempio una matrice diagonale `e
normale, quindi per il Lemma 181 una matrice unitariamente simile ad una matrice diagonale `e
normale). Q.e.d.
113