Sei sulla pagina 1di 80

Appunti e esercizi di algebra lineare e

geometria analitica
Cristina Bardelle , Diego Giovannini
24 gennaio 2006
Indice
1 Sistemi lineari 1
1.1 Matrici quadrate m = n . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Regola di Cramer . . . . . . . . . . . . . . . . . . . . . 2
2 Spazi vettoriali 12
2.1 Denizioni ed esempi . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Indipendenza e dipendenza lineare, generatori e basi . . . . . . 17
3 Applicazioni lineari 23
3.1 Denizioni ed esempi . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Sottospazi associati ad una applicazione lineare . . . . . . . . 29
3.3 Matrice associata ad una applicazione lineare . . . . . . . . . . 29
3.4 Cambiamenti di riferimento . . . . . . . . . . . . . . . . . . . 40
4 Diagonalizzazione di operatori lineari 47
5 Geometria analitica del piano 67
6 Geometria analitica dello spazio 71
I
Capitolo 1
Sistemi lineari
Sistema di m equazioni lineari in n incognite x
1
, . . . , x
n
_

_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+ a
m2
x
2
+ +a
mn
x
n
= b
m
(1.1)
Sia K un insieme ad es K = C, R, Q, . . . La matrice associata A M
m,n
(K)
al sistema e
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
x = (x
1
, . . . , x
n
)
t
K
n
, b = (b
1
, . . . , b
m
)
t
K
m
. Il sistema si puo riscrivere
come Ax = b ovvero
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
.
.
.
x
n
_
_
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
Il sistema si dice omogeneo se b
1
= b
2
= . . . = b
m
= 0. Una soluzione del
sistema 1.1 e un elemento (X
1
, . . . , X
n
)
t
K
n
che e soluzione simultanea
1
delle m equazioni 1.1. Il sistema si dice compatibile (incompatibile o impos-
sibile) se possiede almeno una soluzione (se non possiede soluzioni). Ogni
sistema omogeneo e sempre compatibile in quanto ammette almeno una so-
luzione (0, . . . , 0)
t
, che viene detta soluzione banale. Un sistema compatibile
si dice determinato se ammette ununica soluzione e si dice indeterminato se
ammette innite soluzioni.
1.1 Matrici quadrate m = n
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
Esercizio 1.1.
_
_
_
2x + 3y z = 1
x + 4y + 2z = 2
3x y z = 3
1.1.1 Regola di Cramer
Teorema 1.1 (di Cramer). Il sistema Ax = b ha una ed una sola soluzione
det(A) ,= 0.
Le soluzioni sono date da
x
i
=
det(A
i
)
det(A)
i = 1, . . . , n
dove la matrice A
i
si ottiene sostituendo la colonna i-esima della matrice A
con il vettore colonna b. Soluzione esercizio 1.1 Il sistema si puo riscrivere
nella seguente forma:
_
_
2 3 1
1 4 2
3 1 1
_
_
_
_
x
y
z
_
_
=
_
_
1
2
3
_
_
2
Applichiamo il metodo di Cramer:
det(A) =

2 3 1
1 4 2
3 1 1

= 30 ,= 0 det(A
1
) =

1 3 1
2 4 2
3 1 1

= 36
det(A
2
) =

2 1 1
1 2 2
3 3 1

= 6 det(A
3
) =

2 3 1
1 4 2
3 1 3

= 24
x =
det(A
1
)
det(A)
=
6
5
y =
det(A
2
)
det(A)
=
1
5
z =
det(A
3
)
det(A)
=
4
5
.
Esercizio 1.2.
_
_
_
2ix + z = 1
ix + iz = i
x + y + z = 2
Il sistema si puo riscrivere nella seguente forma:
_
_
2i 0 1
i 0 i
1 1 1
_
_
_
_
x
y
z
_
_
=
_
_
1
i
2
_
_
Applichiamo il metodo di Cramer:
det(A) =

2i 0 1
i 0 i
1 1 1

= 2 + i ,= 0 det(A
1
) =

1 0 1
i 0 i
2 1 1

= 2i
det(A
2
) =

2i 1 1
i i i
1 2 1

= 2 + i det(A
3
) =

2i 0 1
i 0 i
1 1 2

= 2 i
x =
det(A
1
)
det(A)
=
2i
2 +i
=
2
5
+
4
5
i
y =
det(A
2
)
det(A)
=
2 +i
2 +i
= 1
z =
det(A
3
)
det(A)
=
2 i
2 +i
=
3
5
+
4
5
i.
3
Il metodo di Cramer puo essere utilizzato solo nel caso in cui in un sistema
il numero di equazioni e uguale al numero di incognite (n = m), ovvero la
matrice associata al sistema e quadrata. Negli altri casi possiamo utilizzare
il metodo di Rouche-Capelli; tale metodo pero da informazioni solo sulla
compatibilita o meno del sistema e sul numero di soluzioni, ma non ci dice
come determinarle (aronteremo successivamente questo problema). Dato il
sistema Ax = b indichiamo con A[b la matrice orlata, ottenuta dalla matrice
A aggiungendo il vettore dei termini noti b:
A[b =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

b
1
b
2
.
.
.
b
n
_
_
_
_
_
Teorema 1.2 (Rouche-Capelli). Il sistema Ax = b ha soluzioni se e solo se
il rango di A e uguale al rango di A[b.
Il sistema Ax = b ha
nr
soluzioni dove n e il numero di incognite del
sistema e r e il rango di A.
Esercizio 1.3. Discutere il seguente sistema lineare
_
_
_
x
3
+ 2x
4
= 3
2x
1
+ 4x
2
2x
3
= 4
2x
1
+ 4x
2
x
3
+ 2x
4
= 7
Utilizziamo il Teorema di Rouche-Capelli per risolvere lesercizio.
A =
_
_
0 0 1 2
2 4 2 0
2 4 1 2
_
_
A[b =
_
_
0 0 1 2
2 4 2 0
2 4 1 2

3
4
7
_
_
Calcoliamo il rango di A. Le sottomatrici quadrate di ordine 3 (ovvero matrici
3 3) sono:
_
_
0 0 1
2 4 2
2 4 1
_
_
_
_
0 0 2
2 4 0
2 4 2
_
_
_
_
0 1 2
2 2 0
2 1 2
_
_
_
_
0 1 2
4 2 0
4 1 2
_
_
4
Risulta che i minori
1
di ordine 3 sono tutti uguali a 0, mentre esiste un minore
di ordine 2 diverso da 0; ad esempio la sottomatrice
_
1 2
2 0
_
ha determinante ,= 0. Dunque r(A) = 2. Calcoliamo ora il rango di A[b.
Ovviamente r(A) r(A[b) 3 e poiche i minori di ordine 3 sono tutti uguali
a 0 il rango e 2. Dato che r(A) = r(A[b) = 2 il sistema e compatibile.
Esercizio 1.4. Discutere il seguente sistema lineare
_
_
_
x
1
2x
3
+ 3x
4
+ x
5
= 2
2x
1
+ x
2
+ x
5
= 6
x
2
4x
3
+ 6x
4
+ 5x
5
= 7
A =
_
_
1 0 2 3 1
2 1 0 0 3
0 1 4 6 5
_
_
A[b =
_
_
1 0 2 3 1
2 1 0 0 3
0 1 4 6 5

2
6
7
_
_
Si ha che r(A) = 2 e r(A[b) = 3. Poiche r(A) ,= r(A[b) il sistema e
incompatibile.
Esercizio 1.5. Discutere, al variare del parametro k, il seguente sistema
lineare
_
_
_
x y + z = 1
kx ky + z = 1
x k
2
y + k
2
z = 1
A =
_
_
1 1 1
k k 1
1 k
2
k
2
_
_
det(A) = k
3
+k
2
+k 1 = (k 1)(1 k
2
)
Se k ,=
+

1 allora det(A) ,= 0 ( r(A) = 3 r(A[b) = 3 sistema


compatibile). Per Cramer si puo inoltre stabilire che se k ,=
+

1 esiste ed e
unica la soluzione.
1
Il minore di una matrice A M
m,n
(K) e il determinante di una sua sottomatrice
quadrata. Lordine del minore e lordine della sottomatrice quadrata corrispondente.
5
CASO k = 1
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
Si ha che r(A) = 1, quindi il sistema ha
2
soluzioni.
CASO k = 1
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
Si ha che r(A) = 2, quindi il sistema ha
1
soluzioni.
Esercizio 1.6. Discutere, al variare dei parametri k e h, il seguente sistema
lineare
_
_
_
x + 2y z = 0
x + y + 2z = 1
2x + hy + z = k
A =
_
_
1 2 1
1 1 2
2 h 1
_
_
det(A) = 3h + 9
Se h ,= 3 allora det(A) ,= 0 ( r(A) = 3 r(A[b) = 3 sistema
compatibile). Per Cramer si puo inoltre stabilire che se h ,= 3 esiste ed e
unica la soluzione (k). CASO h = 3
A =
_
_
1 2 1
1 1 2
2 3 1
_
_
Si ha che r(A) = 2.
A[b =
_
_
1 2 1
1 1 2
2 3 1

0
1
k
_
_
Se k = 1 si ha che r(A[b) = 2, se k ,= 1 allora r(A[b) = 3. Riassumendo:
se h = 3 e k = 1 il sistema e compatibile con
1
soluzioni,
6
se h = 3 e k ,= 1 il sistema e incompatibile.
Esercizio 1.7.
_
_
_
kx + kz = 1
5x + y + z = 2
k
2
x + z = 3
Discutere il sistema in R e in C.
A =
_
_
k 0 k
5 1 1
k
2
0 1
_
_
A[b =
_
_
k 0 k
5 1 1
k
2
0 1

1
2
3
_
_
det(A) = k + k
3
= k(k
2
+ 1)
In R, det(A) = 0 per k = 0. Se k = 0 il sistema e incompatibile (si nota
subito dalla prima eqz.); se k ,= 0 per Cramer si puo stabilire che esiste ed
e unica la soluzione. In C, det(A) = 0 per k = 0 e k ,=
+

i. Se k ,= 0 e
k ,=
+

i per Cramer si puo stabilire che esiste ed e unica la soluzione; se k = 0


il sistema e incompatibile (si nota subito dalla prima eqz.); se k =
+

i si ha
r(A) = 2 e r(A[b) = 3, dunque il sistema e incompatibile.
Denizione 1.1. Date
a
1
x
1
+ +a
n
x
n
= b
1
(1.2)

1
x
1
+ +
n
x
n
=
1
(1.3)
diciamo che 1.2 e 1.3 sono equivalenti se ogni soluzione di 1.2 e an-
che soluzione di 1.3 e viceversa. Analogamente si deniscono i sistemi
equivalenti.
Esempio 1.1. Le equazioni
x y = 1
2x 2y = 2
sono equivalenti. Infatti hanno le stesse soluzioni (nota che la seconda eqz.
e il doppio della prima).
OPERAZIONI ELEMENTARI SUI SISTEMI
La nozione di sistemi equivalenti risultera utile nella risoluzione di sistemi
lineari; lidea di base e quella di trasformare un dato sistema in uno equiva-
lente di pi u semplice risoluzione. Le operazioni che permettono di fare questa
trasformazione (e che corrispondono a determinate operazioni sulla matrice
associata al sistema) sono:
7
cambio lordine delle equazioni (; scambio di righe nella matrice
associata)
cambio lordine delle incognite (; scambio di colonne nella matrice
associata)
moltiplico una equazione per uno scalare non nullo (; moltiplico una
riga della matrice associata per uno scalare non nullo)
somma di due equazioni che va sostituita ad una di esse
(; somma di due righe della matrice associata)
METODO DI RIDUZIONE DI GAUSS Sia dato il sistema
_

_
a
11
x
1
+ a
12
x
2
+ +a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+ a
m2
x
2
+ +a
mn
x
n
= b
m
(1.4)
Posso supporre a
11
,= 0, altrimenti scambio la prima riga con unaltra in cui
a
i1
,= 0. Al posto della seconda riga (eqz.) metto lequazione ottenuta da
R
2

a
21
a
11
R
1
. In generale sostituisco la riga R
i
con la riga R
i

a
i1
a
11
R
1
ed ottengo
un sistema della forma
_

_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
0 +a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
0 +a
m2
x
2
+ +a
mn
x
n
= b
m
Riapplico lo stesso ragionamento al sottosistema
_

_
a
22
x
2
+ +a
2n
x
n
= b
2
.
.
.
a
m2
x
2
+ +a
mn
x
n
= b
m
Proseguendo in questo modo si ottiene un sistema equivalente a quello iniziale
1.4 che si presenta nella forma
_

_
a
11
x
1
+a
12
x
2
+ . . . +a
1n
x
n
= b
1
a
22
x
2
+ . . . +a
2n
x
n
= b
2
.
.
.
a
mm
x
m
+. . . +a
mn
x
n
= b
m
(1.5)
8
cosiddetta forma a gradini, in cui a
11
a
22
. . . a
mm
,= 0. Parto dallultima
equazione ed asplicito x
m
:
x
m
= a
1
mm
[b
m
(a
mm+1
x
m+1
+ +a
mn
x
n
)].
Dalla penultima si ha:
x
m1
= a
1
m1m1
[b
m1

i=m
a
m1i
x
i
]
e cos via no ad ottenere x
1
.
Esercizio 1.8. Riprendiamo lesercizio 1.3 e risolviamo il sistema col metodo
di Gauss.
La matrice orlata associata e
_
_
0 0 1 2
2 4 2 0
2 4 1 2

3
4
7
_
_
Scambiamo R
1
con R
2
:
_
_
2 4 2 0
0 0 1 2
2 4 1 2

4
3
7
_
_
Al posto di R
3
mettiamo R
3
R
1
:
_
_
2 4 2 0
0 0 1 2
0 0 1 2

4
3
3
_
_
Al posto di R
3
mettiamo R
3
R
2
:
_
_
2 4 2 0
0 0 1 2
0 0 0 0

4
3
0
_
_
Possiamo eliminare la terza riga e scambiare la seconda colonna con la terza:
_
2 2 4 0
0 1 0 2

4
3
_
9
E a gradini con x
2
e x
4
libere (
2
soluzioni). Le soluzioni sono:
_

_
x
2
= t
x
4
= s
x
3
= 3 2s
x
1
= 5 2s 2t
Esercizio 1.9. Riprendiamo lesercizio 1.4 e risolviamo il sistema col metodo
di Gauss.
La matrice orlata associata e
_
_
1 0 2 3 1
2 1 0 0 3
0 1 4 6 5

2
6
7
_
_
Dopo vari passaggi si ottiene:
_
_
1 0 2 3 1
0 1 4 6 5
0 0 0 0 0

2
10
3
_
_
R
3
ci dice che il sistema e incompatibile.
Esercizio 1.10. Riprendiamo lesercizio 1.5 e risolviamo il sistema col
metodo di Gauss.
La matrice orlata associata e
_
_
1 1 1
k k 1
1 k
2
k
2

1
1
1
_
_
Riduco a gradini:
_
_
1 1 1
0 1 k
2
k
2
1
0 0 1 k

1
0
1 k
_
_
Se (1 k
2
)(1 k) ,= 0 cioe se k ,=
+

1 abbiamo un unica soluzione:


_
_
_
x = 1
y = 1
z = 1
10
Se k = 1 la matrice diventa (1 1 1 [ 1) e si hanno
2
soluzioni:
_
_
_
y = t
z = s
x = 1 +t s
Se k = 1 la matrice diventa
_
1 1 1
0 0 2

1
2
_
e si hanno
1
soluzioni:
_
_
_
y = t
z = 1
x = t
Esercizio 1.11. Riprendiamo lesercizio 1.6 e risolviamo il sistema col
metodo di Gauss.
La matrice orlata associata e
_
_
1 2 1
1 1 2
2 h 1

0
1
k
_
_
Riduco a gradini:
_
_
1 2 1
0 1 3
0 0 3h 9

0
1
k + h 4
_
_
Se 9 3h ,= 0 cioe se h ,= 3 esiste ununica soluzione (k R). Se h = 3 la
matrice diventa
_
_
1 2 1
0 1 3
0 0 0

0
1
k 1
_
_
Si ottiene che
se h = 3 e k ,= 1 il sistema e incompatibile
se h = 3 e k = 1 il sistema ha
1
soluzioni.
11
Capitolo 2
Spazi vettoriali
Introduciamo in questo capitolo la nozione di spazio vettoriale, un concetto
di grande importanza in algebra lineare che giocher`a un ruolo fondamentale
in tutti i capitoli successivi. Partiamo con i richiami delle denizioni e degli
esempi basilari di spazi vettoriali, per poi arrivare al concetto di sottospazio
vettoriale, ai concetti di indipendenza lineare, di sistema di generatori e di
base e dimensione di uno spazio vettoriale.
2.1 Denizioni ed esempi
Cominciamo questa sezione richiamando immediatamente la denizione di
spazio vettoriale.
Denizione 2.1. Un insieme V `e detto spazio vettoriale sul campo
1
degli
scalari K, se sono denite due operazioni:
somma di vettori + : V V V : (v
1
, v
2
) v
1
+v
2
;
prodotto per uno scalare : KV V : (, v) v
che soddisfano le seguenti propriet`a :
1. v
1
, v
2
, v
3
V : (v
1
+ v
2
) +v
3
= v
1
+ (v
2
+v
3
);
2. 0
V
V : 0
V
+v = v + 0
V
= v, v V ;
3. v V, w V : v +w = w +v = 0
V
;
1
in generale possiamo pensare a R o C
12
4. v
1
, v
2
V : v
1
+ v
2
= v
2
+v
1
;
5. v V : 1 v = v;
6. , K, v V : ( +)v = v +v;
7. K, v
1
, v
2
V : (v
1
+ v
2
) = v
1
+v
2
;
8. , K, v V : ()v = (v).
Possiamo passare subito ad esibire alcuni esempi notevoli di spazi vettoriali.
Esempio 2.1. Per ogni n 1 linsieme R
n
ha la struttura di spazio vettoriale
su se stesso, con le seguenti operazioni:
somma (x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) = (x
1
+y
1
, x
2
+y
2
, . . . , x
n
+y
n
);
prodotto (x
1
, x
2
, . . . , x
n
) = (x
1
, x
2
, . . . , x
n
).
E immediato vericare che lelemento neutro di R
n
rispetto alla somma ri-
sulta essere 0
R
n = (0, 0, . . . , 0), cos` come linverso di (x
1
, x
2
, . . . , x
n
) risulta
essere la n-upla (x
1
, x
2
, . . . , x
n
). Lasciamo le altre veriche come eser-
cizio allo studente, il quale le potr`a trovare su un qualsiasi testo di algebra
lineare.
Esempio 2.2. Utilizzando le stesse denizioni dellesempio precedente `e im-
mediato dimostrare che lo spazio C
n
ha la struttura di spazio vettoriale su se
stesso. Inoltre, `e possibile dare a C
n
una struttura di spazio vettoriale su R,
semplicemente sostituendo il prodotto di un elemento di C
n
con un elemento
di R anzich`e con un elemento di C. Torneremo dopo ad analizzare questo
esempio in dettaglio.
Esempio 2.3. Indichiamo con M
m,n
(R) linsieme delle matrici a coecienti
reali con m righe ed n colonne; vogliamo dare a tale insieme la struttura di
spazio vettoriale su R. Iniziamo a denire le due operazioni:
somma se A, B M
m,n
(R), con A = (a
ij
), B = (b
ij
), allora deniamo:
C = A +B ponendo C = (c
ij
) = (a
ij
+b
ij
);
prodotto se R e A M
m,n
(R), deniamo A = (a
ij
) .
13
Anche in questo caso lasciamo le veriche allo studente, ricordando che tutte
si deducono piuttosto facilmente dalle propriet`a delle matrici. Ricordiamo so-
lo che lelemento neutro di tale spazio risulta essere la matrice con coecienti
tutti nulli.
Esempio 2.4. Indichiamo con R
n
[x] linsieme dei polinomi nellindetermi-
nata x di grado minore od uguale ad n e con coecienti reali; un generico
elemento di tale insieme risulta essere dunque
p(x) = a
0
+a
1
x + a
2
x
2
+. . . +a
n
x
n
.
Deniamo la somma di polinomi ed il prodotto di un polinomio per un numero
reale nel modo usuale:
se p(x) = a
0
+a
1
x +a
2
x
2
+. . . +a
n
x
n
e q(x) = b
0
+b
1
x +b
2
x
2
+. . . +b
n
x
n
allora
p(x) +q(x) = a
0
+ b
0
+ (a
1
+ b
1
)x + (a
2
+b
2
)x
2
+. . . + (a
n
+ b
n
)x
n
,
e se R:
p(x) = a
0
+ a
1
x +a
2
x
2
+ . . . + a
n
x
n
In tal caso lelemento neutro `e il polinomio nullo (con tutti i coecienti uguali
a 0), mentre lopposto del polinomio p(x) = a
0
+a
1
x+a
2
x
2
+. . .+a
n
x
n
risulta
essere il polinomio p(x) = a
0
a
1
x a
2
x
2
. . . a
n
x
n
. Anche in questo
caso lasciamo le altre veriche come esercizio allo studente.
Esempio 2.5. E possibile dare allinsieme V = f : [a, b] R delle
funzioni denite su un intervallo [a, b] a valori in R la struttura di spazio
vettoriale mediante le seguenti denizioni:
somma (f + g)(x) = f(x) + g(x);
prodotto (f)(x) = f(x).
Facciamo qualche verica:
associativit`a : verichiamo che f, g, h V si ha che (f + g) + h =
f + (g +h). Vogliamo dimostrare che la funzione di primo membro coincide
con quella di secondo membro; per fare questo `e suciente vedere che il loro
valore in ogni punto x [a, b] `e lo stesso. Per denizione:
[(f +g)+h](x) = (f +g)(x)+h(x) = (f(x)+g(x))+h(x) = f(x)+g(x)+h(x),
e questultima ugualglianza segue dal fatto che f(x), g(x), h(x) sono numeri
reali.
14
In modo analogo si vede che [f + (g +h)](x) = f(x) +g(x) +h(x), e questo
conclude la dimostrazione.
commutativit`a : (f + g)(x) = f(x) + g(x) ed essendo questi numeri reali
si ha che:
f(x) +g(x) = g(x) + f(x) = (g + f)(x), cio`e f +g = g + f.
elemento neutro : `e la funzione costante uguale a zero: 0
V
= 0, x [a, b].
Verichiamo, ad esempio, anche una delle due propriet`a distributive, lascian-
do le altre veriche come esercizio:
R, f, g V voglio far vedere che (f +g) = f +g. Anche in questo
caso dimostriamo che queste due funzioni coincidono:
[(f +g)](x) = ((f +g)(x)) = (f(x) +g(x)) = f(x) +g(x) = (f)(x) +
(g)(x)
Dopo questa breve rassegna di esempi di spazi vettoriali, possiamo passare a
studiare nella prossima sezione alcuni particolari sottoinsiemi, che prendono
il nome di sottospazi vettoriali.
2.2 Sottospazi vettoriali
Denizione 2.2. Sia V uno spazio vettoriale su K; un sottoinsieme W V
`e detto sottospazio di V se sono soddisfatte le due seguenti propriet`a :
1. w
1
, w
2
W : w
1
+w
2
W;
2. K, w W : w W
Tali propriet`a prendono il nome rispettivamente di chiusura rispetto alla
somma ed al prodotto.
Passiamo dunque ad esaminare alcuni esempi di sottospazi degli spazi
vettoriali che abbiamo visto nella precedente sezione.
Esempio 2.6. Nello spazio V = R
2
consideriamo il sottoinsieme:
W = (x, y) R
2
[x y = 0
e verichiamo che si tratta di un sottospazio di V . Osserviamo innanzitutto
che gli elementi di W sono caratterizzati dal fatto che la dierenza tra la
prima e la seconda componente `e pari a zero. Si ha che:
15
1. (x
1
, y
1
), (x
2
, y
2
) W : (x
1
, y
1
) + (x
2
, y
2
) = (x
1
+x
2
, y
1
+y
2
) e dunque
la dierenza tra la prima e la seconda componente del vettore somma
`e : x
1
+ x
2
y
1
y
2
= x
1
y
1
+ x
2
y
2
= 0 + 0 = 0 dove abbiamo
sfruttato il fatto che (x
1
, y
1
), (x
2
, y
2
) W cio`e x
1
y
1
= 0, x
2
y
2
= 0.
2. R, (x, y) W : (x, y) = (x, y) per denizione, e si ha che :
x y = (x y) = 0 = 0, poich`e (x, y) W.
Questo conclude la dimostrazione.
Esercizio 2.1. Dimostare che i seguenti insiemi risultano essere sottospazi
vettoriali degli spazi in cui sono contenuti:
1. U = (x, y, z) R
3
[2x y z = 0
2. V = (x, y, z) R
3
[x +y = x z = 0
3. W = (x
1
, x
2
, x
3
, x
4
) R
4
[2x
2
+ 4x
4
= 3x
1
+x
3
= 0
Esempio 2.7. Consideriamo lo spazio vettoriale M
n
(R) delle matrici
quadrate di ordine n. Il sottoinsieme:
W = A M
n
(R)[A = A
t

`e detto insieme delle matrici simmetriche di ordine n. Verichiamo che `e


sottospazio vettoriale:
1. se A, B W, allora A = A
t
, B = B
t
; dunque si ha che (A + B)
t
=
A
t
+ B
t
= A + B, cio`e A +B W;
2. siano R, A W: allora (A)
t
=
t
A
t
= A poich`e A W ed il
trasposto di un numero reale coincide con se stesso.
Abbiamo dunque un esempio importante di sottospazio dello spazio delle
matrici.
Esercizio 2.2. Seguendo lo schema dellesempio precedente, lo studente provi
a dimostrare che il sottoinsieme:
U = A M
n
(R)[A = A
t

`e un sottospazio vettoriale di M
n
(R); tale spazio `e detto insieme delle matrici
antisimmetriche di ordine n.
16
2.3 Indipendenza e dipendenza lineare, gene-
ratori e basi
Uno dei concetti di maggior importanza in algebra lineare `e quello di
indipendenza lineare tra vettori, secondo la seguente
Denizione 2.3. Sia V uno spazio vettoriale sul campo K; i vettori
v
1
, . . . , v
n
sono detti linearmente indipendenti se per ogni n-upla di scalari
(
1
,
2
, . . . ,
n
) si ha che :

1
v
1
+
2
v
2
+ . . . +
n
v
n
= 0
V

1
=
2
= . . . =
n
= 0
cio`e lunica combinazione lineare di questi vettori che fornisce il vettore nullo
`e quella con coecienti tutti nulli.
Denizione 2.4. Un insieme di vettori v
1
, v
2
, . . . , v
k
di uno spazio vettoriale
V `e detto essere un sistema di generatori per lo spazio se ogni vettore v V
si pu`o scrivere come combinazione lineare dei vettori v
i
, ovvero se:
v V,
1
, . . . ,
k
K : v =
1
v
1
+ . . . +
k
v
k
Denizione 2.5. Una base per uno spazio vettoriale V `e un insieme di
vettori B = v
1
, v
2
, . . . , v
n
tali che:
1. v
1
, v
2
, . . . , v
n
sono linearmente indipendenti;
2. v
1
, v
2
, . . . , v
n
sono un sistema di generatori.
In particolare, il numero di elementi di una base di un dato spazio vettoriale
viene detto dimensione dello spazio vettoriale.
Esempio 2.8. Una base per lo spazio R
2
`e costituita da B = e
1
, e
2
, dove
e
1
= (1, 0), e
2
= (0, 1).
Pi` u in generale, una base per lo spazio R
n
`e : B = e
1
, e
2
, . . . , e
n
dove e
i
`e
il generico vettore a n componenti che risultano essere tutte nulle tranne la
i-esima che `e pari ad 1.
Si conclude che in generale : dim(R
n
) = n.
Esempio 2.9. Determinare una base per i seguenti sottospazi:
U = (x, y, z) R
3
[5x y = x y +z = 0
17
V = (x
1
, x
2
, x
3
, x
4
) R
4
[x
1
+ 2x
2
+ 3x
3
+ 4x
4
= x
2
x
3
= 0
soluzione Le equazioni che caratterizzano U costituiscono un sistema lineare
omogeneo; risolviamolo mediante il metodo di riduzione:
_
5 1 0
1 1 1
_

_
5 1 0
0 4 5
_
da cui, prendendo come variabile libera la z si ottiene:
z = t, y = 5/4t, x = 1/4t
cio`e il generico vettore di U `e nella forma :
u = (1/4t, 5/4t, t) = t(1/4, 5/4, 1).
Dunque il sottospazio U ha dimensione pari ad 1, ed una sua base `e :
B
U
= (1/4, 5/4, 1).
Per comodit`a sarebbe meglio prendere un vettore proporzionale a quello tro-
vato, per evitare di avere coecienti frazionari, come, ad esempio, il vettore
(1, 5, 4), ottenuto moltiplicando per 4 il primo vettore.
Per determinare la base di V risolviamo il sistema omogeneo delle equazioni,
la cui matrice `e gi`a nella forma a gradini:
_
1 2 3 4
0 1 1 0
_
prendiamo come variabili libere x
3
, x
4
. Si ottiene :
_

_
x
3
= t
x
4
= s
x
2
= t
x
1
= 5t 4s
Dunque il generico vettore di V `e nella forma:
v = (5t 4s, t, t, s) = t(5, 1, 1, 0) +s(4, 0, 0, 1)
e possiamo concludere che :
B
V
= (5, 1, 1, 0), (4, 0, 0, 1)
e dim(V ) = 2.
18
Esercizio 2.3. Determinare una base per i seguenti sottospazi:
1. U = (x, y) R
2
[ 2x + 5y = 0
2. V = (x, y, z) R
3
[x + 3y + 2z = 2x + 2y 7z = 0
3. W = (x
1
, . . . , x
5
) R
5
[2x
1
+x
3
+5x
5
= x
1
x
2
x
3
= 3x
3
+2x
5
= 0
Esempio 2.10. Trovare la base dello spazio vettoriale
V = A M
3
(R)[A = A
t
.
Una matrice A e la sua trasposta sono del tipo
A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
A
t
=
_
_
a
11
a
21
a
31
a
12
a
22
a
32
a
13
a
23
a
33
_
_
Ponendo A = A
t
cioe
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
=
_
_
a
11
a
21
a
31
a
12
a
22
a
32
a
13
a
23
a
33
_
_
si ottiene
_

_
a
11
= a
22
= a
33
= 0
a
12
= a
21
a
13
= a
31
a
23
= a
32
ovvero
A =
_
_
0 a
12
a
13
a
12
0 a
23
a
13
a
32
0
_
_
Troviamo ora una base:
A = a
12
_
_
0 1 0
1 0 0
0 0 0
_
_
+a
13
_
_
0 0 1
0 0 0
1 0 0
_
_
+a
23
_
_
0 0 0
0 0 1
0 1 0
_
_
Notiamo che dimV = 3.

E lasciata allo studente la verica del fatto che, dato V = A M


n
(R)[A =
A
t
la dimensione di V e uguale a
n(n1)
2
.
19
Esercizio 2.4. In R
3
sono dati i sottospazi
U = (x, y, z) R
3
[x = y = z
V = (x, y, z) R
3
[x +y 2z = 0
W = (x, y, z) R
3
[2x + 3z = 0
a) Determinare U V , U W, V W, dimU, dimV , dimW, dim(U +V ),
dim(U +W), dim(V +W);
b) Completare la base di U a R
3
.
a)
U V = (x, y, z) R
3
[x = y = z, x +y 2z = 0
U W = (x, y, z) R
3
[x = y = z, 2x + 3z = 0
V W = (x, y, z) R
3
[x +y 2z = 0, 2x + 3z = 0
Determiniamo le dimensioni e le basi dei vari sottospazi
U = (x, y, z) R
3
[x = t, y = t, z = t =< (1, 1, 1) >
V = (x, y, z) R
3
[x = t + 2s, y = t, z = s =< (1, 1, 0), (2, 0, 1) >
W = (x, y, z) R
3
[x = 3/2t, y = s, z = t =< (3, 0, 2), (0, 1, 0) >
U V = (x, y, z) R
3
[x = t, y = t, z = t =< (1, 1, 1) >
U W = (0, 0, 0)
V W = (x, y, z) R
3
[x = 3/2t, y = 7/2t, z = t =< (3, 7, 2) > .
Si ha
dimU = 1
dimV = 2
dimW = 2
dim(U V ) = 1 ed in particolare U V = U
dim(U W) = 0
dim(V W) = 1
Per determinare le dimensioni degli spazi somma utilizziamo la formula di
Grassmann
dim(U + V ) = dimU + dimV dim(U V ) = 2
dim(U + W) = dimU + dimW dim(U W) = 3
dim(V +W) = dimV + dimW dim(V W) = 3.
b) Per completare la base di U =< (1, 1, 1) > a R
3
prendiamo un vettore
perpendicolare a (1, 1, 1), ad esempio (1, 1, 0) (infatti (1, 1, 1) (1, 1, 0) =
0). Il terzo vettore della base e dato da (1, 1, 1) (1, 1, 0) = (1, 1, 2).
Quindi U =< (1, 1, 1), (1, 1, 0), (1, 1, 2) >= R
3
.
20
Esercizio 2.5. In R
4
sono dati i sottospazi:
U =< u
1
, u
2
, u
3
>, V =< v
1
, v
2
>
dove
u
1
= (0, 0, 1, 1) u
2
= (1, 0, 1, 0) u
3
= (k, 0, 1, 1)
v
1
= (0, 1, 0, 1) v
2
= (0, 1, 1, 0)
con k parametro reale.
a) Determinare al variare di k dimU, dimV , dim(U +V ), dim(U V );
b) Stabilire per quali k vale la decomposizione R
4
= U V ;
c) Dato w = (61, , 2, 1), stabilire se w U + V .
a) Per stabilire la dimensione di U ci chiediamo se i suoi generatori sono
vettori linearmente indipendenti cioe se
(0, 0, 1, 1)x + (1, 0, 1, 0)y + (k, 0, 1, 1)z = (0, 0, 0, 0) (2.1)
ha come unica soluzione (x, y, z) = (0, 0, 0). Riscriviamo la 2.1 come
_
_
_
y + kz = 0
x + y + z = 0
x + z = 0
La matrice associata al sistema e
_
_
0 1 k
1 1 1
1 0 1
_
_
Il suo determinante si annulla per k = 2, quindi se k ,= 2 il sistema ammette
ununica soluzione (nulla essendo il sistema omogeneo), mentre se k = 2 la
matrice ha rango 2. Si ricava che dimU = 3 per k ,= 2 e dimU = 2 per
k = 2. Calcoliamo la dimensione di V . Ponendo
(0, 1, 0, 1)x + (0, 1, 1, 0)y = (0, 0, 0, 0) (2.2)
si ottiene lunica soluzione (x, y) = (0, 0), da cui dimV = 2. Per calcolare
la dimensione di U + V =< u
1
, u
2
, u
3
, v
1
, v
2
> calcoliamo il rango della
21
matrice
_
_
_
_
_
_
0 0 1 0
1 0 1 0
k 0 1 1
0 1 0 1
0 1 1 0
_
_
_
_
_
_
Possiamo utilizzare il metodo di Gauss e si trova che il rango e 4 k, quindi
dim(U + V ) = 4 k. Per calcolare dim(U V ) utilizziamo la formula di
Grassmann vettoriale
dim(U V ) = dimU + dimV dim(U +V )
= 3 + 2 4 = 1 per k ,= 2
= 2 + 2 4 = 0 per k = 2
b) Poiche per k = 2 si ha dim(U V ) = 0 i sottospazi vettoriali (di R
4
) U e
V sono in somma diretta. Inoltre dim(U +V ) = 4 per ogni k. Ne deduciamo
che R
4
= U V . c) Dato che dim(U +V ) = 4 per ogni k si ha R
4
= U +V ,
ed essendo w un vettore di R
4
vale che w U + V .
22
Capitolo 3
Applicazioni lineari
Questo capitolo `e dedicato allo studio delle applicazioni lineari; iniziamo con
le denizioni base ed i primi esempi di applicazioni lineari nella prima sezione,
per poi passare allo studio dei sottospazi associati ad ogni morsmo tra spazi
vettoriali.
3.1 Denizioni ed esempi
In questa sezione indicheremo in generale con V, W due spazi vettoriali sul-
lo stesso campo K (che sar`a quasi sempre il campo dei numeri reali, salvo
alcuni casi in cui considereremo spazi vettoriali su C) di dimensioni n, m
rispettivamente.
Denizione 3.1. Una applicazione : V W `e detta lineare se sono
vericate le seguenti condizioni:
1. v
1
, v
2
V : (v
1
+v
2
) = (v
1
) + (v
2
);
2. v V, K : (v) = (v).
In base alla denizione possiamo subito esibire alcuni esempi di applicazioni
lineari tra spazi vettoriali. Cominciamo con due esempi piuttosto standard
(lo studente, ad una prima lettura, pu`o pensare che gli spazi vettoriali con
cui si lavora siano R
n
e R
m
).
Esempio 3.1. Consideriamo lapplicazione nulla tra due spazi vettoriali
denita da
0 : V W
v 0
W
23
che manda ogni vettore di V nel vettore nullo di W. Tale applicazione risulta
essere chiaramente lineare in quanto:
1. 0(v
1
) +0(v
2
) = 0
W
+ 0
W
= 0
W
= 0(v
1
+v
2
);
2. 0(v) = 0
W
= 0
W
= 0(v).
Esempio 3.2. Un esempio importante di applicazione lineare `e lapplicazione
identica di uno spazio in se stesso:
id : V V
v v
lasciamo allo studente la verica della linearit`a di tale mappa.
Possiamo considerare anche applicazioni lineari tra spazi vettoriali non usuali,
come dimostrato nel seguente:
Esempio 3.3. Abbiamo visto in precedenza che linsieme R
n
[x] dei polinomi
di grado minore od uguale ad n nellindeterminata x a coecienti reali ha la
struttura di spazio vettoriale. Consideriamo loperazione di derivazione:
D : R
n
[x] R
n1
[x]
p(x) D(p(x)) = p

(x).
In generale, loperazione di derivazione risulta essere lineare sullo spazio di
tutte le funzioni derivabili, poich`e
1
:
1. D(f(x) +g(x)) = D(f(x)) +D(g(x));
2. D(kf(x)) = kD(f(x))
per ogni coppia di funzioni derivabili f, g e per ogni scalare k R. Dunque,
a maggior ragione, tale operazione risulter`a essere lineare sul sottoinsieme
dei polinomi.
Nei primi tre esempi visti, la denizione della applicazione lineare non ha
fatto uso di coordinate; vediamo ora un primo esempio in cui lapplicazione
in questione `e denita mediante la scrittura esplicita delle coordinate del
codominio in funzione di quelle del dominio.
1
rimandiamo ad un testo di analisi la dimostrazione di questi fatti
24
Esempio 3.4. Consideriamo lapplicazione:
: R
2
R
2
(x, y) (x +y, 2x 3y)
Se indichiamo con (x

, y

) le coordinate nel codominio, tale mappa `e indivi-


duata dalla sostituzione lineare omogenea:
_
x

= x +y
y

= 2x 3y
Verichiamo che tale mappa `e lineare:
1. (x
1
, y
1
), (x
2
, y
2
) R
2
si ha:
((x
1
, y
1
) + (x
2
, y
2
)) = ((x
1
+x
2
, y
1
+ y
2
))
= (x
1
+x
2
+ y
1
+ y
2
, 2x
1
+ 2x
2
3y
1
3y
2
)
= (x
1
+y
1
, 2x
1
3y
1
) + (x
2
+ y
2
, 2x
2
3y
2
)
= ((x
1
, y
1
)) +((x
2
, y
2
))
2. (x, y) R
2
, R:
((x, y)) = ((x, y))
= (x +y, 2x 3y)
= ((x +y), (2x 3y))
= (x +y, 2x 3y)
= (x, y)
In generale non `e necessario vericare che mappe come la siano lineari; `e
suciente osservare che lespressione in coordinate `e data mediante equazioni
lineari omogenee.
Dopo aver visto i primi esempi di applicazioni lineari, continuiamo la nostra
trattazione ricordando un importante fatto: le applicazioni lineari trasfor-
mano combinazioni lineari in combinazioni lineari. Infatti, sia v
1
, . . . , v
n

una base di V ; ogni vettore v V si scrive come combinazione lineare dei v


i
:
v =
1
v
1
+ +
n
v
n
=

n
i=1

i
v
i
. Limmagine del vettore v mediante una
applicazione lineare : V W risulter`a essere del tipo:
(v) = (

n
i=1

i
v
i
)
=

n
i=1

i
(v
i
)
=
1
(v
1
) + +
n
(v
n
).
25
In particolare, da questa osservazione, `e possibile dedurre che lazione della
mappa `e completamente determinata dalla denizione di su una base del
dominio. Consideriamo dunque il seguente:
Esempio 3.5. Indichiamo con e
1
, e
2
, e
3
ed e

1
, e

2
la basi canoniche di R
3
ed R
2
rispettivamente; consideriamo dunque lapplicazione:
: R
3
R
2
e
1
2e

1
e

2
e
2
3e

1
e
3
e

1
+ 5e

2
Tale mappa risulta sicuramente essere lineare; vogliamo determinare la sua
espressione in coordinate. Indicate con (x, y, z) le coordinate nel dominio, si
ha:
(x, y, z) = (xe
1
+ye
2
+ze
3
)
= (xe
1
) +(ye
2
) + (ze
3
)
= x(e
1
) +y(e
2
) + z(e
3
)
= x(2e

1
e

2
) + y(3e

1
) + z(e

1
+ 5e

2
)
= (2x + 3y + z)e

1
+ (x + 5z)e

2
= (2x + 3y + z, x + 5z)
cio`e la sostituzione lineare omogenea sulle coordinate `e data da:
_
x

= 2x + 3y + z
y

= x + 5z
dove (x

, y

) rappresentano le coordinate nel codominio.


Nei prossimi due esempi consideriamo il caso di applicazioni lineari denite su
spazi vettoriali che non abbiamo ancora preso in esempio in questo capitolo;
nel primo caso consideriamo lo spazio vettoriale C come spazio vettoriale sul
campo R, mentre nel secondo prendiamo in considerazione lo spazio delle
matrici.
Esempio 3.6. Consideriamo lo spazio vettoriale C su R. Ricordiamo che
tale spazio ha dimensione pari a 2 ed una sua base `e 1, i
2
. Consideriamo
loperazione di coniugio su C, denita da:
: C C
z z
2
ogni elemento z C si pu`o sempre scrivere come combinazione lineare z = a + ib con
a, b R, cio`e come combinazione lineare dei vettori 1 e i
26
E immediato vericare che tale applicazione `e lineare; infatti
1. (z
1
+z
2
) = z
1
+z
2
= z
1
+z
2
= (z
1
) + (z
2
)
2. (z) = z = z = z
poich`e R.
Esempio 3.7. Prendiamo in esame il caso in cui il dominio dellapplicazione
`e costituito dallinsieme delle matrici quadrate a coecienti reali. Sia A =
(a
ij
) M
n
(R) una matrice quadrata di ordine n; ricordiamo che la traccia
3
di A `e denita da:
tr(A) =
n

i=1
a
ii
La funzione traccia associa dunque un numero reale ad ogni matrice quadrata;
in pratica, `e denita una funzione:
tr : M
n
(R) R
che risulta essere lineare (vedi nota).
Terminiamo questa sezione riportando alcuni esempi di mappe tra spazi
vettoriali che non risultano essere lineari.
Esempio 3.8. Consideriamo lapplicazione denita in coordinate da:
: R
2
R
2
(x, y) (x y, 2x +y + 1)
ovvero denita dalla sostituzione sulle coordinate:
_
x

= x y
y

= 2x +y + 1
3
per comodit`a , riportiamo al lettore le propriet`a fondamentali della funzione traccia,
le cui dimostrazioni si possono trovare su un qualsiasi testo di algebra lineare:
1. tr(A + B) = tr(A) + tr(B)
2. tr(kA) = ktr(A)
27
Tale mappa risulta essere non lineare in quanto, ad esempio, non `e
soddisfatta la linearit`a rispetto alla somma; infatti:
((x
1
, y
1
) + (x
2
, y
2
)) = ((x
1
+x
2
, y
1
+y
2
))
= (x
1
+ x
2
y
1
y
2
, 2x
1
+ 2x
2
+ y
1
+ y
2
+ 1)
mentre si ha che:
((x
1
, y
1
)) +((x
2
, y
2
)) = (x
1
y
1
, 2x
1
+y
1
+ 1) + (x
2
y
2
, 2x
2
+y
2
+ 1)
= (x
1
+ x
2
y
1
y
2
, 2x
1
+ 2x
2
+ y
1
+ y
2
+ 2)
Esempio 3.9. Sappiamo che il determinante di una matrice quadrata a coef-
cienti reali `e un numero reale; in altri termini risulta denita una fun-
zione tra lo spazio vettoriale delle matrici quadrate e lo spazio vettoriale
unidimensionale R:
det : M
n
(R) R
A det(A)
che non risulta essere lineare, perch`e in generale vale la seguente formula:
det(kA) = k
n
det(A) k R.
Lasciamo come esercizio per lo studente la dimostrazione del fatto che, in
generale, non vale neanche:
det(A +B) = det(A) +det(B)
(lo studente fornisca un esempio di due matrici che non soddisfano tale
propriet`a ).
Esempio 3.10. Riprendiamo in esame lo spazio vettoriale C, considerandolo
questa volta come spazio vettoriale su se stesso
4
; in tal caso il coniugio
: C C
z z
non `e lineare! Ad esempio, si ha che:
(iz) = iz = iz = iz
4
ricordiamo che in questo caso una base `e costituita, ad esempio, dal solo numero 1
28
3.2 Sottospazi associati ad una applicazione
lineare
Iniziamo questa sezione ricordando allo studente che si indica con Hom(V, W)
linsieme delle applicazioni lineari (o morsmi) da V in W, mentre con
End(V ) indicheremo linsieme di tutte le applicazioni lineari di uno spazio
V in se stesso. Ricordiamo inoltre che una applicazione lineare : V W
`e detta isomorsmo se risulta essere biunivoca (e, quindi, invertibile). Un
isomorsmo di uno spazio V in se stesso e detto automorsmo.
Ad ogni applicazione lineare : V W tra spazi vettoriali, risultano
associati due sottospazi, detti nucleo ed immagine, deniti da:
1. Ker() = v V [(v) = 0;
2. Im() = w W[v V, (v) = w.
Lo studio di questi sottospazi pu`o aiutare a comprendere meglio la funzione
; vale, ad esempio, la seguente:
Proposizione 3.1. Una applicazione lineare : V W risulta essere
iniettiva se e solo se:
Ker() = 0
V

Di notevole importanza risulta essere anche il teorema delle dimensioni:


Teorema 3.1. Sia : V W una applicazione lineare; allora vale la
seguente formula:
dim(Ker()) +dim(Im()) = dim(V ) (3.1)
Prima di passare a vedere altri esempi di applicazioni lineari `e per`o necessario
introdurre un nuovo concetto, ossia quello di matrice di una applicazione
lineare
3.3 Matrice associata ad una applicazione li-
neare
Sia v
1
, v
2
, . . . , v
n
una base dello spazio vettoriale V , e sia w
1
, w
2
, . . . , w
m

una base di W; consideriamo una applicazione lineare tra questi due spazi:
: V W.
29
Tale applicazione lineare trasforma ogni vettore v
i
della base di V in un
vettore di W, che si potr`a dunque scrivere come combinazione lineare dei
vettori w
j
; in altri termini, `e possibile scrivere:
_

_
(v
1
) = a
11
w
1
+ a
21
w
2
+ +a
m1
w
m
(v
2
) = a
12
w
1
+ a
22
w
2
+ +a
m2
w
m
.
.
.
(v
n
) = a
1n
w
1
+ a
2n
w
2
+ +a
mn
w
m
ovvero, in termini pi` u compatti: (v
i
) =

m
j=1
a
ji
w
j
. Risulta dunque deter-
minata una matrice A M
m,n
(R), ottenuta mettendo nella i-esima colonna
i coecienti del vettore (v
i
) nella base w
j
:
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
In particolare, dalla costruzione fatta, si deduce che le colonne della matrice A
risultano essere un sistema di generatori per lo spazio Im(); dunque, per de-
terminare una base di Im() `e suciente considerare le colonne linearmente
indipendenti della matrice A.
Siamo in grado ora di vedere alcuni esempi signicativi di studi di applicazioni
lineari.
Esercizio 3.1. Consideriamo lapplicazione lineare denita sulla base:
: R
3
R
3
e
1
e
1
+e
3
e
2
e
2
e
3
e
1
+e
2
+e
3
Determinare la matrice di , scrivere le equazioni in componenti e studiare
la mappa (nel senso di determinare il nucleo e limmagine, e stabilire se `e
iniettiva e/o suriettiva).
Soluzione. Notiamo innanzitutto che abbiamo considerato la base canonica
e
1
, e
2
, e
3
sia nel dominio che nel codominio. Poich`e la mappa `e denita
su una base, risulta immediato scrivere la matrice associata allapplicazione
30
lineare: `e suciente mettere in colonna i coecienti delle immagini dei vet-
tori della base del dominio! Dunque, la prima colonna di A risulta essere
il vettore (1, 0, 1)
t
. Ragionando in modo analogo per le altre due colonne,
risulta che:
A =
_
_
1 0 1
0 1 1
1 0 1
_
_
Scriviamo ora le equazioni di in componenti:
((x, y, z)) = (xe
1
+ye
2
+ ze
3
)
= x(e
1
) + y(e
2
) +z(e
3
)
= xe
1
+ xe
3
+ye
2
+ ze
1
+ze
2
+ze
3
= (x +z)e
1
+ (y + z)e
2
+ (x + z)e
3
= (x +z, y +z, x +z)
cio`e la sostituzione lineare omogenea di coordinate `e :
_
_
_
x

= x +z
y

= y +z
z

= x +z
nota bene:la trasformazione di coordinate si pu`o leggere direttamente dalla
matrice associata A, ed in particolare sulle righe. Pi` u precisamente vale la
seguente:
_
_
x

_
_
= A
_
_
x
y
z
_
_
che risulta dunque essere in qualche modo equivalente alla scrittura:
w = (v)
posto w = (x

, y

, z

) e v = (x, y, z). Passiamo ora a determinare il nucleo di


tale applicazione; per denizione si ha:
v = (x, y, z) Ker(V ) (v) = 0
W
Av = 0
W
dunque ogni elemento del nucleo deve essere soluzione del sistema lineare
omogeneo:
_
_
1 0 1
0 1 1
1 0 1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
31
Osserviamo subito che la terza riga di tale sistema `e equivalente alla prima
e la eliminiamo; il sistema `e gi`a nella forma a gradini, da cui si vede che,
scegliendo la z come variabile libera, la soluzione `e nella forma:
x = y = z
cio`e il nucleo di risulta essere lo spazio generato dal vettore (1, 1, 1), e
quindi `e un sottospazio di dimensione 1 in R
3
. Dunque possiamo concludere
immediatamente che lapplicazione in questione non `e iniettiva. Inoltre il
teorema delle dimensioni ci permette di concludere che dim(Im()) = 2, e
dunque la mappa non `e nemmeno suriettiva; in particolare, una base per lo
spazio immagine si ottiene prendendo due colonne linearmente indipendenti
della matrice A (ad esempio le prime due). Concludiamo dunque che:
Im() = < (1 0 1) , (0 1 0) >
Concludiamo questo esercizio con il fornire un metodo generale che si utilizza
per determinare le equazioni di un sottospazio vettoriale, una volta nota una
base per il sottospazio stesso. E proprio il caso del sottospazio immagine, di
cui ora conosciamo una base, e di cui vogliamo determinare lequazione in
coordinate; procediamo secondo il seguente ragionamento: (x, y, z) Im()
se e solo se (x, y, z) `e combinazione lineare dei vettori della base di Im().
Questo `e equivalente ad imporre che la matrice:
M =
_
_
1 0 x
0 1 y
1 0 z
_
_
abbia rango 2, poich`e la terza colonna deve essere linearmente dipendente
dalle altre; alternativamente questo equivale a dire che tale matrice abbia
determinante nullo:
det(M) = 0
Sviluppando questo determinante rispetto alla seconda colonna con il metodo
di Laplace, si ottiene:
z x = 0
cio`e si ottiene lequazione che descrive lo spazio immagine:
Im() = (x, y, z) R
3
[x = z
32
Esercizio 3.2. Prendiamo ora in considerazione lo spazio vettoriale delle
matrici quadrate di ordine 2 a coecienti reali: V = M
2
(R), e deniamo la
mappa:
: V V
X
1
2
(X +X
t
)
Lasciamo allo studente la verica del fatto che tale applicazione risulta essere
lineare, mentre ci preoccupiamo nel seguito di scrivere la matrice associata a
. Scrivere la sua espressione in coordinate e determinare inne nucleo ed
immagine. Sia X V ; possiamo scrivere
X =
_
x
1
x
2
x
3
x
4
_
(come elemento nel dominio); si ha che
(X) =
1
2
_ _
x
1
x
2
x
3
x
4
_
+
_
x
1
x
3
x
2
x
4
_ _
=
_
x
1
x
2
+x
3
2
x
2
+x
3
2
x
4
_
Indicate con (y
1
, y
2
, y
3
, y
4
) le coordinate nel codominio, si ha che la
sostituzione lineare omogenea `e espressa dalle relazioni:
_

_
y
1
= x
1
y
2
= (x
2
+x
3
)/2
y
3
= (x
2
+x
3
)/2
y
4
= x
4
La matrice associata a `e pertanto:
A =
_
_
_
_
1 0 0 0
0 1/2 1/2 0
0 1/2 1/2 0
0 0 0 1
_
_
_
_
E immediato vericare che la matrice A ha rango pari a 3, e dunque la
mappa risulta essere non iniettiva e neppure suriettiva. Determiniamo
inne nucleo ed immagine dellapplicazione:
X Ker()
1
2
_
X +X
t
_
= 0 X = X
t
33
cio`e il nucleo corrisponde allinsieme delle matrici antisimmetriche (ricor-
diamo che tale spazio ha dimensione 1). Per determinare una base di Im()
prendiamo le colonne linearmente indipendenti della matrice A (ad esempio,
le prime due e lultima). La prima colonna corrisponde alla matrice:
_
1 0
0 0
_
Ragionando in modo analogo si conclude che:
Im() =<
_
1 0
0 0
_
,
_
0 1
1 0
_
,
_
0 0
0 1
_
>
ossia tale spazio coincide con lo spazio delle matrici simmetriche (ha
dimensione 3).
Esercizio 3.3. Data lapplicazione lineare:
: R
2
R
2
(x, y) (2x 3y, x, x + 2y)
scrivere la matrice associata a , determinare nucleo ed immagine e stabilire
se i vettori w
1
= (6, 3, 5), w
2
= (3, 1, 6) Im().
soluzione E immediato scrivere la matrice associata, leggendo nella
trasformazione delle coordinate le righe della matrice stessa. Risulta:
A =
_
_
2 3
1 0
1 2
_
_
Per quanto riguarda il nucleo di questa applicazione `e suciente risolvere il
sistema omogeneo associato, ovvero ridurre la matrice A.
_
_
2 3
1 0
1 2
_
_

_
_
2 3
0 2
0 1
_
_
che fornisce lunica soluzione x = y = 0, cio`e :
Ker() = (0, 0)
34
Dunque la dimensione del nucleo `e pari a zero (questo implica che `e iniet-
tiva)e, dal teorema delle dimensioni, si ricava che dim(Im()) = 2. In tal
caso signica che le due colonne della matrice associata risultano essere una
base per lo spazio immagine.
Passando allultimo quesito dellesercizio, ragioniamo come segue:
w
1
Im() (x, y) R
2
: ((x, y)) = w
1
.
Dal punto di vista matriciale, questo equivale a scrivere: (x, y) R
2
tale
che
_
_
2 3
1 0
1 2
_
_
_
x
y
_
=
_
_
6
3
5
_
_
che corrisponde quindi alla risoluzione di un sistema lineare non omogeneo.
Utilizzando il metodo di Gauss si ha:
_
_
2 3 6
1 0 3
1 2 5
_
_

_
_
2 3 6
0 2 8
0 1 4
_
_
da cui si conclude che il sistema `e risolubile, e dunque w
1
Im().
Analogamente per w
2
si ha:
_
_
2 3 3
1 0 1
1 2 6
_
_

_
_
2 3 3
0 2 5
0 0 23
_
_
da cui si vede che il rango della matrice orlata `e maggiore di quello della
matrice del sistema, e pertanto w
2
, Im().
Esercizio 3.4. Data la mappa lineare
: R
3
R
3
e
1
2e
1
e
2
+ 7e
3
e
2
e
1
+ 3e
3
e
3
2e
1
+ 3e
2
+ 3e
3
dire per quali vaolri di k R il vettore w = (1, k, 2) Im().
soluzione E suciente imporre che sia risolubile il sistema lineare la cui
matrice orlata `e :
_
_
2 1 2 1
1 0 3 k
7 3 3 2
_
_
35
Utilizzando ancora una volta la riduzione di Gauss si arriva ad ottenere:
_
_
2 1 2 1
0 1 8 2k 1
0 0 0 2k + 10
_
_
da cui si conclude che il sistema `e risolubile se e solo se k = 5.
Esercizio 3.5. Nello spazio vettoriale R
2
[x] dei polinomi a coecienti reali
di grado non superiore a 2, consideriamo la mappa:
: V V
p(x) p(1)x
2
+p(0)x
Vericare che `e un endomorsmo di V e studiarlo.
soluzione
Ricordato che la base canonica di V `e B
V
= 1, x, x
2
, in termini di tale base
un generico elemento di V si scrive come p(x) = a +bx +cx
2
, dove abbiamo
indicato con (a, b, c) le coordinate nel dominio. In termini di tali coordinate
si ha che:
p(1) = a +b +c; p(0) = a
e dunque:
(p(x)) = ax + (a +b +c)x
2
.
Se indichiamo con (x

, y

, z

) le coordinate nel codominio, la sostituzione `e


data da:
_
_
_
a

= 0
b

= a
c

= a +b + c
che risulta dunque essere lineare (in quanto `e una sostituzione lineare
omogenea). Ricaviamo inoltre la matrice associata:
A =
_
_
0 0 0
1 0 0
1 1 1
_
_
E immediato vedere che r(A) = 2; dunque dim(Im()) = 2, e dal teorema
delle dimensioni si conclude che dim(Ker()) = 1. In particolare si ha che:
Im() = < C
1
, C
2
>
= < (0, 1, 1), (0, 0, 1) >
= < x +x
2
, x
2
>
36
Per determinare il nucleo di questa applicazione `e come al solito suciente
risolvere il sistema lineare omogeneo associato alla matrice A:
_
_
0 0 0
1 0 0
1 1 1
_
_
_
_
a
b
c
_
_
=
_
_
0
0
0
_
_
Risolvendo tale sistema si ottiene: a = 0, b = c, da cui si deduce che
Ker() =< (0, 1, 1) >=< x x
2
>
Esercizio 3.6. Vericare che lendomorsmo di R
3
:
: R
3
R
3
(x, y, z) (3x + 3z, y, 2x +y z)
`e invertibile
5
,e determinare lespressione in coordinate dellapplicazione
inversa.
soluzione
La matrice associata `e :
A =
_
_
3 0 3
0 1 0
2 1 1
_
_
Per vericare che `e invertibile `e suciente dimostrare che il nucleo dellap-
plicazione `e banale. In tal caso infatti siamo sicuri che `e iniettiva; inoltre
il teorema delle dimensioni ci consente di aermare che la dimensione del-
lo spazio immagine coincide con quella del codominio, e dunque `e anche
suriettiva. Se consideriamo il sistema omogeneo associato alla matrice A, `e
facile vedere che tale sistema ha una sola soluzione in quanto, sviluppando il
determinante con la regola di Laplace rispetto alla seconda riga, si ottiene:
det(A) = 3. Lunica soluzione possibile deve pertanto essere quella banale:
Ker() = (0, 0, 0).
In tal modo abbiamo vericato lesistenza della mappa inversa

1
: R
3
R
3
: (x

, y

, z

) (x, y, z),
5
si dice che `e un automorsmo di R
3
37
dove abbiamo indicato con (x

, y

, z

) le coordinate di un generico elemento


del codominio di .
Vale dunque la seguente relazione (in notazione funzionale)
w = (v)
1
(w) = v
che si riscrive in termini matriciali come:
(x

, y

, z

)
t
= A(x, y, z)
t
A
1
(x

, y

, z

)
t
= (x, y, z)
t
cio`e la matrice A
1
ci fornisce lespressione in coordinate della funzione
inversa. Si ha che:
A
1
=
_
_
1/3 1 1
0 1 0
2/3 1 1
_
_
Lespressione in coordinate di
1
risulta essere:
_
_
_
x =
1
3
x

+ z

y = y

z =
2
3
x

+ z

Esercizio 3.7. Dati i sottospazi vettoriali:


U = (x, y, z) R
3
[x+y = y+z = 0, V = (x, y, z) R
3
[x+2z = 0
determinare, se possibile, una applicazione lineare
: R
3
R
3
tale che:
1. Ker() = U;
2. Im() = V
soluzione
Utilizziamo sia nel dominio che nel codominio la base canonica e
1
, e
2
, e
3

di R
3
, ed indichiamo con (x, y, z) e (x

, y

, z

) le coordinate in dominio e
codominio rispettivamente.
38
Sappiamo che lo spazio immagine `e generato dalle colonne linearmente in-
dipendenti della matrice associata; in tal caso conosciamo lo spazio imma-
gine, dunque possiamo ricavarne una base ed ottenere qualche colonna della
matrice associata.
Guardando le equazioni di V , `e facile dedurre che una base per tale spazio
risulta essere:
B
V
= (0, 1, 0), (2, 0, 1)
dunque tale sottospazio ha dimensione 2 ed abbiamo ottenuto due delle tre
colonne della matrice associata, che sar`a della forma:
A =
_
_
0 2 a
1 0 b
0 1 c
_
_
dove il vettore colonna (a, b, c)
t
risulter`a essere combinazione lineare della
base di V . Per determinare le incognite a, b, c proviamo ad imporre la condi-
zione che il nucleo dellapplicazione che cerchiamo coincida con il sottospazio
U.
Prima di tutto osserviamo che U =< (1, 1, 1) > (questo si deduce piuttosto
facilmente dalle equazioni di U), e dunque imponiamo che tale vettore sia un
elemento del nucleo, cio`e :
_
_
0 2 a
1 0 b
0 1 c
_
_
_
_
1
1
1
_
_
=
_
_
0
0
0
_
_
da cui si ricava il sistema:
_
_
_
2 +a = 0
1 +b = 0
1 +c = 0
Dunque la matrice associata allapplicazione lineare `e nella forma:
_
_
0 2 2
1 0 1
0 1 1
_
_
cio`e lendomorsmo di R
3
con le caratteristiche richieste `e :
: R
3
R
3
(x, y, z) (2y + 2z, x z, y +z)
39
3.4 Cambiamenti di riferimento
Sia V uno spazio vettoriale di dimensione n. Considerate due basi di V :
B = v
1
, v
2
, . . . , v
n

= w
1
, w
2
, . . . , w
n

risulta che ogni vettore w


j
B

si pu`o scrivere come combinazione lineare


dei vettori v
i
:
_

_
w
1
= a
11
v
1
+a
21
v
2
+ + a
n1
v
n
=

n
i=1
a
i1
v
i
w
2
= a
12
v
1
+a
22
v
2
+ + a
n2
v
n
=

n
i=1
a
i2
v
i
.
.
.
w
n
= a
1n
v
1
+a
2n
v
2
+ + a
nn
v
n
=

n
i=1
a
in
v
i
(3.2)
Sia ora u V un generico vettore; esso si potr`a scrivere sia come
combinazione lineare dei v
i
che come combinazione lineare dei w
j
:
u = x
1
v
1
+ x
2
v
2
+ +x
n
v
n
= x

1
w
1
+x

2
w
2
+ +x

n
w
n
Sostituendo ai w
j
le espressioni fornite dalla (3.2) si ottiene:
u = x

1
w
1
+x

2
w
2
+ +x

n
w
n
= x

1
(a
11
v
1
+a
21
v
2
+ + a
n1
v
n
) + + x

n
(a
1n
v
1
+a
2n
v
2
+ +a
nn
v
n
)
= (x

1
a
11
+x

2
a
12
+ +x

n
a
1n
)v
1
+ + (x

1
a
n1
+x

2
a
n2
+ +x

n
a
nn
)v
n
da cui si ottengono le cosiddette espressioni del cambio di coordinate:
_

_
x
1
= x

1
a
11
+x

2
a
12
+ +x

n
a
1n
x
2
= x

1
a
21
+x

2
a
22
+ +x

n
a
2n
.
.
.
x
n
= x

1
a
n1
+x

2
a
n2
+ +x

n
a
nn
(3.3)
La (3.3) si pu`o esprimere in forma matriciale:
X = AX

(3.4)
40
dove:
X =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
X

=
_
_
_
_
_
x

1
x

2
.
.
.
x

n
_
_
_
_
_
mentre A `e la matrice quadrata di ordine n ottenuta mettendo in colonna i
coecienti dei vettori w
j
rispetto alla base B:
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
La (3.4) fornisce dunque il legame esistente tra le coordinate (x
i
) del vettore
u espresso in termini della base B, e le coordinate (x

i
) dello stesso vettore u
rispetto alla base B

.
Osservazioni
1. la matrice A risulta essere invertibile, in quanto le sue colonne sono
linearmente indipendenti (essendo i vettori di una base);
2. A `e la matrice che esprime i vettori della base B

in funzione della base


B; in generale indicheremo dunque tale matrice con A
B,B
.
Vediamo un esempio per chiarire il tutto:
Esempio 3.11. In R
2
, la matrice di passaggio dalla base canonica B =
e
1
, e
2
alla base B

= v
1
(2, 1), v
2
(1, 3) si ottiene semplicemente mettendo
in colonna i vettori della base B

espressi in termini di B. Dunque:


A
B,B
=
_
2 1
1 3
_
Ricordiamo che tale matrice fornisce le componenti (x, y) di un vettore di R
2
rispetto a B, una volta note le sue componenti rispetto a B

; ad esempio, se
u = (1, 1) rispetto a B

, allora le sue componenti (x, y) rispetto a B sono


fornite da:
_
x
y
_
=
_
2 1
1 3
_ _
1
1
_
41
cio`e x = 3, y = 2. Dunque:
u = v
1
v
2
= 3e
1
2e
2
Esercizio 3.8. In R
3
, con base canonica B = e
1
, e
2
, e
3
, si considerino altre
due basi:
B

= v
1
(1, 2, 3), v
2
(1, 0, 4), v
3
(5, 2, 3)
B

= w
1
(3, 0, 3), w
2
(1, 2, 2), w
3
(1, 2, 5)
Determinare le coordinate dei vettori u = 3v
1
+ 2v
2
2v
3
e w = w
1
+
4w
2
7w
3
rispetto alla base canonica, utilizzando la matrice del cambio di
coordinate.
Un importante risultato che riguarda il cambiamento di coordinate `e fornito
dalla seguente proposizone, che risulter`a utile anche nello svolgimento di
alcuni esercizi:
Proposizione 3.2. Sia V uno spazio vettoriale, e siano B, B

, B

tre basi
distinte di V . Indicate con M
B,B
, M
B

,B
le matrici che descrivono il cambio
di coordinate da B a B

e da B

a B

, rispettivamente, allora valgono i seguenti


fatti:
1. M
B,B
= M
B,B
M
B

,B
;
2. M
B

,B
= M
1
B,B

.
Vediamo limmediata applicazione di tale risultato nel seguente:
Esercizio 3.9. Sia V = R
3
; indichiamo con B = e
1
, e
2
, e
3
la sua base
canonica. Consideriamo le basi :
B

= v
1
(1, 1, 0), v
2
(2, 1, 1), v
3
(0, 2, 1)
B

= w
1
(1, 0, 1), w
2
(1, 2, 3), w
3
(1, 1, 1)
Determinare il cambio di coordinate da B

a B

.
soluzione E immediato scrivere le matrici di passaggio da B a B

e B

;
M
B,B
=
_
_
1 2 0
1 1 2
0 1 1
_
_
42
M
B,B
=
_
_
1 1 1
0 2 1
1 3 1
_
_
La proposizione precedente ci consente di aermare che:
M
B

,B
= M
B

,B
M
B,B

e che
M
B

,B
= M
1
B,B

.
Dunque, calcolando linversa di M
B,B
si ha:
M
1
B,B

=
_
_
1/2 2 3/2
1/2 1 1/2
1 1 1
_
_
In conclusione:
M
B

,B
=
_
_
1/2 2 3/2
1/2 1 1/2
1 1 1
_
_
_
_
1 2 0
1 1 2
0 1 1
_
_
=
_
_
3/2 1/2 11/2
1/2 1/2 5/2
0 2 3
_
_
Ad esempio, se conosciamo le coordinate di un vettore rispetto a B

, possiamo
facilmente conoscere le sue componenti rispetto a B

. Sia
u = 2w
1
+ 3w
2
+w
3
= (2, 3, 1)
B
;
allora le sue componenti rispetto a B

sono:
_
_
x
y
z
_
_
B

=
_
_
3/2 1/2 11/2
1/2 1/2 5/2
0 2 3
_
_
_
_
2
3
1
_
_
=
_
_
4
3
9
_
_
Lo studente dovrebbe essere ora in grado di risolvere da solo i seguenti
esercizi:
43
Esercizio 3.10. Per le seguenti coppie di basi di R
2
determinare la matrice
M
B,B
:
1. B = (1, 1), (1, 1), B

= (1, 0), (1, 1);


2. B = (2, 1), (2, 2), B

= (

5,

5), (

5,

5).
Esercizio 3.11. Determinare la matrice del cambio di coordinate per le
seguenti coppie di basi di R
3
:
1. B = (1, 0, 1), (1, 1, 0), (0, 1, 1), B

= (1, 1, 1), (0, 1, 1), (0, 0, 1);


2. B = (1, 1, 1), (1, 1, 1), (1, 1, 1),
B

= (13, 5, 6), (8, 10, 4), (17, 0, 7)


Una importante applicazione del cambiamento di coordinate si ha nel-
lo studio delle applicazioni lineari. Siano V, W spazi vettoriali, con basi
B
V
= e
1
, . . . , e
n
, B

V
= e

1
, . . . , e

m
, e sia
: V W
(x
1
, . . . , x
n
) (y
1
, . . . , y
m
)
una applicazione lineare tra questi spazi. Indicata con A la matrice associata
a tale applicazione lineare, sappiamo che vale la scrittura:
Y = AX
dove Y = (y
1
, . . . , y
m
)
t
W, X = (x
1
, . . . , x
n
)
t
V .
Vogliamo vedere cosa succede se cambiamo le basi nei due spazi. Indicate
con B

V
, B

W
due nuove basi, rispettivamente in V ed in W, abbiamo visto
che:
X = M
B
V
,B

V
X

, Y = M
B
W
,B

W
Y

sono le relazioni che legano le coordinate di uno stesso vettore rispetto a basi
dierenti nello stesso spazio vettoriale. Possiamo dunque scrivere che:
M
B
W
,B

W
Y

= AM
B
V
,B

V
X

e poich`e M
B
W
,B

W
`e invertibile:
Y

= M
1
B
W
,B

W
AM
B
V
,B

V
X

(3.5)
44
ovvero:
Y

= BX

con B = M
1
B
W
,B

W
AM
B
V
,B

V
.
In altre parole, la (3.5) non `e altro che la notazione matriciale della
applicazione rispetto alle due nuove basi.
Si osservi che le matrici A e B rappresentano la stessa applicazione lineare
(`e sempre la ), denita solo su basi dierenti. Le due matrici sono dette
equivalenti.
Vediamo un esempio:
Esempio 3.12. Consideriamo la mappa
: R
3
R
2
e
1
2e

1
+ e

2
e
2
e

1
e

2
e
3
5e

1
dove c = e
1
, e
2
, e
3
, c

= e

1
, e

2
sono le basi canoniche di R
3
, R
2
rispetti-
vamente. Sappiamo che la corrispondente matrice associata a (rispetto a
queste basi!) `e :
A =
_
2 1 5
1 1 0
_
e la corrispondente sostituzione di coordinate `e :
_
y
1
= 2x
1
+x
2
+ 5x
3
y
2
= x
1
x
2
dove (x
1
, x
2
, x
3
) sono le coordinate nel dominio e (y
1
, y
2
) nel codominio.
Cerchiamo di capire cosa succede quando cambiamo base in entrambi gli spazi.
Consideriamo, ad esempio, le nuove basi:
B = v
1
(1, 0, 2), v
2
(1, 2, 0), v
3
(1, 1, 2)
B

= w
1
(3, 1), w
2
(1, 0)
e proviamo a determinare qual `e la matrice associata a rispetto a tali basi.
Iniziamo a determinare le matrici dei cambi di coordinate:
M
E,B
=
_
_
1 1 1
0 2 1
2 0 2
_
_
45
mentre
M
E

,B
=
_
3 0
1 1
_
La (3.5) ci dice che:
Y

= M
1
E

,B

AM
E,B
X

dove Y

= (y

1
, y

2
)
t
R
2
sono le coordinate di un vettore rispetto a B

,
X

= (x

1
, x

2
, x

3
)
t
R
3
sono quelle rispetto a B. Dunque:
B = M
1
E

,B

AM
E,B
=
_
1/3 0
1/3 1
__
2 1 5
1 1 0
_
_
_
1 1 1
0 2 1
2 0 2
_
_
=
_
4 4/3 13/3
3 7/3 13/3
_
`e la matrice che rappresenta rispetto alle basi B, B

. La sostituzione
omogenea di coordinate `e pertanto data da:
_
y

1
= 4x

1
+ 4/3x

2
+ 13/3x

3
y

2
= 3x

1
7/3x

2
13/3x

3
Esercizio 3.12. Sia : R
2
R
3
lapplicazione lineare denita da:
(x
1
, x
2
) = (x
1
+ x
2
, x
1
2x
2
, x
1
)
Determinare M
B

,B
, dove:
B = (1, 1), (0, 1), B

= (1, 1, 1), (1, 2, 0), (0, 0, 1)


cio`e la matrice associata a rispetto alle nuove basi.
46
Capitolo 4
Diagonalizzazione di operatori
lineari
In questo capitolo indicheremo con V uno spazio vettoriale n-dimensionale
generico su un campo K, e con un endomorsmo di tale spazio, cio`e una
applicazione lineare di V in se stesso. Iniziamo richiamando le principali
denizioni.
Denizione 4.1. Sia v V, v ,= 0; v `e detto autovettore per se
(v) = v (4.1)
con K. In tal caso lo scalare `e detto autovalore di .
Osservazioni:
1. Linsieme V

= v V : (v) = v di tutti gli autovettori associati


allautovalore `e detto autospazio associato a . Questo insieme risulta
essere un sottospazio vettoriale di V .
2. Se esiste una base B
V
= v
1
, . . . , v
n
di V costituita da autovettori per
, cio`e tale che (v
i
) =
i
v
i
, allora la matrice A associata a rispetto
a questa base `e in forma diagonale:
A =
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
47
Denizione 4.2. Diciamo che (ovvero la matrice associata A) `e
diagonalizzabile se esiste una base di autovettori.
Un semplice criterio che si utilizza negli esercizi per il calcolo degli autovettori
`e fornito dal seguente risultato:
Proposizione 4.1. Uno scalare K `e autovalore di se e solo se:
det(A I) = 0 (4.2)
dove AI `e la matrice ottenuta togliendo lincognita dagli elementi della
diagonale della matrice A.
Si noti che il primo membro della (4.2) risulta essere un polinomio di grado
n nella incognita , detto polinomio caratteristico:
P() = (1)
n

n
+a
1

n1
+. . . +a
n1
+ a
n
dove a
n
= det A. Le radici di P() = 0 sono dunque gli autovalori
dellendomorsmo .
Teorema 4.1 (di Cayley-Hamilton). Ogni matrice quadrata annulla il suo
polinomio caratteristico, cioe
(1)
n
A
n
+a
1
A
n1
+. . . +a
n1
A + a
n
I = 0.
Possiamo ora iniziare ad esaminare i primi esempi.
Esempio 4.1. Lendomorsmo : R
2
R
2
: (x, y) (x 2y, x + 4y) ha
matrice associata:
A =
_
1 2
1 4
_
La (4.2) ci dice che gli autovalori si ottengono da:
det
_
1 2
1 4
_
= 0
Sviluppando il determinante si ottiene lequazione

2
5 + 6 = 0
che fornisce le due soluzioni reali:
1
= 2,
2
= 3.
Ci proponiamo ora di determinare gli autospazi associati a ciascun autova-
lore:
48
V
2
: `e linsieme dei vettori che soddisfano lequazione Av = 2v, ossia sono
le soluzioni del sistema lineare omogeneo
(A 2I)v = 0
R
2.
Andiamo dunque a risolvere tale sistema:
_
1 2
1 2
__
x
y
_
=
_
0
0
_
Osserviamo subito che la seconda riga della matrice dei coecienti `e
proporzionale alla prima e, dunque, la eliminiamo. Questa `e una ovvia
conseguenza del fatto che lautovalore
1
= 2 annulla il determinante
della matrice A I, la quale dunque non ha rango massimo.
In conclusione, la matrice ha rango pari ad 1, e ci sono
21
soluzio-
ni, ovvero lautospazio V
2
ha dimensione 1. Per trovare una sua base
dobbiamo risolvere il sistema; lunica equazione da considerare `e dun-
que: x 2y = 0. Prendendo y come variabile libera si ottiene che la
generica soluzione `e nella forma:
_
x = 2t
y = t
e quindi si conclude che B
V
2
= v
1
(2, 1).
V
3
: `e linsieme dei vettori che soddisfano lequazione Av = 3v, ossia sono
le soluzioni del sistema lineare omogeneo
(A 3I)v = 0
R
2.
Andiamo dunque a risolvere tale sistema:
_
2 2
1 1
__
x
y
_
=
_
0
0
_
Osserviamo subito che la seconda riga della matrice dei coecienti `e
proporzionale alla prima; in tal caso eliminiamo la prima riga.
Come prima, la matrice ha rango pari ad 1, e ci sono
21
soluzioni,
ovvero lautospazio V
3
ha dimensione 1. Per trovare una sua base dob-
biamo risolvere il sistema; lunica equazione da considerare `e dunque:
49
x +y = 0. Prendendo y come variabile libera si ottiene che la generica
soluzione `e nella forma:
_
x = t
y = t
e quindi si conclude che B
V
3
= v
2
(1, 1).
Abbiamo cos` determinato una coppia di autovettori linearmente indipenden-
ti, cio`e una base di autovettori per R
2
: B
R
2 = v
1
, v
2
. Questo signica che
lapplicazione lineare `e diagonalizzabile, poich`e la matrice associata a in
tale base `e nella forma diagonale:
_
2 0
0 3
_
Concludiamo questo esercizio riprendendo quanto detto nella sezione dedicata
ai cambiamenti di riferimento per le applicazioni lineari, e vediamo come
funziona il tutto nel caso particolare degli endomorsmi.
Iniziamo con il ricordare che A `e la matrice associata a espressa rispetto
alla base canonica c(`e la stessa base sia nel dominio che nel codominio);
possiamo sottolineare questo fatto indicando tale matrice con A
E,E
.
Se ora vogliamo trovare la matrice B associata a rispetto ad una nuova
base B dobbiamo ricordarci che vale la relazione:
B = M
B,E
A
E,E
M
E,B
dove M
E,B
`e la matrice le cui colonne sono fornite dai coecienti degli e-
lementi della nuova base B rispetto alla base canonica, ed inoltre M
B,E
=
M
1
E,B
.
Proviamo dunque a vedere qual `e la matrice associata a rispetto alla base
di autovettori B = v
1
(2, 1), v
2
(1, 1). In tal caso si ha:
M
E,B
=
_
2 1
1 1
_
M
1
E,B
=
_
1 1
1 2
_
50
e dunque la matrice associata a rispetto alla nuova base `e :
B = M
B,E
A
E,E
M
E,B
=
_
1 1
1 2
__
1 2
1 4
__
2 1
1 1
_
=
_
2 0
0 3
_
come, del resto, avremmo dovuto aspettarci!
Osservazione: lultima parte dellesercizio precedente pu`o essere
generalizzata secondo il seguente ragionamento:
sia A la matrice associata ad un endomorsmo di uno spazio V ; dopo aver
calcolato gli autovalori di tale matrice (gi`a a questo livello potrebbero esserci
dei problemi), si determina una base di autovettori per ogni autospazio. Se
lunione di tutte queste basi risulta essere una base per V, allora la matrice A
`e diagonalizzabile, e la sua forma diagonale D si ottiene nel seguente modo:
D = M
1
AM
dove M `e la matrice ottenuta mettendo in colonna tutti gli autovettori della
nuova base trovata.
M prende il nome di matrice diagonalizzante per A.
Non `e sempre possibile diagonalizzare una matrice, come evidenziato nel
seguente:
Esempio 4.2. La matrice di ordine 3:
A =
_
_
2 1 1
0 0 5
0 0 0
_
_
ha come polinomio caratteristico:
p() = det
_
_
2 1 1
0 5
0 0
_
_
=
2
(2 )
e dunque i suoi autovalori sono
1
= 0,
2
= 2. Si osservi che lautovalore

1
compare due volte come radice del polinomio caratteristico; diremo allora
che lautovalore
1
ha molteplicit`a algebrica 2.
51
In generale, chiameremo molteplicit`a algebrica di un autovalore la sua mol-
teplicit`a come radice di p(), ed indicheremo questa quantit`a con m
a
().
Nel nostro esempio si ha che m
a
(0) = 2 e m
a
(2) = 1.
Passiamo al calcolo degli autospazi associati:
V
0
:
_
_
2 1 1
0 0 5
0 0 0
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
la matrice ha rango 2, dunque
dim(V
0
) = n r(A) = 1
Tolta lultima equazione, dalla seconda si ottiene z = 0, e sostituendo
tale risultato nella prima si ha 2x +y = 0; presa x libera, si ottiene:
_
_
_
x = t
y = 2t
z = 0
Dunque V
0
=< v
1
(1, 2, 0) >.
V
2
:
_
_
0 1 1
0 2 5
0 0 2
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
la matrice ha rango 2, dunque
dim(V
2
) = n r(A 2I) = 1
Togliendo una equazione, ad esempio la seconda, si ottiene che la
matrice dei coecienti ridotta `e :
_
0 1 1
0 0 2
_
Lultima equazione fornisce z = 0, e sostituendo tale risultato nella
prima si ha che y = 0. In conclusione rimane libera la variabile x, e
pertanto la soluzione di tale sistema `e :
_
_
_
x = t
y = 0
z = 0
e si ottiene che V
2
=< v
2
(1, 0, 0) >.
52
In conclusione ho trovato solo una coppia di autovettori indipendenti, e dun-
que non sono in grado di costruire una base diagonalizzante per la matrice
A.
Lesempio precedente ci permette di intravedere uno dei motivi che sono cau-
sa della non diagonalizzabilit`a di una matrice; infatti abbiamo osservato che
lautovalore nullo compare due volte come radice del polinomio caratteristico
(abbiamo espresso questo concetto dicendo che m
a
(0) = 2), ma lautospazio
associato a tale autovalore ha dimensione pari ad 1 ed una base di tale au-
tospazio sar`a pertanto costituita da un solo autovettore. E conveniente, a
questo punto , introdurre anche il concetto di molteplicit`a geometrica.
Denizione 4.3. Sia un autovalore di un endomorsmo ; si chiama mol-
teplicit`a geometrica di , e si indica con m
g
(), la dimensione dellautospazio
associato a tale autovalore. In altri termini:
m
g
() = dim(V

).
Ricordiamo innanzitutto che se `e un autovalore di End(V ), allora vale
sempre la relazione
1 m
g
() m
a
() (4.3)
Queste considerazioni dovrebbero farci capire il motivo della non diagonaliz-
zabilit`a della matrice dellesempio precedente; la (4.3) ci assicura che lau-
tospazio V
2
ha dimensione 1, pertanto troveremo una base costituita da un
solo autovettore anche per questo autospazio.
Quando considero lunione delle basi di tutti gli autospazi trovati riesco a
determinare un sistema di vettori che non risulter`a essere una base per lo
spazio di partenza R
3
in quanto costituito da soli 2 vettori.
Denizione 4.4. Sia un autovalore di ; diciamo che `e regolare se
m
a
() = m
g
()
Il ragionamento che abbiamo fatto ci permette di concludere che una condi-
zione necessaria per la diagonalizzabilit`a di un operatore lineare `e che tutti
gli autovalori siano regolari, secondo la precedente denizione.
Ci chiediamo ora se tale condizione risulta essere anche suciente. Per
rispondere a tale domanda basta considerare il seguente esempio!
53
Esempio 4.3. Consideriamo lendomorsmo di R
3
:
: R
3
R
3
e
1
3e
1
e
2
e
2
e
1
+ 3e
2
e
3
2e
3
la cui matrice associata `e :
A =
_
_
3 1 0
1 3 0
0 0 2
_
_
Il calcolo degli autovalori ci fornisce:
p() = det
_
_
3 1 0
1 3 0
0 0 2
_
_
= (
2
6 + 10)(2 )
Le radici di tale polinomio risultano essere non tutte reali poich`e il fattore

2
6+10 ha discriminante negativo. Lunica soluzione reale (cio`e lunico
autovalore reale) `e pertanto
1
= 2, con m
a
(2) = 1; dunque questo au-
tovalore `e sicuramente regolare, ma non riusciamo a costruire una base di
autovettori (reali!) per R
3
.
In conclusione, lendomorsmo non `e diagonalizzabile in campo reale;
diverso sarebbe il discorso in campo complesso, come vedremo dopo.
Abbiamo dunque fornito un esempio in cui gli autovalori trovati sono tutti
regolari ma lendomorsmo risulta essere non diagonalizzabile. In questo
caso, la causa risiede nel fatto che il polinomio caratteristico non si fattorizza
in modo completo su R, ma possiede alcune radici in C.
Abbiamo ora tutti gli elementi per formulare una condizione necessaria e
suciente per la diagonalizzabilit`a di un operatore lineare:
Teorema 4.2. Un endomorsmo `e diagonalizzabile sul campo K se e solo
se:
1. tutti gli autovalori sono in K;
2. ogni autovalore `e regolare
54
o, equivalentemente, se vale la condizione:

i
m
g
(
i
) = n
cio`e se la somma diretta di tutti gli autospazi ha come risultato lo spazio V .
Dal punto di vista pratico, questo teorema `e di semplice applicazione: dopo
aver calcolato il polinomio caratteristico della matrice A, calcolo le sue ra-
dici e verico che siano tutte in K; in caso di risposta aermativa, passo al
calcolo degli autospazi per controllare che tutti gli autovalori siano regolari,
confrontando la loro molteplicit`a algebrica con quella geometrica. In caso di
ulteriore risposta aermativa, posso concludere che la matrice `e diagonaliz-
zabile e la base diagonalizzante si ottiene prendendo lunione delle basi di
tutti gli autospazi trovati.
Esercizio 4.1. Studiare la digonalizzabilit`a della matrice:
A =
_
_
1 1 1
1 1 1
1 1 1
_
_
soluzione
Il polinomio caratteristico di A `e :
p() = det
_
_
1 1 1
1 1 1
1 1 1
_
_
=
2
(3 )
pertanto ci sono 2 autovalori reali:
1
= 0, m
a
(0) = 2 e
2
= 3, m
a
(3) = 1.
Questultimo autovalore risulta essere sicuramente regolare; la matrice A `e
diagonalizzabile se m
g
(0) = m
a
(0) = 2.
Andiamo dunque a determinare lautospazio V
0
risolvendo il sistema lineare
omogeneo:
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
E immediato vericare che la matrice dei coecienti ha rango pari ad 1,
pertanto:
m
g
(0) = dim(V
0
) = n r(A 0I) = 3 1 = 2 = m
a
(0)
55
e dunque anche
1
= 0 `e un autovalore regolare.
Il teorema (4.2) ci assicura pertanto la diagonalizzabilit`a della matrice A.
Per trovare una base diagonalizzante `e necessario determinare i due
autospazi;
1. lunica equazione che descrive V
0
`e : x + y + z = 0. Prendendo come
variabili libere y, z si ottiene che:
_
_
_
x = t s
y = t
z = s
da cui si vede che B
V
0
= v
1
(1, 1, 0), v
2
(1, 0, 1).
2. Per determinare V
3
risolviamo il sistema:
_
_
2 1 1
1 2 1
1 1 2
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
Riducendo per righe la matrice dei coecienti si ottiene:
A
_
1 2 1
0 1 1
_
Prendendo z = t libera, si ottiene:
_
_
_
x = t
y = t
z = t
cio`e B
V
0
= v
3
(1, 1, 1).
Esercizio 4.2. Sia F : R
3
R
3
loperatore lineare
F(x, y, z) = (y z, x + 2y z, x y + 2z).
Dimostrare che F e diagonalizzabile, trovando una base b di R
3
formata da
autovettori di F. Determinare la matrice che rappresenta F in tale base.
56
La matrice A che rappresenta F nella base canonica e
_
_
0 1 1
1 2 1
1 1 2
_
_
Per calcolare gli autovalori poniamo det(A I) = 0:

1 1
1 2 1
1 1 2

= 0
Le soluzioni sono = 1, 2 con m
a
(1) = 2, m
a
(2) = 1.
Calcoliamo ora gli autovettori associati allautovalore 1 ponendo
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
Il sistema ha
2
soluzioni date da x y +z = 0. Lo spazio delle soluzioni e
lautospazio associato allautovalore 1:
V
1
= (x, y, z) R
3
[x = s t, y = s, z = t; t, s parametri
= < (1, 0, 1), (1, 1, 0) > .
La dimensione V
1
e 2 cioe m
g
(1) = 2.
Poiche m
a
(1) = m
g
(1), m
a
(2) = m
g
(2) e m
a
(1) + m
a
(2) = 3 la matrice A e
diagonalizzabile. Gli autovettori associati allautovalore 2 sono dati da
_
_
2 1 1
1 0 1
1 1 0
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
che si riduce a
_
x + z = 0
y + z = 0
Il sistema ha
1
soluzioni. Lo spazio delle soluzioni e lautospazio associato
allautovalore 2:
V
2
= (x, y, z) R
3
[x = t, y = t, z = t; t parametro
= < (1, 1, 1) > .
57
La dimensione di V
2
e 1 cioe m
g
(2) = 1.
Poiche m
a
(1) = m
g
(1), m
a
(2) = m
g
(2) e m
a
(1) + m
a
(2) = 3 la matrice A e
diagonalizzabile.
Si ha che R
3
= V
1
V
2
=< (1, 0, 1), (1, 1, 0), (1, 1, 1) > e la matrice del
cambiamento di base e data da
M =
_
_
1 1 1
0 1 1
1 0 1
_
_
e la sua inversa e
M
1
=
_
_
1 1 0
1 0 1
1 1 1
_
_
Ponendo D = M
1
AM si ottiene
D =
_
_
1 0 0
0 1 0
0 0 2
_
_
.
D e la matrice diagonale che rappresenta loperatore F nella base costituita
dagli autovettori.
Esercizio 4.3. Date le matrici A, B, M M
n
(K) con M invertibile
dimostrare che se B = M
1
AM allora k N vale B
k
= M
1
A
k
M.
La dimostrazione e lasciata allo studente.
Osservazione 4.1. In particolare si osserva che se e autovalore di una
matirice A M
n
(K) allora
k
e autovalore della matrice A
k
.
Esercizio 4.4. Con riferimento al testo dellesercizio 4.2 determinare
loperatore F
5
: R
3
R
3
rispetto alla base canonica.
Consideriamo la matrice diagonale D associata ad F rispetto alla base di
autovettori calcolata nelles 4.2. Allora una matrice diagonale associata a F
5
e D
5
(nella stessa base di autovettori):
D
5
=
_
_
1 0 0
0 1 0
0 0 32
_
_
.
58
Per calcolare la matrice associata ad F nella base canonica basta porre
MD
5
M
1
:
_
_
1 1 1
0 1 1
1 0 1
_
_
_
_
1 0 0
0 1 0
0 0 32
_
_
_
_
1 1 0
1 0 1
1 1 1
_
_
=
_
_
30 31 31
31 32 31
31 31 32
_
_
.
Quindi F
5
: R
3
R
3
rispetto alla base canonica e denito da
F(x, y, z) = (30x + 31y 31z, 31x + 32y 31z, 31x 31y + 32z).
Esercizio 4.5. Sia F : K
3
K
3
(K = R o K = C) lendomorsmo denito
da
F(x, y, z) = (x z, 2y, x + y +z).
1. Stabilire se F e diagonalizzabile ed in caso aermativo calcolare una
base di autovettori.
2. Detta A la matrice associata ad F calcolare A
1
utilizzando il teorema
di Caley-Hamilton.
1. La matrice che rappresenta F nella base canonica e
_
_
1 0 1
0 2 0
1 1 1
_
_
.
Per calcolare gli autovalori poniamo det(A I) = 0:
(2 )(
2
2 + 2) = 0 (4.4)
In R lunico autovalore possibile e 2 con m
a
(2) = 1 in quanto in R leqz 4.4
ammette come unica soluzione il valore 2. Poiche le altre due soluzioni non
stanno in R si conclude che A non e diagonalizzabile in R.
In C ci sono tre autovalori distinti 2, 1
+

i (tutti con molteplicita algebrica 1),


dunque A e diagonalizzabile in C.
Calcoliamo gli autovettori associati allautovalore 2 ponendo
_
_
1 0 1
0 0 0
1 1 1
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
59
che si riduce a
_
x + z = 0
y 2z = 0
Il sistema ha
1
soluzioni. Lo spazio delle soluzioni e lautospazio associato
allautovalore 2:
V
2
= (x, y, z) C
3
[x = t, y = 2t, z = t; t parametro
= < (1, 2, 1)) > .
La dimensione V
1
e 1 cioe m
g
(1) = 2.
Lautospazio associato allautovalore 1 + i e dato da
_
_
i 0 1
0 1 i 0
1 1 i
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
che si riduce a
_
ix + z = 0
y = 0
Il sistema ha
1
soluzioni. Lo spazio delle soluzioni e dunque:
V
1+i
= (x, y, z) C
3
[x = t, y = 0, z = it; t parametro
= < (1, 0, i) > .
La dimensione di V
1+i
e 1 cioe m
g
(1 +i) = 1.
Gli autovettori associati allautovalore 1 i sono dati da
_
_
i 0 1
0 1 +i 0
1 1 i
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
che si riduce a
_
ix z = 0
y = 0
Il sistema ha
1
soluzioni. Lo spazio delle soluzioni e lautospazio associato
allautovalore 1 i:
V
1i
= (x, y, z) C
3
[x = t, y = 0, z = it; t parametro
= < (1, 0, i) > .
60
La dimensione di V
1i
e 1 cioe m
g
(1 +i) = 1.
Si ha che R
3
= V
2
V
1+i
V
1i
=< (1, 2, 1), (1, 0, i), (1, 0, i) > e la matrice
del cambiamento di base e data da
M =
_
_
1 1 1
2 0 0
1 i i
_
_
Si ha che D = M
1
AM dove
D =
_
_
2 0 0
0 1 +i 0
0 0 1 i
_
_
.
D e la matrice diagonale che rappresenta loperatore F nella base costituita
dagli autovettori.
2. Riprendendo leqz 4.4 si ha che il polinomio caratteristico e
P() =
3
+ 4
2
6 + 4
Per il teorema di Cayley-Hamilton P(A) = 0, cioe
A
3
4A
2
+ 6A 4I = 0
Moltiplicando per A
1
si ottiene
A
2
4A + 6I 4A
1
= 0
da cui si ricava
A
1
=
1
4
(A
2
4A + 6I).
Svolgendo i conti si ha
A
1
=
1
4
_
_
2 1 2
0 2 0
2 1 2
_
_
.
Esercizio 4.6. Sia A la matrice
_
_
7 4 4
4 1 8
4 8 1
_
_
Calcolare gli autovalori di A ed una base ortonormale di autovettori.
61
Poniamo det(A I) = 0:

7 4 4
4 1 8
4 8 1

= 0
da cui si ottiene
(9 )(
2
81) = 0.
Gli autovalori sono = 9 (m
a
(9) = 2) e = 9 (m
a
(9) = 1).
Calcoliamo gli autovettori associati allautovalore 9:
_
_
2 4 4
4 8 8
4 8 8
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
che si riduce a x 2y + 2z = 0. Il sistema ha
2
soluzioni. Lo spazio delle
soluzioni e lautospazio associato allautovalore 9:
V
9
= (x, y, z) R
3
[x = 2s 2t, y = s, z = t; t, s parametro
= < (2, 0, 1), (2, 1, 0) > .
La dimensione di V
9
e 2 cioe m
g
(9) = 2.
Calcoliamo gli autovettori associati allautovalore -9:
_
_
16 4 4
4 10 8
4 8 10
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
che si riduce a
_
4x +y z = 0
y +z = 0
Il sistema ha
1
soluzioni. Lo spazio delle soluzioni e lautospazio associato
allautovalore -9:
V
9
= (x, y, z) R
3
[x = t/2, y = t, z = t; t, s parametro
= < (1, 2, 2) > .
La dimensione di V
9
e 1 cioe m
g
(9) = 1.
62
Una base di autovettori e data da
v
1
= (2, 0, 1), v
2
= (2, 1, 0), v
3
= (1, 2, 2).
Utilizziamo il metodo di ortogonalizzazione di Gram-Schmidt per ottenere
a partire da v
1
= (2, 0, 1), v
2
= (2, 1, 0), v
3
= (1, 2, 2) una base di
vettori u
1
, u
2
, u
3
ortonormali.
v
1
= (2, 0, 1)
|v
1
| =

5 (norma di v
1
)
u
1
=
v
1
v
1

= (
2

5
, 0,
1

5
) (u
1
ha lunghezza 1)
v
2
< u
1
, v
2
> u
1
= (
2
5
, 1,
4
5
)
|(
2

5
, 1,
4

5
)| =
3

5
u
2
=
(
2

5
,1,
4

5
)
(
2

5
,1,
4

5
)
=

5
3
(
2
5
, 1,
4
5
) = (
2
3

5
,

5
3
,
4
3

5
)
v
3
e gia perpendicolare a u
1
e u
2
in quanto non appartiene allautospazio V
9
,
quindi basta dividerlo per la sua norma.
|v
3
| = 3 (norma di v
3
)
u
3
=
v
3
v
3

= (
1
3
,
2
3
,
2
3
).
La matrice ortogonale del cambiamento di base e
M =
_
_
_

5
2
3

5
1
3
0

5
3

2
3
1

5
4
3

5
2
3
_
_
_
Essendo M una matrice ortogonale M
1
= M
T
. La matrice A e simile alla
matrice diagonale
M
T
AM =
_
_
9 0 0
0 9 0
0 0 9
_
_
.
Esercizio 4.7. Si consideri lo spazio vettoriale reale dei polinomi R
2
[X]. Sia
: R
2
[X] R
2
[X] loperatore denito da
(P[X]) = X
dP
dX
X
_
3
2
X + 1
_
d
2
P
dX
2
.
1. Vericare che e un endomorsmo e scriverne una matrice rispetto
alla base 1, X, X
2
di R
2
[X].
2. Trovare autovalori e autovettori di .
63
Essendo la derivata un operatore lineare anche e lineare, dunque un en-
domorsmo.

E lasciata allo studente la verica della linearita mediante i
conti.
Poiche
(1) = 0,
(X) = X,
(X
2
) = X
2
2X,
la matrice A associata ad e
_
_
0 0 0
0 1 2
0 0 1
_
_
.
Essendo la matrice triangolare si vede subito che ci sono tre autovalori distinti
0,1,-1. La matrice e quindi diagonalizzabile.

E lasciato allo studente trovare gli autovettori.


Esercizio 4.8. Sia f : M
2
(R) M
2
(R) lapplicazione denita da
f(A) = A 2A
t
.
1. Vericare che f e un endomorsmo.
2. Trovare autovalori ed autospazi di f e dire se f e diagonalizzabile.
Il punto 1. e lasciato allo studente.
2. Calcoliamo gli autovalori ponendo f(A) = A ovvero A 2A
t
= A, da
cui
(1 )A = 2A
t
. (4.5)
Da questa eqz deduciamo che A deve essere proporzionale ad A
t
(ovviamente
A ,= 0). Si presentano allora due casi:
A = A
t
(A simmetrica)
Dalleqz 4.5 si ottiene lautovalore = 1. Lautospazio associato sara lo
spazio delle matrici simmetriche
V
1
=
_
A M
2
(R)[A = A
t
_
=
__
a b
b c
_
[a, b, c R
_
= <
_
1 0
0 0
_
,
_
0 1
1 0
_
,
_
0 0
0 1
_
>
64
Notiamo che dimV
1
= 3 (m
g
(1) = 3).
A = A
t
(A antisimmetrica)
Dalleqz 4.5 si ottiene lautovalore = 3. Lautospazio associato sara lo
spazio delle matrici antisimmetriche
V
3
=
_
A M
2
(R)[A = A
t
_
=
__
0 a
a 0
_
[a R
_
= <
_
0 1
1 0
_
>
Notiamo che dimV
3
= 1 (m
g
(3) = 1).
Poiche M
2
(R) = V
1
V
3
f e diagonalizzabile (ne deduciamo m
a
(1) = 3 e
m
a
(3) = 1).
Si puo arrivare allo stesso risultato procedendo nel modo standard. In questo
caso consideriamo la base canonica di M
2
(R)
E
1
=
_
1 0
0 0
_
, E
2
=
_
0 1
0 0
_
, E
3
=
_
0 0
1 0
_
, E
4
=
_
0 0
0 1
_
e data una matrice
A =
_
a b
c d
_
= aE
1
+bE
2
+cE
3
+ dE
4
vale
f(A) = A 2A
t
=
_
a b
c d
_
2
_
a c
b d
_
=
_
a b 2c
c 2b d
_
.
Considerando le matrici di M
2
(R) come vettori di R
4
cioe
E
1
=
_
_
_
_
1
0
0
0
_
_
_
_
, E
2
=
_
_
_
_
0
1
0
0
_
_
_
_
, E
3
=
_
_
_
_
0
0
1
0
_
_
_
_
, E
4
=
_
_
_
_
0
0
0
1
_
_
_
_
,
A =
_
_
_
_
a
b
c
d
_
_
_
_
, f(A) =
_
_
_
_
a
b 2c
c 2b
d
_
_
_
_
65
possiamo scrivere la matrice B associata ad f:
B =
_
_
_
_
1 0 0 0
0 1 2 0
0 2 1 0
0 0 0 1
_
_
_
_
.
Per calcolare gli autovalori procediamo come al solito ponendo det(BI) =
0. Lo studente puo proseguire e vericare che si trova lo stesso risultato
ottenuto sopra.
Esercizio 4.9. Stabilire per quali valori del parametro reale h la matrice
A =
_
_
_
_
0 0 0 h
0 0 1 0
0 1 h + 1 0
1 0 0 0
_
_
_
_
e diagonalizzabile.
66
Capitolo 5
Geometria analitica del piano
Fissato un sistema di riferimento R(O, i, j) indichiamo con (x, y) le coordinate
di un punto P tali che
P O = xi +yj. (5.1)
Distanza tra due punti P
1
(x
1
, y
1
) e P
2
(x
2
, y
2
)
d(P
2
, P
1
) = |P
2
P
1
| =
_
(x
2
x
1
)
2
+ (y
2
y
1
)
2
. (5.2)
Una retta nel piano si puo rappresentare mediante unequazione del tipo
ax + by +c = 0 eqz. cartesiana implicita (5.3)
dove n(a, b) e un vettore perpendicolare alla retta data; oppure mediante
unequazione del tipo
y = x + eqz. cartesiana esplicita (5.4)
dove e il coeciente angolare della retta. Una retta si puo rappresentare
anche mediante unequazione parametrica del tipo
_
x = x
0
+u
x
t
y = y
0
+u
y
t
(5.5)
dove t e il parametro, P
0
(x
0
, y
0
) e un punto della retta e u = (u
x
, u
y
) e un
vettore parallelo alla retta. u
x
, u
y
sono detti parametri direttori della retta.
Il coeciente angolare della retta e dato da
=
a
b
=
u
y
u
x
(5.6)
67
Equazione di una retta passante per due punti P
1
(x
1
, y
1
) e P
2
(x
2
, y
2
):
x x
1
x
2
x
1
=
y y
1
y
2
y
1
eqz cartesiana (5.7)
oppure
_
x = x
0
+ (x
2
x
1
)t
y = y
0
+ (y
2
y
1
)t
eqz parametrica (5.8)
Due rette r e r

sono parallele se hanno lo stesso coeciente angolare


=

;
a
a

=
b
b

;
u
x
u

x
=
u
y
u

y
. (5.9)
Due rette r e r

sono perpendicolari se:


u
r
u
r
= 0 i vettori u
r
e u
r
sono perpendicolari
oppure
n
r
n
r
= 0 i vettori n
r
e n
r
sono perpendicolari
oppure
=
1

.
La totalita delle rette passanti per un punto P
0
(x
0
, y
0
) si dice fascio proprio
di centro P
0
e si rappresenta mediante
a(x x
0
) + b(y y
0
) = 0 al variare di a, b. (5.10)
La totalita delle rette parallele ad una retta assegnata r : ax + by + c = 0 si
dice fascio improprio di direzione individuata da r e si rappresenta mediante
ax +by +k = 0 al variare di k. (5.11)
Il fascio di rette individuato da due rette distinte di equazione r : ax+by+c =
0 e r : a

x + b

y + c

= 0 si rappresenta nella forma


(ax +by +c) +(a

x + b

y +c

) = 0 (5.12)
al variare dei parametri omgenei , .
Distanza di un punto P
0
(x
0
, y
0
) da una retta r : ax +by +c = 0:
d(P
0
, r) =
[ax
0
+by
0
+c[

a
2
+b
2
. (5.13)
68
Angolo di due rette r e r

cos u
r
u
r
=
+

u
r
u
r

|u
r
||u
r
|
. (5.14)
r e r

sono perpendicolari se lo sono i vettori u


r
e u
r
:
u
r
u
r
= 0.
Esercizio 5.1. Data la retta r : x + 2y 4 = 0 e la retta
s :
_
x = 1 + 2t
y = 3 + t
Determinare leqz della retta appartenente al fascio individuato da r e s e
soddisfacente ad una delle seguenti condizioni:
(a) passante per il punto P(3, 1);
(b) parallela alla retta 3x y + 7 = 0.
(a) Eliminando il parametro t dalleqz parametrica di s otteniamo la sua eqz
cartesiania
x 2y + 5 = 0.
Il fascio individuato da r e s e dato da
(x + 2y 4) +(x 2y + 5) = 0
Imponendo il passaggio per P si ha + 6 = 0; una possibile soluzione e
= 6 e = 1. Sostituendo tali valori alleqz del fascio si ottiene la retta
5x + 14y 29 = 0.
(b) Riscriviamo leqz del fascio nel modo seguente:
( + )x + 2( )y 4 + 5 = 0.
Imponendo la condizione di parallelismo
+
3
=
2( )
1
si ottiene 7 5 = 0; una soluzione e ad es = 5 e = 7. Sostituendo tali
valori alleqz del fascio si ottiene la retta
12x 4y + +15 = 0.
69
Esercizio 5.2. Trovare il luogo dei punti equidistanti dai punti A(1, 2) e
B(0, 4).
Determinare i punti C appartenenti al luogo dei punti equidistanti da A e B
tali che d(C, A) =

5.
Il punto medio del segmento AB e dato da
M =
_
x
A
+x
B
2
,
y
A
+y
B
2
_
(5.15)
Nel nostro caso M
_

1
2
, 3
_
. Calcoliamo il vettore AB = OBOA = (0, 4)
(1, 2) = (1, 2) e troviamo un vettore (x, y) perpendicolare ad esso:
(1, 2) (x, y) = (0, 0)
da cui x + 2y = 0; una soluzione e ad es (x, y) = (2, 1).
Il luogo dei punti equidistanti da A e B e una retta r passante per M e
parallelo al vettore (2, 1), quindi di eqz parametrica:
_
x =
1
2
+ 2t
y = 3 t
Eliminando t si ottiene leqz cartesiana x + 2y
11
2
= 0.
Si poteva arrivare allo stesso risultato sfruttando il fatto che tutti i punti di
r hanno la stessa distanza da A e B, cioe
d(P, A) = d(P, B)
dove P e un punto generico di r.
Un generico punto C di r e C =
_
2t +
11
2
, t
_
(si ricava dalleqz parametrica
di r). Da d(C, B) =
5
2
(uso d(C, B) per semplicita di conti) si ottiene

_
2t +
11
2
_
2
+ (t 4)
2
=
5
2
. Le soluzioni sono t = 4 e t = 2, a cui corrispondono rispettivamente i punti
_
3
2
, 2
_
e
_

5
2
, 4
_
.
70
Capitolo 6
Geometria analitica dello spazio
Fissato un sistema di riferimento R(O, i, j, k) indichiamo con (x, y, z) le
coordinate di un punto P tali che
P O = xi + yj + zk. (6.1)
Distanza tra due punti P
1
(x
1
, y
1
, z
1
) e P
2
(x
2
, y
2
, z
2
)
d(P
2
, P
1
) = |P
2
P
1
| =
_
(x
2
x
1
)
2
+ (y
2
y
1
)
2
+ (z
2
z
1
)
2
. (6.2)
Un piano si puo rappresentare mediante unequazione del tipo
ax + by +cz +d = 0 eqz. cartesiana (6.3)
dove n = (a, b, c) e un vettore perpendicolare al piano, oppure mediante
unequazione parametrica
_
_
_
x = x
0
+u
x
t +v
x
s
y = y
0
+u
y
t +v
y
s
z = z
0
+ u
z
t +v
z
s
(6.4)
dove u = (u
x
, u
y
, u
z
) e v = (v
x
, v
y
, v
z
) sono vettori paralleli al piano e
P
0
(x
0
, y
0
, z
0
) e un punto del piano.
Lequazione cartesiana di un piano passante per un punto P
0
(x
0
, y
0
, z
0
) e
parallelo ai vettori u = (u
x
, u
y
, u
z
) e v = (v
x
, v
y
, v
z
) e data da
(P P
0
) u v = 0 (6.5)
71
ovvero

x x
0
y y
0
z z
0
u
x
u
y
u
z
v
x
v
y
v
z

= 0 (6.6)
Due piani : ax+by +cz +d = 0 e

: a

x+b

y +c

z +d

= 0 sono paralleli
se n = (a, b, c) e n

= (a

, b

, c

) sono vettori paralleli ovvero se


a
a

=
b
b

=
c
c

. (6.7)
e sono perpendicolari se n = (a, b, c) e n

= (a

, b

, c

) sono vettori
perpendicolari ovvero se
n n

= 0. (6.8)
Lintersezione di due piani e

e data da una retta r che si puo quindi


esprimere mediante
r :
_
ax +by +cz + d = 0
a

x +b

y +c

z + d

= 0
(6.9)
Lequazione (parametrica) di una retta passante per un punto P
0
(x
0
, y
0
, z
0
)
e parallelo al vettore u = (u
x
, u
y
, u
z
) e data da
_
_
_
x = x
0
+u
x
t
y = y
0
+u
y
t
z = z
0
+ u
z
t
(6.10)
con t parametro, oppure, in forma equivalente, mediante
x x
0
u
x
=
y y
0
u
y
=
z z
0
u
z
. (6.11)
Se r e una retta intersezione di due piani e

allora il vettore u
r
(u
x
, u
y
, u
z
)
(parallelo a r) e dato dal prodotto vettoriale di n

e n

:
u
r
= n
1
n
2
=

i j k
a b c
a

= u
x
i + u
y
j +u
z
k
La totalita dei piani passanti per una retta r si dice fascio proprio di asse la
retta r e si rappresenta mediante
(ax +by +cz + d) + (a

x +b

y +c

z +d

) = 0 (6.12)
72
al variare dei parametri omgenei , e dove ax + by + cz + d = 0 e a

x +
b

y +c

z + d

= 0 sono due piani qualsiasi passanti per r.


La totalita dei piani paralleli ad un piano assegnato : ax +by +cz +d = 0
si dice fascio improprio di piani e si rappresenta mediante
ax +by + cz +k = 0 al variare di k. (6.13)
Due rette r e r

(forma parametrica) sono complanari se

0
x
0
y

0
y
0
z

0
z
0
u
x
u
y
u
z
u

x
u

y
u

= 0 (6.14)
altrimenti sono dette sghembe.
La distanza di un punto P
0
(x
0
, y
0
, z
0
) da un piano : ax +by +cz +d = 0 e
data da
d(P
0
, ) =
[ax
0
+by
0
+cz
0
+d[

a
2
+b
2
+ c
2
. (6.15)
La distanza di un punto P
0
(x
0
, y
0
, z
0
) da una retta r e data da
d(P
0
, r) =
|(P
0
P
1
) u|
|u|
(6.16)
con P
1
r.
Se r e r

sono due rette sghembe, la loro distanza (detta minima distanza) e


la distanza di un punto qualsiasi di r dal piano passante per s e parallelo
ad r; la retta di minima distanza di r, s e la retta perpendicolare ed incidente
r, s; essa determina su r, s due punti R, S la cui distanza coincide con la
minima distanza delle due rette.
Angolo di due rette r e r

cos u
r
u
r
=
+

u
r
u
r

|u
r
||u
r
|
. (6.17)
r e r

sono perpendicolari se lo sono i vettori u


r
e u
r
:
u
r
u
r
= 0.
r e r

sono parallele se lo sono i vettori u


r
e u
r
.
73
Angolo di due piani e

cos nn

=
+

n n

|n||n

|
. (6.18)
Sia langolo individuato da una retta r e la sua proiezione ortogonale su un
piano . Allora
sin = cos
_

2

_
=
n

u
r
|u
r
||n

|
. (6.19)
La retta r e perpendicolare al piano se il vettore u
r
e parallelo al vettore
n

.
Esercizio 6.1. Dati v = (1, 0, 1), w = (1, 0, 1), u = (0, 1, 1) sia
U il piano passante per lorigine e generato da u e v,
V il piano passante per lorigine e generato da v e w.
Determinare:
la retta r = U V ;
la retta r

passante per lorigine e perpendicolare a V ;


per quali k il vettore z = (1, 0, k) V ?
per quali k il vettore z = (k
2
, 0, k) e perpendicolare a U?
Leqz parametrica del piano U e
U = t(1, 0, 1) +s(0, 1, 1)
mentre da

x y z
0 1 1
1 0 1

= 0
si ottiene leqz cartesiana di U : x + y z = 0.
Leqz parametrica del piano V e
U = t

(1, 0, 1) +s

(1, 0, 1)
mentre da

x y z
1 0 1
1 0 1

= 0
si ottiene leqz cartesiana di V : y = 0.
74
Leqz. cartesiana della retta r = U V e
r :
_
x = z
y = 0
mentre leqz parametrica e
r :
_
_
_
x = t
y = 0
z = t
La retta r

deve essere parallela a n


U
= (0, 1, 0) ed e
r

:
_
_
_
x = 0
y =
z = 0
Il vettore z = (1, 0, k) V se (1, 0, k) = t

(1, 0, 1) +s

(1, 0, 1) cioe se
_
1 = t

k = t

+ s

Il sistema si puo ridurre in forma a gradini k (e compatibile k), dunque


z V k.
Il vettore z(k
2
, 0, k) e perpendicolare a U se
k
2
1
=
0
1
=
k
1
quindi per k = 0.
Esercizio 6.2. Sia r la retta di equazione
r :
_
x (k + 1)y z = k 1
2x + (1 2k)y + z = 2k + 1
Per quali k la retta r e:
(a) parallela alla retta s di equazione
s :
_
_
_
x = 3t + 1
y = 2t
z = 2 2t
75
(b) parallela al piano : 2x y + 3z = 1;
(c) passante per il punto A(1, 1, 1).
(a) Mettiamo r in forma parametrica (risolviamo il sistema che la
rappresenta)
_
1 k 1 1
2 1 2k 1

k 1
2k + 1
_
Utilizziamo il metodo di Gauss
_
1 k 1 1
0 1 1

k 1
1
_
da cui si ottiene
r :
_
_
_
x = 2k kt
y = 1 t
z = t
r e parallela a s se u
r
(k, 1, 1) e parallelo a u
s
(3, 2, 2) cioe se
k
3
=
1
2
=
1
2
da cui si ottiene k =
3
2
.
Oppure si puo risolvere trovando u
r
come prodotto vettoriale di n
1
= (1, k
1, 1) e n
2
= (2, 1 2k, 1) che sono rispettivamente i vettori perpendicolari
ai piani la cui intersezione e r:
u
r
= n
1
n
2
=

i j k
1 k 1 1
2 1 2k 1

= 3ki + 3j + 3k
e poi procedere come sopra.
(b) Anche r sia parallela al piano deve essere u
r
(k, 1, 1) perpendicolare
a n

(2, 1, 3):
u
r
n

= 0
da cui k = 2.
(c) Per vedere se A r andiamo a sostituire le sue coordinate (1, 1, 1) nelleqz
di r
_
1 (k + 1) 1 = k 1
2 + (1 2k) + 1 = 2k + 1
76
Svolgendo i conti si arriva a
_
k = k
4k = 3
Il sistema e incompatibile, quindi A / r qualunque sia il valore di k.
Esercizio 6.3. Dati la retta
r :
_
_
_
x = 2t 3
y = t
z = 2 t
ed il piano : x +z 5 = 0 determinare:
(a) il piano passante per r e perpendicolare a ;
(b) i piani passanti per r e che formano con un angolo di

3
.
(a) Il piano passante per r e perpendicolare a e un piano generato dai
vettori u
r
= (2, 1, 1) e da n

= (1, 0, 1) e passante per un punto qualsiasi


di r ad esempio per (3, 0, 2) (ottenuto per t = 0). Esso ha eqz parametrica
_
_
_
x = 3 + 2t +s
y = t
z = 2 t +s
Dalleqz parametrica ricaviamo quella cartesiana: x 3y z + 5 = 0.
Si puo arrivare allo stesso risultato trovando leqz cartesiana di r:
_
x 2y + 3 = 0
y +z 2 = 0
e scrivendo leqz del fascio proprio di piani di asse la retta r
(x 2y + 3) + (y +z 2) = 0.
Riscriviamo tale eqz nel seguente modo
x + ( 2)y +z + 3 2 = 0.
Il vettore perpendicolare a tale piano e (, 2, ) e deve essere
perpendicolare a n

(1, 0, 1):
(, 2, ) (1, 0, 1) = 0
77
da cui si ottiene
+ = 0
Una soluzione e ad esempio (, ) = (1, 1). Andando a sostituire tali valori
nelleqz del fascio si ottiene x 3y z + 5 = 0.
(b) I piani passanti per r sono rappresentati dalleqz del fascio. Imponiamo
ora la seconda condizione
cos

3
=
(, 2, ) (1, 0, 1)
|(, 2, )||(1, 0, 1)|
=
+
_

2
+ ( 2)
2
+
2

2
Svolgendo i conti si ottiene leqz
(3 8) = 0
che ha due soluzioni: una e = 0 e arbitrario ad es = 1, laltra e ad es
= 8 e = 3. Andando a sostituire tali valori nelleqz del fascio si ottengono
rispettivamente i piani y +z 2 = 0 e 8x 13y + 3z + 18 = 0.
78