Francesco Pavese
1
Indice
1 Nozioni preliminari 4
1.1 Strutture algebriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Gruppi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Somma tra matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Prodotto righe per colonne . . . . . . . . . . . . . . . . . . . . . . . 8
4 Matrici 34
4.1 Determinante di una matrice quadrata . . . . . . . . . . . . . . . . . . . . 34
4.2 Matrici invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3.1 Metodo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3.2 Metodo degli orlati . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6 Spazi affini 57
6.1 Sottospazi affini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.1.1 Rappresentazione parametrica di un sottospazio affine . . . . . . . . 60
6.1.2 Rappresentazione cartesiana di un sottospazio affine . . . . . . . . . 61
2
7.2.4 Angoli e distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.3 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.4 Prodotto misto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
8 Applicazioni lineari 83
8.1 Nucleo e Immagine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.2 Matrice associata ad un’applicazione lineare rispetto ad una coppia di basi 87
8.3 Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.4 Cambiamento di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.5 Matrici associate ad un endomorfismo . . . . . . . . . . . . . . . . . . . . . 92
3
1 Nozioni preliminari
Siano X, Y due insiemi non vuoti. L’insieme
X × Y = {(x, y) | x ∈ X, y ∈ Y }
si definisce prodotto cartesiano di X e Y . Più in generale, se X1 , X2 , . . . , Xn sono n insiemi
non vuoti, allora l’insieme
X1 × X2 × . . . × Xn = {(x1 , x2 , . . . , xn ) | xi ∈ Xi , 1 ≤ i ≤ n}
si definisce prodotto cartesiano di X1 , X2 , . . . , Xn . Il simbolo X n indica il prodotto carte-
siano X × X × . . . × X.
4
1.1 Strutture algebriche
1.1.1 Gruppi
Sia G un insieme non vuoto dotato di un’operazione interna
: G × G −→ G,
1) ∀a, b, c ∈ G, a (b c) = (a b) c (associativa);
∀a, b ∈ G, a b = b a (commutativa)
Esempi 1.3. Si considerino l’insieme dei numeri naturali N, dei numeri interi Z, dei
numeri razionali Q, dei numeri reali R e dei numeri complessi C dotati delle usuali ope-
razioni di somma “+” e prodotto “·”. Allora (Z, +), (Q, +), (R, +), (C, +), (Q \ {0}, ·),
(R\{0}, ·), (C\{0}, ·) forniscono esempi di gruppi abeliani. Mentre le coppie (N, +), (N, ·)
e (Z \ {0}, ·) non sono gruppi.
1.1.2 Campi
Sia K un insieme non vuoto dotato di due operazioni interne
+ : K × K −→ K, · : K × K −→ K
5
Anche in questo caso, quando non vi sia possibilità di equivoco sulle operazioni che sono
definite, il campo (K, +, ·) si denoterà semplicemente con la lettera K. Gli elementi di un
campo K si dicono scalari.
Esempi 1.4. Con le usuali operazioni l’insieme dei numeri razionali Q, dei numeri reali R
e dei numeri complessi C forniscono esempi di campi. D’altro canto l’insieme dei numeri
naturali N e l’insieme dei numeri interi Z non sono campi.
1.2 Matrici
Sia K un campo e siano n, m interi positivi. Una matrice m × n ad elementi in K è una
tabella rettangolare
a11 a12 . . . a1n
a21 a22 . . . a2n
A = ..
.. . . ..
. . . .
am1 am2 . . . amn
di mn elementi di K. Scriveremo anche A = (aij ). La i–esima riga di A è la matrice 1 × n
Ogni elemento di una matrice è contrassegnato da due indici: il primo è l’indice riga, il
secondo è l’indice colonna. L’elemento aij è anche detto elemento di A di posto i, j. Se
m = n, la matrice A si dice quadrata di ordine n. L’insieme di tutte le matrici m × n ad
elementi in K si denota con Mm,n (K), mentre l’insieme delle matrici quadrate di ordine
n si denota con Mn (K).
Sia λ ∈ K, il prodotto dello scalare λ per la matrice A è la matrice λA = (λaij ) ∈
Mm,n (K).
6
iii) ∀A ∈ Mm,n (K), 1A = A.
Se A = (aij ) ∈ Mn (K) è una matrice quadrata, gli elementi a11 , a22 , . . . , ann costi-
tuiscono la diagonale principale di A. Si definisce traccia della matrice A e si denota
con T r(A) la somma degli elementi della diagonale principale della matrice A. Pertanto
T r(A) = ni=1 aii . A si dice triangolare superiore se aij = 0 per ogni i > j, mentre si dice
P
triangolare inferiore se aij = 0 per ogni i < j. Una matrice A = (aij ) ∈ Mn (K) si dice
diagonale se aij = 0 se i 6= j. Una particolare matrice diagonale è la matrice identità In
1 0 ... 0
0 1 ... 0
In = .. .. . . ..
. . . .
0 0 ... 1
La trasposta di A è la matrice n × m ottenuta scambiando tra loro le righe e le colonne
di A:
a11 a21 . . . am1
a12 a22 . . . am2
At = (aji ) = ..
.. .. ..
. . . .
a1n a2n . . . amn
A si dice simmetrica se At = A, mentre si dice antisimmetrica se At = −A. Denoteremo
con Symn (K) l’insieme delle matrici simmetriche di Mn (K), mentre denoteremo con
ASymn (K) l’insieme delle matrici antisimmetriche di Mn (K).
Proposizione 1.7. i) ∀A ∈ Mm,n (K), (At )t = A;
iii) ∀A ∈ Mm,n , A + 0 = 0 + A = A;
7
1.2.2 Prodotto righe per colonne
Dato un vettore riga A = (a1i ) ∈ M1,n (K) ed un vettore colonna B = (bj1 ) ∈ Mn,1 , il
loro prodotto è l’elemento di K definito come segue
b11
b21 Xn
(a11 a12 . . . a1n ) .. = a1k bk1 = a11 b11 + a12 b21 + . . . + a1n bn1
. k=1
bn1
Più in generale, se A = (ail ) ∈ Mm,n (K) e B = (bkj ) ∈ Mn,p , il loro prodotto righe per
colonne è una matrice AB = (cij ) ∈ Mm,p (K), dove cij è il prodotto dell’i–esima riga di
A per la j–esima colonna di B.
n
X
AB = (A(i) B(j) ) = (cij ), dove cij = aik bkj = ai1 b1j + ai2 b2j + . . . + ain bnj
k=1
2) A(C + D) = AC + AD,
4) A(CE) = (AC)E,
5) AIn = A, In C = C.
Dimostrazione. 1) Sia A = (aij ), B = (bij ), C = (cij ). L’elemento di posto i, k della
matrice (A + B)C si ottiene moltiplicando la i–esima riga della matrice A + B per la
k–esima colonna della matrice C. Pertanto
n
X
(i) t
(A + B) C(k) = (ai1 + bi1 . . . ain + bin )(c1k . . . cnk ) = (aij + bij )cjk =
j=1
n
X n
X
= aij cjk + bij cjk = (ai1 + . . . ain )(c1k . . . cnk )t + (bi1 . . . bin )(c1k . . . cnk )t =
j=1 j=1
8
Si ha, dunque, che l’elemento di posto i, k della matrice (A + B)C coincide con la somma
dell’elemento di posto i, k della matrice AC con l’elemento di posto i, k della matrice BC,
come volevasi.
Le proprietà 2) e 3) si dimostrano in maniera analoga alla 1).
4) Si noti che la i–esima riga di AC risulta
(AC)(i) E(h) = A(i) C(1) A(i) C(2) . . . A(i) C(p) (e1h e2h . . . eph )t =
e quindi coincide con l’elemento di posto i, h della matrice A(CE). Se ne deduce che
A(CE) = (AC)E come volevasi.
5) L’elemento di posto i, j della matrice AIn è
e pertanto coincide con l’elemento di posto i, j della matrice A. Segue che AIn = A.
Analogamente si dimostra che In C = C.
Dimostrazione. Se A ∈ Mm,n (K) e B ∈ Mn,p (K), allora A ∈ Mn,m (K) e B ∈ Mp,n (K).
Pertanto è possibile definire la matrice B t At . Inoltre l’elemento di posto i, j della matrice
B t At è
(i)
B t At(j) = A(j) B(i)
e dunque coincide con l’elemento di posto j, i della matrice AB. D’altro canto, si noti che
l’elemento di posto j, i della matrice AB coincide con l’elemento di posto i, j della matrice
(AB)t . Ne segue che (AB)t = B t At .
9
2 Spazi vettoriali su un campo
Sia K un campo. Uno spazio vettoriale su K (o K–spazio vettoriale) è un insieme non
vuoto V dotato di due operazioni interne
dette somma e prodotto per uno scalare, rispettivamente, in modo che le seguenti proprietà
siano soddisfatte:
5) ∀v ∈ V , 1v = v.
10
3. L’insieme R[X] dei polinomi a coefficienti reali nell’indeterminata X è un R–spazio
vettoriale rispetto alle usuali operazioni di somma tra polinomi e prodotto di un
polinomio per uno scalare.
c) ∀λ ∈ K, ∀v ∈ V , λv = 0 se e solo se λ = 0 oppure v = 0.
1) ∀w1 , w2 ∈ W , w1 + w2 ∈ W ,
11
2) ∀w ∈ W , ∀k ∈ K, kw ∈ W .
3) ∀w, w0 ∈ W , ∀k, k 0 ∈ K, kw + k 0 w0 ∈ W .
Infatti se vale la 3) allora, posto k = k 0 = 1 vale la 1), mentre per k 0 = 0 vale la 2).
Viceversa se valgono 1) e 2), allora kw, k 0 w0 ∈ W e kw + k 0 w0 ∈ W e quindi vale la 3).
Dalla proprietà 2), considerati gli scalari 0 e −1, rispettivamente, si ha che ∀w ∈ W ,
0 = 0w ∈ W e −w ∈ W . In particolare è possibile verificare che W soddisfa tutti gli
assiomi che definiscono uno spazio vettoriale e che quindi W è esso stesso uno spazio
vettoriale.
si determini, inoltre, U ∩ W e U ∩ W 0 .
12
2.1.1 Sottospazi somma e intersezione
Siano U e W sottospazi dello spazio vettoriale V . Si consideri l’intersezione
U ∩ W = {v ∈ V | v ∈ U e v ∈ W }.
U ∪ W = {v ∈ V | v ∈ U oppure v ∈ W }
U + W = {u + w ∈ V | u ∈ U, w ∈ W }.
13
Siano v1 , . . . , vn ∈ V . Consideriamo il sottoinsieme di V costituito dalle combinazioni
lineari di v1 , . . . , vn :
e
k(a1 v1 + . . . + an vn ) = ka1 v1 + . . . + kan vn ∈ hv1 , . . . , vn i.
hv1 , . . . , vn i è detto sottospazio generato da v1 , . . . , vn . Il prossimo risultato mostra che
hv1 , . . . , vn i è il più piccolo sottospazio di V contenente i vettori v1 , . . . , vn .
14
Altrimenti, i vettori v1 , . . . , vn si dicono linearmente indipendenti. Equivalentemente i
vettori v1 , . . . , vn sono linearmente indipendenti se vale la seguente proprietà:
Allora
λ1 + 3λ2 = 0
2λ2 + 4λ3 = 0 ,
λ1 + λ2 − 4λ3 = 0
da cui si ottiene che λ1 = −3λ2 , λ3 = −λ2 /2. Pertanto esiste una combinazione non
banale di v1 , v2 , v3 che è uguale al vettore nullo, ad esempio:
−6v1 + 2v2 − v3 = 0.
V = hv1 , v2 i, W = hw1 , w2 i.
Dimostrare che V = W .
Si osservi che v1 , v2 ∈ W e che w1 , w2 ∈ V . Infatti
1 1 1 1
v1 = w1 − w2 , v2 = w1 + w2 ,
2 2 2 2
w 1 = v1 + v 2 , w 2 = v 2 − v1 .
15
3. Si considerino i seguenti sottospazi vettoriali di R3 :
Determinare U ∩ W .
∀ u ∈ U, ∃ α, β ∈ R tali che u = α(1, 0, −1) + β(−1, 2, 1) = (α − β, 2β, −α + β). Il
vettore u appartiene a W se e solo se
α−β−α+β =0
2β − 2(α − β) = 0
vj = −a−1
j (a1 v1 + . . . + aj−1 vj−1 + aj+1 vj+1 + . . . + an vn ) =
= −a−1 −1 −1 −1
j a1 v1 − . . . − aj aj−1 vj−1 − aj aj+1 vj+1 − . . . − aj an vn .
16
Viceversa, se per qualche i, 1 ≤ i ≤ n, vi è combinazione lineare dei rimanenti, allora
vi = b1 v1 + . . . + bi−1 vi−1 + bi+1 vi+1 + . . . + bn vn . Pertanto
2. ∀ α ∈ K, α 6= 0, hv1 , v2 , . . . , vk i = hαv1 , v2 , . . . , vk i.
Infatti ∀ v ∈ hv1 , v2 , . . . , vk i, v = a1 v1 + a2 v2 + . . . + ak vk = aα1 (αv1 ) + a2 v2 + . . . +
ak vk ∈ hαv1 , v2 , . . . , vk i. Viceversa ∀ w ∈ hαv1 , v2 , . . . , vk i, w = a1 (αv1 ) + a2 v2 +
. . . + ak vk = (a1 α)v1 + a2 v2 + . . . + ak vk ∈ hv1 , v2 , . . . , vk i.
17
Sia B = {v1 , . . . , vn } una base del K–spazio vettoriale V , sia v un vettore di V e sia
v = a1 v1 + . . . + an vn l’unica espressione di v come combinazione lineare di v1 , . . . , vn .
Allora gli scalari a1 , . . . , an si dicono coordinate o componenti di v rispetto alla base B.
Il prossimo risultato mostra che in uno spazio vettoriale V , il massimo numero di vettori
linearmente indipendenti è minore o uguale al minimo numero di vettori che generano V .
Corollario 2.22. Siano {v1 , . . . , vn } e {w1 , . . . , wm } due basi dello spazio vettoriale V .
Allora m = n.
Osservazione 2.23. Può accadere che uno spazio vettoriale non abbia dimensione finita,
in quanto non esista un insieme finito di vettori che lo generi. Ad esempio lo spazio
vettoriale R[X] dei polinomi a coefficienti reali nell’indeterminata X non ha dimensione
18
finita. Infatti, sia S = {p1 , . . . , pn } un qualunque insieme finito di polinomi di R[X]. Sia
h il massimo dei loro gradi. Allora ogni combinazione lineare di p1 , . . . , pn e quindi ogni
elemento del sottospazio vettoriale generato da S ha grado minore o uguale ad h. Pertanto
il sottospazio vettoriale generato da S non può coincidere R[X].
Da ora in avanti considereremo soltanto spazi vettoriali di dimensione finita.
Esempi 2.24. 1. I vettori e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) di R3 formano
una base di R3 , detta base canonica di R3 .
5. Sia S = {E11 , E22 , . . . , Enn , E12 + E21 , E13 + E31 , . . . , E1n + En1 , E23 + E32 , . . . , E2n +
En2 , . . . , En−1n + Enn−1 }. Mostreremo che le n(n + 1)/2 matrici di S formano una
base di Symn (K). Sia A ∈ Mn (K) una matrice simmetrica. Allora A = At e quindi
aij = aji , 1 ≤ i, j ≤ n. In altri termini, l’elemento di A di posto i, j è uguale
all’elemento di A di posto j, i. Ne segue che
A = a11 E11 + a22 E22 + . . . + ann Enn + a12 (E12 + E21 ) + a13 (E13 + E31 ) + . . . +
+ a1n (E1n + En1 ) + a23 (E23 + E32 ) + . . . + a2n (E2n + En2 ) + . . . + an−1n (En−1n + Enn−1 )
e le matrici E11 , E22 , . . . , Enn , E12 +E21 , E13 +E31 , . . . , E1n +En1 , E23 +E32 , . . . , E2n +
En2 , . . . , En−1n + Enn−1 generano Symn (K). Inoltre, se bij ∈ K, 1 ≤ i, j ≤ n, i ≤ j,
sono tali che
b11 E11 + . . . + bnn Enn + b12 (E12 + E21 ) + . . . + b1n (E1n + En1 )+
+b23 (E23 + E32 ) + . . . + b2n (E2n + En2 ) + . . . + bn−1n (En−1n + Enn−1 ) = 0,
19
allora bij = bji e (bij ) = 0, quindi b11 = b12 = . . . = bnn = 0. Pertanto le ma-
trici E11 , E22 , . . . , Enn , E12 + E21 , E13 + E31 , . . . , E1n + En1 , E23 + E32 , . . . , E2n +
En2 , . . . , En−1n + Enn−1 sono linearmente indipendenti, S è una base di Symn (K) e
dim(Symn (K)) = n(n + 1)/2.
6. Sia A = {E12 − E21 , E13 − E31 , . . . , E1n − En1 , E23 − E32 , . . . , E2n − En2 , . . . , En−1n −
Enn−1 }. Mostreremo che le n(n−1)/2 matrici di A formano una base di ASymn (K).
Sia A ∈ Mn (K) una matrice antisimmetrica. Allora At = −A e quindi aij = −aji ,
1 ≤ i, j ≤ n, i 6= j, e aii = 0, 1 ≤ i ≤ n. In altri termini, l’elemento di A di posto
i, j, i 6= j, è uguale all’opposto dell’elemento di A di posto j, i, mentre gli elementi
della diagonale principale di A sono nulli. Ne segue che
e le matrici E12 −E21 , E13 −E31 , . . . , E1n −En1 , E23 −E32 , . . . , E2n −En2 , . . . , En−1n −
Enn−1 generano Symn (K). Inoltre, se bij ∈ K, 1 ≤ i, j ≤ n, i < j, sono tali che
b12 (E12 − E21 ) + . . . + b1n (E1n − En1 ) + b23 (E23 − E32 ) + . . . + b2n (E2n − En2 )+
+ . . . + bn−1n (En−1n − Enn−1 ) = 0,
allora bij = −bji e (bij ) = 0, quindi b11 = b12 = . . . = bnn = 0. Pertanto le matrici
E12 − E21 , E13 − E31 , . . . , E1n − En1 , E23 − E32 , . . . , E2n − En2 , . . . , En−1n − Enn−1
sono linearmente indipendenti, A è una base di ASymn (K) e dim(ASymn (K)) =
n(n − 1)/2.
Dimostrazione. Sia M = (cij ) ∈ Symn (K) ∩ ASymn (K). Allora, poichè M ∈ ASymn (K),
si ha che cii = 0, 1 ≤ i ≤ n, cij = −cji , i 6= j. D’altro canto, poichè M ∈ Symn (K), si ha
che cij = cji , i 6= j. Allora necessariamente cij = 0, 1 ≤ i, j ≤ n, e M = 0. Ne segue che
Mn (K) è somma diretta di Symn (K) e ASymn (K). Si noti, infine, che ∀ A ∈ Mn (K) si
ha che (A + At )/2 ∈ Symn (K), (A − At )/2 ∈ ASymn (K) e
A + At A − At
A= + .
2 2
1. W1 = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 − x4 = 0, x2 + x3 = 0};
2. W2 = {(x1 , x2 , x3 , x4 ) ∈ R4 | x4 − x2 + x3 = 0}.
20
1) Se v1 , . . . , vn ∈ V sono linearmente indipendenti, allora {v1 , . . . , vn } è una base di
V.
Corollario 2.28. Il numero di elementi di una base di V coincide con il massimo numero
di vettori linearmente indipendenti in V .
21
sono vettori di V linearmente indipendenti. Dal Lemma 2.21 si ha m ≤ n. Quindi
dim(W ) ≤ dim(V ).
ii) Se dim(W ) = dim(V ) = n, sia B = {w1 , . . . , wn } una base di W . Poichè W ⊆ V ,
w1 , . . . , wn sono vettori di V linearmente indipendenti. Dal Teorema 2.27, 1), B è una
base di V . Allora W = hw1 , . . . , wn i = V , come volevasi.
Dimostrazione. Sia {z1 , . . . , zq } una base di U ∩W . Dal teorema del completamento ad una
base esistono u1 , . . . , ut ∈ U e w1 , . . . , ws ∈ W tali che {z1 , . . . , zq , u1 , . . . , ut } è una base
di U e {z1 , . . . , zq , w1 , . . . , ws } è una base di W . Poichè dim(U )+dim(W )−dim(U ∩W ) =
q +t+q +s−q = q +t+s, per dimostrare la prima parte del teorema è sufficiente mostrare
che {z1 , . . . , zq , u1 , . . . , ut , w1 , . . . , ws } è una base di U + W .
Dimostriamo che sono generatori di U + W . Sia u + w ∈ U + W , dove u ∈ U e w ∈ W .
Esistono allora a1 , . . . , aq , b1 , . . . , bt , a01 , . . . , a0q , c1 , . . . , cs ∈ K tali che u = a1 z1 + . . . +
aq zq + b1 u1 + . . . + bt ut e w = a01 z1 + . . . + a0q zq + c1 w1 + . . . + cs ws . Dunque
come volevasi.
Dimostriamo che sono linearmente indipendenti. Siano a1 , . . . , aq , b1 , . . . , bt , c1 , . . . , cs ∈
K tali che a1 z1 + . . . + aq zq + b1 u1 + . . . + bt ut + c1 w1 . . . + cs ws = 0. Allora
c1 w1 . . . + cs ws = −(a1 z1 + . . . + aq zq + b1 u1 + . . . + bt ut ), (2.1)
Esercizi 2.31. 1. Si considerino i sottospazi vettoriali U, W di R3 , dove U = h(1, 2, −1), (0, 1, 0)i
e W = {(x, y, z) ∈ R3 | x + z = 0}. Determinare U ∩ W , U + W e le dimensioni
dim(U ), dim(W ), dim(U ∩ W ), dim(U + W ).
22
Sia v ∈ U , allora esistono α, β ∈ R tali che v = (α, 2α + β, −α). Inoltre v ∈ W ,
infatti α − α = 0. Quindi U ⊆ W . Si noti che W = h(1, 0, −1), (0, 1, 0)i e che
sia i generatori di U che i generatori di W sono linearmente indipendenti, quindi
dim(U ) = dim(W ) = 2. Pertanto U = W = U ∩ W = U + W e dim(U ∩ W ) =
dim(U + W ) = 2.
dove k ∈ R.
23
5. Siano f1 , f2 , f3 , f4 ∈ R3 [X], dove f1 (X) = 2X, f2 (X) = X 2 +X +1, f3 (X) = −3X +
2, f4 (X) = 1. Calcolare la dimensione del sottospazio vettoriale W = hf1 , f2 , f3 , f4 i.
6. Considerati i vettori v1 = (1, −1, 0, 0, 0), v2 = (0, 2, 0, −1, 1), v3 = (0, 0, 0, 0, 2i) ∈
C5 , costruire una base di C5 contenente i vettori v1 , v2 , v3 .
8. Sia V un R–spazio vettoriale tale che dim V = 3 e sia B = {v1 , v2 , v3 } una base di
V . Siano U = hv1 + v2 , v1 − v2 i, W = hv1 + v3 , v1 − v3 i. Mostrare che V = U + W
e che la somma U + W non è diretta.
24
3 Spazi vettoriali euclidei
Gli spazi vettoriali considerati in questo capitolo sono definiti sul campo K = R dei numeri
reali.
· : (u, v) ∈ V × V 7−→ u · v ∈ R
(u + u0 ) · v = u · v + u0 · v,
u · (v + v0 ) = u · v + u0 · v,
(λu) · v = u · (λv) = λ(u · v).
v1 · v2 = x1 y1 + . . . + xn yn .
Si noti che se v1 , v2 si considerano come vettori riga (v1 , v2 ∈ M1,n (R)), allora
v1 · v2 = v1 v2t .
2. Se V = Mm,n (R) è lo spazio vettoriale della matrici di ordine m×n definite sul cam-
po dei numeri reali, allora l’applicazione · che associa alle matrici A, B ∈ Mm,n (R)
il numero reale
A · B = T r(AB t )
è un prodotto scalare.
25
3. Sia V = R4 . Allora l’applicazione che associa alla coppia di vettori u = (x1 , x2 , x3 , x4 ), v =
(y1 , y2 , y3 , y4 ) ∈ R4 , il numero reale
è un prodotto scalare.
Nei vari casi, la verifica delle proprietà dell’applicazione “·” di essere bilineare, simme-
trica e definita positiva è lasciata come esercizio.
Sia V uno spazio vettoriale euclideo reale. Due vettori v, u ∈ V si definiscono ortogonali
se v · u = 0 e si denota con v ⊥ u. Più in generale due sottospazi U, W di V si definiscono
ortogonali se ∀ u ∈ U , ∀ w ∈ W , si ha che u · w = 0.
iii)
||v + u||2 = (v + u) · (v + u) = ||v||2 + 2v · u + ||u||2 .
26
iv) Se entrambi i vettori v, u sono nulli, la disuguaglianza è vera. Assumiamo allora
che u è non nullo. Allora
u · v 2 u · v 2 u · v
0 ≤ v − u = ||v||2 + u − 2v · u
u·u u·u u·u
2
u · v 2
2 (u · v)2 2 (u · v)2 2 (u · v)2
= ||v|| + ||u|| − 2 = ||v|| − = ||v|| − .
u·u u·u u·u ||u||2
(u · v)2 u · v 2
0 = ||v||2 − = v − u .
||u||2 u·u
u·v
Allora v − u·u
u = 0 e pertanto
u · v
v= u.
u·u
v) Dalla Disuguaglianza di Schwarz si ha che
Pertanto
||v + u|| ≤ ||v|| + ||u||.
|v · u|
≤1
||v|| ||u||
e pertanto
v·u
−1≤ ≤ 1. (3.1)
||v|| ||u||
Tenendo conto di (3.1) e delle proprietà della funzione coseno, esiste, un unico numero
reale θ ∈ [0, π] tale che
v·u
cos θ = ≤ 1, i.e., v · u = ||v|| ||u|| cos θ.
||v|| ||u||
27
Proposizione 3.4. i) L’angolo θ tra due vettori non nulli v, u ∈ V è π/2 se e solo
se v e u sono ortogonali, i.e., v · u = 0.
ii) L’angolo θ tra due vettori non nulli v, u ∈ V è 0 oppure π se e solo se v, u sono
linearmente dipendenti.
Dimostrazione. i) Poichè ||v|| > 0 e ||u|| > 0, allora v · u = ||v|| ||u|| cos θ = 0 se e solo
se cos θ = 0 se e solo se θ = π/2.
ii) I vettori v, u ∈ V sono proporzionali se e solo se v = λu, per qualche 0 6= λ ∈ R.
Allora
v·u λu · u λ 1 se θ = 0
cos θ = = = =
||v|| ||u|| |λ| ||u||2 |λ| −1 se θ=π
0 = vj · 0 = vj · (λ1 v1 + . . . + λn vn ) = λ1 vj · v1 + . . . + λn vj · vn = λj vj · vj .
(λ1 v1 + λ2 v2 ) · u = λ1 v1 · u + λ2 v2 · u = λ1 0 + λ2 0 = 0.
Pertanto λ1 v1 + λ2 v2 ∈ A⊥ .
v · w = v · (α1 v1 + . . . + αm vm ) = α1 v · v1 + . . . + αm v · vm = 0
e quindi v ∈ A⊥ .
28
Esercizi 3.8. Nei seguenti esercizi si consideri Rn dotato del prodotto interno standard.
W = {(x, y, z, t) ∈ R4 | x + z = x − t = t + z = 0}.
Si noti che W = {(−z, y, z, −z) | y, z ∈ R} = hw1 = (1, 0, −1, 1), w2 = (0, 1, 0, 0)i.
Allora v = (x1 , x2 , x3 , x4 ) ∈ W ⊥ se e solo se v ⊥ w1 e v ⊥ w2 . Pertanto
u · (0, 1, 0) = x2 = 0
u · (1, 3, −1) = x1 + 3x2 − x3 = 0.
29
3.2 Basi ortonormali
Sia V uno spazio vettoriale euclideo reale tale che dim(V ) = n e sia B = {e1 , . . . , en } una
base di V .
B si definisce ortogonale se ei · ej = 0, per ogni i 6= j.
B si dice ortonormale se è ortogonale e ||ei || = 1, 1 ≤ i ≤ n. Equivalentemente B è
ortonormale se (
1 if i = j
ei · ej = δi,j :=
0 if i 6= j
La funzione δi,j si chiama delta di Kronecker. Una base ortonormale è formata da versori.
Osservazione 3.9. Si noti che se B = {e1 , . . . , en } è una base ortonormale di V , allora
∀ v = x1 e1 + . . . + xn en , w = y1 e1 + . . . + yn en ∈ V , si ha che
v · w = x1 y1 + . . . + xn yn .
Quindi il prodotto scalare di due vettori è il prodotto interno standard dei vettori di Rn
delle loro componenti rispetto a B.
Sia W un sottospazio di V tale che dim(W ) = r e sia {w1 , . . . , wr } una base ortogonale
di W . Se v ∈ V , si definisce proiezione ortogonale di v su W il vettore:
v · w1 v · wr
vW = w1 + . . . + wr .
w1 · w1 wr · wr
Teorema 3.10. Sia W un sottospazio di V tale che dim(W ) = r e sia {w1 , . . . , wr } una
base ortogonale di W . Allora vale quanto segue:
i) vW ∈ W .
ii) v − vW ∈ W ⊥ .
(v − vW ) · w = (v − vW ) · (λ1 w1 + . . . + λr wr ) =
= v · (λ1 w1 + . . . + λr wr ) − vW · (λ1 w1 + . . . + λr wr ) =
v · w1 v · wr
= λ1 v · w1 + . . . + λr v · wr − w1 + . . . + wr · (λ1 w1 + . . . + λr wr ) =
w1 · w1 wr · wr
= λ1 v · w1 + . . . + λr v · wr − λ1 v · w1 − . . . − λr v · wr = 0.
(v − vW ) · (vW − w) = (v − vW ) · vW − (v − vW ) · w = 0 − 0 = 0.
30
Dal Teorema 3.3, iii) si ha che
||v − w||2 = ||v − vW + vW − w||2 = ||v − vW ||2 + ||vW − w||2 ≥ ||v − vW ||2
i) hv1 , . . . , vm i = hw1 , . . . , wm i,
Dalla definizione segue che vm+1 è combinazione lineare di w1 , w2 , . . . , wm+1 e per ipotesi
d’induzione hv1 , . . . , vm i = hw1 , . . . , wm i, quindi hv1 , . . . , vm , vm+1 i ⊆ hw1 , . . . , wm , wm+1 i.
D’altro canto, tenendo conto della definizione di wm+1 , se ne deduce che wm+1 è combina-
zione lineare di w1 , w2 , . . . , wm , vm+1 . Per ipotesi d’induzione i vettori w1 , w2 , . . . , wm ∈
hv1 , . . . , vm i, quindi hw1 , . . . , wm , wm+1 i ⊆ hv1 , . . . , vm , vm+1 i e la proprietà i) è verifica-
ta.
Inoltre, fissato i, con 1 ≤ i ≤ m, si ha che
m
!
X wj · vm+1
wm+1 · wi = vm+1 − wj · wi =
j=1
w j · wj
m
X wj · vm+1
= (vm+1 · wi ) − (wj · wi ) = vm+1 · wi − wi · vm+1 = 0,
j=1
wj · wj
Corollario 3.12. Ogni spazio vettoriale euclideo possiede una base ortonormale.
31
e {v1 , . . . , vn } è un insieme di n vettori di V linearmente indipedenti. Dal Lemma 2.21
si avrebbe n < n − 1, contraddizione. Allora dalla Proposizione 3.5, i vettori w1 , . . . , wn
risultano linearmente indipendenti e quindi formano una base ortogonale di V . Ne segue
che
w1 wm
,...,
||w1 || ||wm ||
è una base ortonormale di V .
Proposizione 3.13. Sia V uno spazio vettoriale euclideo e sia W un sottospazio vettoriale
di V . Allora V = W ⊕ W ⊥ e quindi dim(V ) = dim(W ) + dim(W ⊥ ).
Dimostrazione. Mostriamo che V = W +W ⊥ . Si noti che W è esso stesso uno spazio vetto-
riale euclideo e quindi dal Corollario 3.12, W possiede una base ortonormale, {e1 , . . . , em },
dove m = dim(W ). Sia v ∈ V e poniamo
w = (v · e1 )e1 + . . . + (v · em )em e w0 = v − w.
w0 · ei = (v − w) · ei =
= (v · ei ) − (w · ei ) = (v · ei ) − (((v · e1 )e1 + . . . + (v · em )em ) · ei ) =
= (v · ei ) − (v · ei )(ei · ei ) = (v · ei ) − (v · ei ) = 0.
Proposizione 3.14. Sia V uno spazio vettoriale euclideo e sia W un sottospazio vettoriale
di V . Allora W ⊥⊥ = W .
Esercizi 3.15. Nei seguenti esercizi si consideri Rn dotato del prodotto interno standard.
v⊥ = {(x, y, z) ∈ R3 | x + y + z = 0}.
32
⊥
Sia w un
pvettore di v . Allora p esistono x, y ∈ R tali che w = (x, y, −x − y) e
||w|| = x + y + (x + y) = 2(x2 + y 2 ). Pertanto i vettori ortogonali a v di
2 2 2
33
4 Matrici
4.1 Determinante di una matrice quadrata
Una sottomatrice p × q di una matrice A ∈ Mm,n (K) è una matrice costituita dagli
elementi di A comuni a p righe e q colonne fissate di A.
Sia A = (aij ) ∈ Mn (K) e sia Ai,j la sottomatrice che si ottiene da A cancellando la
i–esima riga e la j–esima colonna.
Diamo ora una definizione ricorsiva del determinante di una matrice quadrata di ordine
n. Sia A = (aij ) ∈ Mn (K). Si definisce determinante di A la funzione:
dove n n
X X
i+j
det(A) = (−1) aij det(Aij ) = (−1)i+j aij det(Aij ).
j=1 i=1
Pertanto
se n = 1,
A = (a11 ) e det(A) = a11 ;
se n = 2,
a11 a12
A= e det(A) = a11 a22 − a12 a21 ;
a21 a22
se n = 3,
a11 a12 a13
A = a21 a22 a23 e per la regola di Sarrus si ha che
a31 a32 a33
det(A) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a13 a22 a31 − a23 a32 a11 − a33 a12 a21 .
(−1)i+j det(Aij ).
34
Osservazione 4.1. La definizione fornita di determinante si può enunciare come segue:
Il determinante di una matrice quadrata è la somma dei prodotti degli elementi di una
sua riga o di una sua colonna per i rispettivi complementi algebrici. 2
2 4 1 4 1 2
= −1 +2 −4 = 2 − 6 + 4 = 0.
1 1 1 1 1 1
3
X
(−1)i+2 ai1 det(Ai2 ) = −a11 det(A12 ) + a21 det(A22 ) − a31 det(A32 ) =
i=1
3 2 1 4 1 4
= −1 +3 −1 = −1 − 9 + 10 = 0.
1 1 1 1 3 2
iii) det(In ) = 1.
35
v) Moltiplicando per uno scalare α ∈ K una riga o una colonna di A si ottiene una
matrice B tale che det(B) = α det(A),
1 2
A= , det(A) = 7 − 10 = −3
5 7
(1) (1) (2) (2) α 2α
B = αA , B = A , B = , det(B) = 11α − 14α = −3α.
7 11
αA(3) .
= α2 det = αn det .. = αn det(A)
..
A(n)
.
αA(n)
1 2
A= , det(A) = 7 − 10 = −3
5 7
α 2α
B = αA = , det(B) = 11α2 − 14α2 = −3α2 .
7α 11α
vii) Scambiando tra loro due righe oppure due colonne di A si ottiene una matrice B
tale che det(A) = − det(B),
1 2 3 4
det = −2, det = 2.
3 4 1 2
36
ix) Se due righe o colonne di A sono proporzionali allora A è singolare, det(A) = 0.
Se A(i) = αA(j) , i 6= j, allora
(1) (1) (1)
A A A
.. .. ..
. . .
(i) (j) (j)
A αA A
. . .
det(A) = det .. = det .. = α det .. = α0 = 0
A(j) A(j) A(j)
. . .
.. .. ..
(n) (n)
A A A(n)
1 2
det = 4 − 4 = 0.
2 4
A(1)
..
.
(i−1)
A
= det A(i) + α1 A(1) + . . . + αi−1 A(i−1) + αi+1 A(i+1) + . . . + αn A(n) =
A(i+1)
.
..
(n)
A
37
A(1) A(1) A(1) A(1)
.. .. .. ..
.
.
.
.
(i−1)
A A(i−1) A(i−1) A(i−1)
(i) (1) (2)
= det A +α1 det A +α2 det A +. . .+αn det A(n) =
(i+1)
A A(i+1) A(i+1) A(i+1)
.. .. .. ..
. . . .
αA(n) A(n) A(n) A(n)
= det(A) + α1 0 + . . . + αn 0 = det(A).
1 2
A= , det(A) = 7 − 10 = −3
5 7
1 2
B (1) = A(1) , B (2) (1) (2)
= 2A + A , B = , det(B) = 11 − 14 = −3.
7 11
Il prossimo risultato mostra che se det(A) 6= 0, allora le righe (o colonne) di A sono
linearmente indipendenti.
Proposizione 4.5. Se le righe (colonne) di una matrice quadrata A formano un insieme
di vettori linearmente dipendenti, allora A è singolare.
Dimostrazione. Sia A ∈ Mn (K) e siano α1 , . . . , αn ∈ K non tutti nulli, tali che α1 A(1) +
. . . + αn A(n) = 0. In particolare, se αi 6= 0, allora sia B la matrice ottenuta da A, dove
B (j) = A(j) , 1 ≤ j ≤ n, j 6= i, e
α1 αi−1 (i−1) αi+1 (i+1) αn (n)
B (i) = A(i) + A(1) + . . . + A + A + ... + A = 0.
αi αi αi αi
Allora da xi) si ha che det(A) = det(B). Inoltre la i–esima riga di B è la riga nulla,
pertanto det(B) = 0, e dunque det(A) = 0.
Teorema 4.6. (Teorema di Binet)
Se A, B ∈ Mn (K), allora det(AB) = det(A) det(B).
38
Lemma 4.8. i) Siano A, M ∈ Mn (K). Se AM = In , allora M A = In .
2. Sia
1 1 2 1 −1 2
A = 0 1 0 ∈ M3 (R), Agg(A) = 0 1 0 .
−1 0 1 1 −1 1
Il seguente risultato caratterizza le matrici invertibili.
39
Teorema 4.11. A ∈ GLn (K) è se e solo se det(A) 6= 0.
Dimostrazione. Se A è invertibile, esiste A−1 ∈ GLn (K) tale che AA−1 = In . Quindi
det(AA−1 ) = det(A) det(A−1 ) = det(In ) = 1. Allora det(A) 6= 0.
Sia det(A) 6= 0. Mostriamo che AAgg(A) = det(A)In . Infatti
AAgg(A) =
a11 a12 · · · a1n det(A11 ) − det(A21 ) · · · (−1)n+1 det(An1 )
a21 a22 · · · a2n − det(A12 ) det(A22 ) · · · (−1)n+2 det(An2 )
=
.. .. ... .. .. .. . . ..
. . . . . . .
an1 an2 · · · ann (−1)1+n det(A1n ) (−1)2+n det(A2n ) · · · det(Ann )
Pn Pn Pn
j=1 (−1)1+j a1j det(A1j ) j=1 (−1)2+j a1j det(A2j ) · · · j=1 (−1)n+j a1j det(Anj )
Pn 1+j
Pn 2+j
Pn n+j
j=1 (−1) a2j det(A1j ) j=1 (−1) a2j det(A2j ) · · · j=1 (−1) a2j det(Anj )
=
.. .. ... ..
Pn . Pn . Pn .
1+j 2+j n+j
j=1 (−1) anj det(A1j ) j=1 (−1) anj det(A2j ) · · · j=1 (−1) anj det(Anj )
det(A) 0 ··· 0
0 det(A) · · · 0
= = det(A)In .
.. .. .. ..
. . . .
0 0 · · · det(A)
2. Sia
1 1 2
A = 0 1 0 ∈ M3 (R), det(A) = 3.
−1 0 1
1 −1 2 1/3 −1/3 −2/3
Agg(A) = 0 1 0 , A−1 = 0 1/3 0 .
1 −1 1 1/3 −1/3 1/3
40
4.3 Rango di una matrice
Sia A ∈ Mm,n (K), il rango per righe di A è il massimo numero di righe linearmente indi-
pendenti di A, dove i vettori riga di A sono considerati come vettori di Kn . Analogamente,
il rango per colonne di A è il massimo numero di colonne linearmente indipendenti di A,
dove i vettori colonna di A (trasposti) sono considerati come vettori di Km .
Osservazione 4.14. Dalla definizione di rango per righe o colonne e dal Corollario 2.28
segue che il rango per righe di A è pari a dim hA(1) , . . . , A(m) i , mentre il rango per
colonne di A è pari a dim hA(1) , . . . , A(n) i .
Proposizione 4.15. Sia A ∈ Mm,n (K), allora il rango per righe ed il rango per colonne
di A coincidono.
Dimostrazione. Sia A = (aij ), dove dim hA(1) , . . . , A(m) i = r e dim hA(1) , . . . , A(n) i =
s. Vogliamo provare che r = s. Poichè dim hA(1) , . . . , A(m) i = r, vi sono r vettori
A(i1 ) , . . . , A(ir ) che formano una base per hA(1) , . . . , A(m) i. Allora
A(1) = λ11 A(i1 ) + λ12 A(i2 ) + . . . + λ1r A(ir )
A(2) = λ21 A(i1 ) + λ22 A(i2 ) + . . . + λ2r A(ir )
.. (4.1)
.
A(m) = λ A(i1 ) + λ A(i2 ) + . . . + λ A(ir )
m1 m2 mr
Posto
λ11 λ12 λ1r
λ21 λ22 λ2r
L(1) = , L(2) = , . . . , L(r) = ,
.. .. ..
. . .
λm1 λm2 λmr
dalla (4.3), si ha che
41
e pertanto
A(j) ∈ hL(1) , L(2) , . . . , L(r) i, 1 ≤ j ≤ n.
Ne segue che
s = dim hA(1) , . . . , A(n) i ≤ dim hL(1) , . . . , L(r) i ≤ r.
Analogamente, partendo dalle colonne di A invece che dalle righe, si ottiene r ≤ s.
In base al risultato precedente possiamo definire il rango di A come il massimo numero
di righe o colonne linearmente indipendenti di A. Il rango di A si denota con rg(A).
42
Il prossimo risultato, che si dimostra facilmente utilizzando le proprietà del determi-
nante (Proposizione 4.4), osserva che il determinante di una matrice non è preservato se
la matrice è sottoposta ad operazioni elementari di riga.
Proposizione 4.17. Sia A ∈ Mn (K).
i) Se B è ottenuta da A scambiando tra loro due righe, allora det(B) = − det(A);
ii) se aij è il pivot della i–esima riga e akh è il pivot della k–esima riga, con i < k, allora
j < h,
43
1 4 0 −2 5 6
R20 = R2 − R1 0 −3 1 4 −4 −6
R30 = R3 − 5R1 0 14 1 11 −17 −23 ,
R40 = R4 − 3R1
0 −11 0 7 −13 −17
1 4 0 −2 5 6
R30 = 3R3 − 14R2
0 −3 1 4 −4 −6 ,
0
R4 = 3R4 − 11R2 0 0 −11 −23 5 15
0 0 −11 −23 5 15
1 4 0 −2 5 6
0 −3 1 4 −4 −6
R40 = R4 − R3
0 0 −11 −23 5 15 ,
0 0 0 0 0 0
pertanto rg(A) = 3.
Calcolo dell’inversa
44
R10 = R1 /77
1 0 0 −3/11 2/11 8/11
R20 = R2 / − 77 0 1 0 −1/11 3/11 10/11 = (I3 |A−1 ).
R30 = R3 / − 11 0 0 1 4/11 1/11 −7/11
2. Sia
1 1 2
A = 0 1 0 ∈ M3 (R), det(A) = 3.
−1 0 1
1 1 2 1 0 0
(A|I3 ) = 0 1 0 0 1 0 ∈ M3,6 (R).
−1 0 1 0 0 1
1 1 2 1 0 0
R30 = R3 + R1 0 1 0 0 1 0 ,
0 1 3 1 0 1
0 1 0 2 1 −1 0
R3 = R3 − R2
0 1 0 0 1 0 ,
R10 = R1 − R2
0 0 3 1 −1 1
3 0 0 1 −1 −2
R10 = 3R1 − 2R3 0 1 0 0 1 0 ,
0 0 3 1 −1 1
0 1 0 0 1/3 −1/3 −2/3
R1 = R1 /3
0 1 0 0 1/3 0 = (I3 |A−1 ).
R30 = R3 /3
0 0 1 1/3 −1/3 1/3
45
Proposizione 4.22. i) Se A ∈ Mm,n (K), B ∈ Mn,p (K), allora rg(AB) ≤ min{rg(A), rg(B)}.
ii) Se A ∈ GLm (K), B ∈ Mm,n (K), C ∈ GLn (K), allora rg(AB) = rg(B) = rg(BC).
Dimostrazione. i) Se A = (aij ) ∈ Mm,n (K) e B = (bij ) ∈ Mn,p (K), allora la i–esima riga
della matrice AB ∈ Mm,p (K) risulta
A(i) B = (ai1 b11 + . . . + ain bn1 , ai1 b12 + . . . + ain bn2 , . . . , ai1 b1p + . . . + ain bnp ) =
= (ai1 b11 , ai1 b12 , . . . , ai1 b1p ) + (ai2 b21 , ai2 b22 , . . . , ai2 b2p ) + . . . + (ain bn1 , ain bn2 , . . . , ain bnp ) =
= ai1 B (1) + ai2 B (2) + . . . + ain B (n) .
Pertanto A(i) B ∈ hB (1) , B (2) , . . . , B (n) i, 1 ≤ i ≤ m e quindi rg(AB) ≤ rg(B). Inoltre si
ha che
rg(AB) = rg((AB)t ) = rg(B t At ) ≤ rg(At ) = rg(A).
ii) Dalla i) si ha che
Teorema 4.24. Sia A ∈ Mm,n (K), allora rg(A) coincide con il massimo ordine dei
minori non nulli di A.
Dimostrazione. Sia ρ il massimo ordine dei minori non nulli di A. Mostriamo prima che
ρ ≤ rg(A). Infatti se denotiamo con M una sottomatrice quadrata di A di ordine ρ che
ha determinante diverso da zero, allora, dalla Proposizione 4.5, si ha che le righe di M
sono linermente indipendenti e quindi rg(M ) = ρ. Inoltre, essendo M una sottomatrice
di A, dalla Proposizione 4.21 si ottiene ρ ≤ rg(A).
46
Viceversa, se r = rg(A), allora in A vi sono r righe linearmente indipendenti ed in
particolare r è il massimo numero di righe di A linearmente indipendenti. Sia B ∈ Mr,n (K)
la sottomatrice di A costituita dalle righe di A che sono linearmente indipendenti. Per
costruzione, le r righe della matrice B sono linermente indipendenti, pertanto rg(B) ≥ r.
Dalla Proposizione 4.21, si ha che rg(B) = r ed allora B contiene r colonne linearmente
indipendenti. Sia C la sottomatrice quadrata di ordine r di B formata dalle r colonne di B
linearmente indipendenti. La matrice C ha rango r e dal Teorema 4.23 risulta invertibile.
Dal Teorema 4.11 si ha che det(C) 6= 0, det(C) è un minore non nullo di A di ordine r e
ρ ≥ r.
Corollario 4.28. Una matrice quadrata è singolare se e solo se le sue righe (colonne)
formano un insieme di vettori linearmente dipendenti.
47
1 4 0 −2 1 4 0 5 1 4 0 6
1 1 1 2 1 1 1 1 1 1 1 0
det
5
= det = det = 0,
6 1 1 5 6 1 8 5 6 1 7
3 1 0 1 3 1 0 2 3 1 0 1
pertanto rg(A) = 3.
48
5 Sistemi di equazioni lineari
Siano X1 , . . . , Xn indeterminate. Un’equazione lineare (o di primo grado) nelle incognite
X1 , . . . , Xn a coefficienti nel campo K è della forma
a1 X1 + . . . + an Xn = b, ai , b ∈ K, 1 ≤ i ≤ n. (5.1)
Una soluzione di (5.1) è un elemento (x1 , . . . , xn ) ∈ Kn tale che sostituito al posto della
n–upla delle indeterminate (X1 , . . . , Xn ) dà luogo ad un’identità. L’equazione (5.1) si dice
omogenea se b = 0, altrimenti si dice non omogenea.
Se si considerano simultaneamente m ≥ 1 equazioni lineari nelle incognite X1 , . . . , Xn :
a11 X1 + a12 X2 + . . . + a1n Xn = b1
a21 X1 + a22 X2 + . . . + a2n Xn = b2
.. , (5.2)
.
a X + a X + ... + a X = b
m1 1 m2 2 mn n m
A è detta matrice associata al sistema (5.2) o matrice dei coefficienti del sistema (5.2) o
matrice incompleta del sistema (5.2). Aggiungendo ad A come (n + 1)–esima colonna la
49
b1
b2
colonna dei termini noti b = si ottiene
..
.
bm
a11 a12 . . . a1n b1
a21 a22 . . . a2n b2
Ā =
.. .. ... .. ..
. . . .
an1 an2 . . . ann bm
che è
detta matrice
completa del sistema (5.2) ed verrà denotata anche con (A|b). Ponendo
X1
X2
X = .. , si ha che il sistema (5.2) si può esprimere in forma matriciale come segue
.
Xm
AX = b.
50
Viceversa, se v = (x1 , . . . , xn ) ∈ S, allora ∀ u = (z1 , . . . , zn ) ∈ S, si ha che u − v =
(z1 − x1 , z2 − x2 , . . . , zn − xn ) ∈ S0 . Infatti
51
Pertanto il sistema (5.4) ammette le infinite soluzioni al variare dei parametri tr+1 , . . . , tn ∈
K. Pertanto un sistema di equazioni lineari a gradini di m equazioni in n incognite è
compatibile e possiede ∞n−r soluzioni.
ii) moltiplicazione di entrambi i membri di un’equazione per uno scalare non nullo,
1.
X1 + 2X2 + 3X3 = 1 1 2 3 1
2X1 + X2 + 4X3 = 2 , Ā = 2 1 4 2
3X1 − 3X2 + X3 = 1 3 −3 1 1
52
1 2 3 1
R20 = R2 − 2R1
0 −3 −2 0 ,
R30 = R3 − 3R1
0 −9 −8 −2
1 2 3 1
R30 = R3 − 3R2 0 −3 −2 0 ,
0 0 −2 −2
X1 + 2X2 + 3X3 = 1
−3X2 − 2X3 = 0 ,
−2X3 = −2
2.
X3 + 2X4 = 3 0 0 1 2 3
2X1 + 4X2 − 2X3 = 4 , Ā = 2 4 −2 0 4
2X1 + 4X2 − X3 + 2X4 = 7 2 4 −1 2 7
2 4 −1 2 7
R30 = R1 2 4 −2 0 4 ,
0 0 1 2 3
2 4 −1 2 7
0
R2 = R2 − R1 0 0 −1 −2 −3
,
0 0 1 2 3
2 4 −1 2 7
R30 = R3 + R2 0 0 −1 −2 −3 ,
0 0 0 0 0
2X1 + 4X2 − X3 + 2X4 = 7
−X3 − 2X4 = −3 , X4 = u, X2 = t, X3 = 3 − 2u, X1 = 5 − 2u − 2t,
0=0
3.
X1 + X2 + 2X3 + X4 = 0 1 1 2 1 0
X1 + X2 + X3 + 2X4 − X5 = 0 1 1 1 2 −1
, Ā =
X1 + X2 + 3X4 − 2X5 = 0 1 1 0 3 −2
X1 + X2 + 3X3 + X5 = 0 1 1 3 0 1
0 1 1 2 1 0
R2 = R2 − R1
0 0 −1 1 −1
R30 = R3 − R1
0 0 −2 2
,
−2
R40 = R4 − R1
0 0 1 −1 1
1 1 2 1 0
R30 = R3 − 2R2
0 0 −1 1 −1
,
0
R4 = R4 − R2 0 0 0 0 0
0 0 0 0 0
53
X1 + X2 + 2X3 + X4 = 0
, X4 = u, X5 = v, X2 = t, X3 = u−v, X1 = −t−3u+2v,
−X3 + X4 − X5 = 0
pertanto il sistema ammette le ∞3 soluzioni: (−t − 3u + 2v, t, u − v, u, v) ∈ R5 ,
t, u, v ∈ R.
4.
X1 − 5X2 − 8X3 + X4 = 3 1 −5 −8 1 3
3X1 + X2 − 3X3 − 5X4 = 1 3 1 −3 −5 1
, Ā =
X 1 − 7X 3 + 2X 4 = −5 1 0 −7 2 −5
11X2 + 20X3 − 9X4 = 2 0 11 20 −9 2
1 −5 −8 1 3
R20 = R2 − 3R1 0 16 21 −8 −8 ,
0
R3 = R3 − R1 0 5 1 1 −8
0 11 20 −9 2
1 −5 −8 1 3
0 16 21 −8 −8
R30 = R3 − R2 0 −11 −20 9
,
0
0 11 20 −9 2
1 −5 −8 1 3
0 16 21 −8 −8
R40 = R4 + R3 0 −11 −20 9
,
0
0 0 0 0 2
X1 − 5X2 − 8X3 + X4 = 3
16X2 + 21X3 − 8X4 = −8
,
−11X2 − 20X3 + 9X4 = 0
0=2
54
Se il sistema è compatibile e r = rg(A), allora possiamo supporre che le prime r righe
di A siano linearmente indipendenti ed applicando Gauss–Jordan è possibile trasformarlo
in un sistema a gradini con r equazioni. Allora, dalla Proposizione 5.2, esso ammetterà
un’unica soluzione oppure ∞n−r soluzioni a seconda che n = r oppure r < n.
Dimostrazione. Poichè A ∈ GLn (K), allora esiste A−1 ∈ GLn (K). Pertanto
Si noti che il numeratore di (5.5) è il determinante della matrice ottenuta sostituendo alla
j–esima colonna di A la colonna dei termini noti b sviluppato secondo Laplace rispetto
alla j–esima colonna.
Sia A = (aij ) ∈ Mm,n (K) la matrice associata al sistema, allora in forma matriciale tale
sistema risulta
AX = 0t .
Il prossimo risultato mostra che l’insieme delle soluzioni forma un sottospazio vettoriale
di Kn .
55
Dimostrazione. Siano v1 , v2 ∈ S0 . Allora v1 + v2 ∈ S0 . Infatti A(v1 + v2 )t = A(v1t +
v2t ) = Av1t + Av2t = 0t + 0t = 0t . Inoltre se λ ∈ K e v ∈ S0 , allora λv ∈ S0 . Infatti
A(λv)t = Aλvt = λAvt = λ0t = 0t .
Se rg(A) = r, allora il sistema AX = 0t ammette ∞n−r soluzioni. Pertanto la sua
generica soluzione presenterà n − r parametri indipendenti e quindi dim(S0 ) = n − r.
una base di U ⊥ . Allora i vettori di U sono tutte e sole le soluzioni del sistema omogeneo
a11 X1 + a12 X2 + . . . + a1n Xn = 0
a21 X1 + a22 X2 + . . . + a2n Xn = 0
.. .
.
a X + a X + ... + a X = 0
r1 1 r2 2 rn n
56
6 Spazi affini
Sia K un campo e sia V un K–spazio vettoriale.
Si definisce spazio affine (su V o associato a V ) un insieme non–vuoto A, i cui elementi
sono detti punti, per cui esiste un’applicazione
−→
(P, Q) ∈ A × A 7−→ P Q ∈ V
tale che
1) per ogni punto P ∈ A e per ogni vettore v ∈ V esiste un unico punto Q ∈ A tale
−→
che P Q = v,
−→ −→ −→
2) per ogni terna P, Q, R ∈ A si ha P Q + QR = P R.
è una biezione.
−→ −→ −→
ii) Per ogni coppia di punti P, Q ∈ A si ha P Q = −QP , P P = 0.
57
Sia V un K–spazio vettoriale tale che dim(V ) = n e sia A uno spazio affine su V . Un
sistema di riferimento affine di A è una coppia R = (O, {e1 , . . . , en }), dove O è un punto
di A, detto origine del riferimento R e {e1 , . . . , en } è una base di V .
58
ii) Se S un sottospazio affine di A avente giacitura W , allora S è uno spazio affine su
W.
si ha che le proprietà 1), 2) sono entrambe verificate e quindi S è uno spazio affine su W .
−→
iii) Sia W = hP Qi. Allora W è un sottospazio vettoriale di Rn di dimensione 1. Sia
S = {P + w | w ∈ W }. Allora S è una retta che contiene P (in quanto 0 ∈ W ) e Q (in
quanto Q − P ∈ W ). Inoltre dalla i), la retta S è determinata univocamente da P e da
W.
disgiunti se S ∩ S0 = ∅;
59
paralleli se W ⊆ W 0 oppure W 0 ⊆ W .
Osservazione 6.6. Due rette sono parallele se e solo se i loro vettori direttori sono
proporzionali.
Corollario 6.7. Siano S ed S0 due sottospazi affini paralleli, allora S ed S0 sono disgiunti
oppure S = S0 .
Quindi
y1 = x1 + t1 z11 + t2 z21 + · · · + ts zs1
y2 = x2 + t1 z12 + t2 z22 + · · · + ts zs2
.. , t1 , t2 , . . . , ts ∈ R. (6.1)
.
y = x + t z + t z + ··· + t z
n n 1 1n 2 2n s sn
Esempi 6.9. 1. Sia S la retta del piano affine A2 (R) passante per P = (x0 , y0 ) e
parallela a W = h(l, m)i. Allora le equazioni parametriche di S risultano
x = x0 + λl
, λ ∈ R.
y = y0 + λm
2. Sia S la retta dello spazio affine A3 (R) passante per P = (x0 , y0 , z0 ) e parallela a
W = h(l, m, r)i. Allora le equazioni parametriche di S risultano
x = x0 + λl
y = y0 + λm , λ ∈ R.
z = z0 + λr
60
3. Sia S il piano dello spazio affine A3 (R) passante per P = (x0 , y0 , z0 ) e parallelo a
W = h(l, m, r), (l0 , m0 , r0 )i. Allora le equazioni parametriche di S risultano
x = x0 + λl + µl0
y = y0 + λm + µm0 , λ, µ ∈ R.
z = z0 + λr + µr0
4. Sia S il piano dello spazio affine A4 (R) passante per P = (1, 2, 3, 4) e parallelo a
W = {(x, y, z, t) ∈ R4 | x + y = x + z − t = 0}. W è un sottospazio vettoriale di
R4 di dimensione 2 ed una sua base è {(−1, 1, 1, 0), (1, −1, 0, 1)}. Allora le equazioni
parametriche di S risultano
x=1−λ+µ
y =2+λ−µ
, λ, µ ∈ R.
z =3+λ
t=4+µ
Sia A = (aij ) ∈ Mm,n (R) la matrice associata al sistema, allora in forma matriciale tale
sistema risulta
AX = b.
Il prossimo risultato mostra che l’insieme delle soluzioni forma un sottospazio affine di
An (R).
Proposizione 6.10. Sia S ⊆ An (R) l’insieme delle soluzioni del sistema lineare AX = b.
Allora S è uno sottospazio affine di An (R) e dim(S) = n − r, dove r = rg(A).
Viceversa mostreremo che ogni sottospazio affine di An (R) è l’insieme delle soluzioni
di un sistema lineare.
61
Teorema 6.11. Sia S un sottospazio affine di An (R) tale che dim(S) = n − r. Allora
esiste un sistema lineare omogeneo di r equazioni in n incognite a coefficienti in R tale
che l’insieme delle sue soluzioni coincide con S.
−→
Infatti, ∀ Q = (y1 , . . . , yn ) ∈ An (R), il punto Q appartiene ad S se e solo se P Q =
(y1 − x1 , . . . , yn − xn ) ∈ W , da cui si ha necessariamente che
aj1 y1 + · · · + ajn yn = bj , 1 ≤ j ≤ r.
Esempi 6.13. 1. Equazione cartesiana di una retta nel piano affine A2 (R):
62
2. Equazione cartesiana di un piano nello spazio affine A3 (R):
a1 X1 + a2 X2 + a3 X3 = b, (a1 , a2 , a3 ) 6= (0, 0, 0),
equazione cartesiana di una retta nello spazio affine A3 (R):
a1 X 1 + a2 X 2 + a3 X 3 = b 1 a1 a2 a3
, rg = 2.
a01 X1 + a02 X2 + a03 X3 = b2 a01 a02 a03
2. In A3 (R), dati il punto A = (2, 4, −3) ed il sottospazio vettoriale W = h(1, −5, 4)i
di R3 , si determinino le equazioni parametriche e cartesiane della retta ` per A e
parallela a W .
Le equazioni parametriche di ` risultano:
x=2+λ
y = 4 − 5λ , λ ∈ R.
z = −3 + 4λ
63
7 Spazi euclidei reali
Sia V un R–spazio vettoriale e sia A uno spazio affine su V . Allora A si definisce spazio
euclideo se V è uno spazio vettoriale euclideo. Poichè Rn è uno spazio vettoriale euclideo, in
quanto dotato di prodotto scalare, si ha che An (R) è uno spazio euclideo che denoteremo
con En .
Un riferimento di coordinate cartesiane (o riferimento cartesiano) dello spazio euclideo
reale En è una coppia R = (O, {e1 , . . . , en }), dove O è un punto arbitrario di En , detto
origine del riferimento R, e {e1 , . . . , en } è una base ortonormale di Rn . Se P ∈ En è tale
−→
che OP = x1 e1 + . . . + xn en , allora (x1 , . . . , xn ) è si dicono coordinate cartesiane di P
rispetto ad R.
Siano P, Q due punti di En . Si definisce distanza euclidea tra P e Q e si denota con
d(P, Q) la quantità:
−→
d(P, Q) = ||P Q||.
Pertanto, fissato un riferimento cartesiano R, se P = (x1 , . . . , xn ), Q = (y1 , . . . , yn ) sono
le coordinate cartesiane di P, Q rispetto ad R, si ha che
−→ p
d(P, Q) = ||P Q|| = (y1 − x1 , . . . , ym − xn ) =
p p
= (y1 − x1 )e1 + . . . + (yn − xn )en = (y1 − x1 )2 + . . . + (yn − xn )2 .
Più in generale, se S, S0 sono due sottospazi affini, allora si definisce distanza euclidea
tra S ed S0 la quantità
d(S, S0 ) = min{d(P, Q) | P ∈ S, Q ∈ S0 }.
64
Si definiscono assi cartesiani le rette passanti per l’origine O ed aventi come vettore
direttore i vettori e1 , e2 , . . . , en , rispettivamente.
Sia ` una retta di En avente vettore direttore v = v1 e1 + . . . + vn en . Si definiscono
coseni direttori di `, i coseni degli angoli tra la retta ` e gli assi cartesiani. Pertanto i
coseni direttori di ` risultano
!
v · e1 v · en v1 vn
,..., = p 2 ,..., p 2
||v|| ||v|| v1 + . . . + vn2 v1 + . . . + vn2
Pertanto, indicate con (x, y) le coordinate cartesiane del generico punto P ∈ `, si ha che
−→
AP = (x − x0 , y − y0 ) = λ(x1 − x0 , y1 − y0 )
e quindi
x − x0 = λ(x1 − x0 )
y − y0 = λ(y1 − y0 )
x = x0 + λ(x1 − x0 )
, λ ∈ R. (7.1)
y = y0 + λ(y1 − y0 )
Le equazioni (7.1) sono le equazioni parametriche della retta ` = AB.
−→ −→
Si noti che poichè i vettori AB e AP sono linearmente dipendenti si ha che
x − x0 y − y 0
rg = 1,
x1 − x0 y 1 − y 0
quindi
x y 1 x − x0 y − y 0 0
rg x0 y0 1 = rg x0 y0 1 = 2,
x1 y 1 1 x1 − x0 y1 − y0 0
65
in quanto
x − x0 y − y 0 0
x − x0 y − y 0
det x0 y0 1 = − det =0
x1 − x0 y1 − y0
x1 − x0 y 1 − y 0 0
ax + by − ax0 − by0 = 0.
bx − ay − bx0 + ay0 = 0.
66
Inoltre x0 − x1 = λa e y0 − y1 = λb, da cui si ottiene x1 = x0 − λa e y1 = y0 − λb. Poichè
P1 ∈ ` si ha che
a(x0 − λa) + b(y0 − λb) + c = 0
e quindi
ax0 + by0 + c
λ= .
a2 + b 2
Pertanto
|ax0 + by0 + c|
d(P0 , `) = √ .
a2 + b 2
Analogamente se `, `0 sono rette parallele, allora si definisce distanza tra le rette ` ed
`0 e si denota con d(`, `0 ), la distanza tra P ed `0 , dove P è un qualsiasi punto di `.
3) rg(A) = 2 (e quindi rg(Ā) = 2). In tal caso le rette ` e `0 sono incidenti ed hanno un
bc0 −cb0 ca0 −ac0
unico punto P0 in comune. Da Cramer P0 ha coordinate cartesiane ab 0 −a0 b , ab0 −a0 b .
Si definisce fascio proprio di rette l’insieme di tutte le rette di E2 che passano per uno
stesso punto P0 , detto il centro del fascio.
Teorema 7.2. Siano ` : ax+by+c = 0, (a, b) 6= (0, 0), `0 : a0 x+b0 y+c0 = 0, (a0 , b0 ) 6= (0, 0),
due rette distinte di un fascio proprio. Allora tutte e sole le rette di tale fascio hanno
un’equazione del tipo λ(ax + by + c) + µ(a0 x + b0 y + c0 ) = 0, con (λ, µ) 6= (0, 0).
Dimostrazione. Sia P0 = (x0 , y0 ) l’unico punto in comune tra ` ed `0 e siano λ, µ ∈ R
non entrambi nulli. Allora λ(ax + by + c) + µ(a0 x + b0 y + c0 ) = 0 rappresenta l’equazione
cartesiana di una retta r. Infatti (λa + µa0 , λb + µb0 ) 6= (0, 0), altrimenti se
λa + µa0 = 0
λb + µb0 = 0
67
a b
avremmo che rg = 1 e le due rette `, `0 risulterebbero parallele, contro le
a0 b 0
ipotesi. Inoltre, poichè λ(ax0 + by0 + c) + µ(a0 x0 + b0 y0 + c0 ) = λ0 + µ0 = 0, si ha che
P0 ∈ r.
Viceversa, se r è una qualsiasi retta passante per P0 e se Q = (x1 , y1 ) è un punto di r
distinto da P0 , allora se λ = a0 x1 + b0 y1 + c0 e µ = −(ax1 + by1 + c), si ha che l’equazione
cartesiana della retta r = P0 Q è data da λ(ax + by + c) + µ(a0 x + b0 y + c0 ) = 0.
68
• Determinare la retta r per A e parallela ad `.
r : 3x − 2y − 7 = 0.
• Determinare la retta r0 per A e parallela ad `0 .
r0 : 4x − y − 11 = 0.
e quindi
x − x0 = λ(x1 − x0 ) + µ(x2 − x0 )
y − y0 = λ(y1 − y0 ) + µ(y2 − y0 )
z − z0 = λ(z1 − z0 ) + µ(z2 − z0 )
x = x0 + λ(x1 − x0 ) + µ(x2 − x0 )
y = y0 + λ(y1 − y0 ) + µ(y2 − 20 ) , λ, µ ∈ R. (7.4)
z = z0 + λ(z1 − z0 ) + µ(z2 − z0 )
quindi
x y z 1 x − x0 y − y0 z − z0 0
x0 y0 z0 1 x0 y0 z0 1
rg = rg = 3,
x1 y1 z1 1 x1 − x0 y1 − y0 z1 − z0 0
x2 y2 z2 1 x2 − x0 y2 − y0 z2 − z0 0
69
in quanto
x − x0 y − y0 z − z0 0
x − x 0 y − y 0 z − z 0
x0 y0 z0 1
= det x1 − x0 y1 − y0 z1 − z0 = 0
det
x1 − x0 y1 − y0 z1 − z0 0
x2 − x0 y2 − y0 z2 − z0
x2 − x0 y2 − y0 z2 − z0 0
ed almeno uno tra
y0 z0 1 x0 z0 1 x0 y0 1
det y1 − y0 z1 − z0 0 , det x1 − x0 z1 − z0 0 , det x1 − x0 y1 − y0 0
y2 − y0 z2 − z0 0 x2 − x0 z2 − z0 0 x2 − x0 y 2 − y 0 0
è non nullo. Quindi
x y z 1
x0 y0 z0 1
det
x1 y1 z1
= 0.
1
x2 y2 z2 1
Sviluppando secondo Laplace rispetto alla prima riga si ottiene una equazione lineare nelle
indeterminate x, y, z del tipo
ax + by + cz + d = 0, (7.5)
dove (a, b, c) 6= (0, 0, 0). L’equazione (7.5) è l’equazione cartesiana del piano σ.
Se il piano σ ha equazione cartesiana ax + by + cz + d = 0, con (a, b, c) 6= (0, 0, 0),
allora l’equazione ax + by + cz = 0 si dice equazione cartesiana della giacitura → −
σ . Infatti
un vettore della giacitura σ è soluzione dell’equazione cartesiana della giacitura →
→
− −
σ.
3 →
−
Il vettore n = (a, b, c) ∈ R è ortogonale a σ ed è detto vettore normale al piano σ.
In altri termini h→−σ i⊥ = hni Da quanto detto precedentemente vale quanto segue.
Lemma 7.6. Siano σ : ax+by +cz +d = 0, (a, b, c) 6= (0, 0, 0) e σ 0 : a0 x+b0 y +c0 z +d0 = 0
(a0 , b0 , c0 ) 6= (0, 0, 0) due piani di E3 .
ii) σ, σ 0 sono perpendicolari se e solo se i vettori (a, b, c), (a0 , b0 , c0 ) ∈ R3 sono ortogonali.
70
Se P = (x, y, z), allora si ha
x = x0 + λ(x1 − x0 )
y = y0 + λ(y1 − y0 ) , λ ∈ R. (7.6)
z = z0 + λ(z1 − z0 )
71
Sia ` la retta di E3 avente equazioni cartesiane
ax + by + cz + d = 0 a b c
, rg =2
a0 x + b 0 y + c 0 z + d 0 = 0 a0 b 0 c 0
72
dove
a b c a b c −d
A= , Ā =
a0 b 0 c 0 a0 b0 c0 −d0
sono rispettivamente la matrice incompleta e completa associata al sistema. Si noti che
1 ≤ rg(A) ≤ 2, vi sono pertanto tre possibilità:
3) rg(A) = 2 (e quindi rg(Ā) = 2). In tal caso i piani σ e σ 0 sono incidenti ed hanno
una retta ` in comune. In particolare la retta ` ha equazioni cartesiane
ax + by + cz = −d a b c
`: , rg = 2.
a0 x + b0 y + c0 z = −d0 a0 b 0 c 0
Si definisce fascio proprio di piani l’insieme di tutti i piani di E3 che contengono una
stessa retta `, detta asse del fascio.
Teorema 7.7. Siano σ : ax+by +cz +d = 0, (a, b, c) 6= (0, 0, 0), `0 : a0 x+b0 y +c0 z +d0 = 0,
(a0 , b0 , c0 ) 6= (0, 0, 0), due piani distinti di un fascio proprio di E3 . Allora tutti e soli i piani
di tale fascio hanno un’equazione del tipo λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0,
con (λ, µ) 6= (0, 0).
73
Posto
a b c a b c d
M = α β γ , M̄ = α β γ δ ,
α0 β 0 γ 0 α0 β 0 γ 0 δ 0
si ha che 2 ≤ rg(M ) ≤ 3. Vi sono pertanto tre possibilità:
1) rg(M̄ ) = 2 (e quindi rg(M ) = 2). In tal caso la retta ` è contenuta nel piano σ.
3) rg(M ) = 3 (e quindi rg(M̄ ) = 3). In tal caso la retta ` ed il piano σ hanno un punto
in comune e si dicono incidenti.
dove
a b c a b c −d
a0 b0 c0 a0 b0 c0 −d0
A= , Ā =
α β γ α β γ −δ
0 0 0
α β γ α0 β 0 γ 0 −δ 0
sono rispettivamente la matrice incompleta e completa associata al sistema. Si noti che
2 ≤ rg(A) ≤ 3, vi sono pertanto quattro possibilità:
74
1) rg(A) = rg(Ā) = 2. In tal caso le rette `, `0 coincidono.
2) rg(A) = 2 e rg(Ā) = 3. In tal caso le rette ` e `0 sono parallele e disgiunte (si noti
− →
→ −
che in tal caso ` ∩ `0 6= 0).
Teorema 7.11. Siano `, `0 due rette di E3 con vettori direttori (r1 , r2 , r3 ) e (r10 , r20 , r30 ),
rispettivamente.
0 r1 r2 r3
i) Le rette `, ` sono parallele se e solo se rg = 1 (i loro vettori direttori
r1 r2 r3
sono proporzionali).
ii) Le rette `, `0 sono perpendicolari se e solo se r1 r10 + r2 r20 + r3 r30 = 0 (i loro vettori
direttori sono ortogonali).
e quindi
ax0 + by0 + cz0 + d
λ= .
a2 + b 2 + c 2
75
Pertanto
|ax0 + by0 + cz0 + d|
d(P0 , σ) = √ .
a2 + b 2 + c 2
Siano π, π 0 due piani di E3 paralleli e disgiunti. Si definisce distanza tra i piani π, π 0 e si
denota con d(π, π 0 ), la distanza d(A, π 0 )(= d(π, B)), dove A è un punto arbitrario di π (B
un punto arbitrario di π 0 ). Se π, π 0 sono incidenti oppure coincidono, allora d(π, π 0 ) = 0.
Sia ` una retta di E3 , P0 un punto di E3 e σ l’unico piano di E3 passante per P0 e
perpendicolare a `. Sia P1 l’unico punto in comune tra ` e σ. Definiamo la distanza d(P0 , `)
tra P0 e la retta ` come la distanza euclidea tra P0 e P1 .
Siano ` una retta e π un piano. Se ` e π sono incidenti oppure ` è contenuta in π, allora
d(`, π) = 0. Se ` e σ sono paralleli e disgiunti, allora definiamo distanza tra la retta ` ed
il piano π come d(`, π) = d(P, π), dove P e un punto arbitrario di `.
Infine siano `, `0 due rette sghembe di E3 e σ l’unico piano di E3 contenente ` e
parallelo a `0 . Si definisce la distanza d(`, `0 ) tra le rette `, `0 come la distanza euclidea tra
P e σ, dove P è un punto qualsiasi di `0 . Siano P0 ∈ `, Q0 ∈ `0 i punti di minima distanza
(d(`, `0 ) = d(P0 , Q0 )). Allora la retta passante per P0 e Q0 si definisce retta di minima
distanza. Pertanto la retta di minima distanza è incidente ed ortogonale ad entrambe le
rette ` ed `0 .
76
7.3 Prodotto vettoriale
Sia V uno spazio vettoriale euclideo di dimensione 3 e sia · : V × V −→ R un prodotto
scalare. Sia {i, j, k} una base ortonormale di V .
Si definisce prodotto vettoriale l’applicazione da V × V a V che associa alla coppia di
vettori (v1 , v2 ) ∈ V × V , dove v1 = x1 i + y1 j + z1 k, v2 = x2 i + y2 j + z2 k, il vettore v1 × v2
(si legge “v1 vettor v2 ”), dove
i j k
y1 z1
x1 z1
x1 y 1
v1 × v2 = det x1 y1 z1 := i −
x2 z2 j + x2 y2 k =
y2 z2
x2 y2 z2
Proposizione 7.12. ∀ v1 , v2 , v3 ∈ V , ∀ λ ∈ R,
i) v1 × v2 = −v2 × v1 ,
Dimostrazione. Siano v1 = x1 i + y1 j + z1 k, v2 = x2 i + y2 j + z2 k e v3 = x3 i + y3 j + z3 k.
i)
i j k i j k
v1 × v2 = det x1 y1 z1 = − det x2 y2 z2 = −v2 × v1 .
x2 y2 z2 x1 y1 z1
ii)
i j k
v1 × (v2 + v3 ) = det x1 y1 z1 =
x2 + x3 y2 + y3 z2 + z3
i j k i j k
= det x1 y1 z1 + det x1 y1 z1 = v1 × v3 + v2 × v3 .
x2 y2 z2 x3 y3 z3
iii)
i j k i j k
λ(v1 × v2 ) = λ det x1 y1 z1 = det λx1 λy1 λz1 = (λv1 ) × v2 .
x2 y2 z2 x2 y2 z2
77
iv) Essendo {i, j, k} una base di V,
y z x1 z1 x1 y 1
v1 × v2 = 1 1
i −
x2 z2 j + x2 y2 k = 0
y2 z2
se e solo se
y1 z1 x1 z1 x1 y1
y2 z2 = x2 z2 = x2 y2 = 0
se e solo se
x1 y1 z1
rg =1
x2 y2 z2
se e solo se v1 , v2 sono linearmente dipendenti.
v)
vi)
||v1 × v2 ||2 = ||v1 ||2 ||v2 ||2 − (v1 · v2 )2 = ||v1 ||2 ||v2 ||2 − ||v1 ||2 ||v2 ||2 cos2 θ =
= ||v1 ||2 ||v2 ||2 (1 − cos2 θ) = ||v1 ||2 ||v2 ||2 sen2 θ.
(v1 × v2 ) · v3 .
Se v1 = x1 i + y1 j + z1 k, v2 = x2 i + y2 j + z2 k e v3 = x3 i + y3 j + z3 k, allora
y1 z1 x1 z1 x1 y 1
(v1 × v2 ) · v3 = i −
x2 z2 j + x2 y2 k · (x3 i + y3 j + z3 k) =
y2 z2
y1 z1
x1 z1
x1 y 1
x1 y1 z1
= x − y + z = det x2 y2 z2 .
y2 z2 3 x2 z2 3 x2 y2 3
x3 y3 z3
Pertanto
x1 y1 z1
(v1 × v2 ) · v3 = det x2 y2 z2 . (7.8)
x3 y3 z3
Proposizione 7.13. ∀ v1 , v2 , v3 , v4 ∈ V ,
78
ii) (v1 × v2 ) · v3 = (v2 × v3 ) · v1 = (v3 × v1 ) · v2 ,
v1 · v3 v1 · v4
iii) (v1 × v2 ) · (v3 × v4 ) = det .
v2 · v3 v2 · v4
Dimostrazione. Siano v1 = x1 i + y1 j + z1 k, v2 = x2 i + y2 j + z2 k, v3 = x3 i + y3 j + z3 k e
v4 = x4 i + y4 j + z4 k.
i) Tenendo conto della (7.8), si ha che
x1 y1 z1
(v1 × v2 ) · v3 = det x2 y2 z2 = 0
x3 y3 z3
(v1 × v2 ) · (v3 × v4 ) =
y1 z1 x1 z1 x1 y1 y3 z3 x3 z3 x3 y 3
= i − j + k · i − j +
x4 y 4 k =
y2 z2 x2 z2 x2 y2 y4 z4 x4 z4
y z y3 z3 x1 z1 x3 z3 x1 y1 x3 y3
= 1 1 y4 z4 + x2
+ =
y2 z2 z2 x4 z4 x2 y2 x4 y4
= (x1 x3 + y1 y3 + z1 z3 )(x2 x4 + y2 y4 + z2 z4 ) − (x1 x4 + y1 y4 + z1 z4 )(x2 x3 + y2 y3 + z2 z3 ) =
v1 · v3 v1 · v4
= det .
v2 · v3 v2 · v4
79
Viceversa, poichè v1 , v2 sono linearmente indipendenti (quindi dim(hv1 , v2 i) = 2) e
dim(V ) = 3, dalla Proposizione 3.13, si ha che dim(hv1 , v2 i⊥ ) = 1. Inoltre dalla Proposi-
zione 7.12, iv), v1 × v2 6= 0, mentre dalla Proposizione 7.13, i), si ha che v1 · (v1 × v2 ) =
v2 ·(v1 ×v2 ) = 0 e quindi (v1 ×v2 ) ⊥ v1 , (v1 ×v2 ) ⊥ v2 . Pertanto v1 ×v2 ∈ hv1 , v2 i⊥ e quin-
di {v1 × v2 } è una base di hv1 , v2 i⊥ . Ne segue che se v ∈ hv1 , v2 i⊥ , allora v = λ(v1 × v2 ),
per qualche λ ∈ R.
ii) Poichè v1 × v2 ∈/ hv1 , v2 i, si ha che v1 , v2 , v1 × v2 sono linearmente indipendenti.
Quindi hv1 , v2 , v1 × v2 i ⊆ V e dim(hv1 , v2 , v1 × v3 i) = dim(V ) = 3. Allora hv1 , v2 , v1 ×
v3 i = V e {v1 , v2 , v1 × v2 } è una base di V .
Esercizi 7.15. 1. Determinare l’equazione del piano σ passante per i punti A =
x + y − 4z − 1 = 0
(2, 1, 0), B = (−1, 0, 1) e parallelo alla retta ` : .
x − y + 2z + 1 = 0
0 1 1 0
80
Un altro modo è il seguente: siano A = (−2, 1, 0) ∈ `, B = (1, −2, 2) ∈ `0 . Allora `, `0
−→ −→
sono complanari se e solo se AB ∈ hv, v0 i se e solo se AB, v, v0 sono linearmente
−→ 0 −→ −→ 0
dipendenti
se (AB ×v)·v = 0, dove AB = (3, −3, 2). Poichè (AB ×v)·v =
se e solo
3 −3 2
−2 4 1 = −35 6= 0, le rette sono sghembe.
2 1 −1
3. Verificare che le rette
x=λ
0 x+y−z =0
`: y=λ , λ ∈ R, ` :
2y + z − 4 = 0
z =1+λ
Siano v, v0 vettori
direttori
0
di `, `, rispettivamente. Allora v = (1, 1, 1) e v0 ∈
1 −1 1 −1 1 1
2 1 ,− 0 1 , 0 2
= h(3, −1, 2)i e v0 = (3, −1, 2). Poichè v, v0
non sono proporzionali, allora `, `0 sono sghembe oppure incidenti. Siano A =
(0, 0, 1) ∈ ` e B = (4, 0, 4) ∈ `0 . Le rette `, `0 sono complanari
(e quindi incidenti) se
4 0 3
−→ −→
e solo se (AB × v) · v0 = 0. Infatti (AB × v) · v0 = 1 1 1 = 0.
3 −1 2
Sia π : ax + cy + cz + d = 0 e sia n = (a, b, c) un vettore normale al piano π. Allora
* i j k +
n ∈ hv × v0 i = 1 1 1 = h(3, 1, −4)i e π : 3x + y − 4z + d = 0. Poichè
3 −1 2
A ∈ π, si ha che d = 4. Quindi π : 3x + y − 4z + 4 = 0.
4. Sia π il piano passante per i punti A = (0, 0, 3), B = (2, 4, −1), C = (6, 0, 0).
Determinare
il punto D di intersezione tra π e l’asse y e la distanza tra π e la retta
2x + 3y = 0
`: .
z=0
81
5. Verificare che le rette
x=2 x=1+µ
0
`: y = 2 + λ , λ ∈ R, ` : y =1−µ , µ∈R
z = 1 − 2λ z=3
82
8 Applicazioni lineari
Siano V, W due K–spazi vettoriali. Un’applicazione F : V −→ W si dice lineare o
omomorfismo o mappa lineare o operatore lineare se
2) ∀v ∈ V , ∀c ∈ K, F (cv) = cF (v).
Infatti se vale la 3) allora, posto c = c0 = 1 vale la 1), mentre per c0 = 0 vale la 2).
Viceversa se valgono 1) e 2), allora F (cv + c0 v0 ) = F (cv) + F (c0 v0 ) = cF (v) + c0 F (v0 ) e
quindi vale la 3).
3. Sia V un K–spazio vettoriale tale che dim(V ) = n e sia B = {e1 , . . . , en } una base
di V . L’applicazione FB : V −→ Kn tale che ∀v ∈ V , se v = x1 e1 + . . . + xn en , allora
è un isomorfismo.
83
5. L’applicazione F : Mn (K) −→ Mn (K) tale che se A ∈ Mn (K), F (A) = A + At è
un’applicazione lineare.
e G2 = G ◦ G : R3 −→ R3 , dove
84
8.1 Nucleo e Immagine
Sia F : V −→ W un’applicazione lineare. Si definisce nucleo di F il seguente sottoinsieme
di V :
Ker(F ) = {v ∈ V | F (v) = 0}.
Si definisce immagine di F il seguente sottoinsieme di W :
85
ii) Viceversa, se v1 , . . . , vn ∈ V sono linearmente indipendenti, allora siano c1 , . . . , cn ∈
K tali che c1 F (v1 ) + . . . + cn F (vn ) = 0. Ne segue che F (c1 v1 + . . . + cn vn ) = 0 e quindi
c1 v1 + . . . cn vn ∈ Ker(F ). Ma Ker(F ) = {0}, poichè F è iniettiva. Quindi c1 v1 + . . . +
cn vn = 0 da cui segue che c1 = . . . = cn = 0, come volevasi.
Osservazione 8.10. Dalla Proposizione 8.9, i), si ha che se F (v1 ), . . . , F (vn ) ∈ W sono
linearmente indipendenti, allora v1 , . . . , vn ∈ V sono linearmente indipendenti.
86
Dimostrazione. F è iniettiva se e solo se Ker(F ) = {0} se e solo se dim(Ker(F )) = 0 se
e solo se dim(Im(F )) = dim(V ) = n se e solo se F è suriettiva.
Il prossimo risultato esprime il fatto che un’applicazione lineare è determinata dalle
immagini dei vettori di una base del dominio.
Proposizione 8.14. Siano V, W due K–spazi vettoriali, sia B = {e1 , . . . , en } una base di
V e siano w1 , . . . , wn vettori di W . Allora esiste un’ unica appliczione lineare F : V −→
W , tale che F (ei ) = wi , 1 ≤ i ≤ n.
Dimostrazione. Se F esiste, allora essa è unica. Infatti ∀ v ∈ V , siano x1 , . . . , xn ∈ K tali
che v = x1 e1 + . . . + xn en , allora poichè F è lineare si ha che F (v) = x1 F (e1 ) + . . . +
xn F (en ) = x1 w1 + . . . + xn wn .
Basta, quindi mostrare che l’applicazione F : v = x1 e1 +. . .+xn en ∈ V 7−→ x1 w1 +. . .+
xn wn ∈ W è lineare. Siano c, c0 ∈ K, v = x1 e1 +. . .+xn en , v0 = y1 e1 +. . .+yn en ∈ V , allora
cv + c0 v0 = c(x1 e1 + . . . + xn en ) + c0 (y1 e1 + . . . + yn en ) = (cx1 + c0 y1 )e1 + . . . + (cxn + c0 yn )en
e quindi F (cv + c0 v0 ) = (cx1 + c0 y1 )w1 + . . . + (cxn + c0 yn )wn = c(x1 w1 + . . . + xn wn ) +
c0 (y1 w1 + . . . + yn wn ) = cF (v) + c0 F (v0 ).
Due K–spazi vettoriali V, W si dicono isomorfi se esiste un isomorfismo F : V −→ W .
Teorema 8.15. Due K–spazi vettoriali V, W (di dimensione finita) sono isomorfi se e
solo se dim(V ) = dim(W ).
Dimostrazione. Se esiste un isomorfismo F : V −→ W , allora dalla Formula dimensionale
per le applicazioni lineari, si ha che dim(V ) = dim(W ), in quanto dim(Ker(F )) = 0 e
dim(Im(F )) = dim(W ).
Viceversa, se dim(V ) = dim(W ), siano {v1 , . . . , vn } una base di V e {w1 , . . . , wn } una
base di W . Dalla Proposizione 8.14 esiste un’unica applicazione lineare F : V −→ W ,
tale che F (vi ) = wi , 1 ≤ i ≤ n. Allora {w1 , . . . , wn } è una base di Im(F ) e quindi
dim(Im(F )) = dim(W ) = n ed F è suriettiva. Inoltre, dal Corollario 8.13, si ha che F è
iniettiva. Allora F è un isomorfismo.
87
La matrice associata ad F rispetto a B, B 0 è:
a11 a12 ... a1n
a21 a22 ... a2n
AB,B0 = ..
.. .. ..
. . . .
am1 am2 . . . amn
Si noti che AB,B0 dipende, oltre che da F , anche dalle basi di V e W . Inoltre, fissate
una base di V e W , dalla matrice è possibile risalire all’applicazione lineare.
Osservazione 8.17. Tenendo conto dell’Osservazione 8.6 e dell’Esempio 8.2, 3., le colonne
della matrice AB,B0 formano un insieme di generatori di un sottospazio isomorfo a Im(F ).
Inoltre, si noti che dim(Im(F )) = rg(AB,B0 ).
Esempi 8.18. 1. Siano V, W due K–spazi vettoriali tali che dim(V ) = 2 e dim(W ) =
3. Siano B = {v1 , v2 }, B 0 = {w1 , w2 , w3 } basi di V e W . Si consideri l’applicazione
lineare F , dove
88
Siano B = {v1 = (1, 0), v2 = (1, 1)}, B 0 = {w1 = (1, 0, 0), w2 = (1, 1, 0), w3 =
(1, 1, 1)} basi di R2 e R3 . Allora
Hom(V, W ) = {F : V −→ W | F omomorfismo}.
89
Corollario 8.20. Hom(V, W ) è un K–spazio vettoriale.
90
Dimostrazione. Siano B = {v1 , . . . , vn }, B 0 = {w1 , . . . , wm } e B 00 = {u1 , . . . , us }. Se
v = z1 v1 + . . . + zn vn ∈ V,
siano
Osservazione 8.24. Si noti che M ∈ GLn (K). Questo fatto si può vedere in due modi.
Infatti da una parte M è la matrice associata all’applicazione lineare identica idV
rispetto alle basi F ed E e idV è un isomorfismo.
Inoltre, tenendo conto dell’Esempio 8.2, 3., le colonne della matrice M formano un
insieme di vettori linearmente indipendenti di Kn .
91
Sia v ∈ V , allora v = x1 e1 + . . . + xn en e v = y1 f1 + . . . + yn fn . Si noti che la matrice
M può essere considerata come matrice associata all’applicazione identica (Esempio 8.2,
2.) idV : v ∈ V 7−→ v ∈ V rispetto alle basi F e E. Allora, dalla Proposizione 8.16 e dal
Corollario 8.23, si ha che
x1 y1
x2 y2
.. = M ..
. .
xn yn
da cui si ricava
y1 x1
y2 x2
= M −1
.. ..
. .
yn xn
Vale, pertanto, il seguente risultato.
92
Poichè F (v) ∈ V , allora esistono (e sono uniche) le n–uple (x01 , . . . , x0n ), (y10 , . . . , yn0 ) ∈ Kn
tali che F (v) = x01 e1 + . . . + x0n en = y10 f1 + . . . + yn0 fn . Inoltre
x01 y10 y10 x01
x0 y0 y0 x0
2 2 2 −1 2
.. = M .. , .. = M .. .
. . . .
0 0 0
xn yn yn x0n
La matrice AE,E associata all’endomorfismo F rispetto alla base E sarà anche denotata
con AE .
Si consideri la seguente base di R3 : B 0 = {v1 = (0, 0, 1), v2 = (0, 1, 1), v3 = (1, 1, 1)}.
Sia M ∈ M3 (R) la matrice di passaggio da B a B 0 , allora
(0, 0, 1) = 0e1 + 0e2 + 1e3 , (0, 1, 1) = 0e1 + 1e2 + 1e3 , (1, 1, 1) = 1e1 + 1e2 + 1e3 ,
0 0 1
M = 0 1 1 .
1 1 1
Mentre la matrice di passaggio da B 0 a B risulta
0 −1 1
M −1 = −1 1 0 .
1 0 0
93
Infatti
2. Sia F l’endomorfismo su R2 tale che F (1, 1) = (1, 2) e F (0, 2) = (4, 4). Allora è
possibile determinare F . Sia B = {e1 , e2 } la base canonica di R2 e sia B 0 = {v1 =
(1, 1), (0, 2)}. Si noti che B 0 è una base di R2 . Inoltre
1
F (v1 ) = (1, 2) = v1 + v2
2
F (v2 ) = (4, 4) = 4v1 + 0v2 ,
quindi
1 4
AB0 = 1
2
0
La matrice di passaggio da B a B 0 è
1 0
M= .
1 2
Allora
−1 −1 2
AB = M A B 0 M =
0 2
e quindi
F : (x, y) ∈ R2 7−→ (−x + 2y, 2y) ∈ R2 .
94
9 Diagonalizzabilità di un endomorfismo e di una
matrice quadrata
Sia V un K–spazio vettoriale tale che dim(V ) = n e sia F : V −→ V un endomorfismo.
F si definisce diagonalizzabile se esiste una base E di V tale che AE,E , la matrice
associata ad F rispetto alla base E, risulti diagonale.
λ1 0 . . . 0
0 λ2 . . . 0
AE,E = .. .. .
.. . .
. . . .
0 0 . . . λn
95
Proposizione 9.4. Vλ (F ) è un sottospazio vettoriale di V .
λ 1 c1 v 1 + . . . + λ 1 cn v n = λ 1 0 = 0 (9.1)
96
Proposizione 9.7. Sia A ∈ Mn (K) una matrice diagonalizzabile. Allora
i) Ak = P Dk P −1 , per ogni k ≥ 1;
pA (X) = |A − XIn |.
Dimostrazione. Siano A, B ∈ Mn (K) matrici simili. Esiste, pertanto, M ∈ GLn (K) tale
che B = M −1 AM . Allora B − XIn = M −1 AM − XIn = M −1 (A − XIn )M . Pertanto
|B − XIn | = |M −1 (A − XIn )M | = |M −1 ||A − XIn ||M | = |A − XIn |.
97
Teorema 9.9. Sia V un K–spazio vettoriale tale che dim(V ) = n e sia F : V −→ V un
endomorfismo. Allora λ ∈ K è un autovalore di F se e solo se λ è radice del polinomio
caratteristico di F . In particolare F possiede al più n autovalori distinti.
Dimostrazione. Lo scalare λ è un autovalore di F se e solo se esiste 0 6= v ∈ V tale
che F (v) = λv se e solo se (F − λidV )(v) = 0, dove idV è l’applicazione identica e
F − λidV : V −→ V è un endomorfismo. Inoltre se E = {v1 , . . . , vn } è una base di V e
AE,E è la matrice associata ad F rispetto ad E, allora AE,E − λIn è la matrice associata ad
F − λidV rispetto ad E. Pertanto se v = x1 v1 + . . . + xn vn , allora 0 6= (x1 , . . . , xn ) ∈ Kn
è soluzione non–banale del sistema omogeneo la cui matrice associata è A − λIn . Allora
si ha che det(A − λIn ) = 0.
Infine F possiede al più n autovalori distinti poichè un polinomio di grado n a coeffi-
cienti in K possiede al più n radici in K.
(A − λIn ) X = 0.
Poichè det(A − λIn ) = 0, si ha che rg(A − λIn ) = r < n. Allora mg (λ) = dim(Vλ ) =
n − r ≥ 1.
98
Sia d = mg (λ) e sia {e1 , . . . , ed } una base di Vλ . Dal Teorema del completamento ad
una base esistono n − d vettori di V \ Vλ , ed+1 , . . . , en , tali che E = {e1 , . . . , en } è una
base di V . Se M è la matrice associata ad F rispetto alla base E, allora
λId B
M= ,
0 C
dove 0 ∈ Mn−d,d (K) è la matrice nulla, B ∈ Md,n−d (K) e C ∈ Mn−d (K). Allora il
polinomio caratteristico di F risulta
ii) per ogni autovalore la molteplicità geometrica coincide con la molteplicità algebrica.
Posto
si ha che
e1 + . . . + er = 0. (9.4)
Inoltre dalla Proposizione 9.4, si ha che ei ∈ Vλi , mentre dalla Proposizione 9.5, i vettori
e1 , e2 , . . . , er sono linearmente indipendenti. Allora, da (9.4), necessariamente e1 = e2 =
. . . = er = 0. Infine, tenendo conto delle (9.3) e del fatto che i vettori di Bi , 1 ≤ i ≤ r,
99
sono linearmente indipendenti, si ha che α1 = . . . = αm1 = β1 = . . . = βm2 = γ1 = . . . =
γmr = 0, come volevasi.
Viceversa, se F è diagonalizzabile e B è una base diagonalizzante per F , allora gli
n vettori di B sono autovettori di F . Inoltre, la matrice M ∈ Mn (K) associata ad F
rispetto a B è una matrice diagonale e gli elementi della diagonale principale di M sono
autovalori di F . Ne segue che la somma delle molteplicità geometriche degli autovalori di
F è maggiore o uguale ad n. D’altro canto, dalla Proposizione 9.12 e dall’Osservazione
9.11, si ha che la somma delle molteplicità geometriche degli autovalori di F è esattamente
n. Allora, necessariamente valgono le proprietà i) e ii).
2) A è diagonalizzabile se e solo se
Osservazione 9.16. Una base diagonalizzante per un endomorfismo o per una matrice
quadrata si ottiene scegliendo una base per ogni autospazio e prendendone l’unione.
100
Esso ammette le ∞ soluzioni (t, t, −2t) ∈ R3 , t ∈ R. Pertanto V3 (F ) = {(t, t, −2t) ∈
R3 | t ∈ R} = h(1, 1, −2)i. Allora mg (3) = dim(V3 (F )) = 1.
Per determinare l’autospazio relativo 2, consideriamo il sistema omogeneo associato
a A − 2I3 :
X2 = 0
−X2 − X3 = 0
2X2 + 2X3 = 0
2. Se
2 1 0 0
M= ,N = ,
1 2 0 1
si consideri l’endomorfismo F : M2 (R) −→ M2 (R) definito da F (X) = XM − N X.
Mostreremo che F è diagonalizzabile e troveremo una base diagonalizzante per F .
Se
x11 x12
X= ,
x21 x22
allora
2x11 + x12 x11 + 2x12
F (X) = .
x21 + x22 x21 + x22
La matrice associata ad F rispetto alla base canonica di M2 (R) è
2 1 0 0
1 2 0 0
A= 0 0 1 1 .
0 0 1 1
101
Allora mg (0) = dim(V0 (F )) = 1. Per l’autovalore 1 il sistema
X1 + X2 = 0
X1 + X2 = 0
X4 = 0
X3 = 0
102
Riferimenti bibliografici
[1] V. Abatangelo, B. Larato, A. Terrusi, Complementi ed esercizi di algebra, Laterza,
Bari, 2009.
103