Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
FondamentiDiAlgebraLineareEGeometria Zanella
FondamentiDiAlgebraLineareEGeometria Zanella
ni. Ciò significa che, pur avendo la pretesa di essere rigorose quanto
occorre, ogni tanto sottintendono qualcosa. Per esempio può essere
scritto “data una matrice ad elementi in K” e qui è inteso, anche se
non è esplicitato, che K è un campo.
1
2
Indice
1 Funzioni 7
2 Campi e matrici 15
2.1 Campi . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4 Il campo complesso 33
5 Radici n-esime 41
8 Spazi vettoriali 67
8.1 Relazioni d’equivalenza . . . . . . . . . . . . . . . . . . 67
8.1.1 Similitudine tra matrici . . . . . . . . . . . . . . 69
3
8.1.2 Equipollenza tra segmenti orientati . . . . . . . 70
8.2 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . 72
8.2.1 Esempi di spazio vettoriale . . . . . . . . . . . . 74
9 Sottospazi 77
11 Dipendenza lineare 89
4
22 Forma canonica speciale 181
22.1 Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . 182
22.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . 185
23 Determinante 189
29 Geometria 239
31 Ortogonalità 257
33 Distanza 275
5
Appendice A Soluzioni dei compiti 303
6
Lezione 1
Funzioni
Insiemi numerici:
Vale N ⊆ Z ⊆ Q ⊆ R ⊆ C.
7
Notazioni 1.1. • N∗ = N \ {0} = {1, 2, 3, . . .};
• Z∗ = Z \ {0}; Q∗ , R∗ , C∗ sono definiti analogamente;
• Z+ = {n ∈ Z | n > 0} = N∗ ;
• Q+ , R+ sono definiti analogamente;
• non esiste nessun C+ !
Alcuni sottoinsiemi di R sono gli intervalli.
Notazioni 1.2. Siano a, b ∈ R tali che a < b.
• Intervallo chiuso [a, b] = {x ∈ R | a ≤ x ≤ b}.
• Intervallo aperto ]a, b[= {x ∈ R | a < x < b}. (Anche denotato
con (a, b).)
• Intervallo chiuso a sinistra e aperto a destra [a, b[= {x ∈ R | a ≤
x < b}. (Anche denotato con [a, b).)
• ]a, b] si definisce similmente.
• Intervallo chiuso [a, +∞] = {x ∈ R | x ≥ a}.
• Intervallo aperto ]a, +∞] = {x ∈ R | x > a}. (Anche denotato
con (a, +∞).)
• ] − ∞, b], ] − ∞, b[ si definiscono in modo simile. Infine,
] − ∞, +∞[= R.
Definizione 1.3. Siano A e B due insiemi. Una funzione (o applica-
zione) di A in B è individuata da una legge che ad ogni elemento di A
associa un ben determinato elemento di B.
Notazione 1.4. α : A → B.
A si dice dominio della funzione α, B si dice codominio di α.
8
La parola “codominio” può avere significato diverso da quello che
conoscete.
• f : R → R : x 7→ x2 .
9
Definizione 1.10. Dato b ∈ B, l’antiimmagine di b mediante la fun-
zione α : A → B è
x3 + 1 = y 3 + 1 ⇒ x3 − y 3 = 0 ⇒ (x − y)(x2 + xy + y 2 ) = 0.
10
Il secondo fattore è un polinomio in x con ∆ = −3y 2 e quindi si annulla
solo per y = 0 = x. Se tale caso non si presenta, allora è nullo il primo
fattore x − y e se ne deduce x = y. In ciascun caso da g(x) = g(y)
segue x = y. Quindi g è iniettiva.
11
Osservazione 1.21. Se α : A → B è biiettiva e b ∈ B, allora α−1 (b),
ovverosia l’immagine di b mediante α−1 , è un elemento di A. In base
però alla definizione 1.10, α−1 (b) è l’insieme {x ∈ A | α(x) = b},
formato da un solo elemento. Trascureremo questa contraddizione di
notazioni.
β ◦ α : A → D : x 7→ β(α(x)) (1 ).
g ◦ h : R → R : x 7→ (x2 )3 + 1 = x6 + 1,
12
Dimostrazione. 1) Dobbiamo dimostrare che le funzioni α−1 ◦ α e idA
hanno uguali dominio, codominio, legge. Il dominio di α−1 ◦ α è uguale
al dominio di α, cioè A. Il codominio di α−1 ◦ α è uguale al codominio
di α−1 : B → A, cioè A. Consideriamo x ∈ A qualsiasi e poniamo
y = α(x). Vale:
(1.1)
[α−1 ◦ α](x) = α−1 (α(x)) = α−1 (y) = x = idA (x).
13
14
Lezione 2
Campi e matrici
2.1 Campi
Definizione 2.1. Un’operazione binaria in un insieme A è una fun-
zione ω : A × A → A.
Esempio 2.2. Un’operazione binaria in Z è ω : Z × Z → Z : (x, y) 7→
x + y.
Notazione 2.3. Se ω è un’operazione binaria in A, si usa scrivere xωy
in luogo di ω((x, y)), cosı̀ come si usa scrivere 2 + 3 anziché +((2, 3)).
Definizione 2.4. Un campo è una terna ordinata (K, +, ·), dove K è
un insieme e “+”, “·” sono operazioni binarie in K, soddisfacenti le
seguenti proprietà (scriveremo xy invece di x · y).
15
(i) Esistono due elementi distinti in K, denotati con “0” e “1”, tali
che ∀x ∈ K valgono
x+0=x (2.1)
x1 = x (2.2)
(x + y) + z = x + (y + z) (2.3)
∃x0 ∈ K : x + x0 = 0 (2.4)
x+y =y+x (2.5)
(xy)z = x(yz) (2.6)
x(y + z) = (xy) + (xz) (2.7)
xy = yx (2.8)
x 6= 0 ⇒ ∃x00 ∈ K : xx00 = 1. (2.9)
Esempi 2.5. (R, +, ·), dove “+” e “·” sono le normali operazioni di
somma e prodotto, è un campo. Anche (Q, +, ·) è un campo, ma
(Z, +, ·) non lo è (non vale la 2.9), e nemmeno (N, +, ·) è un campo.
+ B R · B R
B B R B B B
R R B R B R
16
(2.7) procedo riempiendo la tabella
17
Vale poi
(2.3) (2.1)
(x0 + x) + x0 = x0 + (x + x0 ) = x0 + 0 = x0. (2.11)
2.2 Matrici
Ecco la generica matrice ad m righe ed n colonne ad elementi in un
campo1 K (per es. K = R), altrimenti detta matrice m×n ad elementi
in K:
a11 a12 . . . a1n
a21 a22 . . . a2n
A= ...
.
(2.12)
am1 am2 . . . amn
• i è l’indice di riga;
1
Anche se per definizione un campo è una terna formata da un insieme e da due operazioni, in
seguito esso verrà denotato solo col simbolo dell’insieme: K anzichè (K, +, ·).
18
• j è l’indice di colonna;
• M(m × n, K) denota l’insieme di tutte le matrici m × n ad
elementi in K;
• ogni A ∈ M(m × n, R) si dice matrice reale;
• ogni A ∈ M(m × n, C) si dice matrice complessa.
La matrice in (2.12) si rappresenta anche con la seguente notazione:
Esempio:
3
X
j 2 = 12 + 22 + 32 = 14.
j=1
20
per ogni i = 1, 2, . . . , m, h = 1, 2, . . . , p.
Vedremo più avanti che tale definizione si motiva con il fatto che il
prodotto tra matrici corrisponde alla composizione di funzioni lineari.
Proposizione 2.21. Se A, A0 ∈ M(m × n, K), B, B 0 ∈ M(n × p, K),
C ∈ M(p × q, K), allora valgono:
(AB)C = A(BC) (propr. associativa del prodotto)
0 0
A(B + B ) = AB + AB (distributiva del prodotto risp. alla somma)
(A + A0 )B = AB + A0 B (altra propr. distributiva).
21
Problema. Vale AB = BA?
Intanto, se A e B non sono quadrate (cioè m = n) delle stesse
dimensioni, risulta o che BA non è proprio definita, o ha dimensioni
diverse da AB. Quindi il problema si pone solo nel caso A, B ∈ M(n×
n, K).
Esercizio 2.22. Date le matrici reali
0 1 1 0
A= , B= ,
0 0 0 0
calcolare AB e BA.
Svolgimento.
0·1+1·0 0·0+1·0 0 0
AB = = = O2×2 ;
0·1+0·0 0·0+0·0 0 0
1 0 0 1 0 1
BA = = .
0 0 0 0 0 0
Due conseguenze:
1) Il prodotto tra matrici non gode della proprietà commutativa.
2) Se A, B sono matrici quadrate, AB = O non implica A = O o
B = O.
Definizione 2.23. Se A, B ∈ M(n×n, K) e AB = On×n , A 6= On×n 6=
B, allora A e B si dicono divisori dello zero o anche zerodivisori.
Esempio 2.24. Le matrici A e B nell’esercizio 2.22 sono zerodivisori.
Definizione 2.25. Le righe di A = (aij ) ∈ M(m × n, K) sono le
seguenti matrici 1 × n:
A1 = (a11 a12 . . . a1n ),
A2 = (a21 a22 . . . a2n ),
..
.
Am = (am1 am2 . . . amn ).
22
Le colonne di A sono le seguenti matrici m × 1:
a11 a12 a1n
a21
A1 = , A2 = a.22 , . . . , An = a2n
. .. .
.
.. ..
am1 am2 amn
23
24
Lezione 3
Supponendo ad − bc 6= 0, risolvere:
ax + by = r
cx + dy = s.
1 2 x y 1 0
=
AB = I2 3 0 z t 0 1
⇔ ⇔
BA = I2 x y 1 2 1 0
=
z t 3 0 0 1
x + 2z y + 2t 1 0
=
3x 3y 0 1
⇔
x + 3y 2x 1 0
=
z + 3t 2z 0 1
x + 2z = 1
⇒ t = − y2 = − 16
y + 2t = 0
3x = 0 ⇒ x=0
3y = 1 ⇒ y = 13
x + 3y = 1
2x = 0
z + 3t = 0
z = 12
2z = 1 ⇒
−1 0 1/3
A = .
1/2 −1/6
27
per C:
1 −2 x y 1 0
=
CB = I2 −2 4 z t 0 1
⇔ ⇔
BC = I2 x y 1 −2 1 0
=
z t −2 4 0 1
x − 2z y − 2t 1 0
=
−2x + 4z −2y + 4t 0 1
⇔
x − 2y −2x + 4y 1 0
=
z − 2t −2z + 4t 0 1
x − 2z = 1
y − 2t = 0
−2x + 4z = 0
−2y + 4t = 1
x − 2y = 1
−2x + 4y = 0
z − 2t = 0
−2z + 4t = 1.
28
Dimostrazione. Innanzitutto A 6= On×n perché On×n è singolare. Sup-
poniamo che valga AB = On×n con B ∈ M(n × n, K). Ne se-
gue: A−1 (AB) = A−1 On×n ⇒ (A−1 A)B = On×n ⇒ In B = On×n ⇒
B = On×n . Abbiamo quindi escluso la possibilità che valga AB = On×n
con B 6= On×n . Analogamente si esclude che possa valere CA = On×n
con C 6= On×n . Allora A non è zerodivisore.
Osservazione 3.12. Si può dimostrare il viceversa, cioè che se la ma-
trice A 6= On×n non è invertibile, allora è zerodivisore. (Non è ovvio!)
Ad esempio la matrice C nell’eserc. 3.9 è zerodivisore.
Definizione 3.13. Dati h ∈ K e A = (aij ) ∈ M(m×n, K), il prodotto
esterno di h per A è la matrice hA = (bij ) ∈ M(m × n, K) definita
ponendo bij = haij per ogni i, j.
Esempio 3.14.
0 −1 −2 0 −7 −14
7 = .
1 0 7 7 0 49
29
Dimostrazione. Vale:
d −b ad − bc 0
A = ;
−c a 0 ad − bc
d −b d −b a b ad − bc 0
A= = .
−c a −c a c d 0 ad − bc
Se A = O2×2 , allora ad − bc = 0 e A non è invertibile. Se A 6=
O2×2 e ad − bc = 0, le equazioni sopra implicano che A è zerodivisore,
quindi singolare. Infine, se ad − bc 6= 0, da tali equazioni si ricava,
moltiplicando per 1/(ad − bc):
1 d −b
A = I2 ;
ad − bc −c a
1 d −b
A = I2 ,
ad − bc −c a
cioè A è invertibile e la sua inversa è la matrice descritta in (i).
Osservazione 3.17. Con riferimento
all’eserc. 3.9 la dimostrazione
4 2
precedente suggerisce che C = O2×2 , a conferma di quanto si è
2 1
detto sul fatto che C sia zerodivisore.
30
Quindi l’equazione AX = B ha soluzione unica X = A−1 B, da cui
dr−bs
1 d −b r ad−bc
X= = −cr+as ,
ad − bc −c a s ad−bc
31
32
Lezione 4
Il campo complesso
√
Calcolare (1 − i 3)100
C = R2 = {(a, b) | a, b ∈ R};
33
Dimostrazione. (Parte.) Cerchiamo gli elementi neutri. Per la somma,
cerchiamo (c, d) ∈ C tale che ∀(a, b) ∈ C valga (a, b) ⊕ (c, d) = (a, b).
Chiaramente ciò si ottiene con (c, d) = (0, 0). Cerchiamo poi (c0 , d0 ) ∈
C tale che ∀(a, b) ∈ C valga (a, b) (c0 , d0 ) = (a, b). Sfruttando la
(4.1): (ac0 − bd0 , ad0 + bc0 ) = (a, b), si ottiene il risultato con c0 = 1,
d0 = 0. Le proprietà da (2.3) a (2.9) sono di verifica elementare, a parte
l’ultima, che si riformula come segue: se (α, β) ∈ C, (α, β) 6= (0, 0),
esiste (x, y) ∈ C tale che (α, β) (x, y) = (1, 0). Usiamo la (4.1):
(αx − βy, αy + βx) = (1, 0) ⇔
αx − βy = 1 α −β x 1
⇔ = .
βx + αy = 0 β α y 0
L’inverso cercato è
α −β
(x, y) = , 2 .
α + β α + β2
2 2
34
Siccome allora ogni numero reale è anche un numero complesso, si
pongono problemi del tipo: vale 2 + 5 = 2 ⊕ 5? Consideriamo x, y ∈ R.
Vale:
x ⊕ y = (x, 0) ⊕ (y, 0) = (x + y, 0) = x + y,
(4.1)
x y = (x, 0) (y, 0) = (xy − 0, 0 + 0) = xy.
Esercizio
√ 2 4.8. Esprimere in forma algebrica i numeri complessi α =
1
(1 − i 3) , β = 1+2i .
35
Svolgimento. Usando la formula del quadrato di un binomio:
√ √ √ √ √
α = 1 + (i 3)2 − 2i 3 = 1 + 3i2 − 2i 3 = 1 − 3 − 2i 3 = −2 − i2 3.
1 1 − 2i 1 − 2i 1 − 2i 1 − 2i 1 2
β= · = = = = − i .
1 + 2i 1 − 2i 1 − (2i)2 1 − 4i2 5 5 5
Quella moltiplicazione in colore blu è un metodo standard che funziona
sempre.
√ √ 100 √ 2 100 √ 3
100
(1 − i 3) = 1 − 100i 3 + (i 3) − (i 3) + · · ·??
2 3
36
Figura 4.1: Modulo e argomento
√
Esercizio 4.10. Esprimere in forma trigonometrica α = 1 − i 3.
(4.3)
q √
Svolgimento. Il modulo è ρ = 1 + (− 3)2 = 2, l’argomento si
deduce dalle (4.4):
√
1 = 2 cos θ, − 3 = 2 sin θ ⇒ θ = −π/3
√
Risposta alla domanda iniziale. Abbiamo visto che α = 1 − i 3 ha
forma trigonometrica (4.6). Applico la (4.7) con n = 100:
100 100 100 100
α = 2 cos − π + i sin − π =
3 3
100 100
= 2100 cos 34π − π + i sin 34π − π =
3 3
√ !
2 2 1 3
= 2100 cos π + i sin π = 2100 − + i =
3 3 2 2
√
= −299 + i299 3.
38
Proprietà algebriche del modulo. Per ogni α, β ∈ C valgono:
(i) |αβ| = |α| |β|.
(ii) Se β 6= 0, αβ = |α|
|β| . (4.8)
39
Definizione 4.14. Il coniugato del numero complesso α = a+ib (a, b ∈
R) è α = a − ib.
40
Lezione 5
Radici n-esime
41
Osservazione 5.2. Come conseguenza della proposizione precedente,
(αn ) = (α)n per ogni α ∈ C e ogni n ∈ N.
42
Esercizio 5.6. Esprimere
√ in forma esponenziale i numeri complessi
α = −8, β = 1 − i 3, γ = α/β 4 .
Svolgimento. Occorre calcolare modulo e argomento di α e β. Vale
|α| = 8, l’argomento
√ di α è π, quindi α = 8eiπ .
Poi |β| = 1 + 3 = 2, dalla formula a = ρ cos θ deduco che
l’argomento θ di β soddisfa cos θ = a/ρ = 1/2 ⇒ β = 2e−iπ/3 .
α 8eiπ 8eiπ
γ= 4= 4 = 4 −i 4 π =
β 2e−iπ/3 2e 3
1 4 1 7 1 π
= eiπ+i 3 π = ei 3 π = ei 3 .
2 2 2
Per togliere la frazione ho usato la regola sugli esponenti, che in base
alla definizione di esponenziale complesso si motiva con il fatto che la
divisione tra numeri complessi dà luogo alla differenza degli argomenti.
43
Problema: risolvere l’equazione z n = α, dove α ∈ C∗ , n ∈ N∗ e
l’incognita z è complessa.
Le soluzioni di tale equazione si chiamano radici n-esime di α.
Esprimiamo α e l’incognita z in forma esponenziale:
α = ρeiθ , z = σeiϕ , ρ, θ, σ, ϕ ∈ R, ρ, σ > 0.
Vale:
z n = α ⇔ (σeiϕ )n = ρeiθ ⇔ σ n einϕ = ρeiθ ;
l’ultima è un’equazione in due incognite reali σ, ϕ, equivalente a
n √
σ = ρ σ = nρ
⇔
nϕ = θ+2kπ, k ∈ Z ϕ = nθ + 2kπ n , k ∈ Z.
44
Esercizio 5.8. Esprimere in forma algebrica le soluzioni trovate e
rappresentarle nel piano di Gauss.
Svolgimento.
√ !
π
π π 1 3 √
z0 = 2ei 3 = 2 cos + i sin =2 +i = 1 + i 3;
3 3 2 2
z1 = 2eiπ = 2 (cos π + i sin π) = −2;
√ !
√
5 5 5 1 3
z2 = 2ei 3 π = 2 cos( π) + i sin( π) = 2 −i = 1 − i 3.
3 3 2 2
45
Teorema 5.9 (Teorema fondamentale dell’Algebra). Data l’equazione
di grado n nell’incognita complessa z:
an z n + an−1 z n−1 + · · · + a1 z + a0 = 0,
dove an , an−1 , . . ., a0 ∈ C, an 6= 0, n > 0, essa ha almeno una soluzione
nel campo complesso.
47
48
Lezione 6
49
complessi tale che
P (z) = (z − α1 )Q1 (z). (6.1)
Se n > 1, si applica ancora il Teorema fondamentale dell’Algebra al-
l’equazione Q1 (z) = 0, da cui esiste α2 ∈ C tale che Q1 (α2 ) = 0, poi
(Ruffini)
Q1 (z) = (z − α2 )Q2 (z), (6.2)
dove Q2 (z) ha grado n − 2. Si prosegue in questo modo ottenendo altre
n − 2 equazioni analoghe alle (6.1) e (6.2,) delle quali l’ultima è
50
Dimostrazione. Per ipotesi, P (α) = 0. Ricordiamo le proprietà α + β =
α + β, αβ = α β, da cui αn = (α)n per n ∈ N, e l’equivalenza
α ∈ R ⇔ α = α. Vale allora
51
Figura 6.1: Le radici di un polinomio di quarto grado, privo di radici
reali, sono a coppie complesse coniugate.
52
reali che contenga fattori di grado superiore a due può essere ulterior-
mente raffinata. Quindi vale il seguente:
√ √
π π π 2 2
z0 = ei 4 = cos + i sin = +i ,
4 4 2 2 √
√
3 3 3 2 2
z1 = ei 4 π = cos π + i sin π =− +i ,
4 4 2 2
√ √
5 5 5 2 2
z2 = ei 4 π = cos π + i sin π =− −i = z1 ,
4 4 2 2
√ √
7 7 7 2 2
z3 = ei 4 π = cos π + i sin π = −i = z0 .
4 4 2 2
53
La scomposizione in polinomi a coefficienti reali si ottiene aggregando
le radici coniugate:
x4 + 1 = (x − z0 )(x − z1 )(x − z1 )(x − z0 ) =
= [(x − z0 )(x − z0 )][(x − z1 )(x − z1 )] =
" √ √ ! √ √ !#
2 2 2 2
= x− −i x− +i ·
2 2 2 2
" √ √ ! √ √ !#
2 2 2 2
· x+ −i x+ +i =
2 2 2 2
√ !2 √ !2 √ !2 √ !2
2 2 2 2
= x− − i x+ − i =
2 2 2 2
√ √
1 1 1 1
= x2 + − 2x + x2 + + 2x + =
2 2 2 2
√ √
= (x2 − 2x + 1)(x2 + 2x + 1).
Esercizio 6.7. Esprimere in forma esponenziale α = 1/(−eiθ ), θ ∈ R.
Svolgimento.
1
iθ
= −e−iθ = −(cos(−θ) + i sin(−θ)) = − cos θ + i sin θ.
−e
p
Questo è un numero complesso di modulo (− cos θ)2 + (sin θ)2 = 1.
Il suo argomento ϕ soddisfa a = ρ cos ϕ, b = ρ sin ϕ, cioè
cos ϕ = − cos θ
sin ϕ = sin θ.
Ora
cos(π − θ) = cos π cos θ + sin π sin θ = − cos θ,
sin(π − θ) = sin π cos θ − cos π sin θ = sin θ,
54
da cui un argomento è ϕ = π − θ e α = −e−iθ = ei(π − θ) .
Sommando e moltiplicando, z1 + z2 = 2i e
√ √ 2
√ 2
z1 z2 = [i + (1 − i 2)][i − (1 − i 2)] = i − (1 − i 2) =
√ √
= −1 − 1 + 2 + i2 2 = i2 2.
55
Secondo svolgimento (consigliato). Per ogni equazione az 2 + bz + c = 0
le due radici soddisfano
b c
z1 + z2 = − , z1 z2 = ,
a a
quindi
2 −i
z1 + z2 = − · = 2i,
i √ −i
−2 2 −i √
z1 z2 = · = i2 2.
i −i
56
Lezione 7
√
( 3 − i)13
α= .
(−1 + i)25
√
Svolgimento. Il numero complesso 3 − i√ha modulo 2, argomento θ
soddisfacente l’equazione a = ρ cos θ ⇔ 3 = 2 cos θ√ed è nel quarto
√ −π/6. Invece −1+i ha modulo 2, argomento ϕ
quadrante, quindi θ =
soddisfacente −1 = 2 cos ϕ nel secondo quadrante, quindi ϕ = 3π/4.
57
Ne segue
13
√ −i π √ √
π
2e−i 6 2 13
13
e−i 6 π 2e 6 3
2( − 2i )
2
α = √ 3 25 = 25 75 = 3 = = √ √
i π 2 e i 4 π ei 4 π − 22 + i 22
2e 4 2
√ √ √ √ √ √
6 − i 2 − 2 − i 2 −2 3 − 2 + i(−2 3 + 2)
= √ √ · √ √ = =
−√2 + i 2 −√ 2 − i 2 √ 4
√
− 3 − 1 + i(− 3 + 1) − 3 − 1 − 3+1
= = +i .
2 2 2
Esercizio 7.2. Esprimere in forma algebrica le soluzioni della seguente
equazione nell’incognita complessa z:
iz + 1
z= .
iz − 1
Svolgimento. Sotto la condizione iz−1 6= 0, equivalente a z 6= 1/i = −i,
eliminiamo il denominatore:
iz 2 − z − iz − 1 = 0 ⇔ iz 2 − (1 + i)z − 1 = 0.
58
√ √ √
Svolgimento. Il modulo di α = 2−i √ 2 è ρ = 2 + 2 = 2, l’argomento
è determinato da a = ρ cos
√ θ √⇔ 2 = 2 cos θ con la considerazione
aggiuntiva che il punto ( 2, − 2) è nel quarto quadrante. Si ottiene
θ = −π/4. L’equazione da risolvere è quindi
π 3
3
z = 2e −i 4 = 8e−i 4 π .
59
Siccome in questo caso l’argomento non è un arco noto, applichiamo
la seguente proposizione:
wu0 = 1 + 2i,
√ √ √
−1 + i 3 −1 + i 3 − 2i − 2 3
wu1 = (1 + 2i) = =
√ 2 √ 2
−1 − 2 3 3−2
= +i ,
2 √ 2 √ √
−1 − i 3 −1 − i 3 − 2i + 2 3
wu2 = (1 + 2i) = =
√ 2 √ 2
−1 + 2 3 − 3−2
= +i .
2 2
Esercizio 7.6. Risolvere l’esercizio 7.3 con il metodo dell’esercizio 7.4.
60
Svolgimento. La somma e il prodotto delle soluzioni dell’equazione
az 2 + bz + c = 0 (a 6= 0) sono, rispettivamente, −b/a e c/a. Quindi la
somma delle soluzioni è
2
e−i 3 π
1 1 2 2
2 = = cos − π + i sin − π =
2e i 3 π 2 2 3 3
√ ! √
1 1 3 1 3
= − −i =− −i .
2 2 2 4 4
Il prodotto è
π
−2ei 3 π
π π
2 = −e−i 3 = − cos − + i sin − =
2ei 3 π 3 3
√ ! √
1 3 1 3
=− −i =− +i .
2 2 2 2
61
(b) x = −i non è una soluzione, quindi si può dividere per (x + i)3
e l’equazione equivale a
3
x−2
= i,
x+i
ponendo z = (x − 2)/(x + i) essa si trasforma in z 3 = i, risolta al punto
precedente. Quindi le soluzioni si ottengono da
x−2
= zk , k = 0, 1, 2.
x+i
Per k = 0,
√
x−2 3 i √
= + ⇔ 2x − 4 = (x + i)( 3 + i)
x+i 2 2√ √
⇔ (2 − 3 − i)x = 4 + i 3 − 1.
Ricaviamo dunque
√ √ √ √ √
3+i 3 2 − 3 + i 6 − 3 3 − 3 + i(3 + 2 3 − 3)
x = √ · √ = √ =
2 − √3 − i 2 −√ 3 + i 8 − 4 3
3−2 3 3
= √ +i √ . (7.1)
4−2 3 4−2 3
Stesso procedimento con k = 1:
√
x−2 3 i √
=− + ⇔ 2x − 4 = (x + i)(− 3 + i)
x+i 2 2√ √
⇔ (2 + 3 − i)x = 4 − i 3 − 1.
Ricaviamo
√ √ √ √ √
3 − i 3 2 + 3 + i 6 + 3 3 + 3 + i(3 − 2 3 − 3)
x = √ · √ = √ =
2 + √3 − i 2 +
√ 3 + i 8 + 4 3
3+2 3 3
= √ −i √ . (7.2)
4+2 3 4+2 3
62
Infine, con k = 2,
x−2
= −i ⇔ x − 2 = −ix + 1 ⇔ (1 + i)x = 3
x+i
3 1−i 3 3
⇔ x= · = −i . (7.3)
1+i 1−i 2 2
Le soluzioni cercate sono (7.1), (7.2) e (7.3).
63
Osservazione 7.10. Volendo proprio trovare la scomposizione di P (z),
si può dividere P (z) per z − α, poi il quoziente ancora per z − α. La
divisione per z − (−1 − i) si rappresenta come segue:
1 1 1 0 2
−1 − i −1 − i −1 + i 1 − i −2
1 −i i 1 − i //
da cui (z 4 + z 3 + z 2 + 2) : [z − (−1 − i)] = z 3 − iz 2 + iz + 1 − i. Ora
dividiamo il quoziente z 3 − iz 2 + iz + 1 − i per z − (−1 + i):
−i1 i 1−i
−1 + i −1 + i 1 − i −1 + i
1 −1 1 //
Quindi (z 3 − iz 2 + iz + 1 − i) : [z − (−1 + i)] = z 2 − z + 1. Concludendo,
P (z) = (z 2 + 2z + 2)(z 2 − z + 1).
Esercizio 7.11. (a) Trovare il valore del numero complesso α tale che
il polinomio P (z) = z 4 − 4z 3 + 11z 2 − 14z + α ammetta 1 − 2i come
radice. (b) Per tale valore di α esprimere in forma algebrica le altre
radici di P (z).
Svolgimento. (a) Supponiamo che β = 1 − 2i sia una radice: quindi
P (z) è divisibile per z − β. Calcoliamo il quoziente della divisione:
1 −4 11 −14 α
1 − 2i 1 − 2i −7 + 4i 12 − 4i −10
1 −3 − 2i 4 + 4i −2 − 4i //
Quindi α = 10.
(b) Essendo il polinomio a coefficienti reali, un’altra radice è β =
1 + 2i. Dividendo il quoziente della precedente divisione:
1 −3 − 2i 4 + 4i −2 − 4i
1 + 2i 1 + 2i −2 − 4i 2 + 4i
1 −2 2 //
64
Vale quindi P (z) = (z − 1√+ 2i)(z − 1 − 2i)(z 2 − 2z + 2). Il polinomio
z 2 − 2z + 2 ha radici 1 ± −1 = 1 ± i. Concludendo, le quattro radici
sono 1 ± 2i e 1 ± i.
Esercizio 7.12. Scomporre il polinomio P (z) = z 4 − 2z 2 + 4 nel
prodotto di polinomi a coefficienti reali irriducibili.
Esercizio 7.13. Esprimere in forma algebrica le soluzioni della se-
guente equazione nell’incognita complessa z:
3
1 + i
z3 = √ .
3+i
Esercizio 7.14. Esprimere in forma algebrica il numero complesso
1
α= 100 .
π π
− cos 12 + i sin 12
65
66
Lezione 8
Spazi vettoriali
Cos’è un vettore?
≈ = {(x, y) ∈ Z × Z | ∃k ∈ Z : x − y = 2k}.
Risulta: 13 ≈ 7, 18 6≈ 7, −1 ≈ 7, . . .
1
Si legge “tilde”.
67
Definizione 8.4. Una relazione ∼ in un insieme A si dice relazione
d’equivalenza se soddisfa le seguenti proprietà:
(i) riflessiva, ∀x ∈ A : x ∼ x,
[x]∼ = {y ∈ A | y ∼ x}.
0 6≈ 7, 1 ≈ 7, 2 6≈ 7, 3 ≈ 7, . . . , −1 ≈ 7, −2 6≈ 7, . . .
68
Proposizione 8.11. Sia ∼ una relazione d’equivalenza in un insieme
A e x, y ∈ A. Se x ∼ y, allora [x]∼ = [y]∼ ; se invece x ∼
6 y, allora
[x]∼ ∩ [y]∼ = ∅.
C −1 AC = B. (8.1)
69
(iii) Consideriamo A, B, D ∈ M(n × n, K) tali che A ∼ B e B ∼ D;
cioè valgono la (8.1) e
E −1 BE = D, (8.2)
dove E ∈ M(n × n, K) è invertibile. Sostituiamo B = C −1 AC nella
(8.2):
E −1 C −1 ACE = D ⇒ (CE)−1 A(CE) = D
da cui A ∼ D.
Suggerimento.
Applicare
la def. (8.1) nella sua forma equivalente: AC =
x y
CB dove C = è invertibile.
z t
70
Un segmento orientato è anche detto vettore applicato, ma non si
tratta di un vettore nel senso che preciseremo.
Osservazione 8.17. (P, Q) = (Q, P ) se, e solo se, P = Q.
71
Figura 8.3: Un vettore è un insieme di infiniti segmenti orientati
equipollenti.
(x1 , x2 , . . . , xn ), xi ∈ R, i = 1, 2, . . . , n. (8.3)
72
Definiamo ora delle operazioni in Rn . Fissiamo
v = (x1 , x2 , . . . , xn ), w = (y1 , y2 , . . . , yn ) ∈ Rn .
73
4) ω : K × V → V è una funzione detta prodotto esterno; useremo la
notazione hv per ω(h, v);
74
Come vettore nullo definiamo la funzione costante
0 : R → R : x 7→ 0
e il vettore opposto di f ∈ RR è
−f : R → R : x 7→ −f (x).
75
76
Lezione 9
Sottospazi
Cosa si può dire a priori dell’insieme delle soluzioni del seguente si-
stema di equazioni?
x+y−z = 0
2x − y − z = 0
−3y + z = 0.
77
Definizione 9.2. Consideriamo v, w ∈ V e un punto P arbitrario.
−→
Allora esistono e sono unici due punti Q e R tali che v = P Q e w =
−→ −→
P R. Si definisce la somma v + w = P S, dove S è tale che P QSR sia
un parallelogramma.
−→
Osservazione 9.3. Posto 0 = P P , vale v + 0 = v, ∀v ∈ V.
−→
Definizione 9.4. Sia v = P Q ∈ V e h ∈ R. Se v = 0 si pone hv = 0.
−→
Se v 6= 0, si pone hv = P T , dove T è il punto della retta P Q che ha
ascissa h nel sistema di riferimento in cui P è origine e Q ha ascissa 1.
78
Esempio 9.5. Lo spazio vettoriale dei vettori geometrici ha come in-
sieme di vettori V l’insieme V dei vettori geometrici (cfr. def. 8.20),
come insieme degli scalari R, come operazioni e vettore nullo ciò che è
stato definito sopra.
(i) 0∈W
(9.1)
(ii) ∀h, k ∈ K : ∀u, v ∈ W : hu + kv ∈ W.
79
Svolgimento. (i) Il vettore nullo di R2 è (0, 0) = (x, 0) per x = 0; quindi
(0, 0) ∈ W1 .
(ii) Consideriamo h, k ∈ R e u, v ∈ W1 . Per definizione di W1 esistono
x, y ∈ R tali che u = (x, 0), v = (y, 0). Ne segue: hu + kv = (hx, 0) +
(ky, 0) = (hx + ky, 0). Tale vettore appartiene a W1 .
Conclusione: per W = W1 valgono le (9.1), quindi W1 è un sottospazio.
hu + kv = (hx + kx0 , hy + ky 0 ).
80
Per decidere se tale vettore è in W3 , calcolo
W = {T ∈ M(3 × 1, R) | AT = O3×1 }
81
Proposizione 9.14. Siano W1 e W2 due sottospazi di uno spazio
vettoriale VK . Allora W1 ∩ W2 è un sottospazio di VK .
82
Lezione 10
83
k = −1 si ha 1(u + v) + (−1)u ∈ W1 , da cui1 u + v − u ∈ W1 quindi
v ∈ W1 : assurdo. Se u + v ∈ W2 , dalla definizione di sottospazio e
da v ∈ W2 segue 1(u + v) + (−1)v ∈ W2 quindi u ∈ W2 : assurdo.
Supponendo che W1 ∪ W2 sia un sottospazio si ottiene in ogni caso una
contraddizione.
Stiamo cercando un sottospazio di VK che contenga l’unione W1 ∪
W2 di due sottospazi e che sia per quanto possibile “piccolo”. La
soluzione proviene dalla seguente:
Definizione 10.2. Siano W1 e W2 sottospazi di uno spazio vettoriale
VK . La somma di W1 e W2 è
W1 + W2 = {w1 + w2 | w1 ∈ W1 , w2 ∈ W2 }. (10.2)
La seguente proposizione esprime il fatto che W1 + W2 è il più
piccolo sottospazio di VK che contiene W1 ∪ W2 .
Proposizione 10.3. Siano W1 e W2 sottospazi di uno spazio vettoriale
VK . Allora
1
In realtà non abbiamo mai dimostrato che (−1)u = −u, ma daremo per scontate questa ed
altre proprietà “intuitive” degli spazi vettoriali, che in un’esposizione completa dovrebbero essere
dimostrate a partire dalla def. 8.33.
84
1) W1 + W2 è un sottospazio di VK ;
2) W1 ∪ W2 ⊆ W1 + W2 ;
3) Se T è un sottospazio di VK e W1 ∪ W2 ⊆ T , allora W1 + W2 ⊆ T .
Poniamo w100 = hw1 +kw10 e w200 = hw2 +kw20 . Vale hu+kv = w100 +w200 ,
inoltre w100 ∈ W1 perché per ipotesi W1 è un sottospazio e analogamente
w200 ∈ W2 . Resta dimostrato che hu + kv ∈ W1 + W2 , quindi W1 + W2
è un sottospazio.
2) Dimostriamo innanzitutto che W1 ⊆ W1 + W2 . Consideriamo un
qualsiasi w1 ∈ W1 . Dalla (10.2), con w2 = 0 ∈ W2 , ricaviamo che
w1 = w1 + w2 ∈ W1 + W2 e questo basta. Analogamente si prova che
W2 ⊆ W1 + W2 . Ne segue la tesi.
3) Consideriamo un qualsiasi v ∈ W1 + W2 . Per def. (10.2) esistono
w1 ∈ W1 , w2 ∈ W2 tali che v = w1 + w2 . Dall’ipotesi W1 ∪ W2 ⊆
T deduciamo w1 , w2 ∈ T . Per ipotesi T è un sottospazio, quindi
w1 + w2 ∈ T , cioè v ∈ T . Resta dimostrato che W1 + W2 ⊆ T .
85
precisamente quelli contenenti
W1 + W2 = {w1 + w2 | w1 ∈ W1 , w2 ∈ W2 } =
= {(x, 0, 0) + (0, y, y) | x, y ∈ R} = (10.3)
= {(x, y, y) | x, y ∈ R}.
86
e w1 + w2 = w10 + w20 . Siccome per ipotesi la somma è diretta, vale
w1 = w10 da cui v = 0 (2 ). Resta dimostrato che W1 ∩ W2 = {0}.
“⇐” Supponiamo
Definiamo
u = w1 − w10 . (10.6)
Risulta u ∈ W1 . Inoltre da (10.5), (10.6) segue
u = w20 − w2 , (10.7)
W1 ∩ W2 = {(x, 0, 0) | x ∈ R} ∩ {(0, y, y) | y ∈ R} =
= {(0, 0, 0)},
87
(b)
U = {(x, y, z) ∈ R3 | x = 0} = {(0, y, z) | y, z ∈ R}.
Vale W1 ∩ U = {(0, 0, 0)}, quindi la somma è diretta. Poi
88
Lezione 11
Dipendenza lineare
89
Esempio 11.3. La definizione di sottospazio può essere riformulata
come segue: un insieme W di vettori in uno spazio vettoriale VK è un
sottospazio se, e solo se, (i) 0 ∈ W , (ii) comunque presi u, v ∈ W ,
ogni combinazione lineare di u e v appartiene a W .
Problema: è possibile esprimere uno dei tre vettori w1 , w2 e w3
come combinazione lineare degli altri due?
Definizione 11.4. Data una famiglia di vettori F = v1 , v2 , . . . , vr in
uno spazio vettoriale VK , la famiglia F si dice linearmente dipenden-
te (oppure, “i vettori v1 , v2 , . . . , vr sono linearmente dipendenti”) se
esistono scalari x1 , x2 , . . . , xr , non tutti nulli, tali che
x1 v1 + x2 v2 + · · · + xr vr = 0. (11.2)
Se F non è linearmente dipendente, F si dice linearmente indipen-
dente. Quindi una famiglia di vettori linearmente indipendente è una
famiglia F = v1 , v2 , . . . , vr tale che la relazione (11.2) vale solo se
x1 = x2 = . . . = xr = 0.
Esercizio 11.5. Stabilire se la famiglia G = w1 , w2 , w3 è linearmente
dipendente.
Svolgimento. Per definizione, G è linearmente dipendente se, e solo
se, l’equazione x1 w1 + x2 w2 + x3 w3 = 0 nelle incognite x1 , x2 , x3
ha almeno una soluzione diversa da x1 = x2 = x3 = 0. Risolvo:
x1 (1, 2, 0) + x2 (1, −1, −3) + x3 (−1, −1, 1) = (0, 0, 0) ⇔ (x1 + x2 −
x3 , 2x1 − x2 − x3 , −3x2 + x3 ) = (0, 0, 0) ⇔
x1 + x2 − x3 = 0 x1 − 2x2 = 0
2x1 − x2 − x3 = 0 ⇔ 2x1 − 4x2 = 0
−3x2 + x3 = 0 x3 = 3x2 .
90
Definizione 11.6. Data una famiglia F = v1 , v2 , . . . , vr (finita, non
vuota) di vettori in uno spazio vettoriale VK , il sottospazio generato da
F è
91
(i) hFi ⊆ hF 0 i;
u = x1 v1 + x2 v2 + · · · + xr vr + 0vr+1 + · · · + 0vs .
x1 v1 + x2 v2 + · · · + xr vr + 0vr+1 + · · · + 0vs = 0.
92
3) Dal teor. 11.10 (ii), facendovi F = 0, si deduce che se una famiglia
F 0 contiene 0, allora F 0 è linearmente dipendente.
4) Consideriamo un qualsiasi v ∈ V e la famiglia F = v1 , v2 definita
ponendo v1 = v2 = v. Siccome 1v1 + (−1)v2 = 0, la famiglia F è
linearmente dipendente.
5) Dal teor. 11.10 (ii) e dall’osservazione precedente otteniamo che se
una famiglia di vettori contiene dei vettori ripetuti, essa è linearmente
dipendente.
2w1 + w2 + 3w3 = 0
v1 , v2 , . . . , vj−1 , vj+1 , . . . , vr .
93
“⇐” Esiste per ipotesi un intero s, 1 ≤ s ≤ r, tale che vs sia combi-
nazione lineare dei vettori rimanenti in F; dunque esistono y1 , y2 , . . . , ys ,
ys+1 , . . ., yr ∈ K tali che
Se ne deduce
94
Lezione 12
Xr
hFi = { xi vi | x1 , x2 , . . . , xr ∈ K}.
i=1
95
Esercizio 12.1. Siano dati i seguenti vettori di R3 :
W = hw1 , w2 , w3 i
96
Esempio 12.4. Verifichiamo che la famiglia N = e1 , e2 , e3 , dove e1 =
(1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), è una base di R3 . Infatti:
1) Verifichiamo che N è una famiglia di generatori di R3 , il che significa
hN i = R3 :
hN i = {xe1 + ye2 + ze3 | x, y, z ∈ R} =
= {(x, 0, 0) + (0, y, 0) + (0, 0, z) | x, y, z ∈ R} = {(x, y, z) | x, y, z ∈ R}
= R3 .
2) Consideriamo l’equazione xe1 + ye2 + ze3 = 0 che con gli stessi
calcoli equivale a (x, y, z) = (0, 0, 0), ovvero a x = y = z = 0. Ciò
implica che N è linearmente indipendente.
Definizione 12.5. La base naturale (o base canonica) di Rn è Nn =
N = e1 , e2 , . . . , en , dove e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . .,
en = (0, 0, 0, . . . , 1).
Esercizio 12.6. Stabilire se F = (1, 0, 0), (0, 1, 0), (1, 1, 1) è una base
di R3 .
Svolgimento. 1) Stabilisco se hFi = R3 , cioè se ogni (a, b, c) ∈ R3 risulta
combinazione lineare di F, cioè ancora se l’equazione nelle incognite
x, y, z
x(1, 0, 0) + y(0, 1, 0) + z(1, 1, 1) = (a, b, c)
ha soluzione per ogni a, b, c ∈ R. Ottengo (x + z, y + z, z) = (a, b, c)
x+z = a x = a−c
⇔ y+z = b ⇔ y = b−c
z = c z = c.
97
Quindi F è linearmente indipendente.
Conclusione: F è una base di R3 .
Proposizione 12.7. Se la famiglia B = v1 , v2 , . . . , vn è una base del-
lo spazio vettoriale VK , allora ogni vettore u ∈ V si esprime come
combinazione lineare di B:
u = x1 v1 + x2 v2 + · · · + xn vn . (12.1)
x1 v1 + x2 v2 + · · · + xn vn = u = y1 v2 + y2 v2 + · · · + yn vn .
98
Esercizio 12.9. Trovare le coordinate del vettore u = (1, 2, 3) di R3
(a) rispetto alla base naturale N = e1 , e2 , e3 , (b) rispetto alla base B
dell’esercizio 12.6.
x1 v1 + x2 v2 + · · · + xn vn = 0. (12.2)
Vale:
0v1 + 0v2 + · · · + 0vn = 0. (12.3)
99
Le (12.2) e (12.3) esprimono entrambe 0 come combinazione lineare
di F. Per ipotesi tali combinazioni lineari hanno gli stessi coefficien-
ti, quindi x1 = 0, x2 = 0, . . ., xn = 0. Resta dimostrato che F è
linearmente indipendente.
W = hw1 , w2 , w3 i = hw2 , w3 i.
hv1 , v2 , . . . , vr i = V.
100
Se F è linearmente indipendente, allora soddisfa la definizione di base
e non c’è altro da dimostrare. Se al contrario F è linearmente dipen-
dente e, per fissare le idee, vr è combinazione lineare degli altri vettori
di F, allora per il teorema 12.2 vale hv1 , v2 , . . . , vr−1 i = V . Se la fa-
miglia v1 , v2 , . . . , vr−1 è linearmente indipendente, allora è una base;
altrimenti si può togliere un ulteriore vettore. Togliendo al massimo
tutti i vettori si arriva a ∅, che è linearmente indipendente; quindi pri-
ma o poi si raggiunge una famiglia linearmente indipendente, che è una
base di VK .
√ √
Compito 12.16. La famiglia B = (1, 2, 0), (3, 4, 0), ( 2, 3, 0) è una
base di R3 ?
101
102
Lezione 13
Concetto di dimensione
103
u1 , u2 , . . . , ur una famiglia linearmente indipendente in VK . Allora
r ≤ m. Inoltre in F è possibile scegliere m − r vettori vi1 , vi2 , . . .,
vim−r in modo che
hu1 , u2 , . . . , ur , vi1 , vi2 , . . . , vim−r i = V. (13.1)
V = hu1 , v2 , v3 , . . . , vm i = hu1 , u2 , v2 , v3 , . . . , vm i
= hu1 , u2 , v3 , . . . , vm i.
V = hu1 , u2 , . . . , um i;
Risposta alla domanda iniziale. Una base di R3 è N = (1, 0, 0), (0, 1, 0),
(0, 0, 1). Siccome R3 ammette questa famiglia di tre generatori, ogni fa-
miglia linearmente indipendente in R3 ha non più di tre vettori. Quindi
non esiste una famiglia con la proprietà richiesta. (L’idea alla base della
risposta verrà generalizzata nella prop. 13.4.)
105
Teorema 13.2. Sia B = v1 , v2 , . . . , vm una base finita di uno spazio
vettoriale VK . Allora ogni altra base di VK è composta dallo stesso
numero, m, di vettori.
106
Teorema 13.5 (Teorema di completamento della base). Sia B =
v1 , v2 , . . . , vn una base di uno spazio vettoriale VK e G = u1 , u2 , . . . , ur
una famiglia linearmente indipendente di vettori in VK . Allora in B si
possono prendere n − r vettori che, aggregati a G, formino una base di
VK .
107
Svolgimento. (a) La famiglia F = v1 , v2 è linearmente indipendente.
Per il teorema di completamento della base, da ogni base di R3 è pos-
sibile estrarre n − r = 3 − 2 = 1 vettore v tale che v1 , v2 , v sia una
base di R3 . La risposta è quindi affermativa.
(b) Il vettore v può essere scelto in
N = e1 , e2 , e3 = (1, 0, 0), (0, 1, 0), (0, 0, 1).
Stabilisco se F1 = v1 , v2 , e1 è una base di R3 . Studio la dipendenza
lineare di F1 , risolvendo:
xv1 + yv2 + ze1 = 0 ⇔ x(1, 1, 1) + y(1, 2, 2) + z(1, 0, 0) = (0, 0, 0)
x+y+z = 0
⇔ (x + y + z, x + 2y, x + 2y) = (0, 0, 0) ⇔
x + 2y = 0.
Tra le soluzioni, il sistema ha anche x = −2, y = 1, z = 1, quindi F1
è linearmente dipendente e non è una base.
Stabilisco allora se F1 = v1 , v2 , e2 è una base di R3 . Studio la
dipendenza lineare di F2 , risolvendo:
xv1 + yv2 + ze2 = 0 ⇔ x(1, 1, 1) + y(1, 2, 2) + z(0, 1, 0) = (0, 0, 0)
x+y = 0
⇔ (x + y, x + 2y + z, x + 2y) = (0, 0, 0) ⇔ x + 2y + z = 0
x + 2y = 0
y = −x
⇔ −x + z = 0 ⇔ x = y = z = 0.
−x = 0
108
Lezione 14
W1 + W2 = {w1 + w2 | w1 ∈ W1 , w2 ∈ W2 } = W1 = W2 ,
109
Proposizione 14.2. Siano W1 e W2 sottospazi di uno spazio vetto-
riale VK ; siano, inoltre, G1 e G2 due famiglie di generatori di, rispet-
tivamente, W1 e W2 . Allora G1 ∪ G2 è una famiglia di generatori di
W1 + W2 .
G1 = v1 , v2 , . . . , vr , G2 = u1 , u2 , . . . , us .
W1 = {x1 v1 + x2 v2 + · · · + xr vr | x1 , x2 , . . . , xr ∈ K},
W2 = {y1 u1 + y2 u2 + · · · + ys us | y1 , y2 , . . . , ys ∈ K}.
Ne segue
W1 + W2 = {w1 + w2 | w1 ∈ W1 , w2 ∈ W2 } =
= {x1 v1 + · · · + xr vr + y1 u1 + · · · + ys us | x1 , . . . , ys ∈ K} =
= hG1 ∪ G2 i.
110
Una risposta precisa al problema è data dalla seguente formula di
Grassmann valida per due sottospazi qualsiasi W1 e W2 di dimensioni
finite di uno spazio vettoriale VK , che enunciamo senza dimostrazione:
W1 = {(0, x, y, z) ∈ R4 | x + y + z = 0},
W2 = h(1, 0, 0, 1), (1, 1, −1, 1), (1, 2, −2, 1)i,
(a) W1 = {(0, x, y, −x − y) | x, y ∈ R} =
= {(0, x, 0, −x) + (0, 0, y, −y) | x, y ∈ R} =
= {x(0, 1, 0, −1) + y(0, 0, 1, −1) | x, y ∈ R} =
= h(0, 1, 0, −1), (0, 0, 1, −1)i.
111
Una base di W1 è B = (0, 1, 0, −1), (0, 0, 1, −1).
Ora studio la dipendenza lineare della seguente famiglia di genera-
tori di W2 :
F = (1, 0, 0, 1), (1, 1, −1, 1), (1, 2, −2, 1),
risolvendo
x(1, 0, 0, 1) + y(1, 1, −1, 1) + z(1, 2, −2, 1) = 0
⇔ (x + y + z, y + 2z, −y − 2z, x + y + z) = (0, 0, 0, 0)
x+y+z = 0
y + 2z = 0 x = −y − z = z
⇔ ⇔
−y − 2z = 0 y = −2z
((((
x(
( +y+z = 0
che ha come soluzione, per esempio, x = 1, y = −2, z = 1. Quindi F
è linearmente dipendente e (1, 2, −2, 1) = −(1, 0, 0, 1) + 2(1, 1, −1, 1).
Ne deduco W2 = h(1, 0, 0, 1), (1, 1, −1, 1)i. Una base di W2 è B2 =
(1, 0, 0, 1), (1, 1, −1, 1). Per la prop. 14.2, una famiglia di generatori di
W1 + W2 è B1 ∪ B2 . Studio la dipendenza lineare di B1 ∪ B2 , risolvendo:
x(0, 1, 0, −1) + y(0, 0, 1, −1) + z(1, 0, 0, 1) + t(1, 1, −1, 1) = (0, 0, 0, 0)
⇔ (z + t, x + t, y − t, −x − y + z + t) = (0, 0, 0, 0)
z+t = 0
z = −t
x+t = 0
⇔ ⇔ x = −t
y − t = 0
y = t.
−x − y + z + t = 0
112
Ne segue W1 + W2 = h(0, 1, 0, −1), (0, 0, 1, −1), (1, 0, 0, 1)i. Studio
ora la dipendenza lineare di G = (0, 1, 0, −1), (0, 0, 1, −1), (1, 0, 0, 1),
risolvendo
113
Figura 14.1: I vettori i, j, k.
da cui deduciamo
−−→ −−→ −−→
P1 P2 = OP2 − OP1 = (x2 − x1 )i + (y2 − y1 )j + (z2 − z1 )k,
114
Figura 14.2: Equazione (14.2).
115
Esercizio 14.10. Dati i seguenti sottospazi di M(2 × 2, R): W1 =
hA, Bi; W2 = hC, Di dove
1 0 1 −1 0 1
A= , B= , C= , D = AB,
2 −1 0 −1 0 0
1 −1
Svolgimento. In primo luogo D = AB = .
2 −1
(a) A, B sono linearmente indipendenti, quindi una base di W1 è B1 =
A, B. Analogamente una base di W2 è B2 = C, D. Una famiglia di
generatori di W1 + W2 è B1 ∪ B2 . Ne studiamo la dipendenza lineare,
risolvendo l’equazione
x + y + t −y + z − t 0 0
xA + yB + zC + tD = O2×2 ⇔ =
2x + 2t −x − y − t 0 0
x+y+t = 0
z = t
−y + z − t = 0
⇔ x = −t
2x + 2t = 0
y = 0.
−x − y − t = 0
116
Studiamo ora la dipendenza lineare della famiglia B, C, D:
y + t −yz − t 0 0
yB + zC + tD = O2×2 ⇔ =
2t −y − t 0 0
y+t = 0
−y + z − t = 0
⇔ y = z = t = 0.
2t = 0
−y − t = 0
118
Compito 14.12. Esistono due sottospazi W1 e W2 di R3 aventi cia-
scuno dimensione due e tali che W1 + W2 = R3 ? La loro somma è
diretta?
119
120
Lezione 15
Funzioni lineari
121
Svolgimento. Considero h ∈ R, v, v0 ∈ R2 , v = (x, y), v0 = (x0 , y 0 ).
Verifico le (15.1):
Quindi L è un isomorfismo.
Osservazione 15.5. Due spazi vettoriali isomorfi sono “essenzialmen-
te uguali”. Ciò significa che se si identificano gli elementi di V con gli
123
Quindi K n = M(n × 1, K). Ad esempio
7
(7, 8, 9) = 8 .
9
v = x1 v1 + x2 v2 + · · · + xn vn , (15.2)
xn
124
Proposizione 15.10. La funzione χB è un isomorfismo.
125
Definizione 15.12. Il nucleo di una funzione lineare L : V → W è
(15.1)(i)
(i) L(0V ) = L(00V ) = 0L(0V ) = 0W , perché 0w = 0W per ogni
w ∈ W . Resta dimostrato che 0V ∈ ker L.
(ii) Consideriamo h, k ∈ K e u, u0 ∈ ker L. Vale:
(15.1)(ii) (15.1)(i)
L(hu + ku0 ) = L(hu) + kL(u0 ) = hL(u) + kL(u0 ).
Svolgimento.
126
Risolvo il sistema
2x = 0
y = 0 ⇔ x = y = 0.
x−y = 0
127
Svolgimento. (a) Osservo che se f è lineare e soddisfa (15.4), vale
∀x, y, z ∈ R:
(15.1)(ii)
f (x, y, z) = f (x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)) =
(15.1)(i)
= f (x(1, 0, 0)) + f (y(0, 1, 0)) + f (z(0, 0, 1)) =
= xf (1, 0, 0) + yf (0, 1, 0) + zf (0, 0, 1) =
= x(1, 2) + y(3, 4) + z(1, 0) =
= (x + 3y + z, 2x + 4y). (15.5)
128
Lezione 16
129
Vale:
def. di L
L(hv) = L(hx1 v1 + hx2 v2 + · · · + hxn vn ) =
= hx1 w1 + hx2 w2 + · · · + hxn wn ,
hL(v) = h(x1 w1 + x2 w2 + · · · + xn wn ) = L(hv);
L(v + v0 ) = L((x1 + x01 )v1 + (x2 + x02 )v2 + · · · + (xn + x0n )vn ) =
= (x1 + x01 )w1 + (x2 + x02 )w2 + · · · + (xn + x0n )wn ,
L(v) + L(v0 ) = (x1 w1 + x2 w2 + · · · + xn wn ) +
+ (x01 w1 + x02 w2 + · · · + x0n wn ) = L(v + v0 ).
130
w2 = (3, 4), w3 = (1, 0), otteniamo che esiste un’unica f : R3 → R2
lineare tale che f (vi ) = wi , i = 1, 2, 3.
Esercizio 16.3. Quante sono le funzioni lineari f : R3 → R2 soddi-
sfacenti le condizioni f (1, 0, 0) = (1, 2), f (0, 1, 0) = (3, 4)?
Svolgimento. Consideriamo un qualsiasi vettore u ∈ R2 . Dal teorema
16.1 deduco che esiste un’unica funzione lineare fu : R3 → R2 tale che
FA : K n → K m : X 7→ AX. (16.2)
131
2 0
Svolgimento. La funzione f è lineare perché f = FA dove A = 0 1 .
1 −1
Infatti
2x
x x
F A : R2 → R3 : 7→ A = y = (2x, y, x − y).
y y
x−y
Quindi
FA (ej ) = Aj , j = 1, 2, . . . , n. (16.4)
Dalla (16.4) discendono due conseguenze notevoli.
1) Se A, B ∈ M(m × n, K) e A 6= B, quindi Aj 6= B j per almeno un
j, allora FA (ej ) 6= FB (ej ), da cui FA 6= FB .
2) Ogni L : K n → K m , lineare, è associata ad una matrice, infatti:
definiamo A ∈ M(m × n, K), ponendo
Aj = L(ej ), j = 1, 2, . . . , n.
(16.4)
Risulta, per ogni j, FA (ej ) = Aj = L(ej ). Le funzioni FA e L
assumono gli stessi valori sulla base N = e1 , e2 , . . . , en . Per il teorema
16.1, FA = L.
Riassumendo, abbiamo dimostrato quanto segue:
132
Teorema 16.8. Associando ad ogni matrice A ∈ M(m × n, K) la
funzione lineare FA : K n → K m : X 7→ AX, si ottiene una corri-
spondenza biunivoca tra M(m × n, K) e l’insieme di tutte le funzioni
lineari K n → K m .
133
V → W . Più precisamente, tramite quegli isomorfismi, la funzione FA
definita in (16.2) corrisponde ad L : V → W che rende commutativo
il diagramma
L
V W
χB χB 0
FA
Kn Km
cioè percorrendolo nei due modi diversi si ottiene la stessa funzione.
In altri termini, L = χ−1
B 0 ◦ FA ◦ χB . Quindi L soddisfa l’equazione
che equivale a
YL(v) = AXv , v ∈ V. (16.5)
Ogni vettore vj della base B (j = 1, 2, . . . , n) ha coordinate tutte “0”
a parte la j-esima che vale uno; quindi Xvj = ej e dunque dalle (16.3),
(16.5) si deduce YL(vj ) = Aj . Quest’ultima equazione individua uni-
vocamente la matrice di partenza. Introduciamo una nuova notazione
per enfatizzare il fatto che la matrice A è associata ad L, rispetto alle
basi B e B 0 :
YL(v) = AL B B0 Xv , v ∈ V. (16.7)
134
Osservazione 16.11. Nel caso particolare in cui VK = K n , WK = K m
e le basi B = N , B 0 = N 0 sono naturali, valgono le equazioni Xv = v e
Yw = w per cui le (16.6) e (16.7) equivalgono alle equazioni precedenti
(16.4) e (16.2).
f : R2 → R3 : (x, y) 7→ (2x, y, x − y)
e B = (1, 1), (1, −1), B 0 = (1, 0, 0), (1, 1, 0), (1, 1, 1).
5 1
(2, 3) = x(1, 1) + y(1, −1) ⇒ x = , y = − .
2 2
135
5/2
quindi Xv = . Dalla (16.7):
−1/2
1 3 1
5/2
Yf (v) = 1 −3
= 4 .
−1/2
0 2 −1
136
Lezione 17
137
Osservazione 17.3. La (17.1) giustifica la definizione di prodotto
tra matrici. Infatti, essa asserisce che nella corrispondenza biunivo-
ca tra funzioni lineari e matrici, la composizione di funzioni lineari
corrisponde al prodotto di matrici.
Yv = Aid B B0 Xv . (17.3)
La (17.3) esprime la relazione tra le colonne delle coordinate di un
medesimo vettore v rispetto a due basi B e B 0 di VK . Per questo motivo
la matrice Aid B B0 si chiama matrice di cambiamento di coordinate (o
di cambiamento di base).
(i) Aid B B = In ;
0
(ii) Aid B B0 è invertibile e la sua inversa è Aid B B .
Dimostrazione. Poniamo B = v1 , v2 , . . . , vn .
(i) Per la (17.2),
0
..
.
B j
Aid B = Yvj = Xvj = 1 ,
..
.
0
1
Scriveremo id invece di idV , per semplicità.
138
dove l’“1” nell’ultima colonna è sulla j-esima riga (j = 1, 2, . . . , n).
(ii) Applichiamo la (17.1) con G = F = id e B = B 00 :
0
Aid B B = Aid B B Aid B B0 ,
quindi
0
In = Aid B B Aid B B0 ,
da cui la tesi.
B = (0, 0, 2), (1, 2, 1), (1, 1, 2); B 0 = (0, 1, 1), (1, 0, 1), (1, 1, 0),
da cui il sistema
y+z = 0 y = −z
x+z = 0 ⇔ x = −z
x+y = 2 −2z = 2.
e ottengo
1 1 1 1 0
(17.3)
Yv = 1 0 1 0 = 0 .
−1 1 0 −1 −1
140
17.2 Il teorema delle dimensioni
quindi hu + ku0 ∈ im L.
141
Teorema 17.8. Siano VK e WK spazi vettoriali e L : V → W una
funzione lineare. Se hv1 , v2 , . . . , vr i = V , allora
hL(v1 ), L(v2 ), . . . , L(vr )i = im L.
Dimostrazione. Per ipotesi
V = {x1 v1 + x2 v2 + · · · + xr vr | x1 , x2 , . . . , xr ∈ K}.
Per definizione,
im L = {L(x1 v1 + x2 v2 + · · · + xr vr ) | x1 , x2 , . . . , xr ∈ K} =
= {x1 L(v1 ) + x2 L(v2 ) + · · · + xr L(vr ) | x1 , x2 , . . . , xr ∈ K} =
= hL(v1 ), L(v2 ), . . . , L(vr )i.
142
Dimostrazione. Poniamo n = dim VK . Una base di ker L è una fami-
glia linearmente indipendente di vettori in VK , quindi è composta da
r ≤ n vettori. Denotiamo con G = u1 , u2 , . . . , ur una base di ker L.
Per il teorema di completamento della base, esistono n − r vettori
v1 , v2 , . . . , vn−r ∈ V tali che B = u1 , u2 , . . . , ur , v1 , v2 , . . . , vn−r sia
una base di VK . Ci proponiamo di dimostrare che F = L(v1 ), L(v2 ),
. . ., L(vn−r ) è una base di im L; ne seguirà
che è la tesi.
1) La famiglia F è una famiglia di generatori di im L, infatti:
im L = {L(v) | v ∈ V } =
= {L(x1 u1 + x2 u2 + · · · + xr ur + y1 v1 + · · · + yn−r vn−r ) |
x1 , x2 , . . . , xr , y1 , y2 , . . . , yn−r ∈ K} =
= {x1 L(u1 ) + · · · + xr L(ur ) + y1 L(v1 ) + · · · + yn−r L(vn−r ) |
x1 , x2 , . . . , xr , y1 , y2 , . . . , yn−r ∈ K}.
143
seguente equazione nelle incognite z1 , z2 , . . . , zn−r :
z1 L(v1 ) + z2 L(v2 ) + · · · + zn−r L(vn−r ) = 0W
⇔ L(z1 v1 + z2 v2 + · · · + zn−r vn−r ) = 0W
⇔ z1 v1 + z2 v2 + · · · + zn−r vn−r ∈ ker L
⇔ ∃a1 , a2 , . . . , ar ∈ K :
z1 v1 + z2 v2 + · · · + zn−r vn−r = a1 u1 + a2 u2 + · · · + ar ur
⇔ ∃a1 , a2 , . . . , ar ∈ K :
−a1 u1 − a2 u2 − · · · − ar ur + z1 v1 + z2 v2 + · · · + zn−r vn−r = 0V
⇔ (sfruttando l’indipendenza di B) z1 = z2 = . . . = zn−r = 0.
Risposta alla domanda iniziale. Supponiamo che una tale f esista. Es-
sendo f iniettiva, vale ker f = {0V }, che implica dim ker f = 0. Per il
teorema delle dimensioni, dim im f = dim R3 − dim ker f = 3. Quindi
una base di im f ha tre vettori, diciamo v1 , v2 , v3 . Ma in R3 ogni
famiglia linearmente indipendente di tre vettori è necessariamente una
base; quindi im f = hv1 , v2 , v3 i = R3 e f è suriettiva. Se ne deduce
che non esistono funzioni con le proprietà richieste.
144
è una base di VK , allora L(F) = L(v1 ), L(v2 ), . . ., L(vn ) è una base
di im L.
145
146
Lezione 18
147
La risposta alla seconda domanda è no; per confutarla, consideria-
mo il seguente controesempio. Siano VK e WK due spazi vettoriali tali
che V 6= {0V } e N : V → W : v 7→ 0W . Tale N risulta lineare e per
ogni famiglia F = v1 , v2 , . . . , vr di vettori in VK (non importa se li-
nearmente dipendente o indipendente) risulta N (F) = 0W , 0W , . . . , 0W
che è linearmente dipendente.
In generale, quindi, le funzioni lineari conservano la dipendenza
lineare ma non l’indipendenza. Però le funzioni lineari iniettive le
conservano entrambe.
Proposizione 18.2. Siano VK e WK spazi vettoriali e L : V → W
una funzione lineare iniettiva. Se F = v1 , v2 , . . . , vr è una famiglia
linearmente indipendente di vettori in VK , allora la famiglia L(F) =
L(v1 ), L(v2 ), . . . , L(vr ) è linearmente indipendente.
Dimostrazione. Consideriamo la seguente equazione nelle incognite x1 ,
x2 , . . ., xr ∈ K:
L(x1 v1 + x2 v2 + · · · + xr vr ) = 0W ⇔ x1 v1 + x2 v2 + · · · + xr vr ∈ ker L.
(18.1)
Per ipotesi L è iniettiva e ciò implica ker L = {0V }. Quindi la (18.1)
equivale a x1 v1 + x2 v2 + · · · + xr vr = 0V e quest’ultima per l’indipen-
denza di F equivale a x1 = x2 = . . . = xr = 0.
Resta dimostrato che L(F) è linearmente indipendente.
Esercizio 18.3. Si consideri l’affermazione: Se VK e WK sono spazi
vettoriali di dimensione finita, L : V → W è una funzione lineare non
iniettiva e F = v1 , v2 , . . . , vr è una famiglia linearmente indipendente
di vettori di VK , allora L(F) = L(v1 ), L(v2 ), . . . , L(vr ) è una famiglia
linearmente dipendente.
148
(a) Dire se l’affermazione è vera o falsa. (b) Dimostrare o confutare
l’affermazione, a seconda del caso.
Svolgimento. L’affermazione è falsa e la confuto con un controesempio.
Considero L : R2 → R2 : (x, y) 7→ (x, 0). Tale L è lineare perché è
nella forma
x 1 0 x
7→
y 0 0 y
e non è iniettiva perché L(1, 0) = L(1, 1). La famiglia F = (1, 0)
è linearmente indipendente e L(F) = L(1, 0) = (1, 0) è linearmente
indipendente.
Esercizio 18.4. Si consideri l’affermazione: Se VK e WK sono spazi
vettoriali di dimensione finita, L : V → W è una funzione lineare
non iniettiva e F = v1 , v2 , . . . , vr è una base di VK , allora L(F) =
L(v1 ), L(v2 ), . . . , L(vr ) è una famiglia linearmente dipendente.
(a) Dire se l’affermazione è vera o falsa. (b) Dimostrare o confutare
l’affermazione, a seconda del caso.
Svolgimento. L’affermazione è vera e la dimostro. Siccome L non è
iniettiva, esiste un vettore v 6= 0V , v ∈ ker L. Tale vettore si può
esprimere come combinazione lineare di F:
v = x1 v1 + x2 v2 + · · · + xr vr .
In tale equazione non tutti gli scalari sono nulli, perché altrimenti
risulterebbe v = 0V e ciò è escluso. Calcolando l’immagine tramite L
di entrambe le espressioni a sinistra e a destra del segno di uguale si
ottiene, siccome L(v) = 0W ,
149
Seguono due risultati che riguardano, anche se non sembra, i sistemi
di equazioni lineari.
150
Ne segue y ∈ ker L, inoltre v = v0 + y ∈ v0 + ker L.
2) Dimostriamo che v0 +ker L ⊆ L−1 (b). Consideriamo v0 ∈ v0 +ker L;
quindi esiste y0 ∈ ker L tale che v0 = v0 + y0 . Vale
L(v0 ) = L(v0 + y0 ) = L(v0 ) + L(y0 ) = b + 0W = b.
Ne segue v0 ∈ L−1 (b).
151
Inoltre B è una famiglia linearmente indipendente nello spazio vetto-
riale W2 , che ha per ipotesi dimensione r. Ne segue (cfr. prop. 13.6)
che B è una base di W2 e in particolare
hBi = W2 . (18.4)
Allora
152
Compito 18.10. Trovare una base dell’immagine della funzione linea-
re f : R2 → R3 la cui matrice rispetto alle basi B = (7, 8), (9, 10) di
R2 e B 0 = (1, 0, 0), (0, 1, 0), (1, 1, 1) di R3 è
1 2
Af B B 0 = 0 0 .
−1 −1
153
154
Lezione 19
rk A = dimhA1 , A2 , . . . , An i. (19.1)
155
Esercizio 19.3. Calcolare il rango della seguente matrice reale:
√ √
1 2 3
A= √ .
2 π 7
Svolgimento.
√ √ √
rk A = dimh(1, 2), ( 2, π), ( 3, 7)i = dim R2 = 2
√ √
in quanto, essendo (1, 2), ( 2, π) linearmente indipendenti, essi ge-
nerano R2 .
rk A ≤ min{m, n}.
dim im FA = rk A. (19.2)
156
Esempio 19.7.
√ √
√ √ √
1 2 3
rk √ = dimh(1 2 3), ( 2 π 7)i = 2.
2 π 7
rk(AB) ≤ rk A; rk(AB) ≤ rk B.
rk(BA) = rk A = rk(AC).
rk AL B B0 = dim im L.
(iv) Per ogni A ∈ M(n × n, K), A risulta invertibile se, e solo se,
rk A = n.
157
19.2 Sistemi lineari
Un sistema lineare di m equazioni in n incognite a coefficienti nel
campo K ha la forma:
a11 x1 + a12 x2 + · · · + a1n xn = b1
a x + a x + ··· + a x = b2
21 1 22 2 2n n
.. .. (19.3)
. .
am1 x1 + am2 x2 + · · · + amn xn = bm .
x
n
b1
b2 m
3) la colonna dei termini noti B = ... ∈ K ;
bm
4) la matrice completa del sistema lineare C = (A|B) ∈ M(m × (n +
1), K).
Osservazione 19.9.
a11 a12
a21 a22
x1 A1 + x2 A2 + · · · + xn An = x1 ...
+ x 2 .. + · · · +
.
am1 am2
a11 x1 + a12 x2 + · · · + a1n xn
a1n
a2n a21 x1 + a22 x2 + · · · + a2n xn
+xn ... =
.. ,
.
amn am1 x1 + am2 x2 + · · · + amn xn
158
quindi il sistema lineare (19.3) si può riformulare come segue:
x1 A1 + x2 A2 + · · · + xn An = B. (19.4)
Osservazione 19.10.
a11 x1 + a12 x2 + · · · + a1n xn
a21 x1 + a22 x2 + · · · + a2n xn
AX = .. ,
.
am1 x1 + am2 x2 + · · · + amn xn
AX = B. (19.5)
159
K tali che a1 A1 + a2 A2 + · · · + an An = B, cioè se, e solo se, B ∈
hA1 , A2 , . . . , An i. Per la prop. 18.8, ciò equivale a
dimhA1 , A2 , . . . , An i = dimhA1 , A2 , . . . , An , Bi
FA : K n → K m : X 7→ AX,
160
Considerata la funzione lineare
FA : K n → K m : X 7→ AX,
l’insieme delle soluzioni del sistema lineare è
{T ∈ K n | AT = B} = {T ∈ K n | FA (T ) = B} = FA−1 (B).
Applicando la prop. 18.7 con L = FA , v0 = X0 , b = B, si ottiene
appunto FA−1 (B) = X0 + ker FA = X0 + W .
dim W = n − dim im FA = n − rk A = n − r.
X1 , X2 , . . . , Xn−r .
162
Esprimiamo ciò dicendo che “il sistema lineare ha ∞n−r soluzioni”,
e “∞0 soluzioni” significa soluzione unica.
e siccome (cfr. es. 11.5) (1, −1, −3) = −2(1, 2, 0) − 3(−1, −1, 1) vale
163
Quindi W = {(2y, y, 3y) | y∈ R} = h(2, 1, 3)i. Vale n − r = 3 − 2 = 1
2
e possiamo prendere X1 = 1. L’insieme delle soluzioni è
3
1 2
{X0 + hX1 | h ∈ R} = 0 +h 1 h∈R =
0 3
1 + 2h
= h h ∈ R .
3h
164
Lezione 20
Procedimento di
eliminazione Gaussiana
Il procedimento consente di
• calcolare dimensioni,
• trovare basi,
• calcolare il rango,
• decidere se una matrice è invertibile,
• decidere se un vettore appartiene a un sottospazio,
165
• risolvere sistemi lineari.
(ii) il rango;
(iii) le soluzioni del sistema lineare avente quella matrice come ma-
trice completa.
166
Esempio 20.5. La matrice M in (20.1) non è a scala. Lo è invece
0 2 4 7 0
B= 0 0 0 1 3 .
0 0 0 0 5
Svolgimento.
−1 1 1 4 −1 1 1 4
0 1 2 3 0 1 2 3
A −→
H12 H−→ 31 (2)
2 1 4 1 0 3 6 9
3 −1 1 −6 3 −1 1 −6
−1 1 1 4
−1 1 1 4
0 1 2 3
H41 (3)
H32 (−3)
−→ 0 1 2 3 = A0 .
−→ (20.3)
0 0 0 0
0 3 6 9 H42 (−2)
0 2 4 6 0 0 0 0
167
Proposizione 20.8. (i) In una matrice a scala, le righe non nulle
sono linearmente indipendenti.
168
20.1 Applicazioni
x+y−z = 1
2x − y − z = 2
−3y + z = 0.
169
Svolgimento. Trasformo in matrice a scala:
1 1 −1 1 1 1 −1 1
H21 (−2)
C = 2 −1 −1 2 −→ 0 −3 1 0
0 −3 1 0 0 −3 1 0
1 1 −1 1
H32 (−1)
−→ 0 −3 1 0 = C 0 .
0 0 0 0
Nessun pivot è in ultima colonna, quindi il sistema lineare è compa-
tibile. Noto che le colonne senza pivot sono la terza e la quarta. La
quarta è quella dei termini noti, la terza contiene i coefficienti di z.
Quindi considero z come parametro e calcolo x, y in termini di z:
x
x+y−z = 1 x+y = z+1
⇔
−3y + z = 0 −3y = −z
x = −y + z + 1 = 32 z + 1
y = z3 .
Esprimo l’insieme S delle soluzioni del sistema lineare come varietà
lineare:
2 z 2 1
S = z + 1, , z | z ∈ R = (1, 0, 0) + z , ,1 | z ∈ R =
3 3 3 3
2 1
= (1, 0, 0) + , ,1 = (1, 0, 0) + h(2, 1, 3)i.
3 3
Ricordiamo che l’insieme delle soluzioni di un sistema lineare ha la
forma X0 + W dove X0 è una soluzione e W è l’insieme delle soluzioni
del sistema omogeneo associato. Verificare per esercizio che x = 1,
y = 0, z = 0 è una soluzione del sistema assegnato e che x = 2, y = 1,
z = 3 è una soluzione del sistema omogeneo associato.
4) Stabilire se il vettore u appartiene al sottospazio W = hv1 , v2 , . . . , vr i
di K n .
170
Procedura: Si costruisce la matrice C n × (r + 1) le cui colonne sono
v1 , v2 , . . . , vr , u e la si trasforma in matrice a scala, C 0 . Vale u ∈ W
se, e solo se, nessun pivot di C 0 è nell’ultima colonna.
L’ordine delle colonne v1 , v2 , . . . , vr , u è essenziale.
(b) Stabilire se u ∈ W .
Svolgimento. (a) L’equazione x(1, 0, −1, 2)+y(0, 1, 3, 1)+z(1, 2, 0, 0) =
u equivale a:
0 0 −4 4 0 0 0 0
171
Per decidere l’ultima operazione elementare H43 (r), r deve essere tale
da annullare il pivot della riga 4 e colonna 3, quindi −5r − 4 = 0 da
cui r = −4/5. Il sistema lineare è compatibile e ciò implica u ∈ W .
La sola colonna priva di pivot è quella dei termini noti, quindi non
ci sono parametri e la soluzione è unica.
x
x+z = 0 x = 1
y + 2z = 0 ⇔ y = 2
−5z = 5 z = −1.
172
Lezione 21
Esercizi su eliminazione
Gaussiana
W1 = {(0, x, y, z) ∈ R4 | x + y + z = 0},
W2 = h(1, 0, 0, 1), (1, 1, −1, 1), (1, 2, −2, 1)i,
Svolgimento. (a)
173
Una base di W1 è B1 = (0, 1, 0, −1), (0, 0, 1, −1); dim W1 = 2. Per
trovare una base di W2 trasformo la matrice
1 0 0 1 1 0 0 1
H21 (−1)
1 1 −1 1 −→ 0 1 −1 0
H31 (−1)
1 2 −2 1 0 2 −2 0
1 0 0 1
H32 (−2)
−→ 0 1 −1 0 .
0 0 0 0
Una base di W2 è B2 = (1, 0, 0, 1), (0, 1, −1, 0). Una famiglia di gene-
ratori di W1 + W2 si ottiene unendo una famiglia di generatori di W1
e una di W2 ; prendo B1 e B2 . Trasformo
0 1 0 −1 1 0 0 1
0 0 1 −1 H13 0 0 1 −1 H23
1 0 0 1 −→ 0 1
−→
0 −1
0 1 −1 0 0 1 −1 0
1 0 0 1 1 0 0 1
0 1 0 −1 H42 (−1) 0 1 0 −1 H−→
43 (1)
0 0 1 −1 −→ 0 0
1 −1
0 1 −1 0 0 0 −1 1
1 0 0 1
0 1 0 −1
0 0 1 −1 .
0 0 0 0
174
(c) Vale W1 = {(0, x, y, −x − y) | x, y ∈ R} e
Risolvo l’equazione
−z = 0
x−t = 0
(0, x, y, −x − y) = (z, t, −t, z) ⇔ (21.1)
y+t = 0
−x − y − z = 0.
175
È priva di pivot la quarta colonna, quella di t. Ricavo le soluzioni del
sistema lineare in funzione di t:
x−t = 0 x = t
y+t = 0 ⇔ y = −t
−z = 0 z = 0.
176
Svolgimento.
1 1 0 2 3 1 1 0 2 3
3 −1 1 −1 1 H−→
21 (−3)
0 −4 1 −7 −8 H32 (−2)
−→
5 −3 2 −4 −1 H31 (−5) 0 −8 2 −14 −16
1 1 0 2 3
0 −4 1 −7 −8 .
0 0 0 0 0
177
z = 0, t = 4 sono soluzioni del sistema lineare omogeneo associato (es.
x + y + 2t = −1 + 1 + 21 · 0 = 0).
Esercizio 21.3. Discutere il seguente sistema lineare ad incognite rea-
li, dipendente dal parametro reale a:
x+y+z = 0
x + y + az = 1
ax + (4 − a)y + az = 1.
178
Esercizio 21.4. Stabilire se le seguenti matrici in M(2 × 2, R) sono
linearmente dipendenti:
1 2 2 0 1 0 0 1
, , , .
0 0 −1 0 0 3 1 3
si ottiene una matrice a scala che non ha righe nulle, quindi la famiglia
assegnata è linearmente indipendente.
179
180
Lezione 22
181
Esercizio
22.3.
Trasformare in forma canonica speciale la matrice
1 1 1
A= .
1 3 2
Svolgimento.
1
H21 (−1) 1 1 1 H22 (1/2) 1 1 1 H12 (−1) 1 0
A −→ −→ −→ 2 .
0 2 1 0 1 12 0 1 1
2
22.1 Applicazioni
1) Stabilire se due sottospazi
U = hu1 , u2 , . . . , ur i e W = hw1 , w2 , . . . , ws i
di K n sono uguali.
Procedura: Costruisco le matrici r × n AU e s × n AW disponendo quei
vettori in righe; trasformo in forma canonica speciale, ottenendo A0U ,
A0W . Risulta U = W se, e solo se, trascurando le eventuali righe nulle,
le matrici A0U e A0W sono uguali.
U = h(1, 1, 1), (1, 3, 2)i e W = h(1, −1, 0), (1, 5, 3), (2, 0, 1)i.
1 1 1
Svolgimento. Trasformo in forma canonica speciale AU = .
1 3 2
1
1 0
Questo è già stato fatto sopra, A0U = 2 . Trasformo in forma
0 1 12
182
canonica speciale
1 −1 0 1 −1 0 1 −1 0
H21 (−1) H32 (−1/3)
AW = 1 5 3
−→ 0 6 3 −→ 0 6 3
H31 (−2)
2 0 1 0 2 1 0 0 0
1 0 12
1 −1 0
H22 (1/6) H12 (1)
−→ 0 1 12 −→ 0 1 1 = A0W .
2
0 0 0 0 0 0
Ne concludo U = W .
2) Stabilire se A ∈ M(n × n, K) è invertibile e nel caso calcolare A−1 .
Procedura: Costruisco la matrice n × (2n) (A | In ) e la trasformo in
forma canonica speciale (B | C).
183
Siccome B = I3 , M è invertibile e
2
− 3 − 43 1
M −1 = − 23 113 −2 .
1 −2 1
H(M | N ) = (HM | HN ).
da cui
H = A−1
In = HA
⇒
C = H C = H
e quindi C = A−1 .
1
In generale Hij (r) si ottiene dalla matrice identica cambiando l’elemento di riga i e colonna j
in r.
184
22.2 Esercizi
Esercizio 22.5. Discutere il seguente sistema lineare al variare del
parametro a ∈ R e trovare l’insieme Ia delle soluzioni per i valori di a
per cui tali soluzioni sono infinite:
x + (a − 1)y = −1
x + ay + z + (a − 4)t = a2 − 3a + 2
2
2y + (a2 − 4)t = a2 − 3a + 2
−x − ay + 2z = 3.
185
∞4−4 = ∞0 soluzioni, cioè soluzione unica.
2o caso: a = 2. La matrice è
1 1 0 0 −1
0 1 1 0 1
0 0 −2 0 −2 .
0 0 0 0 0
Il sistema lineare è compatibile con ∞4−3 = ∞1 soluzioni.
3o caso: a = −2. L’ultima riga della matrice è (0 0 0 0 − 6). Essa ha
un pivot in ultima colonna, quindi il sistema lineare è incompatibile.
Riassumo la discussione: il sistema ha 0 soluzioni per a = −2, ∞1
soluzioni per a = 2, soluzione unica per a 6= ±2.
Risolvo il sistema per a = 2 in funzione del parametro t (2 ):
x + y = −1 x = −1
y+z = 1 ⇔ y = 0
−2z = −2 z = 1.
186
Per a reale l’ultima riga non è mai nulla, quindi esiste un unico endo-
morfismo di R3 soddisfacente le (22.1). L’immagine di un endomorfi-
smo è generata dall’immagine di una base del dominio, quindi
1 −a
1 −a 1 1
H32 (−1/(a+1))
−→ 0 a2 − 1 1 − a = 0 a2 − 1 1 − a .
a−1 (a+2)(a−1)
0 0 a+1 + a − 1 0 0 a+1
187
trasforma in matrice a scala. In questo caso quindi abbiamo una base
con tre vettori.
2
Conclusione. Per a 6= ±1, −2, una base è (1, −a, 1), (0, a −1, 1−a),
0, 0, (a+2)(a−1)
a+1 ;
per a = −1, una base è (1, 1, 1), (0, −2, −2), (0, 0, 2);
per a = −2, una base è (1, 2, 1), (0, 3, 3);
per a = 1, una base è (1, −1, 1).
188
Lezione 23
Determinante
189
Definizioni 23.3. 1) In = {1, 2, . . . , n} (n ∈ N).
2) Una permutazione di In è una funzione biiettiva σ : In → In .
3) Sn denota l’insieme di tutte le permutazioni di In .
Proposizione 23.4. (i) L’insieme Sn contiene precisamente n! per-
mutazioni, per ogni n ∈ N.
(ii) La composizione di permutazioni “◦” è un’operazione binaria in
Sn .
(iii) (Sn , ◦) è un gruppo.
L’elemento neutro di (Sn , ◦) è la permutazione identica, inoltre per
ogni σ ∈ Sn vale σ −1 ∈ Sn .
Definizione 23.5. (Sn , ◦) prende il nome di gruppo simmetrico su n
oggetti.
Definizione 23.6. Ogni σ ∈ Sn si può rappresentare con una matrice
2 × n,
1 2 ... n
,
σ(1) σ(2) . . . σ(n)
da considerarsi una semplice tabella nella quale sono riportate le im-
magini dei singoli elementi di In .
La seconda riga contiene tutti i numeri interi da 1 a n, ciascuno
una volta sola.
Esempio 23.7. Rappresentiamo tutte le permutazioni in S3 . Esse
sono 3! = 6.
1 2 3 1 2 3 1 2 3
id = σ1 = σ2 =
1 2 3 1 3 2 2 1 3 (23.1)
1 2 3 1 2 3 1 2 3
σ3 = σ4 = σ5 =
2 3 1 3 1 2 3 2 1
190
Esercizio 23.8. Calcolare σ5 ◦ σ2 e σ2 ◦ σ5 .
Svolgimento.
σ5 ◦ σ2 (1) = σ5 (σ2 (1)) = σ5 (2) = 2
σ5 ◦ σ2 (2) = σ5 (σ2 (2)) = σ5 (1) = 3 =⇒ σ5 ◦ σ2 = σ3 .
σ5 ◦ σ2 (3) = σ5 (σ2 (3)) = σ5 (3) = 1
Analogamente
191
Analogamente
1 2 3
σ3−1 = = σ4
3 1 2
e ciò implica anche σ4−1 = σ3 . Infine σ5−1 = σ5 .
Osservazione 23.11. La funzione ϕ : Sn → Sn : σ 7→ σ −1 è biiettiva.
Definizione 23.12. Una σ ∈ Sn si dice scambio se l’equazione σ(x) =
x vale per esattamente n − 2 valori di x ∈ {1, 2, . . . , n}.
Esempio 23.13. In S3 gli scambi sono: σ1 , σ2 , σ5 .
Osservazione 23.14. Ogni scambio è inverso di sé stesso, infatti, se σ
è uno scambio in Sn , allora esistono precisamente due elementi x1 , x2 ∈
In tali che
192
Risposta alla domanda iniziale. Associando numeri di In a lettere
distinte, abbiamo che agli elementi di Sn si associano le n! operazioni
possibili di anagrammare. Ad esempio le lettere di ROMA possono es-
sere anagrammate in 4! = 24 modi diversi. Consideriamo l’anagramma
AMOR, che si ottiene con due scambi:
193
Notazione 23.21. Il determinante di A si denota anche con |A|.
det A = sgn(id)a1 id(1) a2 id(2) + sgn(τ )a1τ (1) a2τ (2) = a11 a22 − a12 a21 .
194
Esercizio 23.23. Calcolare il determinante della seguente matrice rea-
le:
−1 −2 0
P = 1 2 3 . (23.3)
4 5 6
Svolgimento. Applico la regola di Sarrus:
−1 −2 0 −1 −2
1 2 3 1 2 = −12 − 24 + 0−0 − (−15) − (−12) = −9.
4 5 6 4 5
195
pari o entrambi dispari e tali sono σ e σ −1 .
2) Per ogni σ ∈ Sn vale
2 1 2 3
Ad esempio, se σ = , allora a1σ(1) a2σ(2) a3σ(3) = a12 a23 a31 = a31 a12 a23 =
2 3 1
aσ−1 (1)1 aσ−2 (2)2 aσ−1 (3)3 .
196
Lezione 24
197
Osservazione 24.1. Si può dimostrare che il determinante è l’unica
funzione F : M(n × n, K) → K che soddisfi 1), 2) e 3). Quindi 1), 2)
e 3) potrebbero essere prese come definizione di determinante.
Le proprietà seguenti sono (quindi) conseguenza di queste tre.
4) Se due righe di A sono uguali, allora det A = 0. Infatti, sia C la
matrice ottenuta da A scambiandone le righe uguali. Vale C = A,
quindi det C = det A. Per la 2), det C = − det A, da cui det A =
− det A e det A = 0.
5) Se la matrice C è ottenuta da A tramite l’operazione elementare
Hij (r) (i 6= j), allora det C = det A. Infatti,
A1 A1 A1
.. .. .
. . ..
A + rA A A
i j
1) i j
det C = det
.
. = det . + r det ... .
..
.
Aj Aj Aj
..
...
.
..
.
An An An
Nell’ultima espressione, il primo determinante è det A e il secondo è il
determinante di una matrice con due righe uguali, quindi vale zero.
6) Se una riga di A è nulla, allora det A = 0. Infatti ciò segue dalla
proprietà 1) di multilinearità.
7) Se A è triangolare superiore, cioè tutti i suoi elementi sotto la dia-
gonale principale valgono zero (aij = 0 per ogni i e j tali che i > j),
allora det A è il prodotto degli elementi della diagonale principale di
A.
Dalle proprietà 2), 5) e 7) si deduce una procedura per calcolare
det A: trasformare A in matrice a scala A0 usando solo scambi e Hij (r)
(i 6= j). Allora risulta det A = ± det A0 (considerando che ogni scam-
bio comporta un cambiamento di segno) e det A0 è il prodotto degli
elementi sulla diagonale principale.
198
Esercizio 24.2. (Cfr. es. 23.23.) Calcolare il determinante della se-
guente matrice reale:
−1 −2 0
P = 1 2 3 .
4 5 6
Svolgimento.
−1 −2 0
H21 (1)H31 (4)
det P = det 0 0 3 =
0 −3 6
−1 −2 0
H23
= − det 0 −3 6 = −(−1)(−3)3 = −9.
0 0 3
8) det A 6= 0 ⇐⇒ A è invertibile. Quindi per la prop. 19.8, det A 6= 0
⇐⇒ rk A = n.
Esempio 24.3. La matrice P nell’esercizio precedente è invertibile,
perché det P 6= 0.
9) Teorema di Binet. Se A, B ∈ M(n × n, K), allora det(AB) =
(det A)(det B).
10) det AT = det A (teorema 23.26).
Come conseguenza della proprietà 10), ad ogni affermazione precedente
che riguardi le righe ne corrisponde una ugualmente valida che riguarda
le colonne.
Definizione 24.4. Il complemento algebrico (o cofattore) di indici i,
j ∈ {1, 2, . . . , n} nella matrice A ∈ M(n × n, K) è
Aij = (−1)i+j det Mij ,
dove Mij è la matrice (n − 1) × (n − 1) ottenuta da A cancellandone
la i-esima riga e la j-esima colonna.
199
Esercizio 24.5. Trovare tutti i complementi algebrici della matrice P
nell’eserc. 24.2.
Svolgimento.
2 3 1 3
= (−1)1+1 = (−1)1+2
P11 = −3; P12 = −(6 − 12) = 6;
5 6 4 6
1 2
P13 = (−1)1+3
= −3;
4 5
−2 0 −1 0 −1 −2
P21 = − = 12 P22 =
4 6 = −6 P23 = − 4 5 = −3
5 6
−2 0 −1 0 −1 −2
P31 = = −6 P32 = −
1 3 = 3 P33 = 1 2 = 0.
2 3
det P = p11 P11 + p12 P12 + p13 P13 = −1(−3) + (−2)6 + 0(−3) = −9.
det P = p21 P21 + p22 P22 + p23 P23 = 1 · 12 + 2(−6) + 3(−3) = −9.
200
Osservazione 24.8. Da det AT = det A segue che lo sviluppo del
determinante si può fare anche secondo una colonna.
202
Svolgimento.
1 −2 0
det 0 2 3
0 5 6
x1 = .
det P
Sviluppo il determinante
a numeratore secondo la prima colonna, ot-
2 3
tenendo 1 · = −3. Quindi x1 = −3/(−9) = 1/3. Analogamente
5 6
−1 1 0
det 1 0 3 1 3
1 · −
4 0 6 4 6 6 2
x2 = = = =− ,
det P −9 −9 3
−1 −2 1
det 1 2 0 1 2
1 · +
4 5 0 4 5 −3 1
x3 = = = = .
det P −9 −9 3
Verificare, sostituendo in
−x1 − 2x2 = 1
x1 + 2x2 + 3x3 = 0
4x1 + 5x2 + 6x3 = 0.
203
Esempio 24.21. La matrice
1 0 −1 2
A = 0 1 1 1
−1 2 3 0
4
1
Infatti, vi sono 3 modi per scegliere due righe e 2 = 6 modi per scegliere due colonne.
204
Lezione 25
Autovalori ed autovettori
205
è diagonale una matrice A tale che gli elementi fuori della diagonale
principale siano nulli. Essa si denota con A = diag(a11 , a22 , . . . , ann ).
206
Esercizio 25.6. Date
f : R3 → R3 : (x, y, z) 7→ (x + y − z, 2y, −x + y + z)
Vale f (e1 ) = (1, 0, −1) e (1, 0, −1) 6= λe1 per ogni λ ∈ R; quindi e1 non
è un autovettore di f . Similmente f (e2 ) = (1, 2, 1), f (e3 ) = (−1, 0, 1),
quindi nessun vettore della base naturale è un autovettore di f .
(b) Indichiamo con v1 , v2 , v3 i tre vettori di B. Vale f (v1 ) = (0, 2, 2) =
2v1 , f (v2 ) = (0, 0, 0) = 0v2 , f (v3 ) = (2, 2, 0) = 2v3 , quindi tutti e tre
i vettori di B sono autovettori di f .
(c) Posto che rispetto alla base naturale la colonna delle coordinate di
un vettore coincide con il vettore stesso, Af N N è quella matrice tale
che (25.2) L(v) = Af N N v per ogni v = (x y z)T , quindi
1 1 −1
Af N N = 0 2 0 . (25.4)
−1 1 1
207
da cui
2 0 0
Af B B = 0 0 0 . (25.5)
0 0 2
(d) Af B B è diagonale, quindi f è diagonalizzabile.
208
Risposta alla domanda iniziale. La proposizione precedente dà una
condizione necessaria e sufficiente affinché AL B B sia diagonale.
209
Definizione 25.13. Il polinomio caratteristico di un endomorfismo L
B
di VK è pL (t) = det AL B − tIn .
Osservazione 25.14. Si può dimostrare che pL (t) è effettivamente un
polinomio di grado n e che pL (t) non dipende da B, cioè, comunque
prese due basi B e B 0 , vale
B B0
det AL B − tIn = det AL B0 − tIn .
210
Definizione 25.18. Un polinomio P (x) si dice completamente riduci-
bile sul campo K se è prodotto di polinomi di grado uno a coefficienti
in K.
0 1 0 0 1 −t
211
212
Lezione 26
Il teorema di
diagonalizzabilità
213
Siccome l’insieme delle soluzioni di un sistema lineare omogeneo n × n
è un sottospazio di K n , EL (λ) è un sottospazio di VK .
3) Siccome λ è un autovalore, vale dim EL (λ) > 0.
4) La definizione di EL (λ) si può estendere al caso in cui λ non sia un
autovalore, ma in tal caso EL (λ) = {0}.
5) Vale EL (0) = {v ∈ V | L(v) = 0} = ker L. Ricordando che L è
iniettiva se, e solo se, ker L = {0V }, otteniamo che 0 è un autovalore
di L se, e solo se, L non è iniettivo.
Osservazione 26.4. Dalla teoria dei sistemi lineari sappiamo che la di-
mensione dello spazio delle soluzioni di (26.1) vale n−rk AL B B − λIn .
Quindi
dim EL (λ) = n − rk AL B B − λIn .
(26.2)
Svolgimento. Vale
−2 −1 1
Af N N = 0 −1 −1 .
2 1 −1
214
Usando la regola di Sarrus,
−2 − t −1 1
pf (t) = 0 −1 − t −1 =
2 1 −1 − t
= (−2 − t)(−1 − t)2 + 2 − (−2 − 2t) − (2 + t) =
= −t3 − 4t2 − 4t = −t(t + 2)2 .
Gli autovalori sono λ1 = 0 con molteplicità algebrica 1 e λ2 = −2
con molteplicità algebrica 2. Uso la (26.2) per calcolare le molteplicità
geometriche:
−2 −1 1
dim Ef (0) = 3 − rk 0 −1 −1 = 3 − 2 = 1,
2 1 −1
0 −1 1
dim Ef (−2) = 3 − rk 0 1 −1 = 3 − 2 = 1.
2 1 1
Proposizione 26.6. Sia L un endomorfismo di VK e λ un suo auto-
valore. Indicate con m ed r, rispettivamente, le molteplicità algebrica
e geometrica di λ, vale 1 ≤ r ≤ m.
Dimostrazione. Consideriamo una base v1 , v2 , . . . , vr di EL (λ), che
può essere completata ad una base B = v1 , v2 , . . . , vr , . . . , vn di VK .
La matrice associata ad L ha la seguente forma:
λ 0 ... 0
0 λ 0
.. .. . . . ..
Mr×(n−r)
. . .
B
AL B = ,
0 0 λ
.. .. .
..
. .
N(n−r)×(n−r)
0 0 ... 0
215
in cui vi sono delle sottomatrici delle quali sono specificati gli ordini.
Ne segue
λ−t
0 ... 0
0 λ−t 0
.. .. . . .. M r×(n−r)
= det
. . . . .
0 0 λ−t
O(n−r)×r N(n−r)×(n−r) − tIn−r
216
Osservazione 26.8. L’esercizio appena svolto suggerisce una condi-
zione necessaria per la diagonalizzabilità. Supponiamo che un en-
domorfismo L di VK sia diagonalizzabile e abbia autovalori distinti
λ1 , λ2 , . . . , λs con molteplicità algebriche e geometriche, rispettivamen-
te, m1 , m2 , . . . , ms e r1 , r2 , . . . , rs . Siccome in ogni EL (λj ) esistono al
più rj autovettori indipendenti, j = 1, 2, . . . , s, deve risultare che
s
X
rj ≥ n. (26.3)
j=1
217
(i) il polinomio caratteristico pL (t) è completamente riducibile su K;
(ii) la molteplicità algebrica di ogni autovalore è uguale alla sua mol-
teplicità geometrica.
Esercizio 26.10. Sia B = v1 , v2 , v3 una base di R3 e L l’endomorfismo
di R3 definito dalle condizioni
Stabilire se L è diagonalizzabile
Svolgimento. Applico il teorema di diagonalizzabilità. Vale:
1 2 0
AL B B = 0 2 0 ,
0 0 0
1 − t 2 0
pL (t) = 0 2 − t 0 = −t(1 − t)(2 − t).
0 0 −t
dim EL (0) = 3 − rk AL B B = 3 − 2 = 1;
0 2 0
dim EL (1) = 3 − rk 0 1 0 = 3 − 2 = 1;
0 0 −1
−1 2 0
dim EL (2) = 3 − rk 0 0 0 = 3 − 2 = 1.
0 0 −2
218
Osservazione 26.11. I calcoli delle molteplicità geometriche sono su-
perflui perché, per la prop. 26.6, ogni autovalore che abbia molteplicità
algebrica uguale a 1 ha necessariamente anche molteplicità geometrica
uguale a 1.
2b = 0
b = 0 ⇔ b = c = 0,
−c = 0
219
quindi
EL (1) = {av1 | a ∈ R} = hv1 i.
EL (2) ha equazione AL B B − 2I3 Xv = O3×1 , cioè
−a + 2b = 0
a = 2b
0 = 0 ⇔
c = 0.
−2c = 0
Quindi
EL (2) = {2bv1 + bv2 | b ∈ R} = h2v1 + v2 i.
0
Una base B 0 di autovettori di L (quindi tale che AL B B0 sia diagonale)
è:
B 0 = v3 , v1 , 2v1 + v2 .
L(v3 ) = 0;
L(v1 ) = v1 = 0v3 + 1v1 + 0(2v1 + v2 );
L(2v1 + v2 ) = 2L(v1 ) + L(v2 ) = 2v1 + 2v1 + 2v2 =
= 4v1 + 2v2 = 0v3 + 0v1 + 2(2v1 + v2 ).
Vale
0 0 0
0
AL B B 0 = 0 1 0 .
0 0 2
220
Lezione 27
Diagonalizzabilità di matrici
221
Per la def. 25.5, se FA (X) = λX, X 6= On×1 , λ ∈ K, allora X è un
autovettore di FA e λ è l’autovalore di FA associato a X. Quindi data
una matrice A ∈ M(n × n, K), se AX = λX, X 6= On×1 , allora X è
un autovettore di A e λ è l’autovalore di A associato ad X.
Dalla definizione EL (λ) = {v ∈ V | L(v) = λv} si deduce che
l’autospazio di A associato all’autovalore λ è
EA (λ) = {X ∈ K n | AX = λX};
222
Ricordando la (17.1) e applicandola due volte (la prima con G = id,
F = F , B = B 0 = N , B 00 = B(C)), otteniamo
223
4 2
Esercizio 27.7. La matrice A = è diagonalizzabile su R?
1 3
Svolgimento. Applico il teorema di diagonalizzabilità.
4 − t 2
pA (t) = det(A − tI2 ) = = t2 − 7t + 10.
1 3 − t
pA (t) = (t − 5)(t − 2) è completamente riducibile su R. Gli autovalori
λ1 = 5 e λ2 = 2 hanno entrambi molteplicità algebrica uguale a 1.
Siccome ogni autovalore che abbia molteplicità algebrica 1 ha anche
molteplicità geometrica uguale a 1, la condizione (ii) del teorema di
diagonalizzabilità è soddisfatta. Quindi A è diagonalizzabile su R.
Il caso dell’esercizio si può generalizzare come segue:
Proposizione 27.8. Sia A ∈ M(n × n, K). Se A ha n autovalori
distinti in K, allora A è diagonalizzabile su K.
Esercizio 27.9. Data la matrice reale
1 10 5
A = 0 −4 0 ,
5 10 1
(a) A è diagonalizzabile su R? (b) Se sı̀, trovare una matrice reale 3×3
C invertibile tale che C −1 AC sia diagonale. (c) La seguente matrice è
simile ad A?
−4 0 1
D = 0 −4 2 .
0 0 6
Svolgimento. (a) Applico il teorema di diagonalizzabilità.
1 − t 10 5
1 − t 5
pA (t) = 0 −4 − t 0 = (−4 − t)(−1)2+2
=
5 1 − t
5 10 1 − t
= (−4 − t)(t2 − 2t − 24).
224
Il determinante sopra è stato calcolando sviluppando secondo la secon-
da riga. Le radici del polinomio t2 − 2t − 24 sono 6 e −4, quindi
da cui
EA (λ1 ) = {(−2y − z, y, z) | y, z ∈ R} =
= {(−2y, y, 0) + (−z, 0, z) | y, z ∈ R} = h(−2, 1, 0), (−1, 0, 1)i.
227
228
Lezione 28
Esercitazione sulla
diagonalizzabilità
229
(16.6):
AL B B0 = YL(v1 ) YL(v2 ) . . . YL(vn ) ,
si ottiene
AL N N = (L(e1 ) |L(e2 ) |L(e3 ) ) .
Innanzitutto, L(e1 ) = (5, 1, −1). Per determinare L(e2 ), risolvo l’e-
quazione e2 = xv1 + yv2 + zv3 che dà x = −1, y = 1, z = 0; quindi
e2 = −v1 + v2 da cui per linearità
Analogamente
Quindi
5 0 −1
AL N N = 1 4 −1 .
−1 0 5
Vale
5 − t 0 −1
pL (t) = det AL N N
− tI3 =
1 4 − t −1 .
−1 0 5 − t
Sviluppando secondo la seconda colonna,
5 − t −1
pL (t) = (4 − t)(−1)2+2 = (4 − t)(t2 − 10t + 24) =
−1 5 − t
= −(t − 4)2 (t − 6).
230
geometrica uguale a 1. Calcolo la molteplicità geometrica di λ1 con la
formula (26.2):
5 0 −1 1 0 0
dim EL (4) = 3 − rk 1 4 −1 − 4 0 1 0 =
−1 0 5 0 0 1
1 0 −1
= 3 − rk 1 0 −1 = 3 − 1 = 2.
−1 0 1
Quindi
−1 0 −1 x 0
1 −2 −1 y = 0 ⇔ −x − z = 0
⇔
x − 2y − z = 0
−1 0 −1 z 0
x = −z
⇔
y = −z.
231
Secondo svolgimento. (a) Risolvo l’equazione L(v1 ) = xv1 + yv2 + zv3
⇔ (5, 1, −1) = x(1, 0, 0) + y(1, 1, 0) + z(1, 1, 1), ottenendo x = 4,
y = 2, z = −1. Quindi XL(v1 ) = (4 2 1)T è la prima colonna di AL B B .
Analogamente
da cui
4 0 0
AL B B = 2 6 0 .
−1 −1 4
4 − t 0 0
pL (t) = 2 6 − t 0 = (4 − t)2 (6 − t)
−1 −1 4 − t
che si ottiene direttamente facendo il prodotto degli elementi sulla
diagonale principale. Otteniamo λ1 = 4 e λ2 = 6 come sopra con le
stesse molteplicità algebriche. La molteplicità geometrica di λ1 vale
0 0 0
3 − rk 2 2 0 = 2.
−1 −1 0
232
Ottengo
233
(Aλ − In )X = On×1 , quindi EA (λ1 ) ha equazione
√
1−2− 5 2 √
X = O2×1
2 3−2− 5
√
−1 − 5 2√ x
⇔ = O2×1 .
2 1− 5 y
Risolvo il sistema lineare trasformando
√ √ √ !
−1 − 5 2√ 0 H21 (2/(1+ 5)) −1 − 5 2 √ 0 .
−→ 4√
2 1− 5 0 0 1+ 5
+1− 5 0
234
Verifica.
√ √ √
det C = 2 − 2 5 − 2 − 2 5 = −4 5;
√ √
1 1 − √5 −2 1 −1 +√ 5 2
C −1 =− √ = √ ;
4 5 −1 − 5 2 4 5 1 + 5 −2
√
−1 1 −1 +√ 5 2 1 2 2√ 2√
C AC = √ =
4 5 1 + 5 −2 2 3 1+ 5 1− 5
√ √
1 3 + √5 4 + 2 √5 2√ 2√
= √ =
4 5 −3 + 5 −4 + 2 5 1+ 5 1− 5
√ √
1 5+2 5 0 √ 1 2+ 5 0√
= √ =√ =
5 0 −5 + 2 5 5 0 2− 5
λ1 0
= .
0 λ2
risulta diagonalizzabile.
235
Gli autovalori sono λ1 = 1, λ2 = 4, λ3 = a2 . Se a 6= 1, −1, 2, −2, Ma
ha tre autovalori distinti, quindi è diagonalizzabile.
Se a = 1, λ1 ha molteplicità algebrica 2 e λ2 ha molteplicità
algebrica 1. Trovo dim EM1 (1) = 3 − rk(M1 − I3 ) =
3 1 0
= 3 − rk 0 0 0 = 3 − 2 = 1.
0 2 0
M2 non è diagonalizzabile.
Se a = −2, λ2 = 4 ha molteplicità algebrica 2 e λ1 ha molteplicità
algebrica 1. Trovo dim EM−2 (4) = 3 − rk(M−2 − 4I3 ) =
0 1 0
= 3 − rk 0 0 0 = 3 − 2 = 1.
0 −1 −3
236
M−2 non è diagonalizzabile.
Conclusione: Ma è diagonalizzabile se, e solo se, a 6= 1, ±2.
237
238
Lezione 29
Geometria
239
Prenderemo il seguente come presupposto per la geometria affine.
240
Equazioni parametriche del piano nello spazio. In termini di varietà
lineare:
(i) v0 ∈ v0 + U .
(ii) ∀v1 ∈ v0 + U : v1 + U = v0 + U .
(iii) ∀v1 , v2 ∈ v0 + U : v2 − v1 ∈ U .
241
Prima inclusione: v1 + U ⊆ v0 + U . Consideriamo un vettore w ∈
v1 + U , quindi
∃u0 ∈ U : w = v1 + u0 . (29.4)
Combinando (29.3), (29.4), si ha w = v0 +(u+u0 ). Essendo u+u0 ∈ U
in quanto somma di due vettori in U , risulta w ∈ v0 + U .
Seconda inclusione: v0 + U ⊆ v1 + U . Consideriamo un vettore w0 ∈
v0 + U , quindi
∃u00 ∈ U : w0 = v0 + u00 . (29.5)
Dalla (29.3) si ha v0 = v1 − u e combinando con la (29.5) otteniamo
w0 = v1 + (u00 − u). Vale u00 − u ∈ U in quanto differenza di due vettori
in U e ciò implica w0 ∈ v1 + U .
(iii) Per ipotesi esistono u1 , u2 ∈ U tali che
v1 = v0 + u1 , v2 = v0 + u2 .
Ne segue v2 − v1 = u2 − u1 ∈ U .
Interpretiamo geometricamente la prop. 29.2 con riferimento ad una
retta r associata alla varietà lineare (x0 , y0 , z0 ) + h(l, m, n)i.
(i) (x0 , y0 , z0 ) ∈ (x0 , y0 , z0 ) + h(l, m, n)i, quindi x0 , y0 , z0 sono le coor-
dinate di un punto della retta stessa.
(ii) Se (x1 , y1 , z1 ) ∈ (x0 , y0 , z0 ) + h(l, m, n)i, allora
242
Figura 29.1: l, m, n sono le coordinate di un vettore non nullo parallelo
ad r.
243
sono due qualsiasi vettori paralleli al piano, linearmente indipenden-
−→ −→
ti; ad esempio P Q(0, −1, 3), QR(−1, 2, 1). Ottengo la varietà lineare
(1, 1, −1) + h(0, −1, 3), (−1, 2, 1)i e le equazioni
x = 1 − t0
y = 1 − t + 2t0 t, t0 ∈ R.
z = −1 + 3t + t0 ,
ax + by + cz + d = 0, (a, b, c) 6= 0. (29.9)
Ora
245
Il test di appartenenza dà
0 −1 x − 1 −1 2 y − 1
−1 2 y − 1 −→ H12
0 −1 x − 1 H−→31 (3)
3 1 z+1 3 1 z+1
−1 2 y−1 −1 2 y−1
0 −1 x−1 H−→32 (7)
0 −1 x−1 .
0 7 3y − 3 + z + 1 0 0 7x + 3y + z − 9
L’equazione è 7x + 3y + z − 9 = 0. Lasciamo al lettore di verificare che
le coordinate dei punti P , Q ed R soddisfano tale equazione.
Esercizio 29.10. Trovare i punti di intersezione tra la retta per
A(1, 2, 3), B(1, 0, 0) e il piano per O, P (1, 0, 1), Q(1, 1, 1).
−→
Svolgimento. Vale AB(0, −2, −3). La retta AB è la varietà lineare
(1, 0, 0) + h(0, −2, −3)i. Il piano è
−→ −→
(0, 0, 0) + hOP , OQi = (0, 0, 0) + h(1, 0, 1), (1, 1, 1)i.
Cerco l’equazione cartesiana: (x, y, z) ∈ h(1, 0, 1), (1, 1, 1)i ⇔ la
matrice a scala ottenuta da
1 1 x
0 1 y
1 1 z
non ha pivot in ultima colonna; trasformandola,
1 1 x
0 1 y ,
0 0 z−x
quindi il piano ha equazione z − x = 0. Sostituisco le coordinate del
punto generico della retta, x = 1, y = −2t, z = −3t, nell’equazione
cartesiana del piano, ottenendo −3t − 1 = 0, da cui t = −1/3. Ne
segue che c’è un unico punto di intersezione, (1, 32 , 1).
246
Compito 29.11. Supponiamo dati due numeri reali λ e µ, non en-
trambi nulli. Con riferimento alle (29.8), cosa rappresenta l’equazione
247
248
Lezione 30
x = 1
La retta r : y = 2t (t ∈ R) è parallela al piano π di equazione
z = t−1
x − y + 2z + 7 = 0?
30.1 Parallelismo
Data una retta, associata r alla varietà lineare (x0 , y0 , z0 ) + h(l, m, n)i,
i numeri l, m, n sono coordinate di un vettore parallelo alla retta e
prendono il nome di parametri direttori di r. Essi sono individuati a
meno di un fattore non nullo.
Fatto: due varietà lineari della stessa dimensione sono parallele se, e
solo se, hanno lo stesso spazio direttore (cioè se, e solo se, sono parallele
agli stessi vettori). Due varietà lineari di dimensioni differenti sono
249
parallele se, e solo se, lo spazio direttore della varietà lineare più piccola
è contenuto nello spazio direttore della varietà lineare più grande.
250
Proposizione 30.3. Condizione necessaria e sufficiente affinché i pia-
ni π : ax + by + cz + d = 0 e π 0 : a0 x + b0 y + c0 z + d0 = 0 siano paralleli
è
a b c
rk 0 0 0 = 1. (30.2)
a b c
251
30.2 Forme bilineari simmetriche
Definizione 30.5. Una forma bilineare in uno spazio vettoriale VK è
una funzione
b : V × V → K : (u1 , u2 ) 7→ u1 | u2 b
∀u1 , u2 ∈ V : u1 | u2 b = u2 | u1 b . (30.5)
(AB)T = B T AT . (30.6)
252
In altre parole, la trasposta del prodotto di due matrici è il prodotto
delle trasposte, prese in ordine contrario.
aij = vi | vj b , i, j = 1, 2, . . . , n. (30.8)
253
Risulta
n n n n
X X (30.3) X X (30.4)
u1 | u2 b = bi vi | cj vj b = bi vi | cj vj b =
i=1 j=1 i=1 j=1
n n n X
n
X X (30.8) X
= bi cj vi | vj b = bi cj aij .
i=1 j=1 i=1 j=1
Pn
a c
c1 j=1 1j j
c2 Pn a c
j=1 2j j
XuT1 AXu2 = (b1 b2 . . . bn )A . = (b1 b2 . . . bn )
.. . =
P ..
n
cn j=1 anj cj
n
X n
X n
X
= b1 a1j cj + b2 a2j cj + · · · + bn anj cj =
j=1 j=1 j=1
n
X n
X X n
n X
= bi aij cj = bi cj aij = u1 | u2 b .
i=1 j=1 i=1 j=1
(30.7)
hXvT0 AXu + kXvT00 AXu = h v0 | u b + k v00 | u b .
254
La (30.4) si prova analogamente.
Verifichiamo che b è simmetrica. Siccome la matrice a destra in
(30.7) è una matrice 1 × 1, essa è uguale alla propria trasposta. Ne
segue:
T
u1 | u2 b = XuT1 AXu2 = XuT2 AT (XuT1 )T =
(30.7)
= XuT2 AXu1 = u2 | u1 b .
anj
255
Compito 30.14. Trovare (x1 , x2 ) | (y1 , y2 ) b , dove b è la fbs in R2
che rispetto alla base naturale ha matrice
1 2
A= .
2 3
256
Lezione 31
Ortogonalità
257
Se x2 6= 0, allora
x21
x1
(x1 , x2 ) | (x1 , x2 ) b = x22 + 4 +3
x22 x2
e, sostituendo t = x1 /x2 ,
(x1 , x2 ) | (x1 , x2 ) b = x22 (t2 + 4t + 3).
Siccome ∆ = 4 > 0, esistono valori di t tali che t2 +4t+3 ≤ 0 e ponendo
corrispondentemente x2 = 1, x1 = t si ottiene (t, 1) | (t, 1) b ≤ 0.
Concludendo, b non è un prodotto scalare.
2 1
Esercizio 31.3. Dimostrare che la fbs associata ad A = ri-
1 3
spetto alla base naturale di R2 è un prodotto scalare.
Per risolvere problemi di questo tipo può essere utile il seguente:
Teorema 31.4. Una fbs in uno spazio vettoriale reale è definita posi-
tiva se, e solo se, tutti gli autovalori della matrice associata, rispetto
a una base qualsiasi, sono positivi.
Secondo svolgimento dell’esercizio 31.2. Trovo gli autovalori di A:
1 − t 2
pA (t) = = t2 − 4t − 1.
2 3 − t
√
Gli autovalori sono 2 ± 5. Siccome un autovalore è negativo, b non è
un prodotto scalare.
Un altro strumento per il medesimo problema fa uso dei minori di
Nord-Ovest di una matrice quadrata d’ordine n; essi sono gli n minori
di ordini 1, 2, . . ., n, “in alto a sinistra”. Ad esempio la matrice
a b c
d e f
g h i
258
ha tre minori di Nord-Ovest e precisamente
a b c
a b
a, , d e f .
d e
g h i
Teorema 31.5. Una fbs in uno spazio vettoriale reale è definita positi-
va se, e solo se, tutti i minori di Nord-Ovest di una matrice associata,
rispetto a una base qualsiasi, sono positivi.
Terzo svolgimento dell’esercizio 31.2. I minori di Nord-Ovest di A sono
1 e det A = −1 e non sono tutti positivi.
Notazione 31.6. D’ora in avanti, quando possibile, se b è un prodotto
scalare, esso verrà sottinteso e scriveremo:
u1 · u2 = u1 | u2 b .
259
Esempio 31.10. Il modulo di v = (x1 , x2 , . . . , xn ) ∈ Rn rispetto al
prodotto scalare ordinario è
√ (31.1) √
q
kvk = v · v = v v = x21 + x22 + · · · + x2n .
T
Svolgimento. (a)
p (30.3) p (30.4) p
khvk = (hv) · (hv) = h[v · (hv)] = h2 (v · v) = |h| kvk.
(b) Per l’equazione precedente khvk = 1 se, e solo se, |h| kvk = 1.
che è la lunghezza di v.
3) La definizione data dipende dalla scelta di una base B = i, j, k
dello spazio vettoriale dei vettori geometrici. Tuttavia la proposizione
seguente mostra che il prodotto scalare in sé è indipendente da tale
scelta.
260
Proposizione 31.14. Siano v, v0 vettori geometrici e si consideri il
prodotto scalare definito in (31.2). Allora
∀t : (tu1 + u2 ) · (tu1 + u2 ) ≥ 0 ⇒
2
∀t : t u1 · u1 + 2tu1 · u2 + u2 · u2 ≥ 0 ⇒
∀t : ku1 k2 t2 + 2u1 · u2 t + ku2 k2 ≥ 0.
1
Spazio vettoriale in cui i vettori sono le funzioni continue su [a, b].
261
Abbiamo dunque un trinomio di secondo grado in t per il quale risulta
∆ ≤ 0. Ne segue
∆
= (u1 · u2 )2 − ku1 k2 ku2 k2 ≤ 0 ⇒
4
(u1 · u2 ) ≤ ku1 k2 ku2 k2 ⇒ (facendo la radice quadrata)
2
Dimostrazione.
262
Osservazione 31.19. La definizione ha senso perché per la disugua-
glianza di Cauchy-Schwarz vale
u1 · u2
ku1 k ku2 k ≤ 1,
x1 v1 + x2 v2 + · · · + xr vr = 0. (31.6)
263
Preso j ∈ {1, 2, . . . , r}, moltiplicando scalarmente (31.6) per vj si
ottiene
(x1 v1 + x2 v2 + · · · + xr vr ) · vj = 0 · vj ⇒
1
·v
x v1
j + ·v
x2v2
j + · · · + xj vj · vj + · · · + · vj = 0 ⇒
xrvr
xj kvj k2 = 0 ⇒ xj = 0,
Compito 31.25. Trovare due vettori ortogonali non nulli nel sot-
tospazio W = h(1, 1, 0), (1, 2, 3)i di R3 (rispetto al prodotto scalare
ordinario).
264
Lezione 32
Procedimento di
Gram-Schmidt
265
Esempio 32.2. N = e1 , e2 , . . . , en è una base ortonormale di Rn ,
rispetto al prodotto scalare ordinario, infatti
0
..
.
T 1 se i = j
ei · ej = ei ej = (0 . . . 1 . . . 0) 1 =
.. 0 se i 6= j.
.
0
266
Osservazione 32.4. Se v1 , v2 , . . . , vr è una base ortogonale di uno
spazio vettoriale euclideo, allora
v1 v2 vr
, , ...,
kv1 k kv2 k kvr k
è una base ortonormale (cfr. eserc. 31.11). Quindi la parte difficile del
problema è trovare una base ortogonale, visto che poi una base ortonor-
male si ottiene semplicemente dividendo i vettori per i propri moduli.
Quest’ultima parte del procedimento si chiama normalizzazione dei
vettori.
Cerchiamo dapprima una base ortogonale di uno spazio vettoriale
euclideo di dimensione 2, poniamo V = hw, vi (w, v linearmente in-
dipendenti). Siccome hw, v + cwi = V per ogni c ∈ R, sarà sufficiente
v·w
trovare c tale che w · (v + cw) = 0 ⇔ w · v + cw · w = 0 ⇔ c = − w·w
(1 ). Quindi una base ortogonale di VR è
v·w
w, v − w.
w·w
v·w
Il coefficiente c(v, w) = w·w si chiama coefficiente di Fourier di v
rispetto a w. Nel caso particolare dei vettori geometrici (vedi figura),
kvk kwk cos vw
c
c(v, w)w = w
kwk2
• ha modulo kvk | cos vw|;
c
267
Teorema 32.5 (Procedimento di Gram-Schmidt). Sia B = v1 , v2 , . . . ,
vn una base di uno spazio vettoriale euclideo VR . Allora, ponendo
w1 = v1 e
j
X vj+1 · wi
wj+1 = vj+1 − wi , j = 1, 2, . . . , n − 1, (32.3)
i=1
wi · wi
268
2a) Dimostriamo che Fj+1 è una famiglia ortogonale di vettori. Per
ipotesi induttiva, Fj è una famiglia ortogonale, quindi
∀i, h = 1, 2, . . . , j : (i 6= h ⇒ wi · wh = 0).
Siccome wi · wh = 0 per i = 1, 2, . . . , j, i 6= h, si ha
vj+1 · wh
wj+1 · wh = vj+1 · wh − (wh · wh ) = 0.
wh · wh
Quindi Fj+1 è ortogonale.
2b) Dimostriamo che Fj+1 è una base di hv1 , v2 , . . . , vj , vj+1 i. Per
ipotesi induttiva vale hv1 , v2 , . . . , vj i = hw1 , w2 , . . . , wj i; ciò implica
269
Ne segue
(x1 , x2 , x3 , x4 ) · (y1 , y2 , y3 , y4 ) = x1 y1 + x2 y2 + x3 y3 + x4 y4 .
270
w1 = v1 = (−1, 1, 0, 0).
(32.3) v2 · w1
w2 = v2 − w1 =
w1 · w1
(−1, 0, 1, 0) · (−1, 1, 0, 0)
= (−1, 0, 1, 0) − (−1, 1, 0, 0) =
(−1, 1, 0, 0) · (−1, 1, 0, 0)
1 1 1
= (−1, 0, 1, 0) − (−1, 1, 0, 0) = (− , − , 1, 0).
2 2 2
(32.3) v3 · w1 v3 · w2
w3 = v3 − w1 − w2 =
w1 · w1 w2 · w2
(−1, 0, 0, 1) · (−1, 1, 0, 0)
= (−1, 0, 0, 1) − (−1, 1, 0, 0) +
(−1, 1, 0, 0) · (−1, 1, 0, 0)
(−1, 0, 0, 1) · (− 21 , − 21 , 1, 0) 1 1
− 1 1 (− , − , 1, 0) =
(− 2 , − 2 , 1, 0) · (− 12 , − 21 , 1, 0) 2 2
1
1 1 1
= (−1, 0, 0, 1) − (−1, 1, 0, 0) − 23 (− , − , 1, 0) =
2 2
2 2
1 1
= (−2, −2, −2, 6) = (−1, −1, −1, 3).
6 3
Una base ortogonale di W è
1 1 1
B = (−1, 1, 0, 0), (− , − , 1, 0), (−1, −1, −1, 3).
2 2 3
Lasciamo al lettore di verificare il fatto che tutti i vettori trovati ap-
partengono a W e che i tre possibili prodotti scalari tra due vettori
distinti sono uguali a zero. Osservando che khvk = |h| kvk calcolo:
√ √
kw1 k = w1 · w1 = 2,
√
1 6
kw2 k = k(−1, −1, 2, 0)k = ,
2 2√ √
1 12 2 3
kw3 k = k(−1, −1, −1, 3)k = = .
3 3 3
271
Una base ortonormale è B 0 = u1 , u2 , u3 dove
w1 1
u1 = = √ (−1, 1, 0, 0),
kw1 k 2
w2 2 1 1
u2 = = √ (−1, −1, 2, 0) = √ (−1, −1, 2, 0),
kw2 k 62 6
w3 3 1 1
u3 = = √ (−1, −1, −1, 3) = √ (−1, −1, −1, 3).
kw3 k 2 3 3 2 3
272
Figura 32.1: Ortogonale di un sottospazio.
273
274
Lezione 33
Distanza
275
2) Se dim V è finita, in conseguenza del teorema vale dim V = dim W +
dim W ⊥ .
Dimostrazione. 1) Dimostriamo che W + W ⊥ è diretta. Consideriamo
un vettore v ∈ W ∩ W ⊥ . Da v ∈ W ⊥ segue per definizione ∀w ∈ W :
w · v = 0. Siccome v ∈ W , risulta v · v = 0 e questo implica v = 0.
Resta dimostrato che W ∩ W ⊥ = {0} e per il teorema 10.7 la somma
è diretta.
2) Dimostriamo che W + W ⊥ = V , che è conseguenza, con riferimento
a (33.1), della validità delle seguenti proprietà per ogni v ∈ V : (a) w ∈
W , (b) w0 ∈ W ⊥ , (c) v = w + w0 .
(a) La prima equazione in (33.1) esprime w come combinazione lineare
di w1 , w2 , . . . , wr , quindi w ∈ hw1 , w2 , . . . , wr i = W .
(c) Tale asserzione è immediata conseguenza della seconda equazione
in (33.1).
(b) In virtù della prop. 32.9, è sufficiente dimostrare che
∀h = 1, 2, . . . , r : w0 · wh = 0.
Vale
" r
#
(33.1) X
w 0 · wh = v− c(v, wi )wi · wh
i=1
r
X
= v · wh − c(v, wi )wi · wh .
i=1
w0 · wh = v · wh − c(v, wh )wh · wh =
v · wh
= v · wh − wh · wh = 0.
wh · wh
276
Definizione 33.3. I vettori w e w0 definiti in (33.1) si dicono proie-
zioni ortogonali di v su, rispettivamente, W e W ⊥ .
Esercizio 33.4. Esprimere v = (2, −2, −3) come somma di un vettore
nel sottospazio W = h(1, 0, 1), (0, 1, 1)i di R3 e di un vettore in W ⊥ .
(1 )
Svolgimento. Userò la (33.1) nella quale serve una base ortogonale di
W . La base B = v1 , v2 = (1, 0, 1), (0, 1, 1) non è ortogonale perché
(1, 0, 1) · (0, 1, 1) = 1 6= 0. Applico il procedimento di Gram-Schmidt
per trovare una base ortogonale w1 , w2 :
w1 = v1 = (1, 0, 1);
v2 · w1 (0, 1, 1) · (1, 0, 1)
w2 = v2 − w1 = (0, 1, 1) − (1, 0, 1) =
w1 · w1 (1, 0, 1) · (1, 0, 1)
1 1
= (0, 1, 1) − (1, 0, 1) = (−1, 2, 1).
2 2
Una base ortogonale di W è (1, 0, 1), 21 (−1, 2, 1), o anche, visto che
moltiplicare i singoli vettori per scalari non nulli non influisce sull’or-
togonalità,
w1 = (1, 0, 1), w20 = (−1, 2, 1).
Applico la (33.1) con v = (2, −2, −3):
v · w1 v · w20 0
w = w1 + 0 w =
w1 · w1 w2 · w20 2
(2, −2, −3) · (1, 0, 1) (2, −2, −3) · (−1, 2, 1)
= (1, 0, 1) + (−1, 2, 1)
(1, 0, 1) · (1, 0, 1) (−1, 2, 1) · (−1, 2, 1)
−1 −9 1 3
= (1, 0, 1) + (−1, 2, 1) = − (1, 0, 1) − (−1, 2, 1) =
2 6 2 2
1
= (2, −6, −4) = (1, −3, −2).
2
w0 = v − w = (2, −2, −3) − (1, −3, −2) = (1, 1, −1).
1
Se il prodotto scalare non è specificato, si intende il prodotto scalare ordinario.
277
Concludendo, v = w + w0 , dove w = (1, −3, −2) ∈ W e w0 =
(1, 1, −1) ∈ W ⊥ .
Verifica, usando le equazioni (32.5):
w0 · w1 = (1, 1, −1) · (1, 0, 1) = 0;
w0 · w20 = (1, 1, −1) · (−1, 2, 1) = 0.
278
Risposta alla domanda iniziale.
Il punto generico di r è Pt (1+t, 2, 3+t).
x = 3
Risolvo l’equazione di s: , quindi il punto generico di s è
y = z,
−−→
Qz (3, z, z). Considero l’insieme di tutti i vettori Pt Qz (2 − t, z − 2, z −
3 − t):
−−→
{Pt Qz | t, z ∈ R} = {(2 − t, z − 2, z − 3 − t) | t, z ∈ R} =
= {(2, −2, −3) + (−t, 0, −t) + (0, z, z) | t, z ∈ R} =
= (2, −2, −3) + h(−1, 0, −1), (0, 1, 1)i =
= (2, −2, −3) + h(1, 0, 1), (0, 1, 1)i.
Ho ottenuto una varietà lineare. Per il teorema 33.5, esiste un unico
vettore di modulo minimo in essa ed è la proiezione w0 sull’ortogonale
di W = h(1, 0, 1), (0, 1, 1)i. Per il calcolo fatto
√ in precedenza, risulta
0 0
w = (1, 1, −1), quindi dist(r, s) = kw k = 3.
279
Figura 33.1: Angolo tra due rette
Ricordando la formula
v·w
vw
c = arccos ,
kvk kwk
se l, m, n e l0 , m0 , n0 sono terne di parametri direttori associate a due
rette orientate r ed s, allora l’angolo è
ll0 + mm0 + nn0
b = arccos √
rs √ . (33.2)
l2 + m2 + n2 l02 + m02 + n02
Calcoliamo il coseno dell’angolo formato da una retta orientata r di
coseni direttori l, m, n e l’asse orientato delle x, usando la (33.2) con
l0 = 1, m0 = 0, n0 = 0:
l l
x=√
cos rc = = l.
l2 + m2 + n2 1
Analoghe formule per gli assi orientati giustificano il nome di coseni
direttori:
cos rc
x = l, cos ry b = m, cos rz b = n.
280
Dalla (33.2) si ottiene la seguente condizione necessaria e sufficiente
per l’ortogonalità tra due rette: ll0 + mm0 + nn0 = 0.
w ∈ W ⇔ al + bm + cn = 0 ⇔ n · w = 0.
281
Definizione 33.14. L’angolo formato da due piani è l’angolo acuto
formato da due rette ortogonali ai piani stessi.
Ne segue che i due piani sono ortogonali se, e solo se, aa0 +bb+cc0 = 0.
282
Due rette Due piani Piano-retta
Paral
l m n a b c
leli rk 0 =1 rk 0 0 0 = 1 al + bm + cn = 0
l m0 n0 a b c
smo
Orto
0 0 0 0 0 0 a b c
gona ll + mm + nn = 0 aa + bb + cc = 0 rk =1
l m n
lità
Compito 33.15. Trovare il vettore di modulo minimo nella varietà
lineare (1, 2, 3) + h(1, 1, 1)i.
283
284
Lezione 34
Il teorema spettrale
285
Nella proposizione seguente verrà applicata la formula (32.1) che
definisce le famiglie ortonormali.
Proposizione 34.3. Una matrice H ∈ M(n × n, R) risulta ortogo-
nale se e solo se le sue colonne formano una base ortonormale di Rn ,
rispetto al prodotto scalare ordinario.
aij = (H T )i H j = (H i )T H j = H i · H j
Teorema 34.4 (Teorema spettrale reale). Per ogni matrice reale sim-
metrica A d’ordine n, esiste una base ortogonale di Rn composta da
autovettori di A.
286
Notare che siccome nella definizione H T = H −1 , una matrice orto-
gonalmente diagonalizzabile è anche diagonalizzabile.
0 1 1 0
1 0 0 1
A=
1
.
0 0 1
0 1 1 0
1 2 1
1 2
= = 2 1 ,
A
1 2 1
1 2 1
287
(b) Calcolo il polinomio caratteristico:
−t 1 1 0
1 −t 0 1
pA (t) = = (sviluppo secondo la 1a riga)
1 0 −t 1
0 1 1 −t
−t 0 1 1 0 1
= −t(−1)1+1 0 −t 1 + (−1)1+2 1 −t
1 +
1 1 −t 0 1 −t
1 −t 1
+(−1)1+3 1 0 1 =
0 1 −t
= −t(−t3 + t + t) − (t2 + 1 − 1) + (1 − 1 − t2 ) =
= t4 − 2t2 − t2 − t2 = t4 − 4t2 = t2 (t2 − 4) = t2 (t + 2)(t − 2).
da cui
0 1 1 −2 x4
(−1, 0, 0, 1), (0, −1, 1, 0), (1, −1, −1, 1), (1, 1, 1, 1),
290
Normalizzandoli si ottiene una base ortonormale:
1 1 1
√ (1, 2, 1), √ (−2, 1, 0), √ (−1, −2, 5).
6 5 30
Una matrice H con le proprietà richieste è
√ √ √
1/√6 −2/√ 5 −1/√30
H = 2/√6 1/ 5 −2/√ 30 .
1/ 6 0 5/ 30
291
292
Lezione 35
293
Figura 35.1: Angolo tra una retta e un piano. Vale sin(εr)
b = cos α.
(32.2)
Xwi · Xwj = XwT i Xwj = wi · wj .
0
Resta dimostrato che le colonne di Aid B B formano una base ortonor-
male di Rn , quindi tale matrice è ortogonale (prop. 34.3).
294
35.1 Cambiamenti di riferimento cartesia-
no
Dati due RC(Oijk), RC(O0 i0 j0 k0 ), indichiamo con (α, β, γ) la terna del-
le coordinate di O0 rispetto a RC(Oijk); poi indichiamo con (x, y, z)
e (x0 , y 0 , z 0 ) le coordinate di un medesimo punto P rispetto ai due
−→ −−→ −−→
RC. Intendiamo rappresentare l’equazione OP = O0 P + OO0 tramite
coordinate.
−→
• OP ha coordinate (x, y, z) rispetto a B = i, j, k;
−−→
• OO0 ha coordinate (α, β, γ) rispetto a B;
−−→
• O0 P hacoordinate (x0 , y 0 , z 0 ) rispetto a B 0 = i0 , j0 , k0 e coordinate
x0
0
Aid B B y 0 rispetto a B.
z0
0
Concludendo, posto H = Aid B B , le equazioni di cambiamento di coor-
dinate sono:
0
x x α
0
y = H y + β , H ortogonale. (35.1)
0
z z γ
1 1 −1 1 0 H31 (−1) 0 1 −2 0 0
1 0 1 1 0
0 1 2 3 0 .
0 0 −4 −3 0
Risolvo dal basso il sistema
a + c = −d
b + 2c = −3d
−4c = 3d
−dy − dz + d = 0 ⇔ −y − z + 1 = 0.
a b c
Per poter applicare la condizione di ortogonalità, rk =
l m n
1, conviene ordinare l’equazione precedente,
302
Lezione A
β : R → [0, +∞[: x 7→ x2 .
Vale
√ √
β ◦ α : [0, +∞[→ [0, +∞[: x 7→ β(α(x)) = β( x) = ( x)2 = x =
id[0,+∞[ (x).
β ◦ α e id[0,+∞[ hanno stessi dominio, codominio e legge, quindi β ◦ α =
id[0,+∞[ . Tuttavia im α = [0, +∞[6= R, quindi α non è suriettiva, quindi
α non è biiettiva.
√
Osservazione A.1. α ◦ β : R → R : x 7→ α(β(x)) = α(x2 ) = x2 =
|x|, quindi α ◦ β 6= idR .
303
2.26. La matrice B è uguale a una matrice (bj1 ) definita ponendo
br1 = 1 e bj1 = 0 per j = 1, 2, . . . , r − 1, r + 1, . . . , n. Il prodotto è
una matrice m × 1, AB = (ci1 ). Per definizione di prodotto, per ogni
i = 1, 2, . . . , m
n
X
ci1 = aij bj1 .
j=1
α + α = a + ib + a − ib = 2a = 2<(α); (A.1)
αα = (a + ib)(a − ib) = a2 − (ib)2 = a2 + b2 = |α|2 . (A.2)
304
θ = π. Sostituisco in (5.5), con n = 4, per ottenere le soluzioni:
π π π 1 1
z1 = ei 4 = cos + i sin = √ + i √ ,
4 4 2 2
3π 3π 3π 1 1
z2 = ei 4 = cos + i sin = −√ + i√ ,
4 4 2 2
5π 5π 5π 1 1
z3 = ei 4 = cos + i sin = −√ − i√ ,
4 4 2 2
7π 7π 7π 1 1
z4 = ei 4 = cos + i sin = √ − i√ .
4 4 2 2
8.38. Una matrice A è simile ad In se, e solo se, esiste una matrice
invertibile C d’ordine n tale che C −1 In C = A, cioè In = A. Ne segue
che l’unica matrice simile ad In è In stessa. La classe d’equivalenza
individuata da In contiene solo In .
9.17. L’insieme W contiene (1, 1) e (2, 4), ma non (1, 1) + (2, 4) =
(3, 5). Quindi W non è un sottospazio di R2 .
10.10.
W + W = {w1 + w2 | w1 , w2 ∈ W }.
305
Ogni vettore di W + W è somma di due vettori di W ; siccome W è
chiuso rispetto alla somma, se ne deduce che ogni vettore di W + W
è anche un vettore di W , cioè W + W ⊆ W . D’altra parte, comunque
preso un vettore w1 ∈ W , osservando che 0 ∈ W , la somma w1 + 0 =
w1 dei due appartiene a W + W . Resta dimostrato che ogni vettore di
W appartiene a W + W , ovvero W ⊆ W + W . Mettendo insieme le
due cose dimostrate, W + W = W .
12.16. No. Osservo che il vettore (0, 0, 1) non si può ottenere come
combinazione lineare della famiglia assegnata. Quindi B non è una
famiglia di generatori di R3 .
13.8 Sı̀. Per la prop. 13.4 (i) (in uno spazio vettoriale di dimensione
n, ogni famiglia con più di n vettori è linearmente dipendente.), in R3
ogni famiglia formata da quattro vettori è linearmente dipendente.
306
15.18. Osservo che ad esempio (1, 1, 1) ∈ 6 im f . Infatti f (x, y) =
(1, 1, 1) equivale a (2x, y, x − y) = (1, 1, 1) e quindi al sistema lineare
2x = 1
y = 1
x − y = 1,
307
f (9, 10) = 2(1, 0, 0) + 0(0, 1, 0) − 1(1, 1, 1).
Ne concludo che una famiglia di generatori di im f è
(0, −1, −1), (1, −1, −1).
308
24.23. L’affermazione è vera e la dimostro. Il sistema è omogeneo,
quindi è compatibile e le sue soluzioni formano un sottospazio W di
K n avente dimensione d = n − rk A. Siccome T ∈ W e T 6= On×1 ,
tale sottospazio ha dimensione d > 0, quindi rk A < n. La proprietà
8) dei determinanti afferma che una matrice quadrata d’ordine n ha
determinante diverso da zero se, e solo se, il suo rango vale n. Allora
la matrice A ha determinante nullo.
25.22. Vale g(1, 2, 3) = 4(1, 2, 3), g(1, 0, −1) = (0, 0, 0), g(0, 1, 0) =
(0, 0, 0), quindi (1, 2, 3), (1, 0, −1), (0, 1, 0) sono autovettori con auto-
valori, rispettivamente, 4, 0 e 0.
Osservazione A.3. Siccome g(x, y, z) è un multiplo di (1, 2, 3) per
ogni x, y, z, se un autovettore v ha autovalore diverso da zero, allora
v = h(1, 2, 3) per qualche h ∈ R∗ , altrimenti v ∈ ker g, v 6= 0.
309
Inoltra, ancora per il teorema di Binet, det(C −1 ) det C = det(C −1 C) =
det In = 1. Ne segue la tesi.
310
Notiamo che per qualunque scelta di a e b tale equazione ha infinite
soluzioni nelle incognite x e y e siccome è richiesta soltanto una coppia
di vettori, poniamo a = 1 e b = 0. L’equazione si trasforma in 2x+3y =
0 e una tra le infinite soluzioni è x = 3, y = −2. Sostituendo tali a, b,
x, y nella (A.4) otteniamo come soluzione (tra le infinite possibili)
u1 = (1, 1, 0), u2 = (1, −1, −6).
311