11 giugno 2018
Indice
1 Algebra necessaria 4
1.1 Gruppi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Prodotto cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Operazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Gruppi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.4 Relazioni di equivalenza . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 4 proprietà generali dei campi . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Campi finiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1
3.3 Dimensione di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.1 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.2 Dimensione dei sottospazi . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Somma di sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 Relazione di Grassmann . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5.1 Somma diretta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.6 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6.1 spazio delle righe, spazio delle colonne . . . . . . . . . . . . . . . 30
3.7 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.7.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4 Algoritmo di Gauss 32
4.1 Algoritmo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.1 L’algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.3 Rouché-Capelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.4 Riassunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6 Determinanti 61
6.1 Introduzione ed esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.2 Gruppi di permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.2.1 Trasposizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.2.2 Permutazioni pari e dispari . . . . . . . . . . . . . . . . . . . . . 67
6.3 Applicazioni multilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.3.1 Antisimmetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.3.2 Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
6.3.3 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2
6.4 Metodi per calcolare il determinante . . . . . . . . . . . . . . . . . . . . 73
6.4.1 Teorema di Binet . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.5 Formula di Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.5.1 La formula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.6 Regola di Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3
Capitolo 1
Algebra necessaria
4
1.1 Gruppi
1.1.1 Prodotto cartesiano
Definizione 1. A, B insiemi. A × B è l’insieme delle coppie ordinate (a, b) con a ∈ A e
b ∈ B.
Ciò è detto prodotto cartesiano di A e B.
Esempio: A = {1, 2, 3} e B = {a, b}
A × B = {(1, a), (2, a), (3, a), (1, b), (2, b), (3, b)}
R × R = {(x, y)|x, y ∈ R} = R2
1.1.2 Operazione
Sia S insieme S , ∅. Operazione su S è una funzione:
∗ : S ×S → S
(a, b) → c = a ∗ b
dove c ∈ S. Esempi:
1. Z × Z → Z (a, b) → a + b
2. Q × Q → Q (x, y) → x · y
1.1.3 Gruppi
Definizione
Definizione 2. Una struttura algebrica è un insieme con una o più operazioni. Pren-
diamo quindi un insieme G, ∗ operazione su G. La coppia (G, ∗) si definisce un gruppo
se valgono le seguenti proprietà:
1. ∀a, b, c (a ∗ b) ∗ c = a ∗ (b ∗ c) (proprietà associativa)
5
Osservazione. f , g biettive =⇒ f ◦ g biettiva. Dimostrazione per esercizio.
F(X) = {f : X → X}.
3. non tutte le funzioni hanno un’inversa (devono essere biettive): non si tratta
pertanto di un gruppo.
1. è associativa
e = e ∗ e0 = e0
6
Dimostrazione. Siano a−1 , a elementi inversi di a. Allora:
a−1 ∗ (a ∗ a) = (a−1 ∗ a) ∗ a
a−1 ∗ e = e ∗ a ⇐⇒ a−1 = a
R ⊆ X × X.
1. riflessiva
2. simmetrica
3. transitiva
Congruenza modulo n
Definiamo un’altra relazione. Fissiamo un n1inZ. Definiamo in Z la seguente rela-
zione:
x è congruo a y modulo n (x ≡ n y) ⇐⇒ ∃h ∈ Z tale che x − y = hn, ossia x − y è un
multiplo di n.
Dimostriamo ora che ≡ n è una relazione d’equivalenza.
Dimostrazione. 1. ∀n ∈ Zx − x = 0 = 0 · n (riflessività)
7
Lemma 1. Divido x per n e ottengo r come resto (0 ≤ r < n). Divido y per n e ottengo
r 0 come resto. x ≡ n y ⇐⇒ r = r 0 .
Dimostrazione. x = nq + r, y = nq0 + r 0 .
• Se r = r 0 : x − y = (q − q0 )n + r − r 0 (con r − r 0 = 0). =⇒ x ≡ n y.
• Se x ≡ n x = nq + r e n − y = hn, =⇒ n = nq + r y = x − hn =⇒ y = x − hn =
nq + r − hn = (q − h)n + r, ossia r resto di y diviso per n.
1.2 Campi
Definizione 4. K insieme. Consideriamo due operazioni: + "somma" e operazione ·
"prodotto".
(K, +, ·)
viene chiamata CAMPO se valgono le seguenti proprietà:
Esempi
(Q, +, ·) campo dei razionali
(R, +, ·) campo dei reali
(C, +, ·) campo dei complessi
(Z, +, ·) non è un campo (non esistono gli inversi della moltiplicazione)
Dalle proprietà dei campi si deduce che ad esempio (a + b)2 si svolge nello stesso
modo su un qualunque campo.
8
1.2.1 4 proprietà generali dei campi
Prendiamo (K, +, ·) campo.
Dimostrazione.
0+0 = 0
(0 + 0 = a)0a
0·a+0·a = 0·a
Sostituendo x a 0 + a:
(x + x) + (−x))x + (−x) = 0
x + (x + (−x)) = 0
x+0 = 0
0·a = x = 0
2. a · b = 0 =⇒ a = 0 ∨ b = 0.
(−1) · a + 1 · a = ((−1) + 1) · a = 0
ax = b
ha un’unica soluzione, se a , 0: x = aa .
9
1.2.2 Campi finiti
Abbiamo già definito le classi di equivalenza di Zn .
Zn = {0, 1, ..., n − 1}
Ad esempio in Z4 si ha che
2·2 = 2·2 = 4 = 0
Da ciò verrebbe naturale assumere che:
6 · (−2) = −12 = 0.
In precedenza abbiamo definito (Zn , +). Possiamo fare la stessa cosa per il prodot-
to?
Definiamo x · y = x · y. Il risultato che si deve verificare è il seguente:
x = x0 ∧ y = y 0 =⇒ x · y = x0 · y 0
x = x0 =⇒ x ≡n x0 =⇒ ∃h ∈ Z|x − x0 = hn.
Allo stesso modo,
y = y 0 =⇒ y ≡n y 0 =⇒ ∃k ∈ Z|y − y 0 = kn.
Ricordiamo infatti che
[a]∼ = [b]∼ ⇐⇒ a∼b,
dunque:
il che porta a:
xy − x0 y 0 multiplo din.
Quindi:
xy − x0 y 0 = jn =⇒ xy ≡n x0 y 0 =⇒ xy = x0 y 0
Da ciò concludiamo che l’operazione prodotto è ben definita. Ci si domanda
adesso: (Zn , +, ·) è un campo? L’operazione prodotto:
L’operazione
1. è associativa
2. è commutativa
. 0 1 2 3
0 0 0 0 0
1 0 1 2 3
2 0 2 0 2
3 0 3 2 1
10
Si ha che 2 · 2 sia uguale a 0, ma nessuno dei due è zero. Quindi non vale la legge
di annullamento del prodotto, quindi Z4 non è un campo.
Esiste un altro modo di verificare che non si tratta di un campo, ossia guardando
l’esistenza dell’elemento inverso. Vediamo che 1 ha un elemento inverso: 1, con il
quale dà appunto 1. Lo stesso si può dire di 3, che dà 1 con 3. Ma il problema è sulla
riga del 2, che non dà 1 con alcuno degli altri. Quindi 2 non ha inverso rispetto al
prodotto, e pertanto Z4 non è un campo.
Facciamo la tabella del prodotto in Z5 .
. 0 1 2 3 4
0 0 0 0 0 0
1 0 1 2 3 4
2 0 2 4 1 3
3 0 3 1 4 2
4 0 4 3 2 1
1. f è iniettiva =⇒ f è biettiva,
Fissiamo a ∈ Zn , a , 0.
Definiamo un’applicazione f : Zn → Zn descritta da: x → ax.
2. Per principio piccionaia, si ottiene che ϕ è suriettiva (dal primo passo abbiamo
dimostrato che è iniettiva).
11
3. Dimostriamo che a ha elemento inverso. ϕ è suriettiva, quindi:
∀y ∈ Zn ∃n ∈ Zn
12
Capitolo 2
13
2.1 Spazio vettoriale
Per definire uno spazio vettoriale si parte da un campo, come ad esempio C, R. Noi
prendiamo un campo generico K.
Prima di dare una definizione di spazio vettoriale facciamo alcuni esempi.
2.1.1 Esempio
Fissiamo n ≥ 1 intero. Consideriamo
Abbiamo la somma in Kn :
2.1.2 Matrici
Fissiamo m, n ≥ 1. Una matrice m×n a entrate (o elementi) in K è data da mn elementi
di K scritti in una tabella con m righe e n colonne.
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n
Am,n = .
.. .. ..
.. . . .
am,1 am,2 · · · am,n
14
(λaij )i=1,...,m;j=1,...,n
Quindi arriviamo alla definizione:
2.1.3 Definizione
Un insieme V è un K-spazio vettoriale (o uno spazio vettoriale su K) se:
• che verificano: V1. Rispetto alla somma, V è un gruppo abeliano, con 0 (il
vettore nullo) elemento neutro, e −v opposto di v V2. Si applicano le seguenti
quattro proprietà:
2. λ · 0 = 0
3. Se λv = 0 allora λ = 0 o v = 0.
Verifichiamo:
0 · v = (0 + 0) · v = 0v + 0v
2.
λ(0) = λ(0 + 0) = λ0 + λ0 = λ0 = 0
1 · v = v =⇒ v = λ−1 · 0 = 0
15
2.2 Sottospazi vettoriali
Sia V un K-spazio vettoriale. Sia W ⊆ V . W è un sottospazio vettoriale di V se:
1. W , ∅
W = {(x1 , x2 |x1 − x2 = 0}
È un sottospazio vettoriale: non è vuoto, è chiuso rispetto alla somma e rispetto
al prodotto scalare (λ(x, x) = (λx, λx)).
Invece
W 0 = {(x, y) ∈ R2 |x − y = 1}
non è un sottospazio vettoriale, poiché non contiene il vettore nullo 0. Inoltre non
è chiuso rispetto alla somma, in quanto (x, x − 1) + (y, y − 1) = (x + y, x + y − 2) che non è
della stessa forma. Se disegnassimo un grafico, si osserva che perché sia sottospazio
una retta deve passare per l’origine (per contenere il vettore nullo).
Se invece prendiamo un cerchio, ossia
W = {(x, y) ∈ R2 |x2 + y 2 ≤ 1}
osserviamo che non è un sottoaspazio, in quanto se moltiplicassimo un vettore (una
coppia x, y) per uno scalare λ, il vettore ottenuto potrebbe trovarsi fuori dalla circon-
ferenza. Pertanto il sottoinsieme non è chiuso rispetto al prodotto esterno e pertanto
non è un sottospazio.
2.3 Polinomi
Denotiamo con
K[t]
l’insieme dei polinomi nella indeterminata t a coefficienti in K.
Un polinomio f (t) è un’espressione formale del tipo:
f (t) = a0 + a1 t + a2 t 2 + . . . + an t n . (2.1)
Quindi non interpretiamo i polinomi come funzioni, bensì come espressioni for-
mali finite.
Un polinomio di grado n è un espressione del tipo alla 2.1 con an , 0.
La somma di due polinomi f (t) = a0 + a1 t + ...an t n e g(t) = b0 + b1 t + ... + bm t m , con
n ≤ m, è:
16
f (t) + g(t) = (a0 + b0 ) + (a1 + b1 )t + ... + (an + bn )t n + bn+1 t n+1 + ... + bm t m
W ×W → W
(w, w0 ) → (w + w0 )
Lo stesso si può fare per il prodotto per uno scalare. Rispetto alle operazioni
indotte W è un K-spazio vettoriale.
Si nota che uno spazio vettoriale V ha sicuramente almeno due sottospazi: il
sottospazio nullo o banale, composto dal solo vettore nullo ({0}), e lo sottospazio
improprio, ossia V stesso.
v ∈ Wi ∀ ∈ I =⇒ λv ∈ Wi ∀i ∈ I =⇒ λv ∈ W .
17
2.4.1 Esempi
1
Sia V = K[t]. Sia Wd = K[t]d .
Allora se prendiamo la famiglia di sottospazi
{Wd }d∈N
allora
\
=K
d∈N
dove K sono dunque i polinomi di grado 0, incluso il polinomio 0.
2.4.2 Unione
L’unione di sottospazi non è detto che sia un sottospazio. Prendiamo per esempio due
rette passanti per l’origine in R2 , con direzioni diverse. Sono sottospazi vettoriali, la
loro intersezione è l’origine. Ma se prendiamo due vettori su queste rette, di modulo
non nullo, la loro somma è un vettore che non appartiene a nessuna delle due rette.
Pertanto l’unione delle due rette non è un sottospazio, poiché non è chiuso rispetto
all’addizione.
2.4.3 Esercizio
Se W1 e W2 sono sottospazi tali che W1 ∪ W2 è un sottospazio, allora W1 ⊆ W2 o
W2 ⊆ W1 .
18
2.5.1 Sottospazi generati
Prendiamo S ⊆ V , sottoinsieme qualunque. Esiste qualche sottospazio di V che con-
tiene S? Sicuramente sì, almeno V. Qual è il più piccolo sottospazio di V che contiene
almeno S?
Prendiamo \
Wi
Dove Wi è un sottospazio di V che contiene S:
S ⊆ Wi ⊆ V
\
Wi
è un sottospazio che contiene S. Se W 0 ⊇ S ed è un sottospazio, W 0 è uno dei Wi , e
quindi ∩Wi ⊆ W 0 .
Pertanto
\
Wi
è il più piccolo sottospazio di V contente S.
Denotiamo questo oggetto così:
hSi
e lo chiamiamo sottospazio generato da S.
19
2.6 Indipendenza lineare
Dei vettori v1 , ..., vn si dicono linearmente indipendenti se ogni loro combinazione
lineare nulla è banale, ossia se
a1 v1 + ... + an vn = 0
deve essere necessariamente
a1 = a2 = ... = an = 0.
Se dei vettori non sono linearmente indipendenti, ossia se esiste almeno un coef-
ficiente non nullo della combinazione lineare nulla, allora si dice che i vettori sono
linearmente dipendenti.
2.6.1 Esempi
Un vettore nullo
Se in v1 , ..., vn un vettore vi è il vettore nullo, allora i vettori sono linearmente dipen-
denti.
Vettori in R3
Prendiamo i vettori (1,2,3),(1,-1,0),(0,1,4). Sono linearmente indipendenti o dipen-
denti? Per farlo troviamo coefficienti x1 , x2 , x3 tali che la combinazione lineare dei
vettori dati sia nulla.
Quindi
In più incognite . . .
Continuando l’esempio precedente, se invece chiedessimo di verificare l’indipenden-
za lineare di ad esempio 6 vettori in R13 , dovremmo risolvere un sistema lineare in 6
incognite di 13 equazioni.
20
2.6.2 Combinazione di vettori linearmente indipendenti
Proposizione. Se v1 , ..., vn sono linearmente indipendenti, allora ogni vettore v ∈
hv1 , ..., vn i si esprime in maniera unica come combinazione lineare di v1 , ..., vn .
Dimostrazione. Supponiamo che esistano due combinazioni lineari che danno v. Al-
lora
v = λ1 v1 + ... + λn vn = µ1 v1 + ... + µn vn
=⇒ λ1 v1 + ... + λn vn − µ1 v1 − ... − µn vn = 0.
Dunque
λ1 − µ1 = ... = λn − µn = 0
λ1 = . . . = λn = 0
2.7 Basi
Per prima cosa definiamo un sistema di generatori.
Definizione 5. Una famiglia di elementi di V è {vi }i∈I è un sistema di generatori di
V se V = h{vi }i∈I i, ossia se ogni elemento v di V è combinazione lineare di un numero
finito di elementi vi .
V è detto finitamente generato se ha un sistema finito di generatori v1 , ..., vn .
2.7.1 Definizione
Definizione 6. Una famiglia {vi }i∈I di elementi di V è una base di V se è un sistema
di generatori linearmente indipendenti.
Se B = (v1 , ..., vn ) è una base di V, ogni v ∈ V è combinazione lineare di v1 , ..., vn in
maniera unica.
2.7.2 Esempi
In K n prendiamo e1 , ..., en = C la base canonica (nota anche come base standard).
Esiste solo in K n .
21
2.7.3 Coordinate
Se v si esprime come combinazione della base B con v = x1 v1 + ... + an vn allora x1 , ..., xn
si chiamano coordinate di v rispetto alla base B.
2.7.4 Riassunto
Quindi ricapitolando:
Sottospazio generato L’insieme di tutte le combinazioni lineari di v1 , ..., vn si de-
nota < v1 , ..., vn > è un sottospazio di V che contiene v1 , ..., vn ed è detto {sottospazio
generato} da v1 , ..., vn
Sistema di generatori Una famiglia di elementi di V {vi }i∈I è un sistema di gene-
ratori di V se ogni v di V è combinazione lineari di un numero finito di vi . V è detto
finitamente generato se ha un sistema finito di generatori v1 , ..., vn .
Base Una famiglia di elementi di V {vi }i∈I è una base se è un sistema di generatori
linearmente indipendenti. Se B = vi , ..., vn è una base di V , ogni v ∈ V è combinazione
lineare di vi , ..., vn in maniera unica.
22
Capitolo 3
23
3.1 Lemma dello scambio
Lemma 2. Sia (v1 , ..., vn ) = B una base di V. Sia w = x1 v1 + ... + xn vn , con xk , 0 per un
certo 1 ≤ k ≤ n. Allora anche
1. w, v2 , ..., vn generano V
1. r ≤ n
24
Considero w1 , ..., wr−1 , che sono dunque linearmente indipendenti.
Per ipotesi induttiva,
(a) r − 1 ≤ n
(b) ∃n − (r − 1) = n − r + 1 vettori di B.Posso assumere che siano i primi che con
w1 , ..., wr−1 formano una base w1 , ..., wr−1 , v1 , ..., vn−r+1 .
sia una base di V. Inoltre, abbiamo appena dimostrato che r ≤ n ossia che n − r +
1 ≥ 1.
Ho che wr , 0, altrimenti w1 , w2 , . . . , wr sarebbero linearmente dipendenti.
Voglio sostituire uno fra i vr , ..., vn con i wr . Mi basta far vedere che se:
λr = λr+1 = ... = λn = 0
avrei wr combinazione lineare di w1 , ..., wr−1 , che è impossibile per ipotesi. Dal
lemma dello scambio abbiamo che si può dunque sostituire vr con wr , e dunque
w1 , ..., wr , vr+1 , . . . , vn
è base di V.
3.2.1 Conseguenze
Vediamo alcune importanti conseguenze di questo fondamentale teorema.
25
2. Se V ha una base B = (v1 , ..., vn ), allora ogni base di V è formata da n vettori.
Dimostrazione: siano B e B’ due basi di V, formate rispettivamente da r e n
vettori. Allora poiché B è base, e i vettori di B’ sono linearmente indipendenti,
per il teorema deve essere r ≤ n. Ma poiché anche B’ è base, e i vettori di B sono
linearmente indipendenti, deve anche essere n ≤ r. Entrambe le condizioni
sono verificate solo se n = r.
3.3.1 Esempi
1. La dimensione dello spazio vettoriale delle matrici m × n è mn.
3. Se dimK V = n, allora:
V = hvi = {λv|λ ∈ K}
Consideriamo ora la
26
3.3.2 Dimensione dei sottospazi
Sia V un K-spazio vettoriale di dimensione n. Sia W ⊆ V un sottospazio vettoriale.
Allora:
1. anche la dimensione di W è finita,
2. dimW ≤ dim V ,
3. Sia dimW =dimV = n. Sia w1 , ..., wn una base di W . Si tratta di n vettori linear-
mente indipendenti che appartengono anche a V , e quindi formano una base di
V. Pertanto W = V .
U + W = {u + w|u ∈ U , w ∈ W }.
Questo risulta un sottospazio di V, poiché:
27
3.5 Relazione di Grassmann
Teorema 3. Sia V uno spazio vettoriale di dimensione finita.
Siano W , W 0 suoi sottospazi. Allora vale la relazione:
v = δ1 v1 + . . . + δr vr = α1 v1 + . . . + αr vr + β1 w1 + . . . + βk wk
28
β1 = . . . = βk = 0.
Da qui si passa facilmente a:
α1 v1 + . . . + αr vr + γ1 w10 + . . . + γn wn0 = 0
α1 = . . . = αr = γ1 = . . . = γn = 0.
W ⊕ W 0.
V è somma diretta di due spazi W , W 0 se V = W + W 0 e W ∩ W 0 = (0). Allora ogni
vettore v ∈ V si scrive in maniera unica come v = w + w0 , con w ∈ W e w0 ∈ W 0 .
In particolare: w + w0 = 0 =⇒ w = 0 e w0 = 0.
Infatti se v = w + w0 = u + u 0 (u, w ∈ W e w0 , u 0 ∈ W 0 ) allora w − u = u 0 − w0 =⇒
|{z} | {z }
∈W ∈W 0
∈ W ∩ W 0 e perciò è nullo e si ha w − u = 0, u 0 − w0 = 0. Viceversa, supponiamo che
ogni vettore di V abbia un’unica espressione come somma w + w0 . Allora V = W + W 0 .
Inoltre W ∩ W 0 = (0), infatti se ci fosse un vettore u , 0 tale che u ∈ W ∩ W 0 , allora
u = u +0 = 0+u ha 2 espressioni. Oppure anche 0 = 0+0 = u −u. Dunque V = W ⊕W 0 .
1. Vale che: X
V = Wi ,
i∈I
e
29
3.6 Matrici
A matrice m × n.
Vale il teorema, che però dimostreremo solo più avanti, che il rango per righe
coincide con il rango per colonne.
Esempi
1. Matrice identica:
In =
1 0 0
0 1 0
0 0 1
1. " #
1 2 −1
0 1 2
b1
allora A è la matrice del sistema, (A|b) è la matrice completa, dove b = ... sono i
bm
termini noti. Una soluzione di 3.3 è un vettore v ∈ K n , v = (v1 , ..., vn ) tale che:
1
1 se i = j
δij =
.
0 se i , j
30
a11 v1 + . . . + a1n vn = b1
.. ..
. .
a v +...+ a v = b
m1 1 mn n m
x1 ... + x2 ... + ... + xn ... = ... ,
am1 am2 amn bm
ossia x1 a1 + ... + xn an = b.
Questo significa che il sistema è compatibile ⇐⇒ il vettore b è combinazione
lineare dei vettori colonna, ossia se b ∈ ha1 , ..., an i. In tal caso una soluzione è data
dai coefficienti di una combinazione lineare di a1 , ..., an uguale a b. Se a1 , ..., an sono in
più linearmente indipendenti, la soluzione è unica.
3.7.1 Esempio
1. Sia un sistema omogeneo. Se le colonne della matrice associata A sono linear-
mente dipendenti, ci sono soluzioni non nulle. Ogni colonna è un vettore di
K m ; le colonne sono n: se n > m certamente il sistema ha soluzioni non banali.
31
Capitolo 4
Algoritmo di Gauss
32
4.1 Algoritmo di Gauss
L’algoritmo di eleminazione di Gauss serve a passare da un sistema lineare, come 3.3,
ad un sistema equivalente, mediante trasformazioni elementari. Scopo è trasformare
la matrice completa in una matrice a gradini o a scala, che ora definiamo.
Definizione 9. Matrice a gradini o a scala è una matrice della forma:
0 . . . 0 p1
∗ . . . . . . . . . ∗ . . .
.. . . ..
.
. . 0 ... 0 p2 . . . ∗ . . .
. . . . .. ..
B = .. .. .. .. . . 0 ∗ ∗ . . . .
.. .. .. .. .. . .
..
. . . .
. . . pr ∗ . . .
0 0 0 ... ... ... ... ... 0
dove gli elementi p1 , p2 , . . . , pr sono , 0 e vengono detti pivot della matrice. Sotto
la scala è tutto 0.
Si dice che un sistema lineare è a gradini se lo è la sua matrice completa.
Due sistemi lineari si dicono equivalenti se hanno le stesso soluzioni.
Le trasformazioni permesse sono:
1. moltiplicazione di una riga per uno scalare λ , 0:
ai ai
.. ..
. .
a → λa
i i
. .
. .
. .
am am
33
che si ottiene utilizzando le due precedenti: moltiplico la j−esima riga per λ,
sommo questa alla i−esima riga e quindi applico di nuovo il primo tipo alla
j−esima riga moltplicando per λ1 .
4.1.1 L’algoritmo
Sia una matrice A ∈ M(m × n, K). Trasformiamola in una matrice B a scala. Se A è
nulla non c’è nulla da fare.
Altrimenti chiamo aj1 la prima colonna non nulla. Eventualmente scambiando la
prima riga con una successiva, possiamo supporre che sia a1j1 , 0 e poniamo p1 = a1j1 .
Ora sommiamo alla riga h−esima, ∀h ≥ 2, un opportuno multiplo della prima, in
modo da annullare tutti gli elementi sotto a1j1 . Se tutte le righe sotto la prima sono
nulle, abbiamo finito. Altrimenti sia j 2 la prima colonna che contiene un elemento
non nullo, e supponiamo, eventualmente scambiando righe, che questo elemento sia
nella seconda riga e lo chiamiamo p2 . Ripetiamo il procedimento: annulliamo tutti
gli elementi in colonna sotto p2 , naturalmente senza manipolare la prima riga, che è
già stata trattata. Il procedimento continua con un’altra colonna finché tutte le righe
sotto l’ultima trattata non siano nulle.
Ax = b
oppure
34
Ax = 0
se il sistema è omogeneo.
0 1 0 2 −1 −4 0
0 0 1 −1 −1 2 1
0 1 0 2 1 −2 0 .
0 0 1 −1 0 2 −1
0 1 1 1 0 0 1
Con l’algoritmo di Gauss si arriva a:
0 1 0 2 −1 −4 0
0 0 1 −1 −1 2 1
0 0 0 0 1 1 0 ,
0 0 0 0 0 1 2
0 0 0 0 0 0 0
che è una matrice a gradini che osserviamo essere di rango 4. I parametri liberi sono
le incognite delle colonne che non contengono pivot: quindi in questo caso sono x1 ,
x4 , x7 . Otteniamo che:
35
x6 + 2x7 = 0
x5 + x6 = 0
x3 − x4 − x5 + 2x6 + x7 = 0
x2 + 2x4 − x5 − 4x6 = 0
= x1 w1 + x4 x2 + x7 w3 .
Questi vettori sono linearmente indipendenti, perché se scriviamo una loro combi-
nazione lineare nulla
x1 w1 + x4 x2 + x7 w3 = 0
allora per forza è
x1 = x4 = x7 = 0
poiché sono alcune componenti della soluzione.
In genereale, dato un sistema Ax = 0 in K n , si ha che dim W è uguale al numero di
parametri liberi, ossia a n − (np ) con np il numero dei pivot, che è uguale a n − rg(A) =
n − r.
4.3 Rouché-Capelli
Teorema 4. Il sistema Ax = b è compatibile se e solo se
rg A = rg(A|b)
(per righe).
Dimostrazione. Per mezzo di trasformazioni elementari, trasformo la matrice A in
una matrice a gradini A0 , per trovarne il rango. Sia dunque r := rg A.
Sempre a mezzo di trasformazioni elementari, trasformo la matrice (A|b) in una
matrice a gradini (B|c):
b1,j1 c1
b2,j2 c2
(A|b) →
..
.
0 b c
r,jr r
c r+1
. . . cm
I ranghi delle matrici A e (A|b) sono diversi se e solo se nell’ultima colonna ho più di
r elementi.
Se così non avviene, allora si ha un pivot nella riga r +1 di (B|c), in tal caso l’ultima
equazione è chiaramente non compatibile (un numero diverso da 0 pari a 0).
36
4.4 Riassunto
Sia A una matrice m × n. Allora il sistema lineare Ax = b è compatibile se e so-
lo se rg A = rg(A|b), in particolare se il sistema omogeneo associato è compatibile e
l’insieme delle soluzioni è un sottospazio vettoriale di K n di dimensione n − r dove
r = rg(A).
Se il sistema non è omogeneo ed è compatibile, l’insieme delle soluzioni è del
tipo S = v̄ + W0 dove v̄ è una soluzione particolare e W0 è lo spazio delle soluzioni
del sistema omogeneo associato. In questo caso S è un sottospazio affine di K n di
dimensione pari a dim W0 = n − rg A = n − rg(A|b).
Per risolvere il sistema, si riduce (A|b) a gradini. Dopo aver verificato che i ranghi
siano uguali, si procede con il metodo di sostituzione all’indietro che fornisce una
soluzione particolare e una base per W0 .
che è compatibile.
x2 e x4 sono parametri liberi. Si ha che x3 = −x4 − 1 e
x1 = 2x2 − x3 + 1 = 2x2 + x4 + 1 + 1.
Soluzione è dunque:
37
Capitolo 5
38
5.1 Prodotto fra matrici
Definiamo il prodotto fra matrici, detto prodotto riga per colonna.
Esempio.
1 0
1 0 1 −1
−1 1
A = 2 1 0 0 , B =
0 1
−1 0 1 1
1 1
A è 3 × 4, B è 4 × 2, dunque AB sarà 3 × 2 ed è:
0 0
AB = 1 1 .
0 2
c12 = 1 · 0 + 0 · 1 + 1 · 1 + (−1) · 1 = 0
e così via.
AEn = En A = A.
Utilizzando il prodotto fra matrici possiamo scrivere i sistemi lineari (come (??)) in
forma “matriciale”:
a11 . . . a1n x1 b1
.. .. .. .. = .. .
.
. . . .
am1 . . . amn xn bn
Proposizione. Proprietà del prodotto riga per colonne. Siano A, B, A0 , B0 matrici con
un numero opportuno di righe e colonne (di volta in volta per i prodotti). Allora
valgono:
1. t(AB) = tB tA
39
2.
A(B + B0 ) = AB + AB0 , (A + A0 )B = AB + A0 B
(distributività, a sinistra e a destra)
Chiamando C 0 = t(AB):
C 0 = tC = (cki
0
)
con
n
X
0
cki = cik = aij bjk
j=1
da cui
0
cki = dki
ossia t(AB) = tB tA.
40
Se C = (ckl ), allora (AB)C = (dil ) con
r X
X n
dil = a b ckl .
ij jk
k=1 j=1
che è uguale alla sommatoria che definiva dil , dunque sono uguali.
4. La dimostrazione è immediata.
41
Osservazione. Se f (0) , 0 allora f non è lineare.
Osservazione. Da questo si deduce anche che f è un’applicazione lineare costante se
e solo se f (v) = 0 ∀v ∈ V .
hom(V , W ) = {f : V → W |f lineare}.
• f lineare, λ ∈ K =⇒ λf lineare
• Altre proprietà erano già state verificate per Appl(V , W ), di cui chiaramente
hom è un sottoinsieme.
42
Nomenclatura
Definizione 13. Sia f : V → W un’applicazione lineare (cioè un omomorfismo). f
può essere chiamata in diversi modi a seconda delle sue proprietà:
• epimorfismo = suriettiva
• monomorfismo = iniettiva
• isomorfismo = biettiva
• endomorfismo se V = W
• automorfismo se V = W e f è isomorfismo
= λg(w1 ) + µg(w2 )
43
5.5 Teorema della dimensione
Teorema 5. Sia f : V → W un’applicazione lineare. Sia la dimensione di V finita.
Allora
dim V = dim(ker f ) + dim =f .
=f = f (V ) è un sottospazio di W; chiamiamo dim =f il rango di f : rg(f ).
v = x1 u1 + . . . + xk uk + xk+1 vk+1 + . . . + xn vn
Linearmente indipendenti. Se
ossia
f (yk+1 vk+1 + . . . + yn vn ) = 0 =⇒
yk+1 vk+1 + . . . + yn vn ∈ ker f
dunque poiché u1 , . . . , uk è una base di ker f e vk+1 , . . . , vn doveva prolungarla a una
base di V , allora
yk+1 vk+1 + . . . + yn vn = y1 u1 + . . . + yk uk ,
dunque
y1 u1 + . . . + yk uk − yk+1 vk+1 − . . . − yn vn = 0.
Poiché si tratta di una base, tutti i coefficienti sono nulli.
• f è iniettiva
• f è suriettiva
• f è biettiva
44
Dimostrazione. Si ha che f è iniettiva ⇐⇒ ker f = (0); per il teorema della dimensio-
ne questo avviene se e solo se dim V = dim =(f ).
Ma =(f ) ⊆ W è sottospazio; avendo dimensione uguale si ha che =f = W , che è
equivalente a dire che f è suriettiva.
Esempio. Vediamo un esempio. Sia V un K−spazio vettoriale di dimensione fissata,
sia W un suo sottospazio.
Consideriamo lo spazio quoziente V /W . Definiamo un’applicazione π detta pro-
iezione canonica:
π :V → V /W
v 7→ [v]
Per definizione π è suriettiva, inoltre è facile dimostrare che è lineare:
π(λv + µv 0 ) = [λv + µv 0 ] = λ[v] + µ[v 0 ] = λπ(v) + µπ(v 0 ).
Inoltre, si ha che
ker π = {v ∈ V |[v] = 0} = W .
Dunque per il teorema della dimensione:
dim V = dim ker π + dim =π = dim W + dim V /W
ossia
dim V /W = dim V − dim W .
45
5.6 Teorema di determinazione di un’applicazione lineare
Teorema 6. Siano V , W K−spazi vettoriali. Fissata una base di V , v1 , ..., vn . Fissiamo
inoltre n vettori qualunque di W w1 , ..., wn . Allora esiste una ed una sola applicazione
lineare f : V → W tale che f (v1 ) = w1 , ..., f (vn ) = wn .
Dimostrazione. Unicità.
Supponiamo che f esista e sia v ∈ V un vettore qualunque. Allora v ha un’unica
espressione come combinazione lineare della base, così: v = x1 v1 + . . . + xn vn .
Esistenza.
Prendiamo la precedente come definizione di f , ponendo f (x1 v1 + . . . + xn vn ) =
x1 f (v1 ) + . . . xn f (vn ). f è ben definita, basta dimostrare che f è lineare.
f (αv + βv 0 ) =?
Sia v = x1 v1 + . . . xn vn , v 0 = µ1 v1 + µn vn , perciò:
∃!f : V → W (5.6)
v1 → w1 (5.7)
..
. (5.8)
vn → wn (5.9)
∃!g : W → V
w1 → v 1
.. .
.
wn → vn
46
Allora (g ◦ f )(vi ) = g(f (vi )) = g(wi ) = vi ∀i, e quindi (g ◦ f )(vi ) = Idv (vi )∀i =⇒
g ◦ f = IdV . Analogamente se scrivessimo le applicazioni al contrario si avrebbe che
f ◦ g = IdW . Perciò f e g sono isomorfismi uno inverso dell’altro. Da ciò otteniamo
un corollario del teorema:
KB : V → K n
un’applicazione lineare tale che vi → ei (vettori della base canonica), che associa
a ciascun vettore v ∈ V definito rispetto alla base B la n-upla delle coordinate di v
rispetto a B:
λ1
Svolgimento
1. I vettori wi siano linearmente indipendenti, dunque x1 w1 + . . . + xn wn = 0 ⇐⇒
x1 = . . . = xn = 0. Dobbiamo dimostrare che f è iniettiva, ossia che f (v) =
f (v 0 ) =⇒ v = v 0 , ∀v, v 0 ∈ V . Prendiamo v = x1 v1 +. . .+xn vn e v 0 = y1 v1 +. . .+yn vn
tali che f (v) = f (v 0 ). Allora f (v) − f (v 0 ) = (x1 − y1 )w1 + . . . + (xn − yn )wn = 0, e
poiché per ipotesi i vettori wi sono linearmente indipendenti, questo significa
che (x1 − y1 ) = . . . = (xn − yn ) = 0, e dunque x1 = y1 , x2 = y2 , . . . , xn = yn e pertanto
essendo combinazioni lineari con stessi coefficienti v = v 0 .
47
questo è equivalente a w = f (x1 v1 + . . . + xn vn ). Poiché i vettori vi sono una base,
x1 v1 + . . . + xn vn è sicuramente un vettore di V .
hom(V , W ) = {f : V → W |f lineare},
questo è chiaramente un sottoinsieme di Appl(V , W ). hom viene da "omomorfi-
smo".
Risulta anche uno spazio vettoriale, poiché f , g lineari =⇒ f +g lineare, e λ ∈ K, f
lineare =⇒ λf lineare. Per definizione di somma interna a Appl si ha che (f +g)(v) =
f (v) + g(v), verifichiamo ora che se f , g sono lineari anche f + g è lineare.
Due vettori: v e w. f , g lineari significa che f (v + w) = f (v) + f (w), stesso per g.
Dunque (f + g)(v + w) = f (v + w) + g(v + w) = f (v) + f (w) + g(v) + g(w). Per il prodotto
scalare invece, f (λx) = λ(f (x)) (e lo stesso per g. Dunque (f + g)(λx) = f (λv) + g(λv) =
λf (v) + λg(v) = λ(f (v) + g(v)). Inoltre poiché f è lineare, si ha che f (λx) = λf (x),
quindi è ovvio che hom(V , W ) è chiuso rispetto al prodotto per uno scalare.
Un caso particolare di hom(V , W ) si ha se W = K. K è uno spazio vettoriale, con
dim K = 1 e come base canonica l’unità 1 ∈ K. Allora hom(V , K) si indica con V ∗ e
viene detto spazio vettoriale duale di V. Ogni f ∈ V ∗ è una f : V → K, che si chiama
forma lineare su V. 7→
Prendiamo una base B di V , B = (v1 , . . . , vn ) (dunque dim V = n). Definiamo delle
forme lineari associate a questa base, devo dunque trovare n forme lineari.
Definiamo delle particolari forma lineari, tali che:
v1∗ :V → K
v1 7→ 1
v2 7→ 0
..
.
vn 7→ 0
e facciamo così per ogni (vi )i=1,...,n , ossia vi∗ (vi ) = 1 e = 0 per tutti gli altri vettori di
B (dunque vi∗ = δij ). Cosa succede se applichiamo ad esempio v1 a un generico vettore
v ∈ V , v = x1 v1 + . . . + xn vn ?
48
Dimostrazione. Vediamo le due parti, ossia che sono linearmente indipendenti e che
generano V ∗ .
Sia v ∈ V = ni=1 xi vi , vi ∈ B.
P
vediamo che sono linearmente indipendenti
λ1 x1 + . . . + λn xn = 0. (5.11)
Poiché la 5.10 deve valere ∀v ∈ V , vale in particolare anche per i vettori della base
B. Se inseriamo v1 , otteniamo dalla 5.11, dove troviamo che x1 = 1 mentre tutti gli
altri xi sono pari a 0, la seguente equazione:
λ1 · 1 + λ2 · 0 + . . . + λn · 0 = 0,
che ovviamente è verificata solo per λ1 = 0 e qualunque valore per λ2 , ..., λn . Se
facciamo lo stesso procedimento con tutti i vettori della base, otteniamo di volta in
volta che un λ sia uguale a 0, e quindi sono tutti uguali a 0.
Vediamo ora che sono un sistema di generatori.
L(A) : K n → K m
che associa a un vettore colonna x un prodotto riga per colonna:
x1 x1
.
. → A .. ∈ K m
. .
xn xn
|{z} |{z}
=x =Ax
L(A)(x) = Ax,
con x vettore colonna, ossia per applicare L(A) ad un vettore x facciamo il prodot-
to per matrici Ax.
Dimostrazione.
x1 y1
49
che per definizione è uguale a:
x1 y1
x1 y1
L(A)(ei ) = ai
In questo caso le colonne di A sono i corrispondenti dei vettori della base canoni-
ca.
50
Definizione 16. Matrice di f rispetto alle basi A e B è la matrice:
MBa (f ) = (aij ) i = 1, . . . , m
j = 1, . . . , n
ossia
a11 a12 ... a1n
a21 a22 ... a2n
.. .. .. .. ,
.
. . .
am1 am2 . . . amn
KA KB
Kn / Km
L(A)
51
Dimostrazione. È facile dimostrare che è lineare.
Per verificare che è iniettiva, basta verificare che il suo nucleo è banale: anche
questo è facile, in quanto MBA (f ) = 0 se e solo se f è l’applicazione nulla.
Per dimostrare la suriettività, definiamo una matrice M e costruiamo una funzio-
ne ϕ tale che
MBA (ϕ) = M.
Questo è sempre possibile in quanto basta associare a vi il vettore che ha nella colonna
mi le coordinate di f (vi ) rispetto a B, usando poi il teorema di determinazione di
un’applicazione lineare.
m
X
f (vk ) = a1k v10 + . . . + amk vm
0
= ajk vj0
j=1
p
X
g(vj0 ) = bij v100 + . . . + vp00 = bij vi00 .
i=1
Da cui
Xm m
X
0
g(f (vk )) = g( ajk vj ) = ajk g(vj0 ) =
j=1 j=1
m
X p
X
= ajk bij vi00 =
j=1 i=1
che è proprio
p X
X m
= bij ajk vi00
i=1 j=1
MB : hom(V , V ) → M(n × n, K)
52
Entrambi sono non-commutativi e soddisfano alcune proprietà (assoc., elemento
neutro, distributività rispetto alla somma).
Somma interna, prodotto esterno e prodotto interno danno agli spazi vettoriali
una struttura di K−algebre. Si ha pertanto il teorema
MB (g ◦ f ) = MB (g)MB (f ).
Er 0
MBA (f ) = m − r {0 0
|{z}
n−r
v1 , . . . , vr , vr+1 , . . . , vn .
| {z }
base di ker f
w1 , . . . , wr , wr+1 , . . . , wm .
Allora rispetto a queste 2 basi la matrice è quella voluta, infatti:
53
! !
cos β − sin β cos α − sin α
MC (fβ )MC (fα ) = =
sin β cos β sin α cos α
!
cos α cos β − sin α sin β − sin α cos β − sin β cos α
= =
sin β cos α + sin α cos β − sin α sin β + cos α cos β
!
cos(α + β) − sin(α + β)
= .
sin(α + β) cos(α + β)
Ci avviciniamo ad un’importante questione di questo capitolo, ossia il cambia-
mento di base. Prima introduciamo un particolare tipo di matrici.
0 . . . 0.
0 ... 1
54
Dimostrazione. =⇒
f isomorfismo =⇒ ∃f −1 isomorfismo inverso tale che f ◦ f −1 = IdW e f −1 ◦ f =
IdV . Siano allora A = MBA (f ) e A0 = MA
B −1
(f ). Allora
Analogamente si vede A0 A = En .
⇐=
Supponiamo A = MBA (f ) invertibile. Allora L(A) : K n → K n è un isomorfismo.
Consideriamo il diagramma commutativo:
f
V /W .
KA KB
Kn / Kn
L(A)
1. A è invertibile
4. tA è invertibile
55
idV
V /W .
KA KB
Kn / Kn
L(A)
x1
Vogliamo esprimere v, che ha coordinate ... rispetto a A, con le sue coordinate
xn
y
1
.
. rispetto a B 1 , ossia:
.
yn
v = x1 v1 + . . . + xn vn
.
= y 1 w1 + . . . + y n wn
y1 x1
Dal diagramma otteniamo che A = MB (IdV ) è una matrice tale che . = A ... .
A ..
yn xn
A è detta matrice del cambiamento di base o matrice di passaggio da A a B.
x1 y1
/ ..
.
.
. .
xn yn
56
IdV f IdW
V /V /W /W
K A0 KA KB KB 0
L(A)
K n A0 / K n A / Km / Km
MA (IdV ) MB (f ) MBB0 (IdW )
C
Sia C la base canonica. Se prendiamo T = MCA (IdK n ) e S = MBm (IdK m ), allora SAT è la
n
matrice richiesta.
Da questo si ottiene una nuova dimostrazione che il rango per righe è uguale al
rango per colonne:
è r.
• Inoltre il rango per righe di SAT è uguale al rango per colonne di t(SAT )
che per lo stesso ragionamento di prima è uguale al rango per colonne di tA.
Quest’ultimo è uguale al rango per righe di A.
57
5.12.3 Cambio di base ed endomorfismi
Se abbiamo un endomorfismo su V descritto dalla matrice A, e delle basi A e B di V ,
come facciamo a descrivere questo rispetto a basi diverse?
Abbiamo il diagramma:
IdV f IdV
V /V /V /V
KB KA KA KB
L(A)
Kn B / Kn / Kn / Kn
M (IdV ) A MBA (IdV )
A
Dunque
MB (f ) = MBA (IdV )MA (f )MA
B
(IdV ).
MB (f ) = SMA (f )S −1 .
Proposizione. Se esiste una matrice B tale che BA = En oppure una matrice C tale
che AC = En , allora A è invertibile.
Algoritmo
Come facciamo a calcolare la matrice inversa?
L’idea è quella di cercare una matrice X tale che AX = En . Si tratta quindi di
trovare le soluzioni di un’equazione matriciale nell’incognita X = (xij )i,j=1,...,n .
AX = En ⇐⇒ AX 1 = e1 , AX 2 = e2 , . . . , AX n = en
dove X 1 , . . . , X n sono le colonne di X.
Trovare X equivale pertanto a risolvere n sistemi lineari con matrice dei coeffi-
cienti A e colonne dei termini noti e1 , e2 , . . . , en .
Dunque A è invertibile ⇐⇒ ognuno di tali sistemi ha una ed una sola soluzione.
58
Per risolverli, usiamo l’algoritmo di Gauss, riducendo A a gradini e contempo-
raneamente operando le stesse trasformazioni anche alla colonna dei termini noti.
Queste trasformazioni sono le stesse per tutti gli n sistemi. Dunque scriviamo la
matrice formata da A ed En e la trasformiamo nella matrice (B|C):
A En → B C
b11 ... 0
..
0 . D .
bnn
59
d11 d12 d1n d1
b b11 ... b11 b
d11 d112
21 d22 d2n
b b22 ... b22
−1
A = 22 = b22 .
... ..
.
dn1 dn2
... dnn d n
bnn bnn bnn bnn
Allora
−1 1 0 1 0 0
1 −1 −1 0 1 0 → . . . →
0 1 2 0 0 1
−1 0 0 −1 −2 −1
→ 0 1 0 2 2 1
0 0 −1 1 1 0
Dunque
1 2 1
A−1 = 2 2 1 .
−1 −1 0
60
Capitolo 6
Determinanti
61
6.1 Introduzione ed esempi
Sia data una matrice 2 × 2:
!
a b
.
c d
Il determinante di una matrice due per due è ad − bc.
Possiamo immaginare il determinante come un numero che indica come cambia-
no le aree di figure trasformate dall’applicazione lineare associata alla matrice di cui
calcoliamo il determinante: si immagini in uno spazio vettoriale R2 i vettori della
base canonica e l’area del quadrato formato da questi (che è 1). Consideriamo poi
l’applicazione lineare, endomorfismo, la cui matrice rispetto alla base canonica è:
!
3 0
.
0 4
Questa trasforma i vettori della base canonica in vettori che hanno coordinate
rispetto alla base canonica (3, 0) e (0, 4). L’area del parallelogramma compreso fra
questi due è 12, e il determinante della matrice è proprio 12.
Prendiamo per esempio un parallelogramma costruito su due vettori, v1 , v2 . L’a-
rea del parallelogramma è
AP = ( base × altezza).
Costruiamo un parallelogramma su due vettori v, w, di coordinate v = (a1 , a2 ) e
w = (b1 , b2 ). Come da figura (6.1)(Fischer pag. 176), possiamo esprimere questi vet-
tori rispettivamente come v = τv 0 e w = σ w0 , con σ , τ opportuni scalari. Naturalmen-
te si ha che v 0 = (cos α, sin α) e w0 = (cos β, sin β). Sia A l’area del parallelogramma
di lati v, w e A0 l’area del parallelogramma generato da v 0 , w0 . Se h0 è l’altezza del
parallelogramma con area A0 , allora dal disegno si deduce facilmente che
62
cos α sin α
h0 = sin(β − α) = cos α sin β − cos β sin α = .
cos β sin β
Utilizzando la geometria piana si può verificare che l’area A è pari a
0 0 τ cos α τ sin α a1 a2
A = τσ A = τσ h = = .
σ cos β σ sin β b1 b2
L’area è dunque uguale al determinante.
Avendo inteso il determinante come area di un parallelogramma, è facil vedere il
senso geometrico dietro le seguenti proprietà del determinante:
! ! ! !
λv v v v
det = λ · det , det = µ det .
w w µw w
Il determinante associa quindi ad una matrice uno scalare. È quindi una partico-
lare applicazione lineare. Per definirlo formalmente servono alcune definizioni.
σ : In → In
1 7→ σ (1)
2 7→ σ (2).
..
.
n 7→ σ (n)
Per esempio, se n = 3, si hanno 6 permutazioni:
1, 2, 3 1, 3, 2 2, 1, 3 2, 3, 1 3, 1, 2 3, 2, 1.
Denoto Sn l’insieme delle permutazioni di {1, . . . , n}. Esso ha n! elementi (si dimo-
stra per induzione).
Osservazione. L’insieme Sn è un gruppo per la composizione di applicazioni. Si
osserva che non è abeliano per n > 2. L’ordine è n!.
63
La notazione che si usa di solito per indicare come opera una permutazione σ è la
seguente:
!
1 2 ... n
.
σ (1) σ (2) . . . σ (n)
Se prendiamo σ ∈ Sn , e poniamo σ (1) = i1 , . . . , σ (n) = in , possiamo definire un’ap-
plicazione che è ad ogni permutazione σ associa la n−upla ordinata (i1 , . . . , in ) di ele-
menti di In . Capita che si identifichi Sn con la sua immagine in Inn (l’insieme di n−uple
ordinate di elementi di In ).
Osserviamo che con n = 3 le permutazioni non sono commutative. Prendiamo:
! !
1 2 3 1 2 3
, .
2 3 1 1 3 2
Se applichiamo prima la prima e poi la seconda, si ottiene:
!
1 2 3
;
3 2 1
se applichiamo prima la seconda e poi la prima si ottiene:
!
1 2 3
.
2 1 3
Sia data la seguente permutazione:
!
1 2 3 4 5 6 7
σ= .
5 3 1 2 7 6 4
Osserviamo che si ha la seguente catena:
1 → 5 → 7 → 4 → 2 → 3 → 1.
Questa è una permutazione ciclica ed il ciclo ha lunghezza 6.
Invece
6→6
significa che 6 è un punto fisso (ed è quindi un ciclo di lunghezza 1).
Possiamo scrivere quindi σ semplicemente come:
1 5 7 4 2 3 1 (6) .
|{z}
non si scrive
Sia invece data
!
0 1 2 3 4 5 6 7
σ = .
2 1 5 4 7 3 6
Allora abbiamo:
1→2→1 1 2 ciclo di lunghezza 2
64
3→5→7→6→3 3 5 7 6 ciclo di lunghezza 4
4 → 4 (4).
Allora σ 0 è prodotto di 2 cicli disgiunti di lunghezze 2 e 4: sono permutabili.
σ0 = 1 2 3 5 7 6 .
(ny y y
1 n2 . . . nk ).
6.2.1 Trasposizioni
Definizione 21. Trasposizione è un 2-ciclo (n1 n2 ) ossia n1 → n2 , n2 → n1 e tutto il
resto resta fisso. Per esempio, se sono k, l gli elementi che vengono invertiti da una
trasposizione τ, si ha che:
τ(k) = l
τ(l) = k
τ(i) = i per i ∈ {1, . . . , n} \ {k, l}
Osservazione.
(1 3 5) = (3 5 1) = (5 1 3)
65
2. Ogni ciclo è prodotto di trasposizioni (non disgiunte in generale)
3. Segue da 1 e 2
Dunque per induzione la 2:
Se k = 2 è banale: un 2−ciclo è una trasposizione.
Per induzione, supponiamo dunque che sia vero per (k−1)−cicli. Abbiamo dunque
che:
Definizione 22. Inversione di σ ∈ Sn è una coppia di indici i < j ∈ {1, . . . , n} tali che
σ (i) > σ (j).
sgn σ = (−1)a
dove a è il numero di inversioni di σ . Il segno è dunque 1 se a è pari, −1 se a è
dispari.
66
6.2.2 Permutazioni pari e dispari
Definizione 24. Una permutazione si dice pari se ha segno 1, dispari se ha segno -1.
o equivalentemente:
sgn σ = (−1)2 = 1.
67
• È chiuso rispetto al prodotto: σ , τ ∈ An , sgn(σ τ) = sgn(σ ) sgn(τ) = 1 · 1 = 1.
τAn = {τσ |σ ∈ An }
coincide con l’insieme di tutte le permutazioni dispari. Infatti se α è una permu-
tazione dispari,
α = τ(τ −1 α)
e τ −1 è dispari, α è dispari, dunque τ −1 α ∈ An è pari (dunque ∈ An ) e quindi si
ottiene che α ∈ τAn .
Allora Sn = An ∪ τAn e i 2 sottinsiemi di permutazioni pari e dispari sono in biie-
zione. Dunque An ha n! n!
2 elementi (ha ordine 2 ), come l’insieme delle permutazioni
dispari.
Per esempio,
D : V × ... × V = V n → K
è multilineare se è lineare in ogni argomento, ossia se fissato un qualunque intero
i = 1, . . . , n e comunque si prendono ∀j = 1, . . . , i − 1, i + 1, . . . , n dei vettori vj ∈ Vj ,
l’applicazione
68
Definizione 27. Funzione multilineare alternante. Una funzione multilineare D è
alternante se D(v1 , . . . , vn ) = 0 ogni qualvolta ∃vi = vj con i , j.
Definizione 28. Una funzione determinante su V con V K−spazio vettoriale con
dim V = n, è una funzione multilineare alternante
D : V × . . . × V = V n → K.
6.3.1 Antisimmetria
Proposizione. Sia D una funzione determinante su V. Allora D è antisimmetrica, cioè
D(v1 , . . . , vi , . . . , vj , . . . , vn ) = −D(v1 , . . . , vj , . . . , vi , . . . , vn ).
Dimostrazione. Considero D(v1 , . . . , vi + vj , . . . , vi + vj , . . . , vn ) = 0 perché D è alternante
per definizione. Ma per la multilinearità questo è anche uguale a:
= D(v1 , . . . , vi , . . . , vj , . . . , vn ) + D(v1 , . . . , vj , . . . , vi , . . . , vn )+
.
+ D(v1 , . . . , vi , . . . , vi , . . . , vn ) + D(v1 , . . . , vj , . . . , vj , . . . , vn ) = 0
Notiamo che D(v1 , . . . , vi , . . . , vi , . . . , vn ) e D(v1 , . . . , vj , . . . , vj , . . . , vn ) sono entrambi ugua-
li a 0 per alternanza, e quindi la proprietà è verificata.
69
6.3.2 Leibniz
Sia B = (v1 , . . . , vn ) una base di V . Consideriamo n vettori w1 , . . . , wn , vogliamo espri-
mere D(w1 , . . . , wn ) facendo intervenire la base B. Supponiamo che sia:
n
X n
X
wi = xij vj oppure wi = xij vji .
j=1 ji =1
Allora:
n
X n
X
D(w1 , . . . , wn ) = D( xij vj , x2j2 vj2 , . . .) =
j1 =1 j2 =1
per multilinearità:
n
X X X
= x1j1 D(vj1 , x2j2 vj2 , . . . , xnjn vjn ) =
j1 =1
ma D(vj1 , . . . , vjn , 0 solo se non ci sono ripetizioni, ossia solo se j1 , . . . , jn sono una
permutazione di {1, . . . , n}. Quindi si può scrivere così:
X
D(w1 , . . . , wn ) = x1σ (1) . . . xnσ (n) D(vσ (1) , . . . , vσ (n) ) =
σ ∈Sn
X
= (sgn σ )x1σ (1) . . . xnσ (n) D(v1 , . . . , vn ) . (6.1)
σ ∈Sn | {z }
costante
Quest’ultima è la formula di Leibniz per il determinante. È un’espressione con n!
addendi.
Dimostrazione. Se non sono una base, sono linearmente dipendenti (la dimensio-
ne dello spazio a cui ci stiamo riferendo è n), e dunque abbiamo già dimostrato
che il determinante è nullo. Se il determinante è D , 0, allora esistono dei vettori
w1 , . . . , wn ∈ V tali che D(w1 , . . . , wn ) , 0. Allora se (v1 , . . . , vn ) è una base, applichiamo
la formula precedente e otteniamo che deve essere D(v1 , . . . , vn ) , 0.
Teorema 14. Sia V uno spazio vettoriale di dimensione n, sia (v1 , . . . , vn ) una base di
V . Allora ∃! funzione determinante D : V n → K tale che D(v1 , . . . , vn ) = 1.
Ogni altra funzione determinante è del tipo λD con λ ∈ K.
70
P
L’espressione di Leibniz ((6.1)) implica l’unicità: D deve operare così: se wi = xij vj ,
P
D(w1 , . . . , wn = σ inSn sgn(σ )x1σ (1) . . . xnσ (n) . Definità così infatti vale che D(V1 , . . . , vn ) =
1. Infatti la matrice di v1 , . . . , vn rispetto alla base v1 , . . . , vn seguendo (6.2) è ovviamen-
te la matrice identica En δij . Bisogna verificare che D è multilineare alternante:
Multilinearità: Ricordiamo la definizione dei w, ossia (6.2). Allora se aggiungia-
mo a un vettore wi dei w1 , . . . , wn un vettore wj0 e moltiplichiamo per scalari, otteniamo
che X X
λwi + µwj0 = λ( xik vk ) + µ( 0
xjl vl )
k l
dove xj0 sono le coordinate di wj0 rispetto alla base v1 , . . . , vn .
X
D(w1 , . . . , λwi + µwj0 , . . . , wn ) = 0
sgn(σ )x1σ (1) . . . (λxiσ (i) + µxiσ (i) ) . . . xnσ (n) =
Corollario 6. Se V = K n ,
D : (K n )n → K : D(e1 , . . . , en ) = 1
viene chiamato il determinante standard e si indica con det (il determinante che è 1
sulla matrice identica.
Proposizione.
det( tA) = det(A)
Dimostrazione. A = (aij ), tA = (a0ij ) con a0ij = aji .
Allora: X
det( tA) = sgn(σ )a01σ (1) . . . a0nσ (in)
σ
X
= sgn(σ )aσ (1)1 . . . aσ (n)n =
σ ∈Sn
X .
= sgn(σ )a1σ −1 (1) . . . anσ −1 (n)
σ ∈Sn
= det(A)
71
Abbiamo usato il fatto che:
sgn σ = sgn σ −1 .
Sn → Sn , σ 7→ σ −1
Esempio. Sia A una matrice quadrata di ordine n = 3, Si hanno allora sei permuta-
zioni:
σ = (1, 2, 3), τ = (2, 3, 1) υ = (3, 1, 2)
α = (2, 1, 3) = (1, 2) β = (1, 3, 2) = (2, 3) γ = (3, 2, 1) = (1, 3)
Notiamo dunque che α, β, γ hanno segno negativo poiché trasposizioni, le altre hanno
segno positivo. I termini sono dunque:
" #
aσ = a11 a22 a33 aτ = a12 a23 a31 aυ = a13 a21 a32
aα = −a12 a21 a33 aβ = −a11 a23 a32 aγ = −a13 a22 a31
6.3.3 Ricapitolando
Abbiamo definito una particolare applicazione detta determinante
det :M(n × n; K) → K
A 7→ det A
72
• Se B è la matrice A con uno scambio fra righe, allora det B = − det A (trasforma-
zione del IV tipo)
Il fatto che il determinante sia diverso da zero se e solo se la matrice di rango mas-
simo si ottiene portando, a mezzo di trasformazioni elementari, la matrice in forma
triangolare superiore: il determinante di questa (come dimostrato sotto) è pari al pro-
dotto degli elementi della diagonale ed è come già dimostrato ± il determinante della
matrice di partenza. Se uno degli elementi della diagonale è nullo, allora la matrice
non è di rango massimo, e il prodotto degli elementi della diagonale è nullo quindi
anche il determinante lo è.
73
per multilinearità, in particolare linearità nell’i−esima riga,
a1
.
..
a aj
1
= det .. + λ det ... =
.
an a
j
.
.
.
an
a1
Abbiamo inoltre come diretta conseguenza delle proprietà del determinante che:
a1 a1
. .
a1 a1 .. ..
. .
. . a
ai
. . i
det λai = λ det ai ; det .. = − det ... .
.
. .
. . a a
. . j j
..
.
.
an an
. .
an an
74
è un omomorfismo di gruppi. Definiamo anche:
• f (En ) = 1, infatti:
det(En B) det B
f (En ) = = = 1.
det B det B
• Multilinearità: sia A = λA0 + µA00 , dove A0 ha tutte le righe uguali ad A, tranne
la j−esima e analogamente A00 , dunque aj = λa0j + µa00j . Allora:
= λ(a0j bk ) + µ(a00j bk )
perciò (AB)j , la j−esima riga di AB, è combinazione lineare di due righe. Il
determinante è lineare in particolare nella j−esima componente: =⇒ det AB =
λ det(A0 B) + µ det(A00 B)
Si ha dunque che:
det AB
f (A) = det(A) = .
det B
Corollario 7.
1
det(A−1 ) = .
det(A)
Dimostrazione.
AA−1 = En =⇒ det(A) det(A−1 ) = det(En ) = 1
75
Proposizione. Se A, B sono simili, hanno lo stesso determinante.
det(f ) = det MB (f )
Consideriamo la matrice à = a˜ij , che è definita da a˜ij := det Aji dove Aji = tAij .
Chiamiamo à “matrice complementare”.
Aggiungendo infatti opportuni multipli della j−esima colonna (che è proprio ei ) alle
altre colonne ci si può ricondurre all’enunciato.
Teorema 17.
ÃA = AÃ = det(A)En .
76
Dimostrazione. Descriviamo i componenti di à · A:
n
X n
X
a˜ij ajk = ajk det Aji
j=1 j=1
Xn
= ajk det(a1 , . . . , ai−1 , ej , ai+1 , . . . , an ) per oss. prec.
j=1
n
X
1 i−1
= det(a , . . . , a , ajk ej , ai+1 , . . . , an ) multilin.
j=1
1 i−1
= det(a , . . . , a , ak , ai+1 , . . . , an )
= δik · det A per alternanza.
A0ij
la sottomatrice di A di dimensioni (n − 1) × (n − 1) ottenuta cancellando la i − esima
riga e la colonna j − esima. Viene chiamata minore complementare di aij .
Lemma 3.
det(Aij ) = (−1)i+j det(A0ij )
Dimostrazione. Operando i − 1 scambi di righe e j − 1 scambi di colonne, è possibile
condurre Aij alla forma:
1 0 . . . 0
0
Aij → ..
. A0ij
0
che è una matrice a blocchi: il determinante è dunque det A0ij .
6.5.1 La formula
Teorema 18. Sia A = (aij ), n × n. Allora:
1. Fissato un i ∈ {1, . . . , n} indice di riga si ha lo sviluppo secondo la i−esima riga:
n
X
det(A) = (−1)i+j aij det(A0ij )
j=1
77
(notare gli indici! Se scegliamo la riga la sommatoria è con l’indice delle colonne!)
Dimostrazione. Chiamiamo (bij )i,j = AÃ, che abbiamo dimostrato essere uguale a
det(A)En , pertanto bii = det A. Dunque:
bii = det(A) =
Xn
= aij a˜ji =
j=1
Xn
= aij det(Aij )
j=1
= −3 + 6 − 3.
Lo stesso determinante, secondo la prima colonna:
0 1 2
3 2 1 = −3 1 2 + 1 1 2 = 6 − 3 = 3.
1 0 2 1
1 1 0
Dimostrazione.
teAx = b ⇐⇒ x1 a1 + x2 a2 + . . . + xn an = b
In questo caso det(a1 , . . . , aj−1 , b, aj+1 , . . . , an ) =
78
per multilinearità:
n
X
xi det(a1 , . . . , aj−1 , ai , aj+1 , . . . , an ) =
i=1
per alternanza rimane solo
= xj det(a1 , . . . , aj , . . . , an ) =
= xj det(A).
Per ricavare xj è sufficiente quindi dividere det(a1 , . . . , aj−1 , b, aj+1 , . . . , an ) per det(A)
che è sicuramente diverso da 0 poiché la matrice è di rango massimo.
79
Capitolo 7
Autovalori, autovettori,
diagonalizzazione
80
7.1 Introduzione
7.1.1 Motivazione
Sia f : V → V un’applicazione lineare, sia dim V = n.
Stiamo cercando di trovare una base B di V tale che MB (f ) sia “il più semplice
possibile”. In altri termini, se A è una matrice, stiamo cercando una matrice simile
ad A che sia il più semplice possibile.
Esempi
Prendiamo V = R2 . Sia A la matrice:
!
cos α sin α
A= .
sin α − cos α
Questa rappresenta una riflessione rispetto alla retta che forma un angolo α/2 con
l’asse orizzontale. Osserviamo che esistono due autovalori λ1 = 1 e λ2 = −1. Per λ1
c’è un autovettore v1 = (cos α2 , sin α2 ) e per λ2 un autovettore v2 = (cos α+π α+π
2 , sin 2 ).
Sia
!
2 0
A= .
0 0
! ! ! !
1 2 1 1
Allora 2 è un autovalore: A = =2 ,e è un autovettore per 2 (ossia
0 0 0 0
! ! !
1 0 0
lungo la direzione A moltiplica per 2). Anche 0 è un autovalore: A = =
0 1 0
! ! !
0 0 0
0 ,e è un autovettore per 0 (lungo la direzione A moltiplica per 0).
1 1 1
81
7.2 Autospazio
Sia f : V → V lineare.
Osservazione. f : V → V è un endomorfismo.
82
2. Aut(λ) = ker(f − λ Idv ).
Dimostrazione.
v ∈ Aut(λ) ⇐⇒ Av = λv ⇐⇒ L(A)v = λ IdK n v
⇐⇒ L(A)v − λL(En )v = 0 ⇐⇒ (L(A) − λL(En ))v = 0
⇐⇒ v ∈ ker(L(A) − λL(En ))
(A − λEn )x = 0.
Dall’osservazione deduciamo che:
83
per la definizione del nucleo di un omomorfismo questo è:
per il teorema della dimensione (5.5 ), che dice che dim V = dim(ker f ) + dim=f ,
otteniamo che:
⇐⇒ =(f − λ IdV ) , V
ossia che:
rg(f − λ Idv ) < dim V ,
e poiché il determinante non è nullo se e solo se la matrice è di rango massimo (vedi
6.3), deduciamo che:
det(f − λ IdV ) = 0.
p̃f : K → K
λ 7→ det(f − λ IdV )
Se B è una base di V , e la matrice associata a f rispetto alla base B è MB (f ) = A,
allora:
Il determinante è:
X
det(A − xEn ) = sgn(σ )b1σ (1) . . . bnσ (p)
σ ∈Sn
84
(a11 − x)(a22 − x) . . . (ann − x) = (−1)n xn + (−1)n−1 xn−1 (a11 + . . . + ann )xn−1 + Q1
det(A − xEn ) = (−1)n xn + (−1)n−1 (a11 + . . . + ann )xn−1 + αn−2 xn−2 + . . . + α1 x + det A
Definizione 34. La somma degli elementi sulla diagonale viene chiamata traccia:
Riassuntino
Se f : V → V è un endomorfismo, dim V = n e B è una base di V ,
è un polinomio di grado n in x.
7.3.2 Esempi
Rotazione
Prendiamo come esempio l’applicazione rotazione di un angolo α. Rispetto alla base
standard la matrice è:
!
cos α − sin α
Rα .
sin α cos α
Calcolo il polinomio caratteristico:
!
cos α − sin α
p(x) = det(Rα − xE2 ) = det
sin α cos α
85
Nel primo caso, non ci sono zeri reali di p(x), e pertanto non esistono autovalori
reali. È facile immaginare che una rotazione non possa operare in alcuna direzione
come il prodotto per uno scalare fissato.
Invece se ∆ = 0, ossia se cos2 α − 1 = 0, significa che α = 0, e allora l’applicazione
è l’identità e quindi l’unico autovalore è 1 (p(x) = x2 − 2x + 1); oppure α = π e in tal
caso l’unico autovalore è −1.
S · t · En · S −1 = t · En .
Dunque
B − t · En = SAS −1 − S · t · En · S −1 = S(A − t · En )S −1 .
Il determinante di B − t · En è dunque
pertanto
pB (t) = pA (t).
7.4 Diagonalizzazione
Se λ è radice del polinomio caratteristico di f pf (x), allora pf (x) è divisibile per x − λ.
La
Dimostrazione. Considero Aut(λ), prendo una sua base v1 , . . . , vm con m = mg (λ) (ov-
vio poiché mg (λ) = dim Aut(λ)) e la prolungo ad una base di V : B = (v1 , . . . , vm , . . . , vn ).
Sia A = MB (f ). Allora f (v1 ) = λv1 , . . . , f (vm ) = λvm =⇒
λ ... 0
..
0
. 0 B
..
A = . ... λ
0 ... 0
. .. ..
..
. . A0
0 ... 0
86
dunque si tratta di calcolare il determinante di una matrice a blocchi (il blocco in alto
a sinistra ha m righe, dunque A0 ha n − m righe):
λ − x . . . 0
..
0 . 0 B
..
pf (x) = |A − xEn | = . ... λ − x
0 ... 0
. .. .
.. . .. A0 − xEn−m
0 ... 0
Esempio. Consideriamo !
cos α sin α
A=
sin α − cos α
pA (x) = λ2 − 1
=⇒ λ1 = 1, λ2 = −1.
Quindi
ma (λ1 ) = ma (λ2 ) = 1
poiché mg (λi ) non può essere < 1, ma = mg .
1. f è diagonalizzabile;
87
3. Se µ1 , . . . , µk ∈ {λ1 , . . . , λn } sono gli autovalori distinti di f , allora
autovettori tale che MB (f ) = ... . . . ... è una matrice diagonale. Allora pf (x) =
0 . . . λn
det(f − λ IdV ) = (λ1 − x) . . . (λn − x), ossia ha n fattori lineari. Se per un certo lambdai si
considera ma (λi ), nella matrice MB (f ) λi è ripetuto ma (λi ) volte, ossia nella base B ci
sono ma (λi ) autovettori di λi . Allora dim Aut(λi ) = mg (λi ) ≥ ma (λi ), ma visto che vale
sempre mg (λi ) ≤ ma (λi ), si conclude che ma λi = mg (λi )∀i.
2 =⇒ 3. Assumiamo dunque chepf (x) = (µ1 − x)r1 (µ2 − x)r2 . . . (µk − x)rk con r1 + r2 +
. . . + rk = n. Allora ri = ma (µi ) = mg (µi ) = dim Aut(µi ), ∀i. Si ha dunque che:
v = w1 + . . . + wk = w10 + . . . + wk0
allora
(w1 − w10 ) + . . . + (wk − wk0 ) = 0
| {z } | {z }
∈Aut(µ1 ) ∈Aut(µk )
Esempio.
0 −1 1
A = −3 −2 3 ∈ M(3 × 3, R)
−2 −2 3
è diagonalizzabile?
−x −1 1
pA (x) = det(A − xE3 ) = −3 −2 − x 3 =
−2 −2 3 − x
= −x3 + x2 + x − 1 =
− (1 − x)2 (x + 1),
dunque si fattorizza in fattori lineari. Gli autovalori sono
λ1 = 1 con ma (1) = 2
88
e
λ2 = −1 con ma (−1) = 1 =⇒ mg (−1) = 1.
L’autospazio di λ1 = 1 è dunque:
−1 −1 1
Aut(λ1 ) = ker(L(A) − λ1 E3 ) = ker −3 −3 3
−2 −2 2
(A − λ1 En )v = 0
−1 −1 1
−3 −3 3 v = 0
−2 −2 2
La matrice ha rango 1 e quindi risolviamo velocemente con Gauss e otteniamo che se
le soluzioni sono x1 , x2 , x3 allora x2 e x3 sono liberi e che quindi si ha come soluzione
−x2 + x3 , x2 , x3 = x2 (−1, 1, 0) + x3 (1, 0, 1) dunque
Aut(1) = h(−1, 1, 0), (1, 0, 1)i.
Similmente
Aut(λ2 = −1) = ker(A − (−1)E3 )
da cui
1 3
Aut(−1) = h( , , 1)i = h1, 3, 2i.
2 2
La base è formata dunque dai vettori
B = ((1, 0, 1), (−1, 1, 0), (1, 3, 2)).
La matrice rispetto a questa base è
1 0 0
A0 = 0 1 0
0 0 −1
89
Teorema 22. Teorema fondamentale dell’algebra. Sia p(x) un polinomio a coeffi-
cienti in C di grado n ≥ 1:
f ◦ f = f 2 , (f ◦ f ) ◦ f = f 3 , . . .
90
7.6 Triangolarizzazione e forma normale di Jordan
Facciamo un esempio di una matrice non diagonalizzabile:
λ 0 0
... ...
.. ..
1 λ
. .
A = 0 1 .. .. .. .
. . .
.. . .
.. ..
.
. . . 0
0 ... 0 1 λ
7.6.1 Triangolarizzazione
Definizione 37. f : V → V è triangolarizzabile se esiste una base B tale che MB (f )
sia triangolare superiore.
Analogamente An × n è triangolarizzabile se è simile ad una matrice triangolare.
Dimostrazione. Se f è triang. allora ∃ base B tale che MB (f ) sia triangolare ... . . . ... ,
0 . . . λn
ossia
pf (x) = (λ1 − x) . . . (λn − x).
Il verso opposto della doppia implicazione si dimostra per induzione. Se n = 1 è
banale. Supponiamo che sia vero per matrici di ordine n − 1 e dimostriamo che vale
su n.
Per ipotesi pf (x) è prodotto di fattori lineari, ed esiste dunque un autovalore λ; sia
v1 un autovettore di λ. Prolungo v1 ad una base di V : B = (v1 , w2 , . . . , wn ). Considero
1 pronuncia francese
91
W = hw2 , . . . , wn i. Se w ∈ W , allora f (w) = µ1 v1 + µ2 v2 + . . . + µn wn . Prendo la somma
µ2 w2 + . . . + µn wn e la uso per definire un’applicazione g:
g :W →W
w 7→ µ2 w2 + . . . + µn wn dove w = µ1 v1 + µ2 w2 + . . . + µn wn .
Teorema 24.
Aut(λ) = ker(f − λ IdV ) = Aut1 (λ) ⊆
⊆ ∗ ker (f − λ IdV )2 = Aut2 (λ)
92
2
..
.
⊆ ker ((f − λ IdV )a ) = Auta (λ)
dove a = ma (λ).
Gli autospazi Aut1 (λ), Aut2 (λ), . . . vengono detti autospazi generalizzati di λ.
L’ultimo di questi autospazi si ottiene per esponente leqma (λ) ed ha dimensione
uguale a ma (λ), poi sono tutti uguali.
Proposizione.
V = Auta1 (λ1 ) ⊕ . . . ⊕ Autam (λm )
f (v1 ) = λv1 + v2
f (v2 ) = λv2 + v3
..
.
f (vn ) = λvn
quindi
(f − λ Id)(v1 ) = v2
(f − λ Id)(v2 ) = (f − λ Id)2 (v2 ) = v3
..
.
(f − λ Id)(vn−1 ) = (f − λ Id)n−1 (vn−1 ) = vn
93
• La forma normale di Jordan è unica a meno di permutazione dei blocchi
Per costruire una base di Jordan per Autai (λi ) si procede facendo l’unione di op-
portune basi, una per ogni autospazio generalizzato Autai (λi ) dove ai è la molteplicità
algebrica dell’autovalore λi .
Per prima cosa, per ogni λi , si costruisce una base di Autai (λi ) a partire da una
base di Aut(λi ), poi la si completa ad una base di Aut2 (λi ), e questa ad una base di
Aut3 (λi ), e così via fino al primo di dimensione ai .
7.6.3 Esempi
Esempio 1
Sia A la matrice
3 6 3
A = −1 0 −1 .
1 2 3
94
Iniziamo a calcolare gli autospazi generalizzati.
Aut(2) = ker(B)
per calcolare ker B portiamo a gradini la matrice con Gauss e quindi troviamo una
base dello spazio delle soluzioni del sistema omogeneo annesso. Dunque
Aut3 (2) = h(1, −1, 1), (0, −1, 1), (0, 0, 1)i
Dunque adesso
Aut2 (2) = h((1,-1,1)(3, −1, 1), (0, −1, 1)i
Infine applichiamo B a v2 , che è come applicare B2 a v1 , per trovare v3 :
0 2
v3 = B2 0 = −2
1 2
95
Calcoliamo S −1 , quindi facciamo
S −1 AS
che è il risultato:
2 0 0
1 2 0
0 1 2
Esempio 2
2 −1 1 0
0 2 0 1
A =
0 0 3 1
0 0 0 3
λ1 = 2, ma (2) = 2
e
λ2 = 3, ma (3) = 2.
Iniziamo con λ1 .
Sia B = A − λ1 E4 = A − 2E4 :
0 −1 1 0
0 0 0 1
B =
0 0 1 1
0 0 0 1
v2 = (−1, 0, 0, 0)
Vediamo ora λ2 .
−1 −1 1 0
0 − 1 0 1
C = A − λ2 E4 = A − 3E4 =
0 0 0 1
0 0 0 0
96
Aut 3 = ker C = h(1, 0, 1, 0)i
Aut2 3 = ker C 2 = h(1, 0, 1, 0), (−2, 1, 0, 1)i
Dunque v3 = (−2, 1, 0, 1). Applichiamo C a v3 per ottenere v4 :
v4 = (1, 0, 1, 0).
Scriviamo la matrice S:
0 −1 −2 1
1 0 1 0
B
S = MC J (Id) =
0 0 0 1
0 0 1 0
Esempio 3
Vediamo un esempio più generico. Sia A una matrice n × n, sia λ il suo unico autova-
lore, sia ma (λ) = 4. Poiché vale sempre mg (λ) ≤ ma (λ), ci sono le seguenti possibilità:
λ
λ
λ
λ
–
λ
λ
1 λ
0 1 λ
97
–
λ 0
1 λ
λ 0
1 λ
98