Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
EDA - IPI
2 Matrici 17
2.1 Cosa sono le matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Prodotto di matrice-vettore colonna . . . . . . . . . . . . . . . . . . . 18
2.2.1 Prodotto matrice-vettore e combinazioni lineari . . . . . . . . 19
2.3 Somma di matrici e moltiplicazione per uno scalare . . . . . . . . . . 20
2.4 Prodotto tra matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5 Matrice trasposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6 Matrici quadrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.7 Matrici a scalini e metodo di eliminazione di Gauss (MEG) . . . . . 26
3 Determinante 29
3.1 Proprietà elementari del determinante . . . . . . . . . . . . . . . . . . 31
3.1.1 Calcolo del determinante col MEG . . . . . . . . . . . . . . . 32
3.1.2 Annullamento del determinante . . . . . . . . . . . . . . . . . 33
3.2 Invertibilità e matrice inversa . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Cambiamento di base in Rn . . . . . . . . . . . . . . . . . . . 36
3
4 INDICE
4 Rango 37
4.1 Calcolo del rango col MEG . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Spazio colonna e nucleo di una matrice . . . . . . . . . . . . . . . . . 40
5 Sistemi lineari 43
5.1 Struttura dell’insieme delle soluzioni di un sistema lineare . . . . . . . 44
5.1.1 Sistema omogeneo . . . . . . . . . . . . . . . . . . . . . . . . 44
5.1.2 Sistema non omogeneo . . . . . . . . . . . . . . . . . . . . . . 45
5.1.3 Risolvere sistemi lineari col MEG . . . . . . . . . . . . . . . . 47
7 Applicazioni lineari 59
7.1 Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . 61
7.1.1 Applicazioni lineari iniettive e suriettive . . . . . . . . . . . . 64
7.1.2 Matrici simili . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Capitolo 1
Il cuore dell’algebra lineare si trova in due operazioni tra vettori: la somma di vettori
v + w e la moltiplicazione di un numero reale per un vettore v; le due operazioni
insieme danno il concetto di combinazione lineare cv + dw, dove c, d ∈ R.
Rn = {(x1 , x2 , . . . , xn ) : xi ∈ R, i = 1, . . . , n}.
x i = yi , ∀i = 1, . . . , n.
R2 = {(x, y) : x, y ∈ R}.
5
6 CAPITOLO 1. VETTORI E COMBINAZIONE LINEARE
R3 = {(x, y, z) : x, y, z ∈ R}.
x + y = (x1 + y1 , . . . , xn + yn ) ∈ Rn .
tx = (tx1 , . . . , txn ) ∈ Rn .
1.4. COMBINAZIONI LINEARI 7
w = α1 v 1 + α2 v 2 + · · · + αk v k ∈ Rn .
α1 v 1 + α2 v 2 + · · · + αk v k = 0 =⇒ αi = 0, ∀i = 1, . . . , k.
Poiché α3 può assumere qualsiasi valore in R, concludiamo che i vettori sono linear-
mente dipendenti. Per esempio, si fissi α3 = 1.
8 CAPITOLO 1. VETTORI E COMBINAZIONE LINEARE
• x + (y + z) = (x + y) + z,
• x + y = y + x,
• esiste un elemento di X, indicato col simbolo 0 (o anche 0X ), tale che
x + 0 = x,
• per ogni x ∈ X esiste un elemento −x ∈ X tale che x + (−x) = 0,
• s(tx) = (st)x,
• 1x = x,
• t(x + y) = tx + ty,
• (s + t)x = sx + tx.
• x + y ∈ S, ∀x, y ∈ S,
• tx ∈ S, ∀x ∈ S, ∀t ∈ R.
1.7. SOTTOSPAZI, BASI, DIMENSIONE 9
span(v 1 , . . . , v k )
i=1
span(v) = {tv : t ∈ R}
In generale, dati due vettori non banali1 di Rn , non paralleli tra loro, l’espressione
P (t) = tv + a, t∈R
descrive una retta parallela a v, non passante per l’origine. Si noti che l’insieme
dei punti della retta in questo caso NON è uno spazio vettoriale, ma un insieme
ottenuto traslando lo spazio vettoriale span(v) col vettore a. Spazi di questo tipo
vengono chiamati spazi affini.
• Dati v, w ∈ Rn due vettori non banali linearmente indipendenti, l’insieme di punti
span(v, w) = {sv + tw : s, t ∈ R}
si chiama piano passante per l’origine e con vettori direttori v, w (o, equivalente-
mente, parallelo ai vettori v, w). L’equazione vettoriale
P (s, t) = sv + tw, s, t ∈ R
W = {(x1 , x2 , x3 ) : x1 + x2 + x3 = 0, x1 , x2 , x3 ∈ R}
span(b1 , . . . , bk ) = X.
∑
k
v= αi bi .
i=1
1
Diciamo non banale un qualunque vettore v ̸= 0.
1.7. SOTTOSPAZI, BASI, DIMENSIONE 11
∑
k
v= αi bi . (1.1)
i=1
Ci rimane da dimostrare che una k-upla α1 , α2 , . . . , αk ∈ R che soddisfa (1.1) è unica. Per
assurdo, supponiamo che esistano un vettore v ∈ X e due k-uple α1 , . . . , αk e α̃1 , . . . , α̃k
distinte tali che
∑ k ∑ k
i
v= αi b = α̃i bi .
i=1 i=1
Pertanto,
∑
k
(αi − α̃i )bi = 0,
i=1
αi = α̃i , ∀i = 1, . . . , k.
Teorema della dimensione per spazi vettoriali. Sia X uno spazio vetto-
riale. Se esiste una base di X costituita da n ∈ N vettori, allora ogni base di X
è formata da n vettori linearmente indipendenti.
Ogni vettore di Rn si scrive in modo unico come combinazione lineare dei vettori
della base canonica, con coefficienti di combinazione che sono le componenti del
vettore stesso: se x = (x1 , . . . , xn ) allora
x = x1 e1 + · · · + xn en .
Infatti dato un insieme ordinato di generatori, eliminando quei vettori che sono
combinazione lineare dei precedenti, si ottiene ancora un insieme di generatori che
sono linearmente indipendenti, ovvero una base. Si ha quindi:
∑
n
⟨u, v⟩ = ui vi ∈ R.
i=1
∥v∥ ≥ 0 e ∥v∥ = 0 ⇐⇒ v = 0.
(ii) Omogeneità:
∥tv∥ = |t|∥v∥, ∀t ∈ R, ∀v ∈ Rn .
Dim. Le proprietà (i) e (ii) seguono immediatamente dalle proprietà del prodotto scalare.
Dimostriamo la proprietà (iii). Per le proprietà (i)-(ii) del prodotto scalare, abbiamo
⟨bi , bj ⟩ = 0, ∀i ̸= j.
Matrici
Il numero aij viene detto elemento di posto i, j, all’incrocio della i-ma riga con la
j-ma colonna. L’indice i assume un valore compreso tra 1 e m, l’indice j tra 1 e n.
La matrice sopra è costituita da m righe di n elementi
[ ]
ai1 ai2 . . . ain , i = 1, . . . , m,
e n colonne di m elementi
a1j
a2j
.. , j = 1, . . . , n.
.
amj
17
18 CAPITOLO 2. MATRICI
Definizioni.
Esempio. Siano [ ]
2 −5 0
A= e x = (−6, 2, 1).
−4 1 3
Calcoliamo Ax:
Ax = (2 · (−6) − 5 · 2 + 0 · 1, −4 · (−6) + 1 · 2 + 3 · 1) = (−22, 29).
Ax = 0 soltanto per x = 0,
dove A = [v 1 | . . . |v n ] ∈ Mm,n .
20 CAPITOLO 2. MATRICI
Esempio. Siano
[ ] [ ]
0 1 3 2 5 1
A= ∈ M2,3 , B= ∈ M2,3 .
1 2 4 1 2 4
La somma di A e B è data da
[ ] [ ]
0+2 1+5 3+1 2 6 4
C= = ∈ M2,3 .
1+1 2+2 4+4 2 4 8
Le matrici
[ ] 2 0
0 1
A= ∈ M2,2 , B = 1 1 ∈ M3,2
2 5
6 4
non possono essere sommate.
Si verifica che la somma tra matrici gode delle seguenti proprietà (esercizio).
A + (B + C) = (A + B) + C, ∀A, B, C ∈ Mm,n .
A + B = B + A, ∀A, B ∈ Mm,n .
(iii) La matrice nulla O ∈ Mm,n , definita come la matrice che ha tutte le compo-
nenti nulle, è tale che
A + O = A, ∀A ∈ Mm,n .
Esempio. Sia [ ]
10 5 7
A= ∈ M2,3 .
1 5 3
La matrice B = 4A è data da
[ ] [ ]
4 · 10 4 · 5 4 · 7 40 20 28
B= = ∈ M2,3 .
4·1 4·5 4·3 4 20 12
Si verifica che la moltiplicazione di una matrice per uno scalare gode delle
seguenti proprietà (esercizio).
(i) s(tA) = (st)A, ∀s, t ∈ R, ∀A ∈ Mm,n .
Esempio. Siano
[ ] 2 0
0 1 1
A= ∈ M2,3 , B = 1 2 ∈ M3,2 .
2 2 1
3 1
c11 = 0 · 2 + 1 · 1 + 1 · 3 = 4,
c12 = 0 · 0 + 1 · 2 + 1 · 1 = 3,
c21 = 2 · 2 + 2 · 1 + 1 · 3 = 9,
c22 = 2 · 0 + 2 · 2 + 1 · 1 = 5.
Osserviamo che si puo’ fare anche il prodotto BA, che risulta essere una matrice
3 × 3. Ovviamente AB ̸= BA.
Osservazioni.
♢ Il prodotto tra matrici non è commutativo.
♢ Per il prodotto di matrici non vale la legge di annullamento: il prodotto tra due
matrici può essere la matrice nulla senza che alcuna delle matrici a fattore sia nulla!
Esempio: [ ]
0 1
A=B= .
0 0
Si verifica facilmente che il prodotto tra matrici gode delle seguenti proprietà.
(iv) Omogeneità:
La matrice
1 2 1
B = 2 0 3
1 3 1
è simmetrica.
Si verifica che valgono le seguenti proprietà:
(i) (A + B)⊤ = A⊤ + B ⊤ , ∀A, B ∈ Mm,n .
Rn → Rn
x 7→ Ax
Esempio. La matrice
[ ]
cos α − sin α
Uα = con α ∈ [0, 2π)
sin α cos α
Definizioni.
lij = 0, ∀i < j,
ovvero tutti gli elementi al di sopra della diagonale principale sono nulli.
uij = 0, ∀i > j,
ovvero tutti gli elementi al di sotto della diagonale principale sono nulli.
2.6. MATRICI QUADRATE 25
dij = 0, ∀i ̸= j.
La Matrice identità
[ ]
La matrice quadrata I = e1 | . . . |en ∈ Mn verifica
A = IA = AI, ∀A ∈ Mn .
mentre, se n = 3,
1 0 0
I = 0 1 0 ∈ M3 .
0 0 1
Definizione. Si dice matrice a scalini una matrice in cui il primo elemento diverso
da zero di una riga si trova più a destra del primo elemento diverso da zero della
riga precedente. Il primo elemento diverso da zero su ogni riga si dice pivot.
Esempio. Le matrici
1 0 2 3
0 3 1 0 3
4 0 0
0 4 0 0
0 e
0 0 5
0 0 0 1
0 0 0 0
• sostituzione di una riga con la somma tra la riga stessa e un multiplo di un’altra
riga.
1. Se la prima riga ha il primo elemento nullo, si scambia con una riga che ha il
primo elemento non nullo. Se tutte le righe hanno il primo elemento nullo =⇒
punto 3.
2. Per ogni riga i (i > 1) si moltiplica la prima riga per un coefficiente scelto in
maniera tale che la somma tra la nuova prima riga e la i-ma abbia il primo
elemento nullo ( coefficiente = −ai1 /a11 ). Si sostituisca ora la riga i con la
somma appena ricavata.
3. In questo modo sulla prima colonna tutti gli elementi sotto a a11 sono nulli.
A questo punto si ritorna al passo 1 e si lavora sulla sottomatrice ottenuta
cancellando la prima riga e la prima colonna.
2.7. MATRICI A SCALINI E METODO DI ELIMINAZIONE DI GAUSS (MEG) 27
Esempio.
−1 1 0 −1 1 0 −1 1 0
A = 1 2 0 → 0 3 0 → 0 3 0 =: U .
0 6 −4 0 6 −4 0 0 −4
Dalla matrice di partenza A abbiamo sommato la prima riga moltiplicata per 1 con
la seconda (scrivendo il risultato nella seconda riga in modo da ottenere uno zero in
prima colonna), poi abbiamo moltiplicato la riga ottenuta per −2 e sommata alla
terza riga. La matrice a scalini U ha tre pivot: −1, 3 e −4.
28 CAPITOLO 2. MATRICI
Capitolo 3
Determinante
29
30 CAPITOLO 3. DETERMINANTE
1 4
Det(A12 ) = = 1 · 2 − 4 · 3 = −10
3 2
e il complemento algebrico è
♢ Si può dimostrare che la somma dei prodotti degli elementi di una qualsiasi riga
o colonna di A per i rispettivi complementi algebrici assume sempre lo stesso valore
(!). Questo valore viene chiamato determinante di A.
Definizione (Determinante di una matrice n × n). Dato un qualsiasi indi-
ce di riga i = 1, . . . , n, e un qualsiasi indice di colonna j = 1, . . . , n, si definisce
determinante di A il numero
∑
n
Det(A) = (−1)i+k aik Det(Aik ) sviluppo secondo la riga i-ma,
k=1
∑n
= (−1)k+j akj Det(Akj ) sviluppo secondo la colonna j-ma.
k=1
1 4 1 1
Det(A11 ) = = −6, Det(A12 ) = −10, Det(A13 ) = = −1,
2 2 3 2
3.1. PROPRIETÀ ELEMENTARI DEL DETERMINANTE 31
pertanto
♢ Per il calcolo del determinante conviene quindi scegliere una riga o una colonna
col maggior numero di elementi uguali a 0. 1
• Det(A⊤ ) = Det(A).
• Det(λA) = λn Det(A), ∀λ ∈ R.
Poiché, per ogni j = 1, . . . , n, Aīj e A′īj appartengono a Mn−1 e differiscono soltanto per
due righe scambiate tra di loro, l’ipotesi induttiva implica Det(Aīj ) = −Det(A′īj ), da cui
segue immediatamente Det(A) = −Det(A′ ).
Proviamo ora la seconda proprietà . Se A ha due righe uguali, allora scambiandole tra
di loro otteniamo la matrice A′ = A, quindi Det(A′ ) = Det(A). D’altra parte, sappiamo
dal risultato precedente che Det(A′ ) = −Det(A), pertanto Det(A) = 0.
Se A presenta una riga i cui elementi sono proporzionali a quelli di un’altra riga, ci si può
ricondurre ad una matrice con due righe uguali moltiplicando una delle due righe per un
numero opportuno... e cosi via.
Vale inoltre il Teorema di Binet per il determinante del prodotto di due matrici:
Teorema di Binet. Se A e B sono matrici quadrate dello stesso ordine allora il
determinante della matrice prodotto è il prodotto dei determinanti
Det(AB) = Det(A)Det(B).
[ ]
Teorema. Siano v 1 , v 2 , . . . , v n ∈ Rn e sia A = v 1 | . . . | v n ∈ Mn . Allora i
vettori v 1 , v 2 , . . . , v n sono linearmente indipendenti se e solo se
Det(A) ̸= 0.
1/2 1
Det(A) = 1 · = 0.
1 2
B (AC) = (BA) C
| {z } | {z }
I I
ovvero
BI = IC =⇒ B = C.
quindi Det(A) ̸= 0.
In realtà vale il viceversa, grazie al teorema seguente:
Teorema (Formula di Laplace per la matrice inversa). Sia A = [aij ] ∈ Mn
tale che Det(A) ̸= 0. Allora A è invertibile e la matrice inversa è
1
A−1 = B⊤
Det(A)
In conclusione:
Esempio. Sia [ ]
a11 a12
A= ∈ M2
a21 a22
tale che Det(A) ̸= 0. Allora, grazie alla formula di Laplace la matrice inversa è data
da [ ]
−1 1 a22 −a12
A = .
Det(A) −a21 a11
Ad esempio la matrice inversa di
[ ]
2 1
A=
−1 3
è data da [ ]
−1 3/7 −1/7
A = .
1/7 2/7
Det(A12 ) = 1, Det(A22 ) = 1,
da cui
Det(A) = −2 · 1 + 4 · 1 = 2 ̸= 0,
dunque A è invertibile. I restanti minori complementari sono
B = {b1 , . . . , bn }.
dove xi sono le coordinate di v nella base canonica e x̂i sono le coordinate nella base
B. Qual è la relazione tra queste coordinate? Se chiamiamo
possiamo scrivere
v = Ix e v = Mx̂
dunque
x = Mx̂.
Se vogliamo conoscere le coordinate di v nella nuova base B, basta quindi calcolare
x̂ = M−1 x.
e calcolarne l’inversa: [ ]
−1 1 0 −2
M =− .
2 −1 1
Il vettore v = 5e1 + 3e2 ha coordinate x = (x1 , x2 ) = (5, 3) nella base canonica.
Nella nuova base le sue coordinate sono
dunque
v = 3b1 + 1b2 .
Capitolo 4
Rango
Rank(A),
Osservazioni.
Ne segue che
37
38 CAPITOLO 4. RANGO
Per la determinazione del rango di una matrice risulta utile il seguente teorema.
0 1 3
1 0 −5 = −1 · (−5) + 1 · (−5) = 0,
1 2 1
0 1 2
1 0 −1 = −1 · (−1) + 1 · (−1) = 0.
1 2 3
Dim(V ) = Rank(A) = 2,
Col(A) = span(a1 , . . . , an ) ⊂ Rm
Ker(A) = {x ∈ Rn : Ax = 0} ⊂ Rn .
Dim(Col(A)) = Rank(A).
Dim(Ker(A)) + Dim(Col(A)) = n.
Quindi
Dim(Ker(A)) = n − Rank(A).
sia una base di Rn .1 Mostriamo ora che gli n − k vettori Auk+1 , . . . , Aun ∈ Rm costitui-
scono una base di Col(A), da cui seguirà che:
Dim(Col(A)) = n − k,
che è la tesi.
Per prima cosa osserviamo che Aui appartiene a Col(A): infatti Aui è la combinazione
lineare delle colonne di A con coefficienti dati dalle componenti di ui . Ne segue che
Mostriamo che in realtà i due spazi coincidono, ovvero che Col(A) è generato dai vettori
Aui , per i = k+1, . . . , n. A questo scopo sia x ∈ Rn : sappiamo che esistono α1 , . . . , αn ∈ R
tali che
∑k ∑n
x= αj wj + αj uj .
j=1 j=k+1
∑
k ∑
n ∑
n
j j
Ax = αj Aw + αj Au = αj Auj ,
j=1 j=k+1 j=k+1
∑
n−k
βj Auk+j = 0.
j=1
1
L’esistenza di tali uk+1 , . . . , un è garantita dal Teorema detto di Completamento. Notiamo
che nessuno dei vettori uk+1 , . . . , un appartiene a Ker(A).
42 CAPITOLO 4. RANGO
Capitolo 5
Sistemi lineari
Ax = b. (5.2)
La matrice
[A|b]
si dice matrice completa del sistema (5.2).
Esempio. Il sistema lineare
x − 3y + 2z − 4t = 2,
2x + 5y + 2t = 8,
3 x + y + z − t = 5,
2
43
44 CAPITOLO 5. SISTEMI LINEARI
3/2 1 1 −1 5
t
Allora il sistema si può scrivere in forma matriciale come
Ax = b.
Ax = b,
x = t1 v 1 + · · · + tn−r v n−r
Ax = 0
Det(A) ̸= 0.
Dim. Abbiamo già dimostrato la parte del teorema relativa all’esistenza di soluzioni
all’inizio del paragrafo. Sia ora v p ∈ Rn una soluzione di Ax = b. Osserviamo che un
vettore y ∈ Rn soddisfa Ay = b se e solo se
A(y − v p ) = Ay − Av p = b − b = 0.
46 CAPITOLO 5. SISTEMI LINEARI
S = Ker(A) + v p = {y = v + v p : v ∈ Rn , Av = 0}.
Per il Teorema di Nullità più Rango, sappiamo che Dim(Ker(A)) = n − Rank(A), dunque
esistono n − r soluzioni linearmente indipendenti del sistema omogeneo associato, che
indichiamo con v i , tali che
Det(B i )
xi = , ∀i = 1, . . . , n,
Det(A)
Riassumendo, chiamiamo
r = RankA e r′ = Rank([A|b])
al variare di k ∈ R.
La matrice associata è
2 1 1
A = 1 2 1
1 1 k
5.1. STRUTTURA DELL’INSIEME DELLE SOLUZIONI DI UN SISTEMA LINEARE47
2 1 1 1 1 2
Det(A) = 2 − + = 3k − 2.
1 k 1 k 1 1
Esempio. Sia
1 1 2 3
U = 0 0 4 4
0 0 0 0
e risolviamo U x = 0. Ci sono due pivot: le variabili di pivot (le variabili dipendenti)
sono x1 e x3 , mentre le variabili libere sono x2 e x4 e possono assumere valore
arbitrario. Poniamo
x2 = s, x4 = t ∀s, t ∈ R.
La seconda riga di U da
4x3 + 4t = 0 =⇒ x3 = −t
mentre la prima
x1 + s + 2x3 + 3t = 0 =⇒ x1 = −s − 3t − 2x3
da cui
x1 = −s − 3t + 2t = −s − t.
Le soluzioni sono quindi
−s − t −1 −1
s 1 0
x=
−t = s 0 + t −1
t 0 1
al variare di s e t in R.
Esempio completo. Risolviamo col MEG il sistema
2x1 + x2 + x3 = 6
x1 + 2x2 + x3 = 6
x1 + x2 + 23 x3 = 4
Ax = b
con
2 1 1 6
A = 1 2 1 , b = 6 .
1 1 23 4
5.1. STRUTTURA DELL’INSIEME DELLE SOLUZIONI DI UN SISTEMA LINEARE49
1
Questa matrice rappresenta la rotazione antioraria di centro l’origine e angolo π/2 in R2 .
51
52 CAPITOLO 6. DIAGONALIZZAZIONE DI UNA MATRICE QUADRATA
Dim. Osserviamo che λ è autovalore se e solo se esiste una soluzione non banale u ∈ Rn
del sistema omogeneo
(A − λI)u = 0,
ovvero Det(A − λI) = 0.
♢ Anche λ = 0 può essere un autovalore. Questo accade se e solo se Det(A) = 0.
♢ L’espressione
P (λ) = Det(A − λI)
è un polinomio di grado n nella variabile λ. P (λ) viene chiamato polinomio
caratteristico.
♢ P (λ) ha n radici in campo complesso, λ1 , λ2 , . . . , λn (eventualmente coincidenti).
Risulta
∑n ∏n
tr(A) = λi e Det(A) = λi .
i=1 i=1
gλ = Dim(Vλ ).
Osserviamo che
Vλ = Ker(A − λI).
Dunque gλ è la dimensione del Ker(A − λI), e grazie al Teorema di Nullità più
Rango si ha la formula:
gλ = n − Rank(A − λI).
1 ≤ gλ ≤ aλ .
2−λ 0
Det(A − λI) = = (1 − λ)(2 − λ) = 0,
2 1−λ
Si trova
λ1 = 2 (doppio), e λ2 = 3.
54 CAPITOLO 6. DIAGONALIZZAZIONE DI UNA MATRICE QUADRATA
dove chiamiamo Λ la matrice diagonale degli autovalori. Abbiamo appena dimostrato che:
AP = P Λ ovvero P −1 AP = Λ.
dunque
λ1 = −1, λ2 = 1, λ3 = 2
λ1 = −1, λ2 = 1, λ3 = 2.
Au − λi u = 0.
Per λ2 = 1:
0 −1 0
−u2 = 0
A − λ2 I = −1 −1 1 =⇒ −u1 − u2 + u3 = 0
0 1 0 u2 = 0,
e, per λ3 = 2:
−1 −1 0
−u1 − u2 = 0
A − λ3 I = −1 −2 1 =⇒ −u1 − 2u2 + u3 = 0
0 1 −1 u2 − u3 = 0.
Otteniamo
Vλ1 = span(v 1 ), Vλ2 = span(v 2 ), Vλ3 = span(v 3 ),
dove
v 1 = (1, 2, −1), v 2 = (1, 0, 1), v 3 = (1, −1, −1)
sono tre autovettori relativi agli autovalori λ1 , λ2 , λ3 .
Possiamo verificare che, per ogni i, j = 1, 2, 3 tali che i ̸= j,
ovvero gli autovettori corrispondenti ad autovalori distinti sono ortogonali tra loro.
Determiniamo ora
Si ha:
√ √ √
v1 6 v2 2 v3 3
1
u = 1 = (1, 2, −1), 2
u = 2 = (1, 0, 1), 3
u = 3 = (1, −1, −1).
∥v ∥ 6 ∥v ∥ 2 ∥v ∥ 3
U ⊤ U = I.
è ortogonale. Infatti, per ogni α ∈ [0, 2π) i vettori u1α = (cos α, sin α) e u2α =
(− sin α, cos α) formano una base ortonormale di R2 . Inoltre,
Applicazioni lineari
• L è additiva:
• L è omogenea:
L(tx) = tL(x), ∀ t ∈ R, ∀x ∈ X.
x 7→ L(x) = Ax
59
60 CAPITOLO 7. APPLICAZIONI LINEARI
Ker(L) = {x ∈ X : L(x) = 0Y }.
Teorema.
• Im(L) è un sottospazio di Y .
• Ker(L) è un sottospazio di X.
Ker(L) = {0}.
Dim. Le prime due sono esercizi semplici. Mostriamo la terza: essendo U una base, ogni
vettore x ∈ X si scrive in modo unico come
∑
n
x= α i ui .
i=1
L(x1 − x2 ) = 0
7.1. APPLICAZIONI LINEARI E MATRICI 61
Si può dimostrare il seguente (esercizio): supponiamo che esista x̃ ∈ L−1 (y). Allora
L−1 (y) è formato da tutti e soli i vettori della forma
x̃ + v 0 dove v 0 ∈ Ker(L).
troviamo L−1 (2, 0). Si tratta di cercare tutti i vettori x ∈ R2 tali che
L(x) = Ax ∀x ∈ Rn ?
1
Non un sottospazio se y ̸= 0.
62 CAPITOLO 7. APPLICAZIONI LINEARI
L(x) = Ax, ∀x ∈ Rn .
∑
n
xj L(ej ) = Ax,
j=1
e la dimostrazione è conclusa.
Quindi
Im(L) = span(a1 , . . . , an )
e i vettori linearmente indipendenti appartenenti a {a1 , . . . , an } formano una base
per Im(L). In particolare:
Dim(Im(L)) = Rank(A).
2
Ovviamente la matrice associata sarà diversa.
7.1. APPLICAZIONI LINEARI E MATRICI 63
Ker(L) = Ker(A).
Dim(Ker(L)) = n − Dim(Im(L)).
L : R3 → R2
definita come
L(x, y, z) = (x + 2y + z, y + z),
troviamo la sua immagine e il suo nucleo. Determiniamo prima la matrice di
rappresentazione: [ ]
A = L(e1 )| L(e2 )| L(e3 )
dove
Si trova quindi: [ ]
1 2 1
A=
0 1 1
e
L(x) = Ax.
La dimensione dello spazio immagine di L è pari al rango di A, cioè 2. L’unico
sottospazio di R2 con dimensione 2 è proprio l’intero spazio. Quindi
Im(L) = R2 .
Ax = 0.
Si trova:
Ker(L) = {tv, t ∈ R} dove v = (1, −1, 1).
64 CAPITOLO 7. APPLICAZIONI LINEARI
Dim(Im(L)) = Rank(A) = m.
Rank(A) = n.
In particolare,
B = {w1 , . . . , wn }.
x̂ = S −1 x.
y = Ax ⇐⇒ y = SBS −1 x ⇐⇒ y = SB x̂,
da cui
S −1 y = B x̂ ⇐⇒ ŷ = B x̂.