Sei sulla pagina 1di 15

ALGEBRA LINEARE:

Matrice: tabella con 𝑘 righe e 𝑛 colonne formata da elementi denominati 𝑎𝑖𝑗 posti nella 𝑖-esima riga e
𝑗-esima colonna
𝐴 ∈ ℳ𝑘.𝑛 (ℝ)
𝑎11 … 𝑎1𝑛
𝐴=[… ⋱ … ]
𝑎𝑘1 … 𝑎𝑘𝑛
Isolando righe e colonne di una matrice otteniamo:
Vettori riga: [1 2 6]1 𝑥 3
1
Vettori colonna: [2]
6 3𝑥1
Matrice quadrata: matrice con 𝑘 = 𝑛
Esempio:
1 2 5
𝐴 = [ 5 9 3]
6 0 6 3𝑥3
Matrice diagonale: matrice quadrata con valori nulli fuori dalla diagonale
𝟏 0 0
𝐴 = [0 𝟗 0 ]
0 0 𝟔
Matrice triangolare superiore/inferiore: matrice quadrata con 𝑎𝑖𝑗 = 0 per 𝑖 > 𝑗
1 5 17
𝐴 = [0 9 3 ]
0 0 6
Sarà triangola inferiore con 𝑎𝑖𝑗 = 0 per 𝑖 < 𝑗
Matrice identità: matrice quadrata diagonale con tutti 1 sulla diagonale, cioè:
𝑎𝑖𝑗 = 0 per 𝑖 = 1,2, … , 𝑛
𝑎𝑖𝑗 ≠ 0 per 𝑖 ≠ 𝑗
1 0 0
𝐼𝑛 = [0 1 0]
0 0 1

Somma di matrici: solo per matrici della stessa dimensione


𝐴, 𝐵 𝑚𝑎𝑡𝑟𝑖𝑐𝑖 𝑘 𝑥 𝑛. 𝐿𝑎 𝑚𝑎𝑡𝑟𝑖𝑐𝑒 𝐴 + 𝐵 è 𝑑𝑎𝑡𝑎 𝑑𝑎 𝑎𝑖𝑗 + 𝑏𝑖𝑗
1 0 3 5 8 0 1+5 0+8 3+0
𝐴=[ ] 𝐵=[ ] 𝐴+𝐵 =[ ]
5 6 0 7 4 1 5+7 6+4 0+1

Prodotto matrice per scalare:


𝑆𝑒 𝐴 ∈ ℳ𝑘.𝑛 (ℝ) 𝑒 𝑐 ∈ ℝ 𝑑𝑒𝑓𝑖𝑛𝑖𝑎𝑚𝑜 𝑙𝑎 𝑚𝑎𝑡𝑟𝑖𝑐𝑒 𝑐𝐴 ∈ ℳ𝑘.𝑛 (ℝ) 𝑐𝑜𝑛 𝑒𝑛𝑡𝑟𝑎𝑡𝑒 𝑐 ∙ 𝑎𝑖𝑗
1 0 3 2∙1 2∙0 2∙3
𝐴=[ ] 2𝐴 = [ ]
5 6 0 2∙5 2∙6 2∙0

Prodotto di matrici:
𝐴 ∈ ℳ𝑘.𝑛 (ℝ) 𝑒 𝐵 ∈ ℳ𝑛,𝑝 (ℝ) ⟹ 𝐴 ∙ 𝐵 ∈ ℳ𝑘.𝑝 (ℝ)
L’entrata (𝑖, 𝑗) ha numero reale dato dal prodotto scalare
della 𝑖-esima riga di 𝐴 con la 𝑗-esima colonna di B

𝟑 1
𝐴 = [𝟓 𝟏 √𝟐] 𝐵 = [ 𝟎 0]
0 1 0 −𝟏 5

𝟓 ∙ 3 + 𝟏 ∙ 0 + √𝟐 ∙ (−1) 𝟓 ∙ 1 + 𝟏 ∙ 0 + √𝟐 ∙ 5
𝐴∙𝐵 =[ ]
0 ∙ 𝟑 + 1 ∙ 𝟎 + 0 ∙ (−𝟏) 0∙1+1∙0+0∙5
N.B: la moltiplicazione di matrici non è commutativa: 𝐴 ∙ 𝐵 ≠ 𝐵 ∙ 𝐴

Sistemi lineari:
𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯ + 𝑎1𝑛 𝑥𝑛 = 𝑏1
{ ⋮ ⋮ ⋮ Sistema lineare di 𝑘 equazioni in 𝑛 variabili
𝑎𝑘1 𝑥1 + 𝑎𝑘2 𝑥2 + ⋯ + 𝑎𝑘𝑛 𝑥𝑛 = 𝑏𝑘

𝑎11 … 𝑎1𝑛 𝑏1
La cui matrice associata è: 𝐴 = [ … ⋱ … ] con vettore di termini noti 𝐵 = [ ⋮ ] e delle variabili
𝑎𝑘1 … 𝑎𝑘𝑛 𝑏𝑘
𝑥1
𝑋 = [ ⋮ ] e il sistema diventa 𝐴 ∙ 𝑋 = 𝐵
𝑥𝑛

Matrice invertibile:
𝐴 ∈ ℳ𝑛.𝑛 (ℝ) 𝑚𝑎𝑡𝑟𝑖𝑐𝑒 𝑞𝑢𝑎𝑑𝑟𝑎𝑡𝑎 è 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑒 𝑠𝑒 𝑒𝑠𝑖𝑠𝑡𝑒 𝐵 ∈ ℳ𝑛.𝑛 (ℝ) 𝑡𝑎𝑙𝑒 𝑐ℎ𝑒:
𝐴 ∙ 𝐵 = 𝐵 ∙ 𝐴 = 𝐼𝑛
Se 𝐵 è unica e si denota con 𝐴−1

Proprietà dell’inversa:
1. Non esiste sempre
2. Se esiste è unica
3. Se 𝐴, 𝐵 ∈ ℳ𝑛.𝑛 (ℝ) 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑖 ⟹ 𝐴 ∙ 𝐵 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑒 𝑒 (𝐴 ∙ 𝐵)−1 = 𝐴−1 ∙ 𝐵−1

Metodo di eliminazione di Gauss:


Matrice completa del sistema: se 𝐴𝑋 = 𝐵 sistema lineare [𝐴|𝐵]
Operazioni elementari nell’eliminazione di Gauss:
- Aggiungere 𝑎-volte la riga 𝑗-esima
- Scambiare 𝑖-esima riga con 𝑗-esima riga
- Moltiplicare 𝑗-esima riga per un valore reale non nullo

Matrice a scala: 𝐴 ∈ ℳ𝑘.𝑛 (ℝ)


- 𝐴𝑖 𝑒 𝐴𝑖+1 righe consecutive non nulle, la prima entrata non nulla di 𝐴𝑖 è a sinistra della prima
entrata non nulla di 𝐴𝑖+1
- 𝐴𝑗 riga nulla allora tutte le righe sotto sono nulle
0 𝑎1 𝑛1 … …
0 0 𝑎2 𝑛2 …
𝐴=[ ]
0 … 0 𝑎3 𝑛3
0 … … 0

Matrice a scala completa: 𝐴 ∈ ℳ𝑘.𝑛 (ℝ) matrice a scala con


- Prima entrata non nulla è 1 (pivot) per ogni riga
- Le entrate sopra e sotto ad un pivot sono tutte nulle
0 𝑎1 𝑛1 0 0
0 0 𝑎2 𝑛2 0
𝐴=[ ]
0 … 0 𝑎3 𝑛3
0 … … 0

Rango: data 𝐶 ∈ ℳ𝑘.𝑛 (ℝ) il rango di C è il numero di pivot di 𝑅𝐼𝐷(𝐶)


Teorema: sia 𝐴𝑋 = 𝐵 con 𝐴 ∈ ℳ𝑘.𝑛 (ℝ):
a) Se 𝑟𝑎𝑛𝑔𝑜(𝐴) < 𝑟𝑎𝑛𝑔𝑜([𝐴|𝐵]) ⟹ 𝑁𝑂 𝑠𝑜𝑙𝑢𝑧𝑖𝑜𝑛𝑖
b) Se 𝑟𝑎𝑛𝑔𝑜(𝐴) = 𝑟𝑎𝑛𝑔𝑜([𝐴|𝐵]) ⟹ 𝑐𝑖 𝑠𝑜𝑛𝑜 𝑠𝑜𝑙𝑢𝑧𝑖𝑜𝑛𝑖:
- Se 𝑟𝑎𝑛𝑔𝑜(𝐴) = 𝑛 ⟹ 1 𝑠𝑜𝑙𝑢𝑧𝑖𝑜𝑛𝑒
- Se 𝑟𝑎𝑛𝑔𝑜(𝐴) < 𝑛 ⟹ 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑒 𝑠𝑜𝑙𝑢𝑧𝑖𝑜𝑛𝑖 𝑐𝑜𝑛 𝑛 𝑝𝑎𝑟𝑎𝑚𝑒𝑡𝑟𝑖
Calcolare matrice inversa: 𝐴 ∈ ℳ𝑛.𝑛 (ℝ), per avere 𝐴−1 creo la matrice [𝐴|𝐼𝑛 ]𝑛 𝑥 2𝑛 , applico Gauss e se
𝑅𝐼𝐷([𝐴|𝐼𝑛 ]) = [𝑆|𝐵] quindi 𝑆 = 𝐼𝑛 allora 𝐵 = 𝐴−1
Una matrice è invertibile quindi quando posso ottenere 𝐼𝑛 a sinistra, per cui se ho una matrice già a scala
completa questa non sarà invertibile

Spazi vettoriali: fissati 𝑘 e 𝑛 e date 3 matrici 𝐴, 𝐵, 𝐶 ∈ ℳ𝑘.𝑛 (ℝ) se:


- (𝐴 + 𝐵) + 𝐶 = 𝐴 + (𝐵 + 𝐶)
- 𝐴+0=0+𝐴
- 𝛼(𝐴 + 𝐵) = 𝛼𝐴 + 𝛼𝐵 𝑐𝑜𝑛 𝛼 ∈ ℝ
- 1∙𝐴 =𝐴

⟹ ℳ𝑘.𝑛 è spazio vettoriale

Spazio vettoriale: dato 𝑉 ∈ ℝ con 𝑉 ≠ ∅ è spazio vettoriale con l’operazione:


- Somma di due vettori 𝑤1 , 𝑤2 ∈ 𝑉 associa 𝑤1 + 𝑤2 ∈ 𝑉
- Prodotto per uno scalare: 𝛼 ∈ ℝ e 𝑣 ∈ 𝑉 abbiamo 𝛼 ∙ 𝑣 ∈ 𝑉

Inoltre si ha che:
- 𝑣+𝑤 =𝑤+𝑣
- (𝑣 + 𝑤) + 𝑧 = 𝑣 + (𝑤 + 𝑧)
- Esiste 𝑂𝑣 ∈ 𝑉 tale che 𝑤 + 𝑂𝑣 = 𝑤
- Per ogni vettore 𝑣 ∈ 𝑉 esiste un vettore −𝑣 ∈ 𝑉 tale che 𝑣 + (−𝑣) = 𝑂𝑣
- 1∙𝑣 =𝑣
- 𝛼 ∙ (𝛽 ∙ 𝑤) = (𝛼𝛽) ∙ 𝑤 𝑐𝑜𝑛 𝛼𝛽 ∈ ℝ 𝑒 (𝛼𝛽) ∙ 𝑤 prodotto vettore per scalare
- (𝛼 + 𝛽) ∙ 𝑣 = 𝛼 ∙ 𝑣 + 𝛽 ∙ 𝑣
- 𝛼(𝑣 + 𝑤) = 𝛼 ∙ 𝑣 + 𝛼 ∙ 𝑤

Interpretazione geometrica:
ℝ2 si può vedere come insieme dei vettori che giacciono sul piano cartesiano.
Base canonica di ℝ𝟐 : (10), (01)
0 1 0 0
In ℝ3 avremo vettori con origine (0) e relativa base canonica: (0) , (1) , (0)
0 0 0 1
Sottospazio: sia 𝑉 ∈ ℝ e 𝑊 ≠ ∅ sottoinvieme di 𝑉. 𝑊 è sottospazio di 𝑉 se
∀𝛼1 , 𝛼2 ∈ ℝ, ∀𝑤1 , 𝑤2 ∈ 𝑊 ⟹ 𝛼1 𝑤1 + 𝛼2 𝑤2 ∈ 𝑊

Comminazione lineare: sia 𝑉 ∈ ℝ spazio vettoriale e 𝑣1 , … , 𝑣𝑘 ∈ 𝑉, 𝛼1 , … , 𝛼𝑘 ∈ ℝ diciamo che:


𝛼1 𝑣1 + ⋯ + 𝛼𝑘 𝑣𝑘
è combinazione lineare di 𝑣1 , … , 𝑣𝑘

Sottospazio generato (span): insieme di tutte le possibili combinazioni lineare di 𝑣1 , … , 𝑣𝑘


span(𝑣1 , … , 𝑣𝑘 ) = {𝛼1 𝑣1 + ⋯ + 𝛼𝑘 𝑣𝑘 |𝛼1 , … , 𝛼𝑘 ∈ ℝ}

Se 𝑣1 e 𝑣2 non sono paralleli allora 𝑠𝑝𝑎𝑛(𝑣1 , 𝑣2 ) è un piano contenente 𝑣1 e 𝑣2


Se 𝑣1 e 𝑣2 sono paralleli allora 𝑠𝑝𝑎𝑛(𝑣1 , 𝑣2 ) è la retta contenente 𝑣1 e 𝑣2

1 0
In generale: ℝ𝑛 = 𝑠𝑝𝑎𝑛 (( ) , ( ) , … ) = 𝑠𝑝𝑎𝑛(𝑏𝑎𝑠𝑒 𝑐𝑎𝑛𝑜𝑛𝑖𝑐𝑎 𝑑𝑖 ℝ𝑛 )
0 1
Teorema: se 𝐴𝑋 = 𝐵 dove
| . |
𝐴 = [𝐴1 … 𝐴𝑛 ] dove 𝐴𝑖 = 𝑖-esima colonna di A, allora
| . |
𝐴𝑋 = 𝐵 ha soluzioni ⟺ 𝐵 ∈ 𝑠𝑝𝑎𝑛(𝐴1 , … , 𝐴𝑛 )
Sottospazi: dati 𝑈, 𝑊 sottospazi di 𝑉
1) 𝑈 ∩ 𝑊 = {𝑣 ∈ 𝑉|𝑣 ∈ 𝑉, 𝑣 ∈ 𝑊}
2) 𝑈 + 𝑊 = {𝑢 + 𝑤|𝑢 ∈ 𝑈, 𝑣 ∈ 𝑊} = 𝑠𝑝𝑎𝑛(𝑈 ∪ 𝑊)
3) Se 𝑈 ∩ 𝑊 = {𝑂𝑣 } scriviamo 𝑈 ⨁ 𝑊 = 𝑈 + 𝑊

Dipendenza lineare: sia 𝑆 = {𝑣1 , … , 𝑣𝑘 } ⊆ 𝑉 spazio vettoriale su ℝ.


𝑆 è linearmente dipendente se ∃𝛼1 , … , 𝛼𝑘 ∈ ℝ con almeno un 𝛼𝑖 ≠ 0 tali che:
𝛼1 𝑣1 + ⋯ + 𝛼𝑘 𝑣𝑘 = 0𝑣

𝑆 è linearmente indipendente se l’unica soluzione è 𝛼1 = 𝛼2 = … = 𝛼𝑘

Teorema: sia 𝑆 = {𝑣1 , … , 𝑣𝑘 } ⊆ 𝑉 spazio vettoriale su ℝ.


𝑆 è L.D. ⟺ uno dei 𝑣𝑖 è combinazione lineare dei restanti
Oss:
1) Un singolo vettore 𝑣1 è L.D. ⟺ 𝑣1 = 0𝑣
2) 𝑣1 , 𝑣2 𝑠𝑜𝑛𝑜 𝐿. 𝐷. ⟺ 𝑣1 = 𝜆𝑣2 ⟺ 𝑣1 𝑒 𝑣2 𝑝𝑎𝑟𝑎𝑙𝑙𝑒𝑙𝑖
3) 𝑣1 , 𝑣2 , 𝑣3 𝑠𝑜𝑛𝑜 𝐿. 𝐷. ⟺ 𝑣3 ∈ 𝑠𝑝𝑎𝑛(𝑣1 , 𝑣2 )

Base: sia 𝑉 spazio vettoriale su ℝ e 𝐵 = {𝑣1 , … , 𝑣𝑘 } ⊑ 𝑉. 𝐵 è base di 𝑉 se:


1) 𝑠𝑝𝑎𝑛(𝑣1 , … , 𝑣𝑘 ) = 𝑉
2) 𝑣1 , … , 𝑣𝑘 𝑠𝑜𝑛𝑜 𝐿. 𝐼.

Teorema sulla dimensione:


1) Se 𝑉 = 𝑠𝑝𝑎𝑛(𝑆) ⟹ ∃𝑇 ⊆ 𝑆 che è base di 𝑉
2) Se 𝑉 = 𝑠𝑝𝑎𝑛(𝑆) e 𝑇 ⊆ 𝑆 è L.I. ⟹ |𝑇| = [𝑛𝑢𝑚𝑒𝑟𝑜 𝑑𝑖 𝑣𝑒𝑡𝑡𝑜𝑟𝑖 𝑑𝑖 𝑇] ≤ 𝑘
3) Se 𝐵1 e 𝐵2 sono basi ⟹ |𝐵1 | = |𝐵2 |
4) Se dim 𝑉 = 𝑘 𝑒 𝑇 ⊆ 𝑉 con |𝑇| > 𝑘 ⟹ 𝑇 è 𝐿. 𝐼.
5) Se dim 𝑉 = 𝑘 𝑒 𝑇 ⊆ 𝑉 con |𝑇| < 𝑘 ⟹ 𝑠𝑝𝑎𝑛(𝑇) ≠ 𝑉
6) Se 𝑇 ⊆ 𝑉 𝐿. 𝐼. e 𝑊 ∈ 𝑠𝑝𝑎𝑛(𝑇) ⟹ 𝑇 ∪ {𝑊} è 𝐿. 𝐼.
7) Se dim 𝑉 = 𝑘 𝑒 𝑇 ⊑ 𝑉 tale che 𝑇 è 𝐿. 𝐼. e |𝑇| < 𝑘 ⟹ 𝑇 è base di 𝑉

Matrice trasposta: data 𝐴 ∈ ℳ𝑘.𝑛 (ℝ) definiamo 𝐴𝑇 ∈ ℳ𝑘.𝑛 (ℝ) trasposta di A come 𝐴𝑇 = (𝑏𝑖𝑗 ) dove
𝑏𝑖𝑗 = 𝑎𝑖𝑗 se 𝐴 = (𝑎𝑖𝑗 ). Si ottiene scambiando le righe con le colonne
Matrice simmetrica: 𝐴𝑇 = 𝐴
Matrice antisimmetrica: 𝐴𝑇 = −𝐴
Matrice ortogonale: 𝐴𝑇 = 𝐴−1 ⟹ 𝐴 ∙ 𝐴𝑇 = 𝐼𝑛

Proprietà della trasposta:


1) (𝐴𝑇 )𝑇 = 𝐴
2) (𝛼𝐴)𝑇 = 𝛼𝐴𝑇
3) (𝐴 + 𝐵)𝑇 = 𝐴𝑇 + 𝐵𝑇
4) (𝐴 ∙ 𝐵)𝑇 = 𝐵𝑇 ∙ 𝐴𝑇

Per verificare che A sia quadrata la vedo come somma di una simmetrica e di una antisimmetrica
𝐴 + 𝐴𝑇 𝐴 − 𝐴𝑇
𝐴=( )+( )
2 2
Traccia: data 𝐴 ∈ ℳ𝑛.𝑛 (ℝ) allora la traccia di A è la somma delle entrate sulla diagonale
0 1 2
𝐴 = (−1 7 2 ) 𝑡𝑟(𝐴) = 0 + 7 − 3 = 4
8 0 −3
Proprietà:
1) 𝑡𝑟(𝐴 + 𝐵) = 𝑡𝑟(𝐴) + 𝑡𝑟(𝐵)
2) 𝑡𝑟(𝛼 ∙ 𝐴) = 𝛼 ∙ 𝑡𝑟(𝐴)
3) 𝑡𝑟(𝐴𝑇 ) = 𝑡𝑟(𝐴)
4) 𝑡𝑟(𝐴𝐵) = 𝑡𝑟(𝐵𝐴)

| . |
𝑘
Teorema: se 𝐴1 , … , 𝐴𝑛 ∈ ℝ vettori colonna della matrice 𝐴 = [𝐴1 … 𝐴𝑛 ] ∈ ℳ𝑛.𝑘 (ℝ) allora:
| . |
dim 𝑠𝑝𝑎𝑛(𝐴1 , … , 𝐴𝑛 ) = 𝑟𝑎𝑛𝑔𝑜(𝐴) = #𝑐𝑜𝑙𝑜𝑛𝑛𝑒 𝑑𝑖 𝐴 = #𝑟𝑖𝑔ℎ𝑒 𝑑𝑖 𝐴
Se 𝑘 = 𝑛 allora 𝐴1 , … , 𝐴𝑛 sono base di ℝ𝑛 ⟺ 𝐴 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑒 ⟺ 𝑟𝑎𝑛𝑔𝑜(𝐴) = 𝑛 ⟺ det(𝐴) ≠ 0

Teorema: se 𝑈, 𝑉 sottospazi di 𝑉 spazio vettoriale, allora:


dim(𝑈 + 𝑊) = dim(𝑈) + dim(𝑊) − dim(𝑈 ∩ 𝑊)
Se 𝑈 ∩ 𝑊 = {0𝑣 } ⟹ dim(𝑈 ⨁ 𝑊) = dim(𝑈) + dim(𝑊)

Nota: dim 𝑉 = 0 ⟺ 𝑉 = {0𝑣 }

Teorema: se 𝑤 sottospazio di V spaio vettoriale, allora:


dim 𝑉 = dim 𝑊 ⟺ 𝑉 = 𝑊

Base ordinata: base 𝐵 con ordine nei vettori 𝑣1 , … , 𝑣𝑘


Esempio: (10), (01) e (01), (10) sono due vasi ordinate diverse di ℝ2

Coordinate del vettore: (Teorema) spazio vettoriale 𝑉 con dim 𝑉 = 𝑘 e 𝑉 = {𝑣1 , … , 𝑣𝑘 } base ordinata di 𝑉.
Allora per ogni vettore esistono unici 𝑐1 , … , 𝑐𝑘 ∈ ℝ tali che:
𝑉 = 𝑐1 𝑣1 + … + 𝑐𝑘 𝑣𝑘

𝑐1
Vettore colonna delle coordinate: [𝑣]𝐵 = [ … ] ∈ ℝ𝑘
𝑐𝑘
Esempio: 𝑉 = {𝑎0 + 𝑎1 𝑥 | 𝑎0 , 𝑎1 ∈ ℝ } con base ordinata 𝐵 = {𝑢1 = 1 + 2𝑥, 𝑢2 = 2 + 𝑥} e
𝑣 = 4 + 2𝑥 ∈ 𝑉. [𝑣]𝐵 =?
𝑣 = 4 + 2𝑥 = 𝑐1 𝑢1 + 𝑐2 𝑢2 = 𝑐1 (1 + 2𝑥) + 𝑐2 (2 + 𝑥) = 𝑐1 + 2𝑥𝑐1 + 2𝑐2 + 𝑥𝑐2
𝑐 + 2𝑐2 = 4 𝑐 =0
= 𝑥(2𝑐1 + 𝑐2 ) + (𝑐1 + 2𝑐2 ) = { 1 ⟹{ 1
2𝑐1 + 𝑐2 = 2 𝑐2 = 2

Cambio di base: spazio vettoriale 𝑉 con dim 𝑉 = 𝑘 e 𝛽 = {𝑣1 , … , 𝑣𝑘 } 𝑒 𝛾 = {𝑤1 , … , 𝑤𝑘 } basi ordinate di 𝑉.
Allora la matrice di cambio di base da 𝛽 a 𝛾 è:
| . |
[𝑣
𝑀𝛾←𝛽 = [ 1 𝛾 ] … [𝑣𝑘 ]𝛾 ]
| . |
ed è sempre invertibile. Inoltre per ogni vettore 𝑣 ∈ 𝑉 si ha
−1
[𝑢]𝛾 = 𝑀𝛾←𝛽 [𝑢]𝛽 e [𝑢]𝛽 = 𝑀𝛽←𝛾 [𝑢]𝛾 = (𝑀𝛾←𝛽 ) [𝑢]𝛾

Applicazione lineare: 𝑉 e 𝑊 spazi vettoriali. A.L. è una funzione 𝑇: 𝑉 → 𝑊 se ∀𝛼1 , 𝛼2 ∈ ℝ e ∀𝑣1 , 𝑣2 ∈ 𝑉:


𝑇(𝛼1 𝑣1 + 𝛼2 𝑣2 ) = 𝛼1 𝑇(𝑣1 ) + 𝛼2 𝑇(𝑣2 )

Oss: 𝑇 lineare ⟹ 𝑇(𝑂𝑣 ) = 𝑂𝑤


Teorema di creazioni di applicazioni lineari: 𝑉 e 𝑊 spazi vettoriali con dim 𝑉 = 𝑘 e 𝐵 = {𝑣1 , … , 𝑣𝑘 } base
ordinata di V. Sia 𝑆 = {𝑤1 , … , 𝑤𝑘 } sottoinsieme ordinato di W. Allora esiste un’unica 𝑇: 𝑉 → 𝑊 lineare:
𝑇(𝑣1 ) = 𝑤1
… definita da 𝑇(𝑐1 𝑣1 + ⋯ + 𝑐𝑘 𝑣𝑘 ) = 𝑐1 𝑤1 + ⋯ + 𝑐𝑘 𝑤𝑘 ∀𝑐1 … 𝑐𝑘 ∈ ℝ
𝑇(𝑣𝑘 ) = 𝑤𝑘

Immagine: sia 𝑇: 𝑉 → 𝑊 lineare. l’immagine di T è:


𝐼𝑚 𝑇 = {𝑇(𝑣)|𝑣 ∈ 𝑉} ⊆ 𝑊

L’immagine è sempre sottospazio del codominio W

Nucleo: sia 𝑇: 𝑉 → 𝑊 lineare. Il nucleo di T è:


𝐾𝑒𝑟 𝑇 = {𝑣 ∈ 𝑉|𝑇(𝑣) = 𝑂𝑤 } ⊆ 𝑉

Il nucleo è sempre sottospazio del dominio V

Teorema della dimensione (rango-nullità): sia 𝑇: 𝑉 → 𝑊 lineare e dim 𝑉 finita. Allora


dim 𝑉 = dim ker 𝑇 + dim Im 𝑇

Dimensione nucleo + dimensione immagine = dimensione spazio di partenza

Matrice associata ad una applicazione lineare: sia 𝑇: 𝑉 → 𝑊 lineare, 𝛽 = {𝑣1 , … , 𝑣𝑘 } base ordinata di 𝑉 e
𝛾 = {𝑤1 , … , 𝑤𝑘 } basi ordinate di 𝑊. Scriviamo che
𝑇(𝑣𝑗 ) = 𝑡1𝑗 𝑤1 + ⋯ + 𝑡𝑘𝑗 𝑤𝑘
Ovvero:
𝑡1𝑗
[𝑇(𝑣𝑗 )] = [ … ] ∈ ℝ𝑘
𝑡𝑘𝑗
E creiamo la matrice associata 𝑇𝛾←𝛽
| . | 𝑡11 … 𝑡1𝑛
𝑇𝛾←𝛽 = [[𝑇(𝑣1 )]𝛾 … [𝑇(𝑣𝑛 )]𝛾 ] = [ … ⋱ … ]
| . | 𝑡𝑘1 … 𝑡𝑘𝑛 𝑘 𝑥 𝑛

N.B.: 𝑇𝛾←𝛽 non è sempre quadrata né sempre invertibile

Teorema:
1) [𝑇(𝑣)]𝛾 = 𝑇𝛾←𝛽 [𝑣]𝛽
2) dim 𝐼𝑚 𝑇 = 𝑟𝑎𝑛𝑔𝑜(𝑇𝛾←𝛽 ) dunque dim 𝐾𝑒𝑟 𝑇 = dim 𝑉 − 𝑟𝑎𝑛𝑔𝑜(𝑇𝛾←𝛽 )
3) Se 𝑉 = 𝑊 e 𝛽, 𝛾 basi ordinate di 𝑉 allora
−1
𝑇𝛾←𝛽 = 𝑀𝛾←𝛽 𝑇𝛽←𝛽 𝑀𝛽←𝛾 = (𝑀𝛽←𝛾 ) 𝑇𝛽←𝛽 𝑀𝛽←𝛾

Applicazioni lineare iniettive e suriettive:


𝑇: 𝑉 → 𝑊 lineare, 𝑇 è:
- Iniettiva quando 𝑣1 , 𝑣2 ∈ 𝑉 𝑒 𝑣1 ≠ 𝑣2 allora 𝑇(𝑣1 ) ≠ 𝑇(𝑣2 )
- Suriettiva se 𝐼𝑚 𝑇 = 𝑊

𝑇: 𝑉 → 𝑊 lineare, 𝑉, 𝑊 a dimensione finita, allora 𝑇 è:


- Iniettiva ⟺ ker 𝑇 = {0𝑣 } ⟺ 𝑑𝑖𝑚 ker 𝑇 = 0
- Suriettiva ⟺ dim Im 𝑇 = dim 𝑊
Esempio:
Sia 𝑇: ℝ1 [𝑥] → ℝ2 [𝑥] lineare tale che 𝑎 + 𝑏𝑥 ⟼ 𝑏 + 𝑎𝑥 2
Siano le basi ordinate 𝛽 = {𝑣1 = 1 + 𝑥, 𝑣2 = 𝑥} e 𝛾 = {𝑤1 = 1 − 𝑥 2 , 𝑤2 = 𝑥, 𝑤3 = 𝑥 2 }
Calcoliamo la matrice associata 𝑇𝛾←𝛽
1
𝑇(𝑣1 ) = 𝑇(1 + 𝑥) = 1 + 𝑥 2 = 𝑎𝑤1 + 𝑏𝑤2 + 𝑐 𝑤3 = 1 ∙ (1 − 𝑥 2 ) + 0 ∙ 𝑥 + 2 ∙ 𝑥 2 ⟹ [𝑇(𝑣1 )]𝛾 = [0]
2
1
𝑇(𝑣2 ) = 𝑇(𝑥) = 1 = 𝑎𝑤1 + 𝑏𝑤2 + 𝑐 𝑤3 = 1 ∙ (1 − 𝑥 2 ) + 0 ∙ 𝑥 + 1 ∙ 𝑥 2 ⟹ [𝑇(𝑣2 )]𝛾 = [0]
1
1 1
Quindi 𝑇𝛾←𝛽 = [[𝑇(𝑣1 )]𝛾 [𝑇(𝑣2 )]𝛾 ] = [0 0]
2 1
1 1
dim Im 𝑇 = 𝑟𝑎𝑛𝑔𝑜 𝑇𝛾←𝛽 = 𝑟𝑎𝑛𝑔𝑜 (0 0) = 2 ≠ dim ℝ2 [𝑥] = 3
2 1
Quindi 𝑇 non è suriettiva

Per il teorema della dimensione:


dim ℝ2 [𝑥] = dim ker 𝑇 + dim Im 𝑇 = dim ker 𝑇 + 2
dim ker 𝑇 = dim ℝ2 [𝑥] − 2 = 2 − 2 = 0
Quindi 𝑇 è iniettiva

Composizione: 𝑇: 𝑈 → 𝑉 𝑒 𝑆: 𝑈 → 𝑊 applicazioni lineari, allora


𝑆 ∘ 𝑇: 𝑈 → 𝑊 𝑐𝑜𝑛 𝑈 ⟼ 𝑆(𝑇(𝑈))
𝑆 ∘ 𝑇 è lineare si chiama composizione di 𝑆 con 𝑇

Teorema: se 𝐵𝑢 , 𝐵𝑣 , 𝐵𝑤 𝑏𝑎𝑠𝑖 𝑜𝑟𝑑𝑖𝑛𝑎𝑡𝑒 𝑑𝑖 𝑈, 𝑉, 𝑊 𝑒 𝑇: 𝑈 → 𝑉 𝑒 𝑆: 𝑈 → 𝑊 applicazioni lineari, allora


(𝑆 ∘ 𝑇)𝐵𝑤←𝐵𝑣 = 𝑆𝐵𝑤 ←𝐵𝑣 ∙ 𝑇𝐵𝑤←𝐵𝑣

Isomorfismo: 𝑇: 𝑉 → 𝑊 lineare è isomorfismo se è iniettiva e suriettiva -> 𝑉 e 𝑊 sono isomorfi

Teorema “di isomorfismo”: 𝑇: 𝑉 → 𝑊 lineare, allora:


1) 𝑇 è isomorfismo ⟺ esiste 𝑇 −1 : 𝑊 → 𝑉 lineare tale che
(𝑇 −1 ∘ 𝑇)(𝑣) = 𝑣 ∀𝑣 ∈ 𝑉 e (𝑇 −1 ∘ 𝑇)(𝑤) = 𝑤 ∀𝑤 ∈ 𝑊
−1
2) Se 𝑇 è isomorfismo 𝑇 −1𝛽←𝛾 = (𝑇𝛽←𝛾 ) se 𝛽 è base di 𝑉 e 𝛾 base di 𝑊
3) 𝑇 è isomorfismo ⟺ 𝑇𝛽←𝛾 invertibile ⟺ det(𝑇𝛽←𝛾 ) ≠ 0
4) 𝑇: 𝑉 → 𝑊 è isomorfismo ⟺ dim 𝑉 = dim 𝑊

Sottomatrice: 𝐴 matrice, 𝐴𝑖𝑗 si ottiene rimuovendo ad 𝐴 la 𝑖-esima riga e la 𝑗-esima colonna

Determinante: relativamente ad una matrice, è il numero che indica se essa sia invertibile e se le sue
colonne siano linearmente indipendenti.
Sviluppo del determinante lungo la prima colonna:
𝑛

det(𝐴) = ∑(−1)𝑛−1 𝑎𝑛1 det(𝐴𝑛1 )


𝑖=1
Se 𝐴 = [15] ⟹ det(𝐴) = 15
Matrici 2x2:
7 2
1) 𝐴 = [ ] = 𝑎11 det(𝐴11 ) − 𝑎21 det(𝐴21 ) = 7 ∙ 4 − 2 ∙ 6 = 16
6 4
7 2
2) 𝐴 = [ ] = 𝑝𝑟𝑜𝑑𝑜𝑡𝑡𝑜 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑒 − 𝑝𝑟𝑜𝑑𝑜𝑡𝑡𝑜 𝑎𝑛𝑡𝑖𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑒 = 7 ∙ 4 − 2 ∙ 6 = 16
6 4
Matrici 3x3:
Formula di Sarrus:
𝑎11 𝑎12 𝑎13 𝑎11 𝑎12 𝑎13 𝑎11 𝑎12 𝑎13
det (𝑎21 𝑎22 𝑎23 ) = (𝑎21 𝑎22 𝑎23 |𝑎21 𝑎22 𝑎23 ) =
𝑎31 𝑎32 𝑎33 𝑎31 𝑎32 𝑎33 𝑎31 𝑎32 𝑎33
= 𝑎11 𝑎22 𝑎33 + 𝑎12 𝑎23 𝑎31 + 𝑎13 𝑎21 𝑎32 − (𝑎11 𝑎23 𝑎32 + 𝑎12 𝑎21 𝑎33 + 𝑎13 𝑎22 𝑎31 )
Sommare i prodotti delle 3 diagonali e sottrarre i prodotti delle 3 anti-diagonali

Proprietà del determinante:


1) det(𝐼𝑛 ) = 1
2) Il determinante è lineare sulle singole righe o sulle singole colonne
𝐴1 𝐴1 𝐴1
det (𝛼𝐶𝑖 + 𝛽𝐷𝑖 ) = 𝛼 det ( 𝐶𝑖 ) + 𝛽 det ( 𝐷𝑖 )
𝐴𝑛 𝐴𝑛 𝐴𝑛
3) det(𝐴 + 𝐵) ≠ det(𝐴) + det(𝐵)
4) Se una riga o una colonna è nulla ⟹ det(𝐴) = 0
5) Se due righe o colonne sono uguali ⟹ det(𝐴) = 0
6) Sommando ad una riga o auna colonna un multiplo di un’altra riga il det non cambia
7) Scambiando 2 righe o 2 colonne il det cambia di segno
𝐴1 𝐴1
8) det (𝛼𝐴𝑖 ) = 𝛼 det ( 𝐴𝑖 )
𝐴𝑛 𝐴𝑛
𝑇)
9) det(𝐴 = det(𝐴)
10) det(𝐴𝐵) = det(𝐴) ∙ det(𝐵)
11) 𝐴 invertibile ⟺ det(𝐴) ≠ 0 ⟺ righe di 𝐴 sono base dello spazio dei vettori riga ⟺ colonne
formano base di ℝ𝑛

Matrici triangolari:
𝑎11 𝑎12 𝑎1𝑛
det ( 0 𝑎22 𝑎2𝑛 ) = 𝑎11 𝑎22 … 𝑎𝑛𝑛
0 0 𝑎𝑛𝑛
Determinante è il prodotto della diagonale

Regola di Cramer:
𝐴𝑋 = 𝐵 con 𝐴 invertibile (det 𝐴 ≠ 0), allora l’unica soluzione del sistema è data da
𝑥1
det(𝐵𝑖 )
( … ) 𝑑𝑜𝑣𝑒 𝑥𝑖 =
𝑥𝑛 det(𝐴)
Dove 𝐵𝑖 è la matrice A senza la i-esima colonna che è stata sostituita con la colonna dei termini noti di B:
𝐵𝑖 = (𝐴1 𝐴𝑖−1 𝐵 𝐴𝑖+1 𝐴𝑛 )

Esempio:
𝑉 𝑒 𝑊 spazi vettoriali tali che dim 𝑉 = 5 e dim 𝑊 = 4. Se 𝑇: 𝑉 → 𝑊 lineare e suriettiva, può essere T
iniettiva?
Soluzione 1:
𝑇 iniettiva ⟺ dim ker 𝑇 = 0
𝑇 suriettiva ⟺ dim Im 𝑇 = dim 𝑊 = 4
⇒ dim ker 𝑇 = dim 𝑉 − dim Im 𝑇 = 5 − 4 = 1 > 0
⇒ 𝑇 non è iniettiva
Soluzione 2:
𝑇 iniettiva ⇒ 𝑇 sarebbe isomorfismo ⇒ dim 𝑉 = dim 𝑊 ⇒ 4 = 5 𝑖𝑚𝑝𝑜𝑠𝑠𝑖𝑏𝑖𝑙𝑒 ⇒ 𝑇 non iniettiva
Applicazione lineare:
𝑉, 𝑊 spazi vettoriali su 𝑘 ⊆ ℝ, 𝑓: 𝑉 → 𝑊 è lineare se:
1) ∀𝑣1 , 𝑣2 ∈ 𝑉 𝑓(𝑣1 , +𝑣2 ) = 𝑓(𝑣1 ) + 𝑓(𝑣2 )
2) ∀𝛼 ∈ 𝑘 ∀𝑣 ∈ 𝑉 𝑓(𝛼𝑣) = 𝛼𝑓(𝑣)

Teorema di costruzione:
Data 𝑓: 𝑉 → 𝑊 con base 𝐵 = {𝑣1 , … , 𝑣𝑛 } ovvero 𝑓(𝑣1 ) = 𝑤1 , … , 𝑓(𝑣𝑛 ) = 𝑤𝑛 con 𝑤𝑖 ∈ 𝑊 e dato che ogni
vettore 𝑣 = 𝛼1 𝑣1 + ⋯ + 𝛼𝑛 𝑣𝑛 allora:
𝑓(𝑣) = 𝛼1 𝑓(𝑣1 ) + ⋯ + 𝛼𝑛 𝑓(𝑣𝑛 )

Determinante: solo per matrici quadrate


det 𝐴 = ∑(−1)𝑖+𝑗 𝑎𝑖𝑗 det(𝐴𝑖𝑗 )

Teorema di Binet:
det 𝐵 ∙ 𝐶 = det 𝐵 ∙ det 𝐶
det 𝐴𝑛 = (det 𝐴)𝑛

Determinante matrici triangolari: prodotto elementi diagonale


𝑎11 ⋯ 𝑎1𝑛 𝑛

𝐴=( 0 ⋱ ⋮ ) det 𝐴 = ∏ 𝑎𝑖𝑖


0 0 𝑎𝑛𝑛 𝑖=1
Endomorfismo: dato 𝑉 spazio vettoriale l^' applicazione lineare 𝐼: 𝑉 → 𝑉 si chiama endomorfismo

Supponiamo che 𝑉 abbia dimensione finita, se ℬ = {𝑣1 , … , 𝑣𝑛 } è base di 𝑉 a 𝑇 resta associata una matrice
𝐴ℬ = [𝑇(𝑣1 )ℬ , … , 𝑇(𝑣1 )ℬ ] con 𝑇(𝑣1 )ℬ vettori delle coordinate di 𝑇(𝑣1 ) rispetto alla base ℬ

Se 𝑇: 𝑉 → 𝑉, ℬ base per 𝑉 e 𝑣 ∈ 𝑉:
𝑇(𝑣) = 𝛼1 𝑣1 + ⋯ + 𝛼𝑛 𝑣𝑛
𝑣 = 𝑥1 𝑣1 + ⋯ + 𝑥𝑛 𝑣𝑛
𝑥1 𝛼1
𝐴ℬ = [𝑇(𝑣1 )ℬ , … , 𝑇(𝑣1 )ℬ ] 𝐴ℬ [ ⋮ ] = [ ⋮ ]
𝑥𝑛 𝛼𝑛

Esempio:
1 1 0 𝑥 2𝑥 + 𝑦
3 3
ℬ = {[0] , [1] , [1]} 𝑇: ℝ → ℝ 𝑇 (𝑦) = (𝑥 + 𝑦 + 𝑧) . 𝑉𝑜𝑔𝑙𝑖𝑜 𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑟𝑒 𝐴ℬ .
0 0 1 𝑧 3𝑧
1 2 1 3 0 1
𝐶𝑎𝑙𝑐𝑜𝑙𝑜 𝑇 (0) = (1) , 𝑇 (1) = (2) , 𝑇 (1) = (2)
0 0 0 0 1 3
2 1 1 0 2 = 𝑎11 + 𝑎21 𝑎11 = 2
(1) = 𝑎11 (0) + 𝑎21 (1) + 𝑎31 (1) ⟹ { 1 = 𝑎 21 + 𝑎31 ⟹ { 21 = 1
𝑎
0 0 0 1 0 = 𝑎31 𝑎31 = 0
3 1 1 0 3 = 𝑎12 + 𝑎22 𝑎12 = 0
(2) = 𝑎12 (0) + 𝑎22 (1) + 𝑎32 (1) ⟹ {2 = 𝑎22 + 𝑎32 ⟹ {𝑎22 = 3
0 0 0 1 0 = 𝑎32 𝑎32 = 0
1 1 1 0 1 = 𝑎13 + 𝑎23 𝑎13 = 2
(2) = 𝑎13 (0) + 𝑎23 (1) + 𝑎33 (1) ⟹ {2 = 𝑎23 + 𝑎33 ⟹ {𝑎23 = −1
3 0 0 1 3 = 𝑎33 𝑎33 = 3
2 0 2
𝐴ℬ = [1 3 −1]
0 0 3

Problema: quando esiste una base per cui 𝐴ℬ è diagonale?


ℬ = {𝑣1 , … , 𝑣𝑛 } tale che 𝑇(𝑣) = 𝜆1 𝑣1 + ⋯ + 𝜆𝑛 𝑣𝑛 con 𝜆𝑖 valori sulla diagonale
Esempio: 𝑉 = ℝ3
2 1 0
𝐴 = [0 1 2] 𝐿𝐴 : ℝ3 → ℝ3 𝐿𝐴 (𝑥) = 𝐴 ∙ 𝑋
0 0 3
Matrice associata a 𝐿𝐴 rispetto alla base canonica.
1 0 0 2 1 0 𝑥 2𝑥 + 𝑦
𝐶 𝐴 = {𝑒1 = [0] , 𝑒2 = [1] , 𝑒3 = [0]} 𝐿𝐴 (𝑥) = [0 1 2] [𝑦] = [𝑦 + 2𝑧 ]
0 0 1 0 0 3 𝑧 3𝑧
Affermo che esiste una base {𝑣1 , 𝑣2 , 𝑣3 } tale che:
𝐿𝐴 (𝑣1 ) = 2𝑣1 𝐿𝐴 (𝑣2 ) = 𝑣2 𝐿𝐴 (𝑣3 ) = 3𝑣3
Quindi
2 0 0
𝐴ℬ = [0 1 0]
0 0 3
DA CONTINUARE

Autovalore: 𝑇: 𝑉 → 𝑉 e 𝐴 matrice associata a 𝑇 rispetto alla base ℬ di 𝑉.


𝜆 è autovalore per T se esiste un vettore 𝑣 ∈ 𝑉, 𝑣 ≠ 0 tale che 𝑇(𝑣) = 𝜆𝑣
In sostanza 𝜆 è autovalore se esiste un vettore non nullo tale che la funzione in questo vettore è 𝜆𝑣
𝜆 è anche autovalore per 𝐴ℬ

Teorema: 𝑇: 𝑉 → 𝑉 endomorfismo
𝜆 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒 𝑝𝑒𝑟 𝑇 ⟺ ker 𝑇 ≠ {0}
Quindi 𝜆 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒 𝑝𝑒𝑟 𝑇 ⟺ 𝑇 𝑛𝑜𝑛 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑒

Autovettore: 𝜆 autovalore per 𝑇, autovettore per T relativo a 𝜆 è un vettore 𝑣:


𝑇(𝑣) = 𝜆𝑣 𝑣 ≠ 0𝑣

Diagonalizzabile: 𝑇: 𝑉 → 𝑉 endomorfismo è diagonalizzabile se esiste una base di 𝑉 fatta di autovettori di 𝑇

Una matrice 𝐴 è diagonalizzabile se è simile ad una matrice diagonale 𝐷 (ovvero 𝐷 = 𝑁 −1 𝐴𝑁)

Esempio: la matrice A è diagonalizzabile?


1 2 0
𝐴 = [0 1 2] 𝐿𝐴 (𝑥) = 𝐴𝑥
0 0 3

Devo vedere se trovo una base di autovettori per 𝐿𝐴 : ∃𝜆 ∈ ℝ 𝑒 𝑣𝑖 ∈ ℝ3 : 𝐴𝑣𝑖 = 𝜆𝑖 𝑣𝑖 {𝑣𝑖 } 𝑏𝑎𝑠𝑒
dim ℝ3 = 3 quindi devo avere 3 autovettori
𝜆0 è 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒 𝑝𝑒𝑟 𝐿𝐴 𝑠𝑒 ∃𝑥 ≠ 0 ∈ ℝ3 : 𝐴𝑋 = 𝜆0 𝑋
𝜆0 è autovalore sse il sistema lineare 𝐴𝑋 − 𝜆0 𝑋 ha soluzioni non nulle, cioè:
(𝐴 − 𝜆0 𝐼)𝑋 = 0
𝑥
Con 𝑋 = (𝑦) ≠ 0
𝑧
Cerco quindi 𝜆0 tale che:
1 2 0 𝑥 1 0 0 𝑥 1 2 0 𝑥
(0 1 2) (𝑦) = 𝜆0 (0 1 0) (𝑦) ⟹ ((0 1 2) − 𝜆0 𝐼) (𝑦) = 0
0 0 3 𝑧 0 0 1 𝑧 0 0 3 𝑧
1 − 𝜆0 2 0 𝑥
⟹( 0 1 − 𝜆0 2 ) (𝑦 ) = 0
0 0 3 − 𝜆0 𝑧
(1 − 𝜆0 )𝑥 − 2𝑦 = 0 −2𝑥 − 2𝑦 = 0 𝑥 = 𝑦 𝑥 𝛼
{(1 − 𝜆0 )𝑦 − 2𝑧 = 0 {−2𝑦 − 2𝑧 = 0 { 𝑦 = 𝑧 (𝑦) = (𝛼 ) ⟹ 𝐴 𝑛𝑜𝑛 è 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑧𝑎𝑏𝑖𝑙𝑒
(3 − 𝜆0 )𝑧 = 0 𝜆0 = 3 𝜆0 = 3 𝑧 𝛼
𝜆0 autovalore per 𝑇: 𝑉 → 𝑉, autovettore per T relativo a 𝜆 è un vettore 𝑣: 𝑇(𝑣) = 𝜆𝑣 𝑣 ≠ 0𝑣

Autospazio: con 𝜆0 autovalore per T relativo a 𝑇, autospazio di è 𝑉𝜆0 = {𝑣 ∈ 𝑉: 𝑇(𝑣) = 𝜆0 𝑣}


Esso contiene tutti gli autovettori relativi a 𝜆0 più il vettore nullo

Polinomio caratteristico: 𝑇: 𝑉 → 𝑉, 𝐵 𝑏𝑎𝑠𝑒 𝑝𝑒𝑟 𝑉, pèolinomio caratteristico di T è:


det(𝐴 − 𝜆𝐼) 𝐴 = 𝑇𝐵⟵𝐵

𝜆0 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒 𝑝𝑒𝑟 𝑇 ⇔ (𝐴 − 𝜆0 𝐼)è 𝑚𝑎𝑡𝑟𝑖𝑐𝑒 𝑛𝑜𝑛 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑒 ⇔ 𝜆0 è 𝑟𝑎𝑑𝑖𝑐𝑒 𝑑𝑒𝑙 𝑝𝑜𝑙𝑖𝑛𝑜𝑚𝑖𝑜 𝑝𝑇 (𝜆)

Molteplicità geometrica: dimensione dell’autospazio 𝑉𝜆0


Molteplicità algebrica: molteplicità di 𝜆0 come radice di 𝑝𝑇 (𝜆)

t diagonalizzabile se ammette base fatta da autovettori


Teorema: 𝜆0 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒 𝑝𝑒𝑟 𝑇 ⇒ 𝑚𝑜𝑙𝑡𝑒𝑝𝑙𝑖𝑐𝑖𝑡à 𝑔𝑒𝑜𝑚𝑒𝑡𝑟𝑖𝑐𝑎 ≤ 𝑚𝑜𝑙𝑡𝑒𝑝𝑙𝑖𝑐𝑖𝑡à 𝑎𝑙𝑔𝑒𝑏𝑟𝑖𝑐𝑎

Esempio: A è diagonalizzabile?
0 1 −𝜆 1
𝐴=[ ] 𝑝𝐴 (𝜆) = det(𝐴 − 𝜆𝐼) = det ( ) = 𝜆2 + 1
−1 0 −1 −𝜆
𝜆2 + 1 = 0 𝑖𝑚𝑝𝑜𝑠𝑠𝑖𝑏𝑖𝑙𝑒 ⟹ 𝐴 𝑛𝑜𝑛 è 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑧𝑎𝑏𝑖𝑙𝑒

Esempio 2: 𝑉 = {𝑎 + 𝑏𝑥 + 𝑐𝑥 2 , 𝑎, 𝑏, 𝑐 ∈ ℝ}.
𝑇: (𝑎 + 𝑏𝑥 + 𝑐𝑥 2 ) → (𝑎 + 2𝑏 + 𝑐) + (3𝑏 + 𝑐)𝑥 + (5𝑏 − 𝑐)𝑥 2

1) Trovare autovalori per 𝑇


Scelgo base per ℝ2 [𝑥] 𝐵 = {1, 𝑥, 𝑥 2 }. Scrivo 𝑇𝐵⟵𝐵 = (𝑇(1)𝐵 , 𝑇(𝑥)𝐵 , 𝑇(𝑥 2 )𝐵 )
1 2 1
𝑇(1)𝐵 = 1 ⟹ [0] 𝑇(𝑥)𝐵 = 2 + 3𝑥 + 5𝑥 2 ⟹ [3] 𝑇(𝑥 2 )𝐵 = 1 + 𝑥 − 𝑥 2 ⟹ [ 1 ]
0 5 −1
1 2 1
𝑇𝐵⟵𝐵 = (0 3 1 )
0 5 −1

Polinomio caratteristico:
1−𝜆 2 1
𝑝𝑇 (𝜆) = det(𝑇 − 𝜆𝐼) = det ( 0 3−𝜆 1 ) = (1 − 𝜆)(𝜆2 − 2𝜆 − 8) 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑖: 𝜆 = 1,4, −2
0 5 −1 − 𝜆
⟹ 𝑇 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑧𝑎𝑏𝑖𝑙𝑒

Teorema: ad autovalori distinti corrispondono autovettori linearmente indipendenti

2) Trovare autospazi per 𝑇

Devo trovare 𝑣1 = {𝑣 ∈ ℝ2 [𝑥]: 𝑇(𝑣) = 𝑣} 𝑣4 = {𝑣 ∈ ℝ2 [𝑥]: 𝑇(𝑣) = 4𝑣} 𝑣−2 = {𝑣 ∈ ℝ2 [𝑥]: 𝑇(𝑣) = −2𝑣}
Cerco 𝑣1 . Risolvo il sistema
0 2 1 𝑥 𝛼
2𝑦 + 𝑧 = 0 𝑧 = −2𝑦
𝑃𝑒𝑟 𝜆 = 1 (0 2 1 ) ( ) = 0 ⇒ {𝑦 ⇒{ ⇒ ( 0 ) ⇒ 𝑣1 = {𝛼 + 0𝑥 + 0𝑥 2 , 𝑎 ∈ ℝ}
5𝑦 − 2𝑧 = 0 9𝑦 = 0
0 5 −2 𝑧 0
Cerco 𝑣4 . Risolvo il sistema
−3 2 1 𝑥 𝑥=𝑧 𝛼
−3𝑥 + 2𝑦 + 𝑧 = 0
𝑃𝑒𝑟 𝜆 = 4 ( 0 −1 1 ) (𝑦) = 0 ⇒ { ⇒ {𝑦 = 𝑧 ⇒ (𝛼 )
−𝑦 + 𝑧 = 0
0 5 −5 𝑧 𝛼
⇒ 𝑣4 = {𝛼 + 𝛼𝑥 + 𝛼𝑥 2 , 𝑎 ∈ ℝ}
Cerco 𝑣−2 . Risolvo il sistema
3 2 1 𝑥 3𝑥 + 2𝑦 + 𝑧 = 0 𝑥=𝑦 𝛼
𝑃𝑒𝑟 𝜆 = −2 (0 5 1) (𝑦) = 0 ⇒ { ⇒ {𝑧 = −5𝑦 ⇒ ( 𝛼 )
5𝑦 + 𝑧 = 0
0 5 1 𝑧 −5𝛼
⇒ 𝑣−2 = {𝛼 + 𝛼𝑥 − 5𝛼𝑥 2 , 𝑎 ∈ ℝ}

𝑣1 = 1, 𝑣2 = 1 + 𝑥 + 𝑥 2 , 𝑣3 = 𝑥 − 5𝑥 2 ⇒ 𝐵 = {1, 1 + 𝑥 + 𝑥 2 , 𝑥 − 5𝑥 2 }

3) 𝑇 è diagonalizzabile?
1−𝜆 2 1
𝑝𝑇 (𝜆) = det(𝑇 − 𝜆𝐼) = det ( 0 3−𝜆 1 ) = (1 − 𝜆)(𝜆2 − 2𝜆 − 8) 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑖: 𝜆 = 1,4, −2
0 5 −1 − 𝜆
⟹ 𝑇 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑧𝑎𝑏𝑖𝑙𝑒

Esempio 3: trovare autovalori e autovettori per 𝐿𝐴 : ℝ3 → ℝ3


2 0 0 𝑥 𝑥
𝐴 = (−1 4 0) (𝑦) → 𝐴 (𝑦)
3 6 2 𝑧 𝑧
Scelgo la base canonica data da 𝐵 = {𝑒1 , 𝑒2 , 𝑒3 } 𝐴 = 𝑇𝐵⟵𝐵
2−𝜆 0 0
𝑝𝑇 (𝜆) = det(𝐴 − 𝜆𝐼) = det ( −1 4 − 𝜆 0 ) = (2 − 𝜆)(4 − 𝜆) 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑖: 𝜆 = 2, 4
3 6 2−𝜆
Autospazi: 𝑉2 𝑒 𝑉4
0 0 0
𝑉2 : (−1 2 0) 𝑥 = 0 𝑟𝑘 = 2, dim 𝑉2 = 2 ⟹ 𝐴 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑧𝑎𝑏𝑖𝑙𝑒
3 6 0
0 0 0 𝑥 −𝑥 + 2𝑦 + 𝑧 = 0 𝑧 = −4𝑦
(−1 2 0) (𝑦) ⟹ { ⟹{
𝑥 + 2𝑦 = 0 𝑥 = −2𝑦
3 6 0 𝑧

Osservazione:
2 0 0
𝐴 = (−1 4 0) è matrice triangolare.
3 6 2
In una matrice triangolare gli autovalori sono gli elementi della diagonale

Matrici con autovalori non tutti distinti possono essere diagonalizzabili

Sia 𝑇: 𝑉 → 𝑉, dim 𝑉 = 𝑛 endomorfismo. Se 𝐵 𝑏𝑎𝑠𝑒 𝑑𝑖 𝑉 e 𝑇𝐵←𝐵 matrice associata a 𝑇 rispetto a 𝐵:


𝑝𝑇 (𝜆) = det( 𝑇𝐵←𝐵 − 𝜆𝐼𝑛 )
Proprietà:
- 𝑝𝑇 (𝜆) è polinomio di grado 𝑛
- 𝜆 è radice di 𝑝𝑇 (𝜆) ⟺ 𝜆 è autovalore per 𝑇
- Molteplicità algebrica: molteplicità di 𝜆 come radice di 𝑝𝑇 (𝜆)

Teorema: Sia 𝑇: 𝑉 → 𝑉 lineare con dim 𝑉 = 𝑛. Allora:


- 𝑇 è diagonalizzabile
- 𝑇 ammette base di autovettori
- Ogni autovalore di 𝑇 è regolare (molteplicità algebrica = molteplicità geometrica)
- Ogni base di 𝑇 è simile ad una matrice diagonale

Osservazioni:
- 2 matrici simili hanno stesso polinomio caratteristico
- 𝐴 e 𝐵 matrici simili, se 𝐴 è diagonalizzabile allora anche 𝐵 è diagonalizzabile
- 𝐴 e 𝐵 hanno stesso polinomio, non è detto che siano simili
Prodotto scalare: < 𝑣1 , 𝑣2 >: 𝑉 × 𝑉 → ℝ
𝑥 = 𝑥1 + 𝑥2 𝑦 = 𝑦1 + 𝑦2 ⇒ < 𝑥, 𝑦 > = 𝑥1 𝑥2 + 𝑥2 𝑦2
Proprietà:
- < 𝑣, 𝑣 > = 0 ⟺ 𝑣 = 0
- < 𝑣, 𝑤 > = < 𝑤, 𝑣 >
- 𝑣, 𝑢, 𝑤 ∈ 𝑉 𝛼, 𝛽 ∈ ℝ ⟹ < 𝛼𝑣 + 𝛽𝑢, 𝑤 > = 𝛼 < 𝑣, 𝑤 > +𝛽 < 𝑢, 𝑤 >

Esempio: in ℝ2 [𝑥]
1
< 𝑝(𝑥), 𝑞(𝑥) > = ∫ 𝑝(𝑥)𝑞(𝑥) 𝑑𝑥
−1
È la distanza tra 2 punti in ℝ2

Norma di un vettore: 𝑣 ∈ 𝑉
∥ 𝑣 ∥ = √< 𝑣, 𝑣 >
Proprietà:
- ∥𝑣 ∥=0⟺𝑣 =0
- 𝑣, 𝑤 ∈ 𝑉 ∥ 𝑣 + 𝑤 ∥ ≤ ∥ 𝑣 ∥ + ∥ 𝑤 ∥
- 𝑣 ∈ 𝑉 𝛼 ∈ ℝ ⟹ ∥ 𝛼𝑣 ∥ = |𝛼| ∥ 𝑣 ∥

Vettori ortogonali: sia 𝑔: 𝑉 × 𝑉 → ℝ prodotto scalare, 𝑣, 𝑤 sono ortogonali se:


𝑔(𝑣, 𝑤) = 0
Vettore ortonormali: 𝑣, 𝑤 sono ortonormali se:
∥𝑣 ∥=∥𝑤 ∥=1

Ortogonalizzazione di Gram-Schmidt:
𝑉 𝑠𝑝𝑎𝑧𝑖𝑜 𝑣𝑒𝑡𝑡𝑜𝑟𝑖𝑎𝑙𝑒 su ℝ con prodotto scalare < ∙ ,∙ >, 𝑆 = {𝑣1 , … , 𝑣𝑘 } sottoinsieme L. I. di 𝑉
𝑊 = {𝑤1 , … , 𝑤𝑘 } dove
𝑣1 = 𝑤1
< 𝑣2 , 𝑤1 >
𝑣2 = 𝑣2 − 𝑤
< 𝑤1 , 𝑤1 > 1
< 𝑣3 , 𝑤1 > < 𝑣3 , 𝑤2 >
𝑣3 = 𝑣3 − 𝑤 − 𝑤
< 𝑤1 , 𝑤1 > 1 < 𝑤2 , 𝑤2 > 2
In generale:
𝑟−1
< 𝑣2 , 𝑤𝑖 >
𝑤𝑟 = 𝑣𝑟 − ∑ 𝑤
< 𝑤𝑖 , 𝑤𝑖 > 𝑖
𝑖=1

Osservazione:
- Ogni spazio vettoriale metrico ha una base ortonormale
- 𝑤𝑟 ⊥ 𝑤 ∀𝑤 ∈ 𝑠𝑝𝑎𝑛(𝑤1 , … , 𝑤𝑟−1 )
- 𝑠𝑝𝑎𝑛(𝑤1 , … , 𝑤𝑟 ) = 𝑠𝑝𝑎𝑛(𝑣1 , … , 𝑣𝑟 )

Spazio vettoriale metrico: spazio vettoriale con prodotto scalare

Spazio ortogonale:
𝑉 𝑠𝑝𝑎𝑧𝑖𝑜 𝑣𝑒𝑡𝑡𝑜𝑟𝑖𝑎𝑙𝑒 su ℝ con prodotto scalare < ∙ ,∙ >, 𝑆 sottoinsieme di 𝑉. Allora
𝑆 ⊥ = {𝑢 ∈ 𝑉 | 𝑢 ⊥ 𝑤, ∀𝑤 ∈ 𝑆}

Teorema: 𝑉 sp. vettoriale metrico con prodotto scalare. dim 𝑉 = 𝑛 e 𝑆 sottospazio di 𝑉. Allora:
1) 𝑆 ∩ 𝑆 ⊥ = {0𝑣 }
2) 𝑉 = 𝑆 ⨁ 𝑆 ⊥ ⟹ per ogni 𝑣 ∈ 𝑉 esistonno unici 𝑤1 ∈ 𝑆, 𝑤2 ∈ 𝑆 ⊥ tali che 𝑣 = 𝑤1 + 𝑤2
⟹ 𝑤1 = 𝑝𝑟𝑆 (𝑣), 𝑤2 = 𝑝𝑟𝑆 ⊥ (𝑣)
3) (𝑆 ⊥ )⊥ = 𝑆
4) Se 𝑆 ha base {𝑤1 , … , 𝑤𝑘 } allora:
< 𝑣1 , 𝑤1 > = 0
𝑆 ⊥ = {𝑣 ∈ 𝑉| ⋮ }
< 𝑣1 , 𝑤𝑘 > = 0

Proiezione ortogonale:
𝑉 𝑠𝑝𝑎𝑧𝑖𝑜 𝑣𝑒𝑡𝑡𝑜𝑟𝑖𝑎𝑙𝑒 su ℝ con prodotto scalare < ∙ ,∙ >, 𝑆 sottoinsieme di 𝑉.
Se 𝛽 = {𝑞1 , … , 𝑞𝑘 } è base ortonormale di 𝑆 e 𝑣 ∈ 𝑉 la proiezione ortogonale di 𝑉 su 𝑆:
𝑝𝑟𝑆 (𝑣) = < 𝑣1 , 𝑞1 > 𝑞1 +< 𝑣1 , 𝑞2 > 𝑞2 + ⋯ +< 𝑣1 , 𝑞𝑘 > 𝑞𝑘

𝑝𝑟𝑆 ⊥ (𝑣) = 𝑣 − 𝑝𝑟𝑆 (𝑣), infatti 𝑣 = 𝑝𝑟𝑆 (𝑣) + 𝑝𝑟𝑆 ⊥ (𝑣)

Esempio:
1
𝑆 = 𝑠𝑝𝑎𝑛 ((0)) ⊆ ℝ3 {𝑤} base ortogonale di 𝑆
2
1 1 1
∥ 𝑤 ∥ = √12 + 02 + 22 = √5 ⟹ 𝑞 = ∙𝑤 = (0) {𝑞} base ortogonale di 𝑆
∥𝑤∥ √5 2
𝑥
Se 𝑣 = (𝑦) vettore qualsiasi di ℝ3 allora:
𝑧
𝑥 𝑥 1 1 1 1 1 0 2 1 1
𝑝𝑟𝑆 ⊥ (𝑣) = < (𝑦) , 𝑞 > ∙ 𝑞 = < (𝑦) , (0) > ∙ (0) = (𝑥 +𝑦 +𝑧 ) (0)
𝑧 𝑧 √5 2 √5 2 √5 √5 √5 √5 2
𝑥 + 2𝑧
𝑥 + 2𝑧 1 1 5
=( ) (0) = 0
√5 √5 2 2𝑥 + 4𝑧
( 5 )

La distanza tra 𝑣 e 𝑝𝑟𝑆 (𝑣) è la minima possibile rispetto alle distanze tra 𝑣 e un
punto qualsiasi di 𝑆 ⟹ 𝑝𝑟𝑆 (𝑣) è il punto più vicino

Teorema della migliore approssimazione:


𝑉 spazio vettoriale su ℝ con prodotto scalare < ∙ ,∙ >, 𝑆 sottospazio di 𝑉 con dim 𝑆 = 𝑛. Allora:
- 𝑣 − 𝑝𝑟𝑆 (𝑣) ⊥ 𝑆
- 𝑝𝑟𝑆 (𝑣) è il vettore di 𝑆 più vicino a 𝑣, cioè:
𝑑𝑖𝑠𝑡(𝑣, 𝑝𝑟𝑆 (𝑣)) = ∥ 𝑣 − 𝑝𝑟𝑆 (𝑣) ∥ = min{𝑑(𝑣, 𝑤)|𝑤 ∈ 𝑆}

Esempio:
1
𝑣1 = −3
𝑉 = ℝ2 [𝑥] < 𝑝(𝑥), 𝑞(𝑥) > = ∫ 𝑝(𝑥)𝑞(𝑥) 𝑑𝑥 𝑆 = 𝑠𝑝𝑎𝑛(−3,1 − 2𝑥)
−1
𝑣 2 = 1 − 2𝑥
Trovare la migliore approssimazione di un vettore 𝑣 ∈ 𝑉 qualsiasi su 𝑆 e trovare 𝑝𝑟𝑆 ⊥ (𝑣)

Soluzione:
troviamo una base ortonormale di S con Gram-Schmidt
𝑣1 = 𝑤1 = −3
< 𝑣2 , 𝑤1 > −6
𝑣2 = 𝑣2 − 𝑤1 = 1 − 2𝑥 − (−3) = −2𝑥
< 𝑤1 , 𝑤1 > 18
Ora troviamo i vettori ortonormali associati
1 1
𝑞1 = 𝑤1 = −
∥ 𝑤2 ∥ √2
1 3
𝑞2 = 𝑤2 = −√ 𝑥
∥ 𝑤2 ∥ 2
2
Sia 𝑣 = 𝑎 + 𝑏𝑥 + 𝑐𝑥 un vettore qualsiasi di 𝑉, allora:
1 1 3 3 𝑐
𝑝𝑟𝑆 (𝑣) =< 𝑎 + 𝑏𝑥 + 𝑐𝑥 2 , − > (− ) +< 𝑎 + 𝑏𝑥 + 𝑐𝑥 2 , −√ 𝑥 > (−√ 𝑥) = 𝑎 + + 𝑏𝑥
√2 √2 2 2 3
𝑐 𝑐
𝑝𝑟𝑆 ⊥ (𝑣) = 𝑣 − 𝑝𝑟𝑆 (𝑣) = (𝑎 + 𝑏𝑥 + 𝑐𝑥 2 ) − (𝑎 + + 𝑏𝑥) = − + 𝑐𝑥 2
3 3

Osservazione: in generale, per ogni sottospazio 𝑆. 𝑝𝑟𝑆 (𝑣) = 𝑣 ⟺ 𝑣 ∈ 𝑆

Isometria: 𝑉 spazio vettoriale su ℝ con prodotto scalare < ∙ ,∙ >. Un′ applicazione lineare 𝑇: 𝑉 → 𝑉:
< 𝑇(𝑣1 ), 𝑇(𝑣2 ) > = < 𝑣1 , 𝑣2 > ∀𝑣1 , 𝑣2 ∈ 𝑉

Si preserva la lunghezza dei vettori, le distanze e la perpendicolarità tra vettori

Caratterizzazione delle isometrie: 𝑇: 𝑉 → 𝑉 𝑖𝑠𝑜𝑚𝑒𝑡𝑟𝑖𝑎


1) ∥ 𝑇(𝑣) ∥ = ∥ 𝑣 ∥ 𝑇 preserva le lunghezze
2) Se 𝐵 base ortonormale di 𝑉 e 𝐴 = 𝑇𝐵←𝐵 allora 𝐴 è matrice ortogonale (cioè 𝐴𝑇 = 𝐴−1 )
3) Se 𝐵 base ortonormale di 𝑉 allora le colonne o righe di 𝐴 = 𝑇𝐵←𝐵 formano una base ortonormale di
ℝ𝑛
4) Se 𝐵 = {𝑣1 , … , 𝑣𝑛 } base ortonormale allora lo è anche 𝑇(𝑣1 ), … , 𝑇(𝑣𝑛 )

Potrebbero piacerti anche