Matrice: tabella con 𝑘 righe e 𝑛 colonne formata da elementi denominati 𝑎𝑖𝑗 posti nella 𝑖-esima riga e
𝑗-esima colonna
𝐴 ∈ ℳ𝑘.𝑛 (ℝ)
𝑎11 … 𝑎1𝑛
𝐴=[… ⋱ … ]
𝑎𝑘1 … 𝑎𝑘𝑛
Isolando righe e colonne di una matrice otteniamo:
Vettori riga: [1 2 6]1 𝑥 3
1
Vettori colonna: [2]
6 3𝑥1
Matrice quadrata: matrice con 𝑘 = 𝑛
Esempio:
1 2 5
𝐴 = [ 5 9 3]
6 0 6 3𝑥3
Matrice diagonale: matrice quadrata con valori nulli fuori dalla diagonale
𝟏 0 0
𝐴 = [0 𝟗 0 ]
0 0 𝟔
Matrice triangolare superiore/inferiore: matrice quadrata con 𝑎𝑖𝑗 = 0 per 𝑖 > 𝑗
1 5 17
𝐴 = [0 9 3 ]
0 0 6
Sarà triangola inferiore con 𝑎𝑖𝑗 = 0 per 𝑖 < 𝑗
Matrice identità: matrice quadrata diagonale con tutti 1 sulla diagonale, cioè:
𝑎𝑖𝑗 = 0 per 𝑖 = 1,2, … , 𝑛
𝑎𝑖𝑗 ≠ 0 per 𝑖 ≠ 𝑗
1 0 0
𝐼𝑛 = [0 1 0]
0 0 1
Prodotto di matrici:
𝐴 ∈ ℳ𝑘.𝑛 (ℝ) 𝑒 𝐵 ∈ ℳ𝑛,𝑝 (ℝ) ⟹ 𝐴 ∙ 𝐵 ∈ ℳ𝑘.𝑝 (ℝ)
L’entrata (𝑖, 𝑗) ha numero reale dato dal prodotto scalare
della 𝑖-esima riga di 𝐴 con la 𝑗-esima colonna di B
𝟑 1
𝐴 = [𝟓 𝟏 √𝟐] 𝐵 = [ 𝟎 0]
0 1 0 −𝟏 5
𝟓 ∙ 3 + 𝟏 ∙ 0 + √𝟐 ∙ (−1) 𝟓 ∙ 1 + 𝟏 ∙ 0 + √𝟐 ∙ 5
𝐴∙𝐵 =[ ]
0 ∙ 𝟑 + 1 ∙ 𝟎 + 0 ∙ (−𝟏) 0∙1+1∙0+0∙5
N.B: la moltiplicazione di matrici non è commutativa: 𝐴 ∙ 𝐵 ≠ 𝐵 ∙ 𝐴
Sistemi lineari:
𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯ + 𝑎1𝑛 𝑥𝑛 = 𝑏1
{ ⋮ ⋮ ⋮ Sistema lineare di 𝑘 equazioni in 𝑛 variabili
𝑎𝑘1 𝑥1 + 𝑎𝑘2 𝑥2 + ⋯ + 𝑎𝑘𝑛 𝑥𝑛 = 𝑏𝑘
𝑎11 … 𝑎1𝑛 𝑏1
La cui matrice associata è: 𝐴 = [ … ⋱ … ] con vettore di termini noti 𝐵 = [ ⋮ ] e delle variabili
𝑎𝑘1 … 𝑎𝑘𝑛 𝑏𝑘
𝑥1
𝑋 = [ ⋮ ] e il sistema diventa 𝐴 ∙ 𝑋 = 𝐵
𝑥𝑛
Matrice invertibile:
𝐴 ∈ ℳ𝑛.𝑛 (ℝ) 𝑚𝑎𝑡𝑟𝑖𝑐𝑒 𝑞𝑢𝑎𝑑𝑟𝑎𝑡𝑎 è 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑒 𝑠𝑒 𝑒𝑠𝑖𝑠𝑡𝑒 𝐵 ∈ ℳ𝑛.𝑛 (ℝ) 𝑡𝑎𝑙𝑒 𝑐ℎ𝑒:
𝐴 ∙ 𝐵 = 𝐵 ∙ 𝐴 = 𝐼𝑛
Se 𝐵 è unica e si denota con 𝐴−1
Proprietà dell’inversa:
1. Non esiste sempre
2. Se esiste è unica
3. Se 𝐴, 𝐵 ∈ ℳ𝑛.𝑛 (ℝ) 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑖 ⟹ 𝐴 ∙ 𝐵 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑒 𝑒 (𝐴 ∙ 𝐵)−1 = 𝐴−1 ∙ 𝐵−1
Inoltre si ha che:
- 𝑣+𝑤 =𝑤+𝑣
- (𝑣 + 𝑤) + 𝑧 = 𝑣 + (𝑤 + 𝑧)
- Esiste 𝑂𝑣 ∈ 𝑉 tale che 𝑤 + 𝑂𝑣 = 𝑤
- Per ogni vettore 𝑣 ∈ 𝑉 esiste un vettore −𝑣 ∈ 𝑉 tale che 𝑣 + (−𝑣) = 𝑂𝑣
- 1∙𝑣 =𝑣
- 𝛼 ∙ (𝛽 ∙ 𝑤) = (𝛼𝛽) ∙ 𝑤 𝑐𝑜𝑛 𝛼𝛽 ∈ ℝ 𝑒 (𝛼𝛽) ∙ 𝑤 prodotto vettore per scalare
- (𝛼 + 𝛽) ∙ 𝑣 = 𝛼 ∙ 𝑣 + 𝛽 ∙ 𝑣
- 𝛼(𝑣 + 𝑤) = 𝛼 ∙ 𝑣 + 𝛼 ∙ 𝑤
Interpretazione geometrica:
ℝ2 si può vedere come insieme dei vettori che giacciono sul piano cartesiano.
Base canonica di ℝ𝟐 : (10), (01)
0 1 0 0
In ℝ3 avremo vettori con origine (0) e relativa base canonica: (0) , (1) , (0)
0 0 0 1
Sottospazio: sia 𝑉 ∈ ℝ e 𝑊 ≠ ∅ sottoinvieme di 𝑉. 𝑊 è sottospazio di 𝑉 se
∀𝛼1 , 𝛼2 ∈ ℝ, ∀𝑤1 , 𝑤2 ∈ 𝑊 ⟹ 𝛼1 𝑤1 + 𝛼2 𝑤2 ∈ 𝑊
1 0
In generale: ℝ𝑛 = 𝑠𝑝𝑎𝑛 (( ) , ( ) , … ) = 𝑠𝑝𝑎𝑛(𝑏𝑎𝑠𝑒 𝑐𝑎𝑛𝑜𝑛𝑖𝑐𝑎 𝑑𝑖 ℝ𝑛 )
0 1
Teorema: se 𝐴𝑋 = 𝐵 dove
| . |
𝐴 = [𝐴1 … 𝐴𝑛 ] dove 𝐴𝑖 = 𝑖-esima colonna di A, allora
| . |
𝐴𝑋 = 𝐵 ha soluzioni ⟺ 𝐵 ∈ 𝑠𝑝𝑎𝑛(𝐴1 , … , 𝐴𝑛 )
Sottospazi: dati 𝑈, 𝑊 sottospazi di 𝑉
1) 𝑈 ∩ 𝑊 = {𝑣 ∈ 𝑉|𝑣 ∈ 𝑉, 𝑣 ∈ 𝑊}
2) 𝑈 + 𝑊 = {𝑢 + 𝑤|𝑢 ∈ 𝑈, 𝑣 ∈ 𝑊} = 𝑠𝑝𝑎𝑛(𝑈 ∪ 𝑊)
3) Se 𝑈 ∩ 𝑊 = {𝑂𝑣 } scriviamo 𝑈 ⨁ 𝑊 = 𝑈 + 𝑊
Matrice trasposta: data 𝐴 ∈ ℳ𝑘.𝑛 (ℝ) definiamo 𝐴𝑇 ∈ ℳ𝑘.𝑛 (ℝ) trasposta di A come 𝐴𝑇 = (𝑏𝑖𝑗 ) dove
𝑏𝑖𝑗 = 𝑎𝑖𝑗 se 𝐴 = (𝑎𝑖𝑗 ). Si ottiene scambiando le righe con le colonne
Matrice simmetrica: 𝐴𝑇 = 𝐴
Matrice antisimmetrica: 𝐴𝑇 = −𝐴
Matrice ortogonale: 𝐴𝑇 = 𝐴−1 ⟹ 𝐴 ∙ 𝐴𝑇 = 𝐼𝑛
Per verificare che A sia quadrata la vedo come somma di una simmetrica e di una antisimmetrica
𝐴 + 𝐴𝑇 𝐴 − 𝐴𝑇
𝐴=( )+( )
2 2
Traccia: data 𝐴 ∈ ℳ𝑛.𝑛 (ℝ) allora la traccia di A è la somma delle entrate sulla diagonale
0 1 2
𝐴 = (−1 7 2 ) 𝑡𝑟(𝐴) = 0 + 7 − 3 = 4
8 0 −3
Proprietà:
1) 𝑡𝑟(𝐴 + 𝐵) = 𝑡𝑟(𝐴) + 𝑡𝑟(𝐵)
2) 𝑡𝑟(𝛼 ∙ 𝐴) = 𝛼 ∙ 𝑡𝑟(𝐴)
3) 𝑡𝑟(𝐴𝑇 ) = 𝑡𝑟(𝐴)
4) 𝑡𝑟(𝐴𝐵) = 𝑡𝑟(𝐵𝐴)
| . |
𝑘
Teorema: se 𝐴1 , … , 𝐴𝑛 ∈ ℝ vettori colonna della matrice 𝐴 = [𝐴1 … 𝐴𝑛 ] ∈ ℳ𝑛.𝑘 (ℝ) allora:
| . |
dim 𝑠𝑝𝑎𝑛(𝐴1 , … , 𝐴𝑛 ) = 𝑟𝑎𝑛𝑔𝑜(𝐴) = #𝑐𝑜𝑙𝑜𝑛𝑛𝑒 𝑑𝑖 𝐴 = #𝑟𝑖𝑔ℎ𝑒 𝑑𝑖 𝐴
Se 𝑘 = 𝑛 allora 𝐴1 , … , 𝐴𝑛 sono base di ℝ𝑛 ⟺ 𝐴 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑒 ⟺ 𝑟𝑎𝑛𝑔𝑜(𝐴) = 𝑛 ⟺ det(𝐴) ≠ 0
Coordinate del vettore: (Teorema) spazio vettoriale 𝑉 con dim 𝑉 = 𝑘 e 𝑉 = {𝑣1 , … , 𝑣𝑘 } base ordinata di 𝑉.
Allora per ogni vettore esistono unici 𝑐1 , … , 𝑐𝑘 ∈ ℝ tali che:
𝑉 = 𝑐1 𝑣1 + … + 𝑐𝑘 𝑣𝑘
𝑐1
Vettore colonna delle coordinate: [𝑣]𝐵 = [ … ] ∈ ℝ𝑘
𝑐𝑘
Esempio: 𝑉 = {𝑎0 + 𝑎1 𝑥 | 𝑎0 , 𝑎1 ∈ ℝ } con base ordinata 𝐵 = {𝑢1 = 1 + 2𝑥, 𝑢2 = 2 + 𝑥} e
𝑣 = 4 + 2𝑥 ∈ 𝑉. [𝑣]𝐵 =?
𝑣 = 4 + 2𝑥 = 𝑐1 𝑢1 + 𝑐2 𝑢2 = 𝑐1 (1 + 2𝑥) + 𝑐2 (2 + 𝑥) = 𝑐1 + 2𝑥𝑐1 + 2𝑐2 + 𝑥𝑐2
𝑐 + 2𝑐2 = 4 𝑐 =0
= 𝑥(2𝑐1 + 𝑐2 ) + (𝑐1 + 2𝑐2 ) = { 1 ⟹{ 1
2𝑐1 + 𝑐2 = 2 𝑐2 = 2
Cambio di base: spazio vettoriale 𝑉 con dim 𝑉 = 𝑘 e 𝛽 = {𝑣1 , … , 𝑣𝑘 } 𝑒 𝛾 = {𝑤1 , … , 𝑤𝑘 } basi ordinate di 𝑉.
Allora la matrice di cambio di base da 𝛽 a 𝛾 è:
| . |
[𝑣
𝑀𝛾←𝛽 = [ 1 𝛾 ] … [𝑣𝑘 ]𝛾 ]
| . |
ed è sempre invertibile. Inoltre per ogni vettore 𝑣 ∈ 𝑉 si ha
−1
[𝑢]𝛾 = 𝑀𝛾←𝛽 [𝑢]𝛽 e [𝑢]𝛽 = 𝑀𝛽←𝛾 [𝑢]𝛾 = (𝑀𝛾←𝛽 ) [𝑢]𝛾
Matrice associata ad una applicazione lineare: sia 𝑇: 𝑉 → 𝑊 lineare, 𝛽 = {𝑣1 , … , 𝑣𝑘 } base ordinata di 𝑉 e
𝛾 = {𝑤1 , … , 𝑤𝑘 } basi ordinate di 𝑊. Scriviamo che
𝑇(𝑣𝑗 ) = 𝑡1𝑗 𝑤1 + ⋯ + 𝑡𝑘𝑗 𝑤𝑘
Ovvero:
𝑡1𝑗
[𝑇(𝑣𝑗 )] = [ … ] ∈ ℝ𝑘
𝑡𝑘𝑗
E creiamo la matrice associata 𝑇𝛾←𝛽
| . | 𝑡11 … 𝑡1𝑛
𝑇𝛾←𝛽 = [[𝑇(𝑣1 )]𝛾 … [𝑇(𝑣𝑛 )]𝛾 ] = [ … ⋱ … ]
| . | 𝑡𝑘1 … 𝑡𝑘𝑛 𝑘 𝑥 𝑛
Teorema:
1) [𝑇(𝑣)]𝛾 = 𝑇𝛾←𝛽 [𝑣]𝛽
2) dim 𝐼𝑚 𝑇 = 𝑟𝑎𝑛𝑔𝑜(𝑇𝛾←𝛽 ) dunque dim 𝐾𝑒𝑟 𝑇 = dim 𝑉 − 𝑟𝑎𝑛𝑔𝑜(𝑇𝛾←𝛽 )
3) Se 𝑉 = 𝑊 e 𝛽, 𝛾 basi ordinate di 𝑉 allora
−1
𝑇𝛾←𝛽 = 𝑀𝛾←𝛽 𝑇𝛽←𝛽 𝑀𝛽←𝛾 = (𝑀𝛽←𝛾 ) 𝑇𝛽←𝛽 𝑀𝛽←𝛾
Determinante: relativamente ad una matrice, è il numero che indica se essa sia invertibile e se le sue
colonne siano linearmente indipendenti.
Sviluppo del determinante lungo la prima colonna:
𝑛
Matrici triangolari:
𝑎11 𝑎12 𝑎1𝑛
det ( 0 𝑎22 𝑎2𝑛 ) = 𝑎11 𝑎22 … 𝑎𝑛𝑛
0 0 𝑎𝑛𝑛
Determinante è il prodotto della diagonale
Regola di Cramer:
𝐴𝑋 = 𝐵 con 𝐴 invertibile (det 𝐴 ≠ 0), allora l’unica soluzione del sistema è data da
𝑥1
det(𝐵𝑖 )
( … ) 𝑑𝑜𝑣𝑒 𝑥𝑖 =
𝑥𝑛 det(𝐴)
Dove 𝐵𝑖 è la matrice A senza la i-esima colonna che è stata sostituita con la colonna dei termini noti di B:
𝐵𝑖 = (𝐴1 𝐴𝑖−1 𝐵 𝐴𝑖+1 𝐴𝑛 )
Esempio:
𝑉 𝑒 𝑊 spazi vettoriali tali che dim 𝑉 = 5 e dim 𝑊 = 4. Se 𝑇: 𝑉 → 𝑊 lineare e suriettiva, può essere T
iniettiva?
Soluzione 1:
𝑇 iniettiva ⟺ dim ker 𝑇 = 0
𝑇 suriettiva ⟺ dim Im 𝑇 = dim 𝑊 = 4
⇒ dim ker 𝑇 = dim 𝑉 − dim Im 𝑇 = 5 − 4 = 1 > 0
⇒ 𝑇 non è iniettiva
Soluzione 2:
𝑇 iniettiva ⇒ 𝑇 sarebbe isomorfismo ⇒ dim 𝑉 = dim 𝑊 ⇒ 4 = 5 𝑖𝑚𝑝𝑜𝑠𝑠𝑖𝑏𝑖𝑙𝑒 ⇒ 𝑇 non iniettiva
Applicazione lineare:
𝑉, 𝑊 spazi vettoriali su 𝑘 ⊆ ℝ, 𝑓: 𝑉 → 𝑊 è lineare se:
1) ∀𝑣1 , 𝑣2 ∈ 𝑉 𝑓(𝑣1 , +𝑣2 ) = 𝑓(𝑣1 ) + 𝑓(𝑣2 )
2) ∀𝛼 ∈ 𝑘 ∀𝑣 ∈ 𝑉 𝑓(𝛼𝑣) = 𝛼𝑓(𝑣)
Teorema di costruzione:
Data 𝑓: 𝑉 → 𝑊 con base 𝐵 = {𝑣1 , … , 𝑣𝑛 } ovvero 𝑓(𝑣1 ) = 𝑤1 , … , 𝑓(𝑣𝑛 ) = 𝑤𝑛 con 𝑤𝑖 ∈ 𝑊 e dato che ogni
vettore 𝑣 = 𝛼1 𝑣1 + ⋯ + 𝛼𝑛 𝑣𝑛 allora:
𝑓(𝑣) = 𝛼1 𝑓(𝑣1 ) + ⋯ + 𝛼𝑛 𝑓(𝑣𝑛 )
Teorema di Binet:
det 𝐵 ∙ 𝐶 = det 𝐵 ∙ det 𝐶
det 𝐴𝑛 = (det 𝐴)𝑛
Supponiamo che 𝑉 abbia dimensione finita, se ℬ = {𝑣1 , … , 𝑣𝑛 } è base di 𝑉 a 𝑇 resta associata una matrice
𝐴ℬ = [𝑇(𝑣1 )ℬ , … , 𝑇(𝑣1 )ℬ ] con 𝑇(𝑣1 )ℬ vettori delle coordinate di 𝑇(𝑣1 ) rispetto alla base ℬ
Se 𝑇: 𝑉 → 𝑉, ℬ base per 𝑉 e 𝑣 ∈ 𝑉:
𝑇(𝑣) = 𝛼1 𝑣1 + ⋯ + 𝛼𝑛 𝑣𝑛
𝑣 = 𝑥1 𝑣1 + ⋯ + 𝑥𝑛 𝑣𝑛
𝑥1 𝛼1
𝐴ℬ = [𝑇(𝑣1 )ℬ , … , 𝑇(𝑣1 )ℬ ] 𝐴ℬ [ ⋮ ] = [ ⋮ ]
𝑥𝑛 𝛼𝑛
Esempio:
1 1 0 𝑥 2𝑥 + 𝑦
3 3
ℬ = {[0] , [1] , [1]} 𝑇: ℝ → ℝ 𝑇 (𝑦) = (𝑥 + 𝑦 + 𝑧) . 𝑉𝑜𝑔𝑙𝑖𝑜 𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑟𝑒 𝐴ℬ .
0 0 1 𝑧 3𝑧
1 2 1 3 0 1
𝐶𝑎𝑙𝑐𝑜𝑙𝑜 𝑇 (0) = (1) , 𝑇 (1) = (2) , 𝑇 (1) = (2)
0 0 0 0 1 3
2 1 1 0 2 = 𝑎11 + 𝑎21 𝑎11 = 2
(1) = 𝑎11 (0) + 𝑎21 (1) + 𝑎31 (1) ⟹ { 1 = 𝑎 21 + 𝑎31 ⟹ { 21 = 1
𝑎
0 0 0 1 0 = 𝑎31 𝑎31 = 0
3 1 1 0 3 = 𝑎12 + 𝑎22 𝑎12 = 0
(2) = 𝑎12 (0) + 𝑎22 (1) + 𝑎32 (1) ⟹ {2 = 𝑎22 + 𝑎32 ⟹ {𝑎22 = 3
0 0 0 1 0 = 𝑎32 𝑎32 = 0
1 1 1 0 1 = 𝑎13 + 𝑎23 𝑎13 = 2
(2) = 𝑎13 (0) + 𝑎23 (1) + 𝑎33 (1) ⟹ {2 = 𝑎23 + 𝑎33 ⟹ {𝑎23 = −1
3 0 0 1 3 = 𝑎33 𝑎33 = 3
2 0 2
𝐴ℬ = [1 3 −1]
0 0 3
Teorema: 𝑇: 𝑉 → 𝑉 endomorfismo
𝜆 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒 𝑝𝑒𝑟 𝑇 ⟺ ker 𝑇 ≠ {0}
Quindi 𝜆 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒 𝑝𝑒𝑟 𝑇 ⟺ 𝑇 𝑛𝑜𝑛 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑒
Devo vedere se trovo una base di autovettori per 𝐿𝐴 : ∃𝜆 ∈ ℝ 𝑒 𝑣𝑖 ∈ ℝ3 : 𝐴𝑣𝑖 = 𝜆𝑖 𝑣𝑖 {𝑣𝑖 } 𝑏𝑎𝑠𝑒
dim ℝ3 = 3 quindi devo avere 3 autovettori
𝜆0 è 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒 𝑝𝑒𝑟 𝐿𝐴 𝑠𝑒 ∃𝑥 ≠ 0 ∈ ℝ3 : 𝐴𝑋 = 𝜆0 𝑋
𝜆0 è autovalore sse il sistema lineare 𝐴𝑋 − 𝜆0 𝑋 ha soluzioni non nulle, cioè:
(𝐴 − 𝜆0 𝐼)𝑋 = 0
𝑥
Con 𝑋 = (𝑦) ≠ 0
𝑧
Cerco quindi 𝜆0 tale che:
1 2 0 𝑥 1 0 0 𝑥 1 2 0 𝑥
(0 1 2) (𝑦) = 𝜆0 (0 1 0) (𝑦) ⟹ ((0 1 2) − 𝜆0 𝐼) (𝑦) = 0
0 0 3 𝑧 0 0 1 𝑧 0 0 3 𝑧
1 − 𝜆0 2 0 𝑥
⟹( 0 1 − 𝜆0 2 ) (𝑦 ) = 0
0 0 3 − 𝜆0 𝑧
(1 − 𝜆0 )𝑥 − 2𝑦 = 0 −2𝑥 − 2𝑦 = 0 𝑥 = 𝑦 𝑥 𝛼
{(1 − 𝜆0 )𝑦 − 2𝑧 = 0 {−2𝑦 − 2𝑧 = 0 { 𝑦 = 𝑧 (𝑦) = (𝛼 ) ⟹ 𝐴 𝑛𝑜𝑛 è 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑧𝑎𝑏𝑖𝑙𝑒
(3 − 𝜆0 )𝑧 = 0 𝜆0 = 3 𝜆0 = 3 𝑧 𝛼
𝜆0 autovalore per 𝑇: 𝑉 → 𝑉, autovettore per T relativo a 𝜆 è un vettore 𝑣: 𝑇(𝑣) = 𝜆𝑣 𝑣 ≠ 0𝑣
𝜆0 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑒 𝑝𝑒𝑟 𝑇 ⇔ (𝐴 − 𝜆0 𝐼)è 𝑚𝑎𝑡𝑟𝑖𝑐𝑒 𝑛𝑜𝑛 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑏𝑖𝑙𝑒 ⇔ 𝜆0 è 𝑟𝑎𝑑𝑖𝑐𝑒 𝑑𝑒𝑙 𝑝𝑜𝑙𝑖𝑛𝑜𝑚𝑖𝑜 𝑝𝑇 (𝜆)
Esempio: A è diagonalizzabile?
0 1 −𝜆 1
𝐴=[ ] 𝑝𝐴 (𝜆) = det(𝐴 − 𝜆𝐼) = det ( ) = 𝜆2 + 1
−1 0 −1 −𝜆
𝜆2 + 1 = 0 𝑖𝑚𝑝𝑜𝑠𝑠𝑖𝑏𝑖𝑙𝑒 ⟹ 𝐴 𝑛𝑜𝑛 è 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑧𝑎𝑏𝑖𝑙𝑒
Esempio 2: 𝑉 = {𝑎 + 𝑏𝑥 + 𝑐𝑥 2 , 𝑎, 𝑏, 𝑐 ∈ ℝ}.
𝑇: (𝑎 + 𝑏𝑥 + 𝑐𝑥 2 ) → (𝑎 + 2𝑏 + 𝑐) + (3𝑏 + 𝑐)𝑥 + (5𝑏 − 𝑐)𝑥 2
Polinomio caratteristico:
1−𝜆 2 1
𝑝𝑇 (𝜆) = det(𝑇 − 𝜆𝐼) = det ( 0 3−𝜆 1 ) = (1 − 𝜆)(𝜆2 − 2𝜆 − 8) 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑖: 𝜆 = 1,4, −2
0 5 −1 − 𝜆
⟹ 𝑇 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑧𝑎𝑏𝑖𝑙𝑒
Devo trovare 𝑣1 = {𝑣 ∈ ℝ2 [𝑥]: 𝑇(𝑣) = 𝑣} 𝑣4 = {𝑣 ∈ ℝ2 [𝑥]: 𝑇(𝑣) = 4𝑣} 𝑣−2 = {𝑣 ∈ ℝ2 [𝑥]: 𝑇(𝑣) = −2𝑣}
Cerco 𝑣1 . Risolvo il sistema
0 2 1 𝑥 𝛼
2𝑦 + 𝑧 = 0 𝑧 = −2𝑦
𝑃𝑒𝑟 𝜆 = 1 (0 2 1 ) ( ) = 0 ⇒ {𝑦 ⇒{ ⇒ ( 0 ) ⇒ 𝑣1 = {𝛼 + 0𝑥 + 0𝑥 2 , 𝑎 ∈ ℝ}
5𝑦 − 2𝑧 = 0 9𝑦 = 0
0 5 −2 𝑧 0
Cerco 𝑣4 . Risolvo il sistema
−3 2 1 𝑥 𝑥=𝑧 𝛼
−3𝑥 + 2𝑦 + 𝑧 = 0
𝑃𝑒𝑟 𝜆 = 4 ( 0 −1 1 ) (𝑦) = 0 ⇒ { ⇒ {𝑦 = 𝑧 ⇒ (𝛼 )
−𝑦 + 𝑧 = 0
0 5 −5 𝑧 𝛼
⇒ 𝑣4 = {𝛼 + 𝛼𝑥 + 𝛼𝑥 2 , 𝑎 ∈ ℝ}
Cerco 𝑣−2 . Risolvo il sistema
3 2 1 𝑥 3𝑥 + 2𝑦 + 𝑧 = 0 𝑥=𝑦 𝛼
𝑃𝑒𝑟 𝜆 = −2 (0 5 1) (𝑦) = 0 ⇒ { ⇒ {𝑧 = −5𝑦 ⇒ ( 𝛼 )
5𝑦 + 𝑧 = 0
0 5 1 𝑧 −5𝛼
⇒ 𝑣−2 = {𝛼 + 𝛼𝑥 − 5𝛼𝑥 2 , 𝑎 ∈ ℝ}
𝑣1 = 1, 𝑣2 = 1 + 𝑥 + 𝑥 2 , 𝑣3 = 𝑥 − 5𝑥 2 ⇒ 𝐵 = {1, 1 + 𝑥 + 𝑥 2 , 𝑥 − 5𝑥 2 }
3) 𝑇 è diagonalizzabile?
1−𝜆 2 1
𝑝𝑇 (𝜆) = det(𝑇 − 𝜆𝐼) = det ( 0 3−𝜆 1 ) = (1 − 𝜆)(𝜆2 − 2𝜆 − 8) 𝑎𝑢𝑡𝑜𝑣𝑎𝑙𝑜𝑟𝑖: 𝜆 = 1,4, −2
0 5 −1 − 𝜆
⟹ 𝑇 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑧𝑎𝑏𝑖𝑙𝑒
Osservazione:
2 0 0
𝐴 = (−1 4 0) è matrice triangolare.
3 6 2
In una matrice triangolare gli autovalori sono gli elementi della diagonale
Osservazioni:
- 2 matrici simili hanno stesso polinomio caratteristico
- 𝐴 e 𝐵 matrici simili, se 𝐴 è diagonalizzabile allora anche 𝐵 è diagonalizzabile
- 𝐴 e 𝐵 hanno stesso polinomio, non è detto che siano simili
Prodotto scalare: < 𝑣1 , 𝑣2 >: 𝑉 × 𝑉 → ℝ
𝑥 = 𝑥1 + 𝑥2 𝑦 = 𝑦1 + 𝑦2 ⇒ < 𝑥, 𝑦 > = 𝑥1 𝑥2 + 𝑥2 𝑦2
Proprietà:
- < 𝑣, 𝑣 > = 0 ⟺ 𝑣 = 0
- < 𝑣, 𝑤 > = < 𝑤, 𝑣 >
- 𝑣, 𝑢, 𝑤 ∈ 𝑉 𝛼, 𝛽 ∈ ℝ ⟹ < 𝛼𝑣 + 𝛽𝑢, 𝑤 > = 𝛼 < 𝑣, 𝑤 > +𝛽 < 𝑢, 𝑤 >
Esempio: in ℝ2 [𝑥]
1
< 𝑝(𝑥), 𝑞(𝑥) > = ∫ 𝑝(𝑥)𝑞(𝑥) 𝑑𝑥
−1
È la distanza tra 2 punti in ℝ2
Norma di un vettore: 𝑣 ∈ 𝑉
∥ 𝑣 ∥ = √< 𝑣, 𝑣 >
Proprietà:
- ∥𝑣 ∥=0⟺𝑣 =0
- 𝑣, 𝑤 ∈ 𝑉 ∥ 𝑣 + 𝑤 ∥ ≤ ∥ 𝑣 ∥ + ∥ 𝑤 ∥
- 𝑣 ∈ 𝑉 𝛼 ∈ ℝ ⟹ ∥ 𝛼𝑣 ∥ = |𝛼| ∥ 𝑣 ∥
Ortogonalizzazione di Gram-Schmidt:
𝑉 𝑠𝑝𝑎𝑧𝑖𝑜 𝑣𝑒𝑡𝑡𝑜𝑟𝑖𝑎𝑙𝑒 su ℝ con prodotto scalare < ∙ ,∙ >, 𝑆 = {𝑣1 , … , 𝑣𝑘 } sottoinsieme L. I. di 𝑉
𝑊 = {𝑤1 , … , 𝑤𝑘 } dove
𝑣1 = 𝑤1
< 𝑣2 , 𝑤1 >
𝑣2 = 𝑣2 − 𝑤
< 𝑤1 , 𝑤1 > 1
< 𝑣3 , 𝑤1 > < 𝑣3 , 𝑤2 >
𝑣3 = 𝑣3 − 𝑤 − 𝑤
< 𝑤1 , 𝑤1 > 1 < 𝑤2 , 𝑤2 > 2
In generale:
𝑟−1
< 𝑣2 , 𝑤𝑖 >
𝑤𝑟 = 𝑣𝑟 − ∑ 𝑤
< 𝑤𝑖 , 𝑤𝑖 > 𝑖
𝑖=1
Osservazione:
- Ogni spazio vettoriale metrico ha una base ortonormale
- 𝑤𝑟 ⊥ 𝑤 ∀𝑤 ∈ 𝑠𝑝𝑎𝑛(𝑤1 , … , 𝑤𝑟−1 )
- 𝑠𝑝𝑎𝑛(𝑤1 , … , 𝑤𝑟 ) = 𝑠𝑝𝑎𝑛(𝑣1 , … , 𝑣𝑟 )
Spazio ortogonale:
𝑉 𝑠𝑝𝑎𝑧𝑖𝑜 𝑣𝑒𝑡𝑡𝑜𝑟𝑖𝑎𝑙𝑒 su ℝ con prodotto scalare < ∙ ,∙ >, 𝑆 sottoinsieme di 𝑉. Allora
𝑆 ⊥ = {𝑢 ∈ 𝑉 | 𝑢 ⊥ 𝑤, ∀𝑤 ∈ 𝑆}
Teorema: 𝑉 sp. vettoriale metrico con prodotto scalare. dim 𝑉 = 𝑛 e 𝑆 sottospazio di 𝑉. Allora:
1) 𝑆 ∩ 𝑆 ⊥ = {0𝑣 }
2) 𝑉 = 𝑆 ⨁ 𝑆 ⊥ ⟹ per ogni 𝑣 ∈ 𝑉 esistonno unici 𝑤1 ∈ 𝑆, 𝑤2 ∈ 𝑆 ⊥ tali che 𝑣 = 𝑤1 + 𝑤2
⟹ 𝑤1 = 𝑝𝑟𝑆 (𝑣), 𝑤2 = 𝑝𝑟𝑆 ⊥ (𝑣)
3) (𝑆 ⊥ )⊥ = 𝑆
4) Se 𝑆 ha base {𝑤1 , … , 𝑤𝑘 } allora:
< 𝑣1 , 𝑤1 > = 0
𝑆 ⊥ = {𝑣 ∈ 𝑉| ⋮ }
< 𝑣1 , 𝑤𝑘 > = 0
Proiezione ortogonale:
𝑉 𝑠𝑝𝑎𝑧𝑖𝑜 𝑣𝑒𝑡𝑡𝑜𝑟𝑖𝑎𝑙𝑒 su ℝ con prodotto scalare < ∙ ,∙ >, 𝑆 sottoinsieme di 𝑉.
Se 𝛽 = {𝑞1 , … , 𝑞𝑘 } è base ortonormale di 𝑆 e 𝑣 ∈ 𝑉 la proiezione ortogonale di 𝑉 su 𝑆:
𝑝𝑟𝑆 (𝑣) = < 𝑣1 , 𝑞1 > 𝑞1 +< 𝑣1 , 𝑞2 > 𝑞2 + ⋯ +< 𝑣1 , 𝑞𝑘 > 𝑞𝑘
Esempio:
1
𝑆 = 𝑠𝑝𝑎𝑛 ((0)) ⊆ ℝ3 {𝑤} base ortogonale di 𝑆
2
1 1 1
∥ 𝑤 ∥ = √12 + 02 + 22 = √5 ⟹ 𝑞 = ∙𝑤 = (0) {𝑞} base ortogonale di 𝑆
∥𝑤∥ √5 2
𝑥
Se 𝑣 = (𝑦) vettore qualsiasi di ℝ3 allora:
𝑧
𝑥 𝑥 1 1 1 1 1 0 2 1 1
𝑝𝑟𝑆 ⊥ (𝑣) = < (𝑦) , 𝑞 > ∙ 𝑞 = < (𝑦) , (0) > ∙ (0) = (𝑥 +𝑦 +𝑧 ) (0)
𝑧 𝑧 √5 2 √5 2 √5 √5 √5 √5 2
𝑥 + 2𝑧
𝑥 + 2𝑧 1 1 5
=( ) (0) = 0
√5 √5 2 2𝑥 + 4𝑧
( 5 )
La distanza tra 𝑣 e 𝑝𝑟𝑆 (𝑣) è la minima possibile rispetto alle distanze tra 𝑣 e un
punto qualsiasi di 𝑆 ⟹ 𝑝𝑟𝑆 (𝑣) è il punto più vicino
Esempio:
1
𝑣1 = −3
𝑉 = ℝ2 [𝑥] < 𝑝(𝑥), 𝑞(𝑥) > = ∫ 𝑝(𝑥)𝑞(𝑥) 𝑑𝑥 𝑆 = 𝑠𝑝𝑎𝑛(−3,1 − 2𝑥)
−1
𝑣 2 = 1 − 2𝑥
Trovare la migliore approssimazione di un vettore 𝑣 ∈ 𝑉 qualsiasi su 𝑆 e trovare 𝑝𝑟𝑆 ⊥ (𝑣)
Soluzione:
troviamo una base ortonormale di S con Gram-Schmidt
𝑣1 = 𝑤1 = −3
< 𝑣2 , 𝑤1 > −6
𝑣2 = 𝑣2 − 𝑤1 = 1 − 2𝑥 − (−3) = −2𝑥
< 𝑤1 , 𝑤1 > 18
Ora troviamo i vettori ortonormali associati
1 1
𝑞1 = 𝑤1 = −
∥ 𝑤2 ∥ √2
1 3
𝑞2 = 𝑤2 = −√ 𝑥
∥ 𝑤2 ∥ 2
2
Sia 𝑣 = 𝑎 + 𝑏𝑥 + 𝑐𝑥 un vettore qualsiasi di 𝑉, allora:
1 1 3 3 𝑐
𝑝𝑟𝑆 (𝑣) =< 𝑎 + 𝑏𝑥 + 𝑐𝑥 2 , − > (− ) +< 𝑎 + 𝑏𝑥 + 𝑐𝑥 2 , −√ 𝑥 > (−√ 𝑥) = 𝑎 + + 𝑏𝑥
√2 √2 2 2 3
𝑐 𝑐
𝑝𝑟𝑆 ⊥ (𝑣) = 𝑣 − 𝑝𝑟𝑆 (𝑣) = (𝑎 + 𝑏𝑥 + 𝑐𝑥 2 ) − (𝑎 + + 𝑏𝑥) = − + 𝑐𝑥 2
3 3
Isometria: 𝑉 spazio vettoriale su ℝ con prodotto scalare < ∙ ,∙ >. Un′ applicazione lineare 𝑇: 𝑉 → 𝑉:
< 𝑇(𝑣1 ), 𝑇(𝑣2 ) > = < 𝑣1 , 𝑣2 > ∀𝑣1 , 𝑣2 ∈ 𝑉