Alessio Miscioscia
7 giugno 2019
1
Indice
1 Matrici 4
1.1 L’eliminazione di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Calcolo matriciale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Matrice trasposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 Sistemi lineari 10
2.1 Risolvibilità di un sistema . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Spazi vettoriali 13
3.1 Generatori di uno spazio vettoriale . . . . . . . . . . . . . . . . . . . 15
3.2 Dipendenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4 Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5 Definizione di uno spazio vettoriale . . . . . . . . . . . . . . . . . . . 22
3.6 Operazioni fra spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . 23
4 Funzioni lineari 24
4.1 Nucleo e immagine di una funzione lineare . . . . . . . . . . . . . . . 26
4.1.1 La rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.2 Riflessioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.3 Proiezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2 Matrici di funzioni lineari . . . . . . . . . . . . . . . . . . . . . . . . 30
4.3 Matrice del cambiamento di base . . . . . . . . . . . . . . . . . . . . 32
4.4 Applicazioni ai sistemi lineari . . . . . . . . . . . . . . . . . . . . . . 33
4.5 Determinazione di nucleo e immagine . . . . . . . . . . . . . . . . . . 34
4.6 La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5 Determinante 36
5.1 Esistenza del determinante . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2 Il teorema di Binet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.3 Sviluppo di Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.3.1 Il determinante di un endomorfismo . . . . . . . . . . . . . . . 43
2
7 Forme bilineari 47
7.1 Forme lineari simmetriche reali . . . . . . . . . . . . . . . . . . . . . 48
7.1.1 Prodotto scalare standard . . . . . . . . . . . . . . . . . . . . 49
7.2 Ortogonalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
7.3 Proiezioni e riflessioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.4 Basi ortogonali e ortonormali . . . . . . . . . . . . . . . . . . . . . . 52
7.5 Le isometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7.6 Il teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
7.7 Forme Hermitiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
7.8 Spazio delle funzioni lineare e spazio duale . . . . . . . . . . . . . . . 55
7.9 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
8 Spazi affini 56
8.1 distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
8.2 Le coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3
1 Matrici
Definizione. Una matrice (ad ingresso reale) m × n è uno schema del tipo:
a11 a12 · · · a1n
a21 a22 · · · a2n
A := ..
.. . . ..
. . . .
am1 am2 · · · amn
Definizione. La matrice identità è la matrice quadrata cioè del tipo n × n del
tipo:
(
0 i 6= j
(In )j,i :=
1 i=j
Quindi è la matrice del tipo:
1 00 ··· 0
0 10 ··· 0
In := ..
..
.. . . ..
. .. . .
0 0 0 ··· 1
Definizione. Diciamo che la matrice A := (ai,j ) è in forma a scala se ∃r ∈ N t.c.
• ai,j = 0∀i ∈ {r + 1, · · · , m} e j ∈ {1, · · · , n};
• ∀i ∈ {1, · · · , r}∃j t.c. ai,j 6= 0;
• per i = 1, · · · , r sia ji := min{j|ai,j 6= 0} allora j1 < j2 < · · · < jr .
Se si verifica anche che ∀k ∈ {1, · · · , r}, i ∈ {1, · · · , jk − 1} sia ha che ai,j = 0 allora
si dice che A è in forma a scala ridotta.
I primi elementi non nulli di una matrice ridotta in forma a scala sono detti pivot.
Osservazione. Si noti che le forme a scala o a scala ridotte di una matrice A non
sono uniche. La forma a scala con i pivot tutti uguali a 1 di una matrice A è unica.
Definizione. Le operazioni elemetari sulle righe di una matrice A sono:
1. scambiare due righe di A;
2. moltiplicare una riga per λ ∈ < \ {0};
3. sommare λ ∈ < volte la righa i alla righa j.
4
1.1 L’eliminazione di Gauss
Teorema. Sia A una matrice, allora utilizzando una serie di operazioni elementari
si può trasformare A in una matrice a scala (o a scala ridotta).
5
Il prodotto di una matrice, A(ai,j ), per uno scalare λ ∈ < è definito come:
a11 a12 · · · a1n λa11 λa12 · · · λa1n
a21 a22 · · · a2n λa21 λa22 · · · λa2n
λA = λ .. .. := ..
.. .. .. .. ..
. . . . . . . .
am1 am2 · · · amn λam1 λam2 · · · λamn
ovvero:
(λA) ij := λai,j
Il prodotto fra due matrici A(ai,j ) m × n, B(bi,j ) n × p si definisce come:
(AB) := nk=1 ai,k bk,j
P
6. (A(B + C))i,j = nk=1 ak,n (bi,k + ci,k ) = nk=1 ak,n bi,k + nk=1 ak,n ci,k = (AB +
P P P
AC)i,j
7. ((A + B)C)i,j = nk=1 (ak,j +bk,j )ci,k = nk=1 ak,j ci,k + nk=1 bk,j ci,k = (AC + BC)i,j
P P P
Si noti che per dimostrare l’uguaglianza tra due matrici basta dimostrare l’ugua-
glianza fra i loro elementi generici.
6
1.3 La matrice inversa
Risulta semplice dimostrare che prese due matrici n × n il loro prodotto è ancora
una matrice n × n.
Definizione. Sia A matrice n × n se ∃B matrice n × n t.c.
AB = BA = In
Si dice che A è invertibile e B si dice matrice inversa di A.
Lemma. La matrice inversa di A se esiste è unica.
Dimostrazione. Siano per assurdo B,C due matrici inverse di A allora si ha che:
AB = BA = In = AC = CA
ma allora:
C = CIn = (BA)C = B(AC) = BIn = B
Da cui si conclude.
Osservazione. Si denota la matrice inversa di A con A−1
Lemma. Siano A e B matrici invertibili, allora (AB) è ancora invertibile (se esiste)
e (AB)−1 = B −1 A−1 .
Dimostrazione. (AB)(B −1 A−1) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In
(B −1 A−1)(AB) = B(AA−1 )B −1 = BIn B −1 = BB −1 = In Da cui si conclude.
−1
Lemma. Sia A una matrice invertibile, allora (A−1 ) =A
−1
Dimostrazione. Si noti che sia A che (A−1 ) sono inverse di A−1 quindi per unicità
dell’inversa sono la stessa matrice.
Definizione. Si definiscono matrici elementari le matrici:
1 j = i, j 6= a, b
• (P (a, b))i,j := 1 (j, i) = (a, b)o(i, j) = (a, b)
0 altrimenti
1 j = i
• S(a, b, λ) := λ (i, j) = (a, b)
0 altrimenti
7
1 j = i, i 6= a
• M (a, λ) := λ (i, j) = (a, a)
0 altrimenti
• M −1 (i, λ) = M (i, λ1 );
1
k=q
(S(i, j, −λ)S(i, j, λ))k,q = λ − λ = 0 (k, q) = (i, j) = In
0 altrimenti
1
k=q
• M (i, λ)M (i, λ1 )
k,q
= λλ = 1 (k, q) = (i, i) = In
0 altrimenti
1
k=q
1
λ
M (i, λ
)M (i, λ) k,q = = 1 (k, q) = (i, i) = In
λ
0 altrimenti
8
• M (i, λ)A è la matrice ottenuta da A moltiplicando la riga i per λ;
Lemma. Sia A una matrice n × n allora la forma a scala di A contiene una riga di
soli zeri oppure In è una forma a scala di A.
Dimostrazione. Si può ottenere con l’eliminazione di Gauss una matrice a scala ri-
dotta da A. Se non ci sono righe di soli zeri allora ogni riga contiene un solo elemento.
Quindi moltiplicando la riga i con a1i,i . Cosı̀ facendo si ottiene In
9
1.4 Matrice trasposta
Definizione. Sia A una matrice m×n, la matrice trasposta di A, AT , è la matrice
n × m t.c.
AT i,j = Aj,i
2. (λA)T = λAT ;
3. (AT )T = A
4. (AC)T = C T AT
• (AC)T i,j = (AC)j,i = nk=1 aj,k ck,i = nk=1 (AT )kj (C T )ik = nk=1 (C T )ik (AT )kj =
P P P
(C T AT )i,j
2 Sistemi lineari
Definizione. Un’equazione lineare è un’equazione del tipo:
a1 x 1 + a2 x 2 + · · · + an x n = b
con ai ∈ <∀i ∈ N, i < n, b ∈ <
Definizione. Un sistema di equazioni lineari (m equazioni in n incognite) è un
insieme finito di equazioni lineari.
10
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
a x + a x + · · · + a x = b
m1 1 m2 2 mn n m
Lemma. Sia (A|b) una matrice completa di un qualsiasi sistema e (A0 |b0 ) la matrice
ottenuta applicando una delle operazioni elementari alla matrice (A|b) allora :
Sol(A, b) = Sol(A0 , b0 )
11
Sol(A, b) ⊂ Sol(A0 , b0 )
, ma posso ora trovare una matrice (A00 , b00 ) moltplicando la stessa riga di prima per
1
λ
si ottiene quindi :
Sol(A, b) ⊂ Sol(A0 , b0 ) ⊂ Sol(A00 , b00 ) = Sol(A, b)
da cui si conclude.
Sommando un multiplo di una riga ad un’altra invece si ha che le soluzioni del vecchio
sistema sono anche soluzioni del nuovo sistema, quindi Sol(A, b) ⊂ Sol(A0 , b0 ), ma ora
si può sottrarre per lo stesso multiplo della stessa riga ottenendo una matrice (A00 , b00 )
e:
12
3 Spazi vettoriali
Definizione. Un vettore è una n-tupla del tipo:
x1
x2
..
.
xn
Osservazione. Si può pensare a vettore come ad una matrice n×1. Si possono quindi
estendere le operazioni delle matrici anche ai vettori se questi sono ad ingresso reale.
In particolare si possono definire:
Esiste quindi un’elemento neutro: il vettore nullo, un vettore con tutte le compoenti
nulle.
1. a + b = b + c;
2. a + (b + c) = (a + b) + c;
3. ∃0 ∈ K t.c. a + 0 = 0 + a = a;
13
5. ab = ba;
6. a(bc) = (ab)c;
7. ∃1 ∈ K t.c. 1a = a1 = a;
9. (a + b)c = ac + bc.
1. u + (v + w) = (u + v) + w;
2. v + w = w + v;
3. v + ~0 = ~0 + v = v
5. λ(µv) = (λµ)v;
6. ∃1 ∈ K t.c. 1v = v1 = v;
7. (λ + µ)v = λv + µv;
8. λ(u + v) = λu + λv.
Osservazione. Somma e prodotto definiti prima vanno bene con spazi vettoriali del
tipo <n .
1. 0v = ~0;
2. λ~0 = ~0;
3. (−1)v = −v;
4. λv = ~0 ⇒ λ = 0 o v = ~0.
14
2. λ~0 = λ(~0 + ~0) = λ~0 + λ~0 e per lo stesso principio di prima λ~0 = ~0;
• W non è vuoto;
• ∀v, w ∈ W, v + w ∈ W ;
• ∀λ ∈ K, w ∈ W si ha λw ∈ W
v = λ1 v1 + λ2 v2 + · · · + λr vr
1 0 0
0 1 0
Osservazione. Si osservi che ogni vettore in <n è combinazione lineare di .. , .. , · · · , ..
. . .
0 0 1
15
P
span(S) := {v ∈ V t.c.∃λ1 , λ2 , · · · , λr t.c.v = i vi λi , v1 , v2 , · · · , vr ∈ S}
e almeno per un i λi 6= 0.
Diciamo che S è linearmente indipendente se non è linearmente dipendente.
16
Dimostrazione. ⇒ Se S è linearmente dipendente allora ∃v1 , v2 , · · · , vn ∈ S, ∃µ1 , µ2 , · · · , µn ∈
K t.c.
vi µi = ~0
P
i
Quindi:
P µi P
vn = i µn vi = i αi vi
Dove si è definito αi := µµni . Quindi vn è combinazione lineare di elementi di S \ {vn }.
⇐ Se esiste un v combinazione lineare di elementi di S \ {v} si ha che:
P
v = i λi vi
con λi ∈ K∀i, vi ∈ S \ {v}∀i. Allora:
λi vi − v = ~0
P
i
17
3.3 Basi
Definizione. Sia V uno spazio vettoriale. Diciamo che B ⊂ V è una base di V se:
• B è linearmente indipendente;
• span(B) = V
Lemma. Sia V uno spazio vettoriale e B una base di V allora si può scrivere ogni
vettore di V in modo unico come combinazione lineare di vettori di B.
Dimostrazione. Dimostrazione simile a quella precedente. Infatti V = span(B).
(
0 j 6= i
Definizione. Sia V = <n e (ei )j := . L’insieme delle ei , i ∈ N, i ≤ n si
1 j=i
dice base canonica. Quindi la base canonica di <n è del tipo:
1 0 0
0 1
0
.. , .. , · · · , ..
. . .
0
0 1
Osservazione. Facile dimostrare che la definizione è ben posta, infatti la base cano-
nica è una base di B.
Teorema. Sia V uno spazio vettoriale su campo K, B = {v1 , v2 , · · · , vn } sottoinsieme
finito di V. Allora le seguenti affermazioni sono equivalenti:
1. B è una base;
18
λi vi + µv = ~0
P
i
Corollario (Teorema della scelta della base). Sia V uno spazio vettoriale, S ⊂ V
un insieme finito di generatori di V, allora S contiene una base di V. In particolare
ogni spazio vettoriale finitamente generato possiede una base.
Dimostrazione. Per il lemma di Zorn che non viene dimostrato si ha che si può
utilizzare lo stesso processo del caso precedente e quindi dimostrare che esiste una
base.
19
V = span(B) ⊂ span(B 0 ) ⊂ V
Quindi V = span(B 0 ) e quindi B’ è base di V.
{w1 , · · · , wk , vk+1 , · · · , vn }
è una base di V.
Dimostrazione. Per induzione. Si noti che per k = 1 si tratta del lemma precedente.
Quindi assumiamo il risultato per k − 1, allora
{w1 , · · · , wk−1 , vk , · · · , vn }
è base di V. Se k − 1 = n allora si avrebbe che i {w1 , · · · , wk } sarebberlo linearmente
dipendenti e ciò contraddice le ipotesi, quindi k − 1 < n ⇒ k ≤ n. A questo punto
per il lemma precedente si conclude.
Dimostrazione. Sia B una base finita di V. Allora per il Teorema dello scambio non
posso trovare un insieme di cardinalità maggiore della cardinalità di B linearmente
indipendente.
Corollario. Sia V uno spazio vettoriale allora ogni base di V ha lo stesso numero
di elementi.
20
dim U ≤ dim V
Se U 6= V si ha che ∃v ∈ V \ U . Quindi detta B la base di U si ha che v ∈
/ span(B),
ma per quanto dimostrato sopra:
dim(U ∪ {v}) = dim U + 1 ≤ dim V ⇒ dim U < dim V
Se U = V si ha banalmente che dim U = dim V .
Teorema (Teorema del completamento della base). Sia V uno spazio vettoriale fini-
tamente generato e siano w1 , · · · , wr ∈ V linearmente indipendenti. Allora esistono
wr+1 , · · · , wn t.c. {w1 , · · · , wn } è una base di V.
21
Lemma. Le operazioni elementari sulle righe di A non cambiano il rango per le
colonne di A.
Dimostrazione. Le operazioni sulle righe corrispondono a moltiplicare a sinistra per
una matrice elementare. Siano ci , i ∈ N, i ≤ r le colonne linearmente indipendenti
di A, sia B la matrice con ci come colonne. Si noti che lo spazio delle colonne non
varia facendo EA o EB. Le colonne di B rimangono linearmente indipendenti. Quindi
rkc (A) ≤ rkc (EA), ma anche la matrice E −1 è una matrice elementare e
rkc (A) = rkc ((E −1 E)A) = rkc (E −1 (EA)) ≥ rkc (EA) ≥ rkc (A)
Da cui rkc (A) = rkc (EA)
Lemma. Sia A matrice m × n , allora il rango delle colonne e il rango delle righe
di A coincidono e sono uguali al numero di pivot di una forma a scala di A.
Dimostrazione. Possiamo partire da A e ottenere una forma a scala ridotta da A
senza alterare il rango delle righe e il rango delle colonne utilizzando operazioni
elementari (eliminazione di Gauss). Quindi si ha che se i pivot sono p è facile verificare
che le righe sono linearmente indipendenti e quindi il rango delle righe è p. Nelle
colonne troviamo i vettori e1 , · · · , ep quindi il rango delle colonne deve essere almeno
p, ma sappiamo anche che lo spazio delle colonne è contenuto nello spazio generato
da e1 , · · · , ep . Quindi anche il rango delle colonne è p.
Definizione. Avendo dimostrato che rango delle colonne e delle righe conincidono
definiremo il rango della matrice rk(A) := rkc (A) = rkr (A)
Lemma. rk(A) = rk(AT )
Dimostrazione. Lo spazio delle colonne di A è lo spazio delle righe di AT , da cui si
conclude.
22
Oppure uno spazio vettoriale è univocamente definito se viene dato in forma para-
metica:
P
i ti x i
P ti xi
i N
V = .. ∈ < t.c.ti ∈ <∀i
.
P tx
i i i
Infine è possibile trovare una base, B, dello spazio e definire lo spazio come:
V = span(B)
S1 + S2 := {v1 + v2 t.c.v1 ∈ S1 , v2 ∈ S2 }
span(U ∪ W ) = U + W = {u + w|u ∈ U, w ∈ W }
23
dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W )
Osservazione. Se due sottospazi U,W sono in somma diretta allora per la formula di
Grassmann si ha che dim(U + W ) = dim(U ) + dim(W ).
Lemma. Siano U,W due sottospazi di V spazio vettoriale. Se U,W sono in somma
diretta allora si può scrivere in modo unico v = u + w, u ∈ U, w ∈ W .
4 Funzioni lineari
Definizione. Siano V,W spazi vettoriali su campo K, allora una funzione f : V → W
si dice lineare se ∀v, w ∈ V, λ ∈ K
• f (v +V w) = f (v) +W f (w);
• f (λv) = λf (v)
24
Lemma. Sia f : V → W funzione lineare, allora f (−v) = −f (v) e f (v − w) =
f (v) − f (w) ∀v, w ∈ V .
Quidi f è lineare.
per l’unicità si noti che
P
f (v) = f (a1 v1 + a2 v2 + · · · + an vn ) = ai w i
e quindi è unica.
25
4.1 Nucleo e immagine di una funzione lineare
Definizione. Sia f : V → W una funzione lineare. Allora si definisce nucleo di f e
lo si denota con Ker(f ) l’insieme
26
Lemma. Sia f : V → W funzione lineare e V spazio vettoriale finitamente generato.
Sia {v1 , · · · , vn } un sistema di generatori di V, allora {f (v1 ), · · · , f (vn )} è un sistema
di generatori di Im(f ).
Teorema (Teorema del rango). Sia V uno spazio vettoriale finitamente generato, W
uno spazio vettoriale e f : V → W una funzione lineare. Allora si ha che
Essendo i
{v1 , · · · , vn , vn + 1, · · · , vr }
una base di V si ha che i wn+1 , · · · , wn sono linearmente indipendenti. Ora si noti
che essendo i {v1 , · · · , vn } nel nucleo di f allora:
span(w1 , · · · , wr ) = span(wn+1 , · · · , wr ) = Im(f )
Quindi i wn+1 , · · · , wn formano una base di Im(f ).
27
Corollario. Sia f : V → W una funzione lineare e dim(V ) < dim(W ) allora f non
è suriettiva.
Dimostrazione. Da teorema precedente si ha che dim(Im(f )) ≤ dim(V ) < dim(W )
quindi non è suriettiva.
Corollario. Sia f : V → W una funzione lineare e dim(W ) < dim(V ) allora f non
è inettiva.
Dimostrazione. Da teorema precedente si ha che dim(Ker(f )) = dim(V )−dim(Im(f )) ≥
dim(V ) − dim(W ) > 0.
Definizione. Sia f : V → W una funzione lineare. Allora:
• f è un isomorfismo se ∃g : W → V t.c. f og = idV e gof = idW .
• f è un endomorfismo se V = W .
• f è un automorfismo se f è sia un isomorfismo che un endomorfismo.
Lemma. Sia f : V → W funzione lineare, allora f è un isomorfismo se e solo se f è
biiettiva.
Dimostrazione. ⇒ Sia f un isomorfismo allora sia v ∈ Ker(f ) quidni f (v) = ~0 e
g(~0) = ~0, ma g(f (v)) = idV . Quindi Ker(f ) = {~0} e la funzione è inettiva. Sia
poi w ∈ W , e v = g(w), allora f (v) ∈ Im(f ), ma f (v) = f (g(w)) = idW w quidni
w ∈ Im(f ) da cui Im(f ) = W e quindi f è anche suriettiva e quindi è biiettiva.
⇐ Assumiamo ora che f sia biiettiva, allora essendo f suriettiva si ha che ∀w ∈ W ∃v ∈
V t.c. w = f (v), allora definiamo g : W → V, g(w) := v se e solo se f (v) = w. Resta
ora da mostrare che g è lineare. Prendiamo w1 , w2 ∈ W, λ ∈ K (K campo di W,V) e
siamo v1 e v2 le rispettive immagini di w1 e w2 . Si noti che
f (v1 + λv2 ) = w1 + λw2
per linearità. Quidni g(w1 +λw2 ) = v1 +λv2 = g(w1 )+λg(w2 ). Quindi g è lineare.
Lemma. Sia f : V → W funzione lineare. Sia v ∈ V e w = f (v) allora
f −1 (w) = {v} + Ker(f )
Dimostrazione. Sia v1 ∈ f −1 (w) allora f (v − v1 ) = f (v) − f (v1 ) = w − w. Quindi
v1 − v = v0 ∈ Ker(f ) da cui v1 = v + v0 ∈ {v} + Ker(f ) e di conseguenza f −1 (w) ⊂
{v} + Ker(f )
Sia v1 ∈ {v} + Ker(f ) allora ∃v0 ∈ Ker(f ) t.c. v1 = v + v0 . Quindi:
f (v1 ) = f (v + v0 ) = f (v) + f (v0 ) = w + ~0 = w
Quindi v1 ∈ f −1 (w) e quindi {v} + Ker(f ) ⊂ f −1 (w). Mettendo insieme le cose si
ottiene la tesi.
28
4.1.1 La rotazione
2 r cos θ
Sia in < un vettore espresso in coordinate polari si scriva . Ruoto di un
r sin θ
angolo γ e ottengo:
r cos θ r cos θ + γ r cos θ cos γ − r sin θ sin γ
→ =
r sin θ r sin θ + γ r sin γ sin θ + r cos θ cos γ
4.1.2 Riflessioni
Si consideri una riflessione Sx : <2 → <2 rispetto all’asse x. Si ha che questa ha la
forma:
x −1 0 x
Sx =
y 0 1 y
Si dimostra facilmente che è lineare. Similmente la riflessione rispetto all’asse delle
y è Sy : <2 → <2 :
x 1 0 x
Sy =
y 0 −1 y
Si estende facilmente la definizione in <n come riflessione lungo l’asse i Si : <n → <n :
0 0 ··· 0 0
1
0 · · · 0
x1 0 1 0 x1
x2 .. .. . . .. .. ..
. . . . . . x2
Si .. =
. 0 0 · · · −1 · · · 0 ...
. .. .. .. . . ..
xn .. . . . . . xn
0 0 0 ··· 0 1
29
4.1.3 Proiezioni
Risulta facilve verificare che si può scrivere la proiezione lungo l’asse i come Pi :
<n → <n
0 0 ··· 0 0
0
0 · · · 0
x1 0 0 0 x1
x2 .. .. . . .. .. ..
. . . . . . x2
Si .. = ..
. 0 0 · · · 1 · · · 0 .
. .. .. .. . . ..
xn .. . . . . . xn
0 0 0 ··· 0 0
P
Si noti ora che posso scrivere f (vj ) = i ai,j wi dove i wi formano una base di W
0
(f : V → W ). Allora sia MBB (f ) la matrice M (ai,j )
Dimostrazione. Abbiamo già dimostrato che esiste una corrispondenza fra le funzioni
e le matrici. D’altra parte le immagini dei vettori della base del dominio determi-
0
na la funzione, quindi la matrice MBB determina la funzione e la corrispondenza è
biunivoca.
30
λ1
λ2
0
γB 0 (f ( i λi vi )) = MBB (f ) ..
P
.
λn
Dimostrazione. Si ha che
P P P P P
f ( i λi vi ) = i λi f (vi ) = i λi j aj,i wj = j (aj,i λi ) wj
che è la definizione di prodotto fra matrici.
Osservazione. Questi risultati implicano che esiste sempre una corrispondenza fra
qualunque spazio vettoriale e <n e che in <n posso definire la funzione lineare come
un prodotto fra matrici. Quindi qualunque problema che abbia a che fare con le
funzioni lineari lo si può vedere in <n come prodotto di un vettore per una matrice.
31
4.3 Matrice del cambiamento di base
Definizione. La funzione idV : VB → VB 0 è una funzione lineare. Denotiamo la sua
0
matrice TBB e la definiamo matrice del cambiamento di base da B a B’.
Lemma. Sia f : V → W funzione lineare e B1 , B2 basi ordinate di V e B10 , B20 basi
ordinate di W allora
B0 B0
MB22 (f ) = TB 02 MBB11 (f )TBB12
1
32
Definizione. Due matrici A e B si dicono simili se esiste una matrice Q invertibile
t.c.
A = Q−1 BQ
Osservazione. Data una matrice A, una matrice ottenuta da A moltiplicandola con
una matrice elementare è simile ad A. Quindi la matrice a scala di A è simile ad A.
rk(A|b) = rk(A)
.
Lemma. Sia A ∈ Mm×n (<) allora
33
• Ax = b ha soluzioni ∀b ∈ K m se e solo se rg(A) = m;
34
Lemma. A ∈ Mm×n (<) ha una matrice inversa destra se e solo se rk(A) = m.
Dimostrazione. ⇒ Se la matrice ha un’inversa destra si ha che ∀v ∈ K m
v = Im v = (AB)v = A(Bv)
quindi v è nell’immagine della moltiplicazione con A che è suriettiva e quindi rk(A) =
m
⇐ Assumiamo rk(A) = m allora consideriamo la mappa f : K n → K m t.c. f (x) =
Ax. Dal fatto che il rango di A sia m si ha che la mappa è suriettiva e quindi esiste
g : K m → K n 0 t.c. g(ei ) = vi , quindi f (g(ei )) = ei , ∀i e
n m n n
In = Mn (f og) = Mn (f )Mm (g) = AMm (g)
per cui A ha inversa destra.
Lemma. A ∈ Mm×n (<) ha una matrice inversa sinistra se e solo se rk(A) = n.
Dimostrazione. ⇒ Se la matrice ha un’inversa sinistra si ha che ∀v ∈ K n
ABv = In v = v
quindi ABv 6= ~0∀v ∈ K n \{~0} e quindi la moltiplicazione con A è una mappa inettiva
e quindi rk(A) = n
⇐ Assumiamo rk(A) = n allora consideriamo la mappa f : K n → K m t.c. f (x) =
Ax. L’immagine della funzione è generata dalle immagini della base canonica. Dal
fatto che le immagini della base canonica sono linearmente indipendenti si ha che
∃g : K m → K n t.c. g(f (ei )) = ei . Quindi (gof ) = id e si ha che
In = Mnn (gof ) = Mmn (g)Mmn (f ) = Mmn (g)A
Quindi A ha inversa sinistra.
Lemma. Una matrice A ∈ Mn×n (<) è invertibile se e solo se rk(A) = n.
Dimostrazione. ⇒ Se ha è invertibile allora ha una matrice inversa destra (e anche
sinistra) quindi rk(A) = n.
⇐ Se il rango di A è n allora non ha righe di soli zeri e per lemmi precedenti è
invertibile.
Dimostrazione. ⇐ Una dimostrazione alternativa è notare che rk(A) = n è equiva-
lente a dire che In è una forma a scala di A. Abbiamo già dimostrato che se In è una
forma a scala di A allora A è invertibile.
Osservazione. Quindi il lemma si può riformulare come: A è invertibile se e solo se
In è una forma a scala di A.
35
Lemma. Sia A ∈ Mn×n (<) allora B è un’inversa destra di A se e solo se B è
un’inversa sinistra di A se e solo se B è matrice inversa di A.
5 Determinante
Definizione. Il determinante di una matrice A ∈ Mn×n (<) è una funzione det :
Mn×n (<) → < t.c.
• det(In ) = 1;
• det è alternante, cioè se A è una matrice son due righe identiche allora det(A) =
0.
36
Dimostrazione. Se A = I2 allora ad − bc = 1;
a b
si ha che det = a(d1 + λd2 ) − b(c1 + λc2 ) = ad1 − bc1 + λ(ad2 −
c 1 + λc 2 d
1 + λd
2
a b a b
bc2 ) = det +λ ;
c1 d 1 c d
Se A ha due righe identiche allora c = a e d = b quindi ad − bc = 0. Quindi le
proprietà sono soddisfatte e det è un determinante.
Lemma. Sia A ∈ Mn×n (<) e A0 ottenuta da A scambiando due righe, allora det(A) =
− det(A0 )
Dimostrazione. Si ha che
37
v1 v1 v1 v1 v1
.. .. .. .. ..
. . . . .
vi + vj vi vj vi vj
.
= det .. + det .. + det .. + det ... =
. . .
0 = det
.
.
v + v v v v v
j i i j j i
. . . . .
.. .. .. .. ..
vn vn vn vn vn
v1 v1
.. ..
. .
vi vj
.
+ det ...
det
.
.
v v
j i
. .
.. ..
vn vn
da cui
v1 v1
.. ..
. .
vi vj
. .
.. = − det ..
det
v v
j i
. .
.. ..
vn vn
38
una riga per un λi . I λi 6= 0∀i quindi c 6= 0 e quindi det(A) = 1c det(B). Se b contine
una riga di soli zeri e quindi rk(B) = rk(A) < n allora det B = 0 altrimenti B si
può portare a In e quindi det(B) = d det(A) (d è sempre diverso da 0 ) e si ha infine
det(A) = d1 det(B) = d1 det(In ) = d1
2. det(λA) = λn det(A);
3. Gli elementi sulla matrice sono pivot se un ai,i = 0 allora rk(A) < n e det(A) =
0 altrimenti posso trovare una forma a scala (A0 ) sommando multipli di righe fra
loro; cosı̀ facendo non altero il determinante. Ottengo cosı̀ una matrice avente
sulla diagonale ai,i e 0 nel resto della matrice. Allora det(A) = det(A0 ) =
a11 a22 · · · ann det(In ) = a11 a22 · · · ann
39
Q Q
Dimostrazione. I prodotti i − j e σ(i) − σ(j) contengono gli stessi fattori, ma
potrebbero avere segno diverso. Per ogni coppia (i, j) t.c. j > i, σ(i) > σ(j) troviamo
-1. Invece per ogni coppia (i, j) t.c. j > i, σ(i) < σ(j) troviamo 1. Da cui si ottiene
la tesi.
Lemma. Siano σ, τ permutazioni di n elementi, allora
sign(στ ) = sign(σ) sign(τ )
Dimostrazione. si ha che
Q σ(τ (i))−σ(τ (j)) Q σ(τ (i))−σ(τ (j)) Q τ (i)−τ (j)
sign(στ ) = i<j j−i
= i<j τ (j)−τ (i) i<j j−i
• det(A) è alternante. Infatti avendo A due righe uguali le produttorie sono tutte
uguali fra loro, ma il segno è opposto quindi det(A) = 0
40
Teorema (Teorema di esistenza e unicità del determinante). Il determinante esiste
ed è unico.
Dimostrazione. Abbiamo che det(A) = σ∈Sn sign(σ) ni=1 ai,σ(i) è un determinante
P Q
quindi ne esiste almeno uno. Abbiamo già dimostrato che se esiste è anche unico.
41
5.3 Sviluppo di Laplace
Teorema. Si ha che
Pn i+j
det(A) = i=1 (−1) ai,j det(Ai,j )
Pn i+j
det(A) = j=1 (−1) ai,j det(Ai,j )
Da cui si ottiene la prima tesi. Basta notare che det(A) = det(AT ) per ottenere la
seconda tesi.
Approfondimento. Si noti che con Laplace bisogna fare circa n! operazioni matema-
tiche. Con Gauss invece 21 n2 (n − 1) ≈ 12 n3 . Quindi per matrici grandi conviene
dal punto di vista del risparmio computazionale utilizzare il metodo di Gauss e non
Laplace.
Lemma. Si ha che
A−1 = 1
det(A)
cof(A)T
42
det(Ai )
xi = det(A)
43
Lemma. Il polinomio caratteristico è della forma
(−1)n tn + (−1)n−1 tr(A)tn−1 + an−2 tn−2 + · · · + a1 t + det(A)
Dimostrazione. Si dimostra per induzione. Per n = 2 si ha che pA (t) = t2 − (a11 −
a22)t + a11 a22 − a21 a12. Per n¿2 si ha che per lo sviluppo di Laplace si conclude
ricordando che det(A − 0In ) = det(A).
Lemma. Due matrici simili hanno lo stesso polinomio caratteristico, in particolare
il polinomio caratteristico di un endomorfismo non dipende dalla scelta della base.
Dimostrazione. Per calcolo diretto:
pA (t) = det(A − tIn ) = det(Q) det(A − tIn ) det(Q−1 ) = det(Q(A − tIn )Q−1 ) =
det(QAQ−1 − QtIn Q−1 ) = det(QAQ−1 − tQQ−1 ) = det(QAQ−1 − tIn ) = pQAQ−1 (t)
44
Definizione. Una matrice si dice diagonale se ha valori solo sulla diagonale (e zeri
altrove). Una matrice A si dice diagonalizzabile se ∃Q matrice t.c. QAQ−1 è una
marice diagonale.
Osservazione. Un endomorfismo si dice diagonalizzabile se la sua matrice associata
è diagonalizzabile; viene estesa la definizione precedente.
Lemma. Sia V uno spazio vettoriale di dimensione n (finitamente generato). Sia
f : V → V un endomorfismo associato ad una matrice A. Allora f è diagonalizzabile
se e solo se pA (t) è un prodotto di fattori lienari e ma (λ) = mg (λ)∀λ.
Dimostrazione. La matrice è diagonalizzabile se e solo se l’unione delle basi degli
autospazi sono un insieme di generatori di V, ma l’unione delle basi degli autospazi
per lemma precedente è un insieme linearmente dipendete che ha come P dimensione
il grando del polinomio caratteristico. Quindi f è diagonalizzabile se ma (λi ) = n
cioè p è un prodotto di fattori lineari e ∀ima (λi ) = mg (λi )
Corollario. Se p(t) è un prodotto di n (dimensione dello spazio V) fattori lineari
distinti allora A è diagonalizzabile.
Dimostrazione. Si ha mg = 1 e quindi ma = 1 e p(t) è per ipotesi un prodotto di
fattori lineari. Quindi si conclude.
Definizione. Un autovalore λ t.c. ma (λ) = 1 è chiamato autovalore semplice.
45
2. Se Ji,i+1 = 1 allora Ji,i = Ji + 1, i + 1;
3. Ji,k = 0 per k 6= i, i + 1
Definizione. Un vettore v 6= ~0 si dice autovalore generalizzato di un autovalore
λ se per qualche i ∈ N si ha (A − λIn )i v = ~0
Lemma. Sia A ∈ Mn×n (<). Sia λ uno zero del pA (t) e m := ma (λ). Allora esistono
V1 , V2 ∈ <n sottospazzi t.c.
1. dim(V1 ) = m, V1 è in somma diretta con V2 e V1 + V2 = V ;
2. la moltiplicazione di A manda V1 in V1 e V2 in V2 ;
R1 0
R=
0 R2
si ha che
−1 −1 J1 0
RQAQ R =
0 J2
46
Quindi A ammette una forma di Jordan. Rimane il caso pA (t) = (λ − t)n . Definiamo
Wi = Ker(A − λI)i . Si noti che Wn = K n . Sia j il valore più grande t.c. Wj−1 6= K n .
Allora possiamo scegliere dei vettori linearmente indipendenti in somma diretta con
Wj−1 la cui somma faccia K n . Adesso moltiplichiamo questi vettori per (A − λI)
a sinistra e di questi vettori ottenuti scegliamo quelli in somma diretta con Wj−2 la
cui somma faccia K n . Iterando questo procedimento troviamo la forma di Jordan se
tutti i vettoir sono linearmente indipendenti.
7 Forme bilineari
Definizione. Sia V uno spazio vettoriale sul campo K, una forma bilineare è una
funzione g : V × V → K tale che ∀w ∈ V si ha che f1 (v) := g(v, w), f2 (v) := (w, v)
sono entrambe lineari.
Lemma. Sia g una forma bilineare, A matrice rispetto a B e A’ rispetto a B’. Allora
A0 = QT AQ
con Q := TBB0
47
Dimostrazione. g(v, w) = γB (v)T AγB (w) = (TBB0 γB 0 (v))T A(TBB0 γB 0 (w)) = γBT 0 (v)QT AQγB 0 (v)
Definizione. Sia g una forma bilineare. Allora si dice nucleo destro di g KerD (g) :=
{v ∈ V |g(w, v) = 0, ∀w ∈ V } e nucleo sinistro di g KerS (g) := {v ∈ V |g(v, w) =
0, ∀w ∈ V }. Se la forma bilineare è simmetrica allora nuceo destro e nucleo sini-
stro coincidono e si ha che il nucleo di una forma bilineare simmetrica è Ker(g) :=
KerD (g) = KerS (g) = {v ∈ V |g(w, v) = 0 ∀w ∈ V } = {v ∈ V |g(v, w) = 0∀w ∈ V }.
Lemma. Sia g una forma bilineare simmetrica su uno spazio vettoriale finitamente
generato V , A la matrice di g rispetto ad una base B. Allora g è non degenere se e
solo se det(A) 6= 0.
48
7.1.1 Prodotto scalare standard
Osservazione. Si ricordano le definizioni di prodotti scalari,
pP distanze e spazi metrici
2
dal corso di analisi. In particolare si ricorda che kxk := i xi è il norma euclidea
(o lunghezza del vettore v) e la distanza indotta datta norma euclidea d(x, y)P := |x −
y|. Si ricorda inoltre la deifinizione di prodotto
√ scalare standard v · w := i vi wi .
Da queste definizioni si ricava che kxk = v · v.
v·w
Si ricorda poi che se α è l’angolo compreso fra due vettori si ha che cos α = kvkkwk
che proviene dal più generale teorema del coseno: c2 = a2 + b2 − 2ab cos(α) nel caso
di a, b, c vertici di un generico triangolo.
Lemma. Siano u, w, v ∈ <n , λ ∈ < allora
1. Se ∀u, u · v = 0 allora v = ~0;
3. u · w = w · u (simmetria);
5. kλvk = |λ|kvk;
6. kvk ≥ 0;
6 0∀v 6= ~0;
7. kvk =
8. d(x, y) ≥ 0 e d(x, y) = 0 se x = y;
Dimostrazione. Semplicemente se ∀u si ha uv = 0 allora anche per u = ei e quindi
uv = vi = 0∀i da cui v = ~0.
u · u è somma
P di quadrati
P quindi non può essere negativo.
v · u = i vi ui = i ui vi = u · v.
per calcolo
√ diretto si √
verifica anche la bilinearità.
2
kλvk =√ λ v · v = λ v · v = λkvk.
kvk = √v · v ≥ 0.
kvk = v · v 6= 0, l’unica possibilità per lo 0 è v = ~0.
Da ciò che è appena stato dimostrato si ottiene anche d(x, y) ≥ 0 e d(x, y) = 0 se e
solo se x = y.
Lemma. Si hanno le seguenti ugaglianze:
• ku + wk2 = kuk2 + kwk2 + 2(u · w);
49
• ku + wk2 + ku − wk2 = 2kuk2 + 2kwk2
Dimostrazione. Si ha che:
Dimostrazione. Si ha che
k(xt + y)k2 = kxk2 t2 + kyk2 − 2t(x · y)
∆
Il ∆ di questa equazione deve essere non positivo, e quindi anche il 4
. Quindi
∆
4
= (x · y)2 − kxk2 kyk2 ≤ 0
da cui la tesi.
kx + yk ≤ kxk + kyk
7.2 Ortogonalità
Definizione. Sia V uno spazio vettoriale e g : V × V → k una forma bilineare
simmetrica non degenere. Due vettori w, v ∈ V si dicono ortogonali se g(w, v) = 0.
Due sottospazi di V U, W si dicono ortogonali se g(u, w) = 0, ∀u ∈ U, w ∈ W ; dato
un sottoinsieme S di V definiamo il suo ortogonale come
S ⊥ := {v ∈ V |g(v, w) = 0, ∀w ∈ S}
Lemma. Sia V uno spazio vettoriale, g una forma bilineare simmetrica, S un sot-
toinsime di V allora
50
• S ⊥ è un sottospazio di V;
• S ⊥ = span(S)⊥ ;
• S ⊂ span(S) ⊂ (S ⊥ )⊥
Dimostrazione. Risulta sufficiente dimostrarlo per K n . Allora dal fatto che g è non
degenere A è anche invertibile (A matrice associata a g); sia S := {w1 , · · · , wk } base
di W e sia B la matrice le cui colonne sono i vettori di S. Allora v ∈ W ⊥ = S ⊥
se wiT Av = ~0 cioè (B T A)v = ~0 e quindi S ⊥ = Sol(B T , A, ~0). Moltiplicando per una
matrice il rango non può cresciere quindi
rk(B T ) ≥ rk(B T A) ≥ rg(B T AA−1 ) = rk(B)
Da cui rk(B T A) = rg(B T ) = k e dim W ⊥ = dim(Sol(B T A, ~0)) = n − k
Da cui si conclude.
51
7.3 Proiezioni e riflessioni
Definizione. Siano U, W sottospazi di V in somma diretta allora si definiscono la
proiezione di V su W lungo U, definita da pW (v) = w e la riflessione di V rispetto
a W in direzione U definita da rW (v) = w − u.
Dimostrazione. La somma delle loro dimesioni da V quindi la loro somma deve dare
V. Per definizione di ortogonale si ha banalmente che sono in somma diretta perchè
la loro intersezione contiene solo il vettore nullo.
Osservazione. Possiamo quindi scrivere una proiezione da V a W lungo la direzione
W ⊥ . Questa proiezione è detta proiezione ortogonale e si mostra facilmente che
se il prodotto scalare è standard si ha che la matrice di pW è
A(AT A)−1 AT
wi = vi − i−1 wk ·vi
P
k=1 wk ·wk · wk
52
Dimostrazione. Sia Wi = span(v1 , · · · , vi ) e per induzione su i dimostriamo il risul-
tato.
per i = 1 è banale.
Per i > 1 si ha che la matrice A con w1 , · · · , wP i−1 come colonne, allora la pro-
i−1 wk ·vi
iezione ortogonale su Wi−1 di Wi è PWi (vi ) = K=1 wk ·wk · wk . Dal fatto che
⊥
wi = vi − PWi (vi ) ∈ Wi−1 segue che wi è perpendicolare agli altri vettori wi . Dovendo
essere wi 6= ~0 e essendo l’unico vettore di intersezione fra Wi−1 e Wi−1
⊥
il vettore nullo
i vettori wi sono linearmenti indipendenti e sono quindi una base.
7.5 Le isometrie
Definizione. Un endomorfismo f : <n → <n è detto isometria se ∀v, w ∈ <n si ha
che v · w = f (v) · f (w)
M (f )T M (f ) = I
Lemma. Le colonne di una matrice ortogonale formano una base ortogonale di <n .
Dimostrazione. Si ha
1 = det(I) = det(AT A) = det(AT ) det(A) = det(A)2
53
7.6 Il teorema spettrale
Lemma. Il polinomio caratteristico di una matrice simmetrica ad ingresso reale A
è un prodotto di fattori lineari (in <).
54
Lemma. Si ha che
55
Lemma. v × w = ~0 se e solo se i vettori sono linearmenti dipendenti.
Dimostrazione. v × w = ~0 se e solo se l’area del parallelogramma è nulla, cioè se
v = ~0 o w = ~0 oppure v è un multiplo di w cioè se e solo se v e w sono linearmente
dipendenti.
Definizione. Siano v1 , · · · , vn−1 ∈ <n . Sia A ∈ Mn×(n−1) la matrice le cui colonne
sono i vettori vi allora il prodotto vettoriale v1 × v2 × · · · × vn−1 è il vettore
wi := (−1)i+1 det(A(i) )
dove A(i) è la matrice A a cui è stata tolta la riga i.
Lemma. v1 × v2 × · · · × vn−1 = ~0 se e solo se i vettori sono linearmente dipendenti.
Dimostrazione. Calcolo diretto attraverso lo sviluppo di Laplace.
Definizione. Siao v1 , · · · , vn ∈ <n . Il prallelepipedo generato dai vettori vi è
P
P (v1 , · · · , vn ) = { i ti vi |ti ∈ [0, 1]∀i}
Lemma. Il volume del parallelepipedo P (v1 , · · · , vn ) è kv1 × · · · × vn−1 k
Dimostrazione. Per calcolo diretto.
8 Spazi affini
Definizione. Uno spazio affine è una coppia (A,V) con A uno spazio dei punti e
V uno spazio vettoriale e abbiamo una mappa +A : (A, V ) → A t.c.
• ∀P ∈ A si ha P + ~0 = P ;
• ∀P ∈ A, v, w ∈ V si ha (P +A v) +A w = P +A (v +V w);
56
• ∀v ∈ V la mappa φv (P ) : A → A data da φv (P ) = P +A v è biiettiva;
Definizione. Dato uno spazio affine si dice dimensione dello spazio affine la di-
mensione della sua giacitura.
Definizione. Dato uno spazio affine (A, V ) e due sottospazi affini (A1 , W1 ), (A2 , W2 )
allora
8.1 distanze
Definizione. La distanza di un punto P da uno spazio affine A è dato da
minQ∈A d(P, Q)
57
8.2 Le coniche
Definizione. Siano (A1 , V1 ) e (A2 , V2 ) sottospazi affini. Un trasformazione affine
è una coppia di mappe
f : A1 → A2
g : V1 → V2
Teorema (Calssificazione delle coniche). Sia C una conica in <2 allora esiste un
isometria T : <2 → <2 tale che T (C) è in forma canonica e d è
2. una conica complessa senza punti reali se (tr(B) det(A) > 0, det(B) > 0);
58
4. un’iperbole se (det(A) 6= 0, det(B) < 0);
59