Sei sulla pagina 1di 59

Teoria di algebra lineare e geometria

Alessio Miscioscia
7 giugno 2019

La geometria non è vera: è comoda. (H. Poicarè)

1
Indice
1 Matrici 4
1.1 L’eliminazione di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Calcolo matriciale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Matrice trasposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Sistemi lineari 10
2.1 Risolvibilità di un sistema . . . . . . . . . . . . . . . . . . . . . . . . 12

3 Spazi vettoriali 13
3.1 Generatori di uno spazio vettoriale . . . . . . . . . . . . . . . . . . . 15
3.2 Dipendenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4 Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5 Definizione di uno spazio vettoriale . . . . . . . . . . . . . . . . . . . 22
3.6 Operazioni fra spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . 23

4 Funzioni lineari 24
4.1 Nucleo e immagine di una funzione lineare . . . . . . . . . . . . . . . 26
4.1.1 La rotazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.2 Riflessioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.3 Proiezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.2 Matrici di funzioni lineari . . . . . . . . . . . . . . . . . . . . . . . . 30
4.3 Matrice del cambiamento di base . . . . . . . . . . . . . . . . . . . . 32
4.4 Applicazioni ai sistemi lineari . . . . . . . . . . . . . . . . . . . . . . 33
4.5 Determinazione di nucleo e immagine . . . . . . . . . . . . . . . . . . 34
4.6 La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

5 Determinante 36
5.1 Esistenza del determinante . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2 Il teorema di Binet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.3 Sviluppo di Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.3.1 Il determinante di un endomorfismo . . . . . . . . . . . . . . . 43

6 Autovalori, autovettori e autospazi 43


6.1 Forma di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2
7 Forme bilineari 47
7.1 Forme lineari simmetriche reali . . . . . . . . . . . . . . . . . . . . . 48
7.1.1 Prodotto scalare standard . . . . . . . . . . . . . . . . . . . . 49
7.2 Ortogonalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
7.3 Proiezioni e riflessioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.4 Basi ortogonali e ortonormali . . . . . . . . . . . . . . . . . . . . . . 52
7.5 Le isometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7.6 Il teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
7.7 Forme Hermitiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
7.8 Spazio delle funzioni lineare e spazio duale . . . . . . . . . . . . . . . 55
7.9 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

8 Spazi affini 56
8.1 distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
8.2 Le coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

3
1 Matrici
Definizione. Una matrice (ad ingresso reale) m × n è uno schema del tipo:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A :=  ..
 
.. . . .. 
 . . . . 
am1 am2 · · · amn
Definizione. La matrice identità è la matrice quadrata cioè del tipo n × n del
tipo:
(
0 i 6= j
(In )j,i :=
1 i=j
Quindi è la matrice del tipo:
 
1 00 ··· 0
0 10 ··· 0
In :=  ..
 
..
.. . . .. 
. .. . .
0 0 0 ··· 1
Definizione. Diciamo che la matrice A := (ai,j ) è in forma a scala se ∃r ∈ N t.c.
• ai,j = 0∀i ∈ {r + 1, · · · , m} e j ∈ {1, · · · , n};
• ∀i ∈ {1, · · · , r}∃j t.c. ai,j 6= 0;
• per i = 1, · · · , r sia ji := min{j|ai,j 6= 0} allora j1 < j2 < · · · < jr .
Se si verifica anche che ∀k ∈ {1, · · · , r}, i ∈ {1, · · · , jk − 1} sia ha che ai,j = 0 allora
si dice che A è in forma a scala ridotta.
I primi elementi non nulli di una matrice ridotta in forma a scala sono detti pivot.
Osservazione. Si noti che le forme a scala o a scala ridotte di una matrice A non
sono uniche. La forma a scala con i pivot tutti uguali a 1 di una matrice A è unica.
Definizione. Le operazioni elemetari sulle righe di una matrice A sono:
1. scambiare due righe di A;
2. moltiplicare una riga per λ ∈ < \ {0};
3. sommare λ ∈ < volte la righa i alla righa j.

4
1.1 L’eliminazione di Gauss
Teorema. Sia A una matrice, allora utilizzando una serie di operazioni elementari
si può trasformare A in una matrice a scala (o a scala ridotta).

Dimostrazione. Se la matrice è di soli zeri è già a scala, altrimenti sia j1 il numero


della colonna più a sinistra contenente un elemento non nullo. Sia i1 il numero della
riga dove si torva il primo elemento non nullo di j1 se i1 > 1 si scambi la riga 1 con
aij1
la riga i1 . Quindi sia à la matrice ottenuta da A sommando − a1,j volte la prima
1
riga sulla riga i ∈ {2, · · · , m} ottendendo che:
ai,j1
ãi,j1 = ai,j1 − a
a1,j1 1,j1
=0
e in generale:
ai,j1
ãi,j = ai,j − a
a1,j1 1,j

Iterando il procedimento per tutte le righe si conclude.


ai,jk
Per la forma a scala ridotta si sottrae ak,j volte la riga k dalla riga i ∈ {1, · · · , k −
K
1}, k ∈ {2, · · · , r}
Osservazione. Il metodo descritto nella dimostrazione è il metodo dell’eliminazione di
Gauss, la dimostrazione è quindi construttiva perchè fornisce un metodo per trovare
la matrice a scala a partire da una matrice data.

1.2 Calcolo matriciale


La somma di due matrici m × n A(ai,j ) e B(bi,j ) si definisce come:
   
a11 a12 · · · a1n b11 b12 · · · b1n
 a21 a22 · · · a2n   b21 b22 · · · b2n 
A + B =  .. ..  +  .. ..  :=
   
.. . . .. . .
 . . . .   . . . . 
a a · · · amn bm1 bm2 · · · bmn
 m1 m2 
a11 + b11 a12 + b12 · · · a1n + b1n
 a21 + b21 a22 + b22 · · · a2n + b2n 
 
 .. .. . . .. 
 . . . . 
am1 + bm1 am2 + bm2 · · · amn + bmn

Che si può definire anche come:

(A + B)i,j := ai,j + bi,j

5
Il prodotto di una matrice, A(ai,j ), per uno scalare λ ∈ < è definito come:
   
a11 a12 · · · a1n λa11 λa12 · · · λa1n
 a21 a22 · · · a2n   λa21 λa22 · · · λa2n 
λA = λ  .. ..  :=  ..
   
.. .. .. .. .. 
 . . . .   . . . . 
am1 am2 · · · amn λam1 λam2 · · · λamn
ovvero:
(λA) ij := λai,j
Il prodotto fra due matrici A(ai,j ) m × n, B(bi,j ) n × p si definisce come:
(AB) := nk=1 ai,k bk,j
P

Lemma (Regole di calcolo matriciale). Sia A(ai,j ) una matrice m × n allora:


1. sia B(bi,j ) matrice m × n allora A + B = B + A;
2. siano B(bi,j ), C(ci,j ) matrici m × n allora A + (B + C) = (A + B) + C;
3. A + 0 = 0 + A = A;
4. siano B(bi,j ) matrice n × p e C(ci,j ) matrice p × q allora (AB)C = A(BC)
5. Im A = AIn = A
6. siano B(bi,j ), C(ci,j ) matrici n × p allora A(B + C) = AB + AC
7. siano B(bi,j ) matrice m×n e C(ci,j ) matrice n×p allora (A+B)C = AC +BC
Dimostrazione. 1. (A + B)i,j = ai,j + bi,j = bi,j + ai,j = (B + A)i,j ;
2. (A + (B + C))i,j = ai,j + (bi,j + ci,j ) = (ai,j + bi,j ) + ci,j = ((A + B) + C)i,j ;
3. (A + 0)i,j = ai,j + 0 = ai,j = Ai,j e per punto 1 si ha A + 0 = 0 + A = A;
4. ((AB)C)i,j = pi=1 ( nk=1 ai,k bk,j ) ci,p = pi=1 nk=1 ai,k bk,j ci,p = nk=1 ai,k ( pi=1 bk,p ci,p ) =
P P P P P P
(A(BC))i,j ;
5. (Im A)i,j = nk=0 ai,j ik = ai,j = nk=0 ai,j ik = (AIn )i,j ;
P P

6. (A(B + C))i,j = nk=1 ak,n (bi,k + ci,k ) = nk=1 ak,n bi,k + nk=1 ak,n ci,k = (AB +
P P P
AC)i,j
7. ((A + B)C)i,j = nk=1 (ak,j +bk,j )ci,k = nk=1 ak,j ci,k + nk=1 bk,j ci,k = (AC + BC)i,j
P P P
Si noti che per dimostrare l’uguaglianza tra due matrici basta dimostrare l’ugua-
glianza fra i loro elementi generici.

6
1.3 La matrice inversa
Risulta semplice dimostrare che prese due matrici n × n il loro prodotto è ancora
una matrice n × n.
Definizione. Sia A matrice n × n se ∃B matrice n × n t.c.
AB = BA = In
Si dice che A è invertibile e B si dice matrice inversa di A.
Lemma. La matrice inversa di A se esiste è unica.
Dimostrazione. Siano per assurdo B,C due matrici inverse di A allora si ha che:
AB = BA = In = AC = CA
ma allora:
C = CIn = (BA)C = B(AC) = BIn = B
Da cui si conclude.
Osservazione. Si denota la matrice inversa di A con A−1
Lemma. Siano A e B matrici invertibili, allora (AB) è ancora invertibile (se esiste)
e (AB)−1 = B −1 A−1 .
Dimostrazione. (AB)(B −1 A−1) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In
(B −1 A−1)(AB) = B(AA−1 )B −1 = BIn B −1 = BB −1 = In Da cui si conclude.
−1
Lemma. Sia A una matrice invertibile, allora (A−1 ) =A
−1
Dimostrazione. Si noti che sia A che (A−1 ) sono inverse di A−1 quindi per unicità
dell’inversa sono la stessa matrice.
Definizione. Si definiscono matrici elementari le matrici:

1 j = i, j 6= a, b

• (P (a, b))i,j := 1 (j, i) = (a, b)o(i, j) = (a, b)

0 altrimenti


1 j = i

• S(a, b, λ) := λ (i, j) = (a, b)

0 altrimenti

7

1 j = i, i 6= a

• M (a, λ) := λ (i, j) = (a, a)

0 altrimenti

Lemma. S, M, P sono invertibili, in particolare:


• S −1 (i, j, λ) = S(i, j, −λ);

• M −1 (i, λ) = M (i, λ1 );

• P −1 (i, j) = P (i, j).


Dimostrazione. Si ottengono tutte per calcolo diretto:

1
 k=q
• (S(i, j, λ)S(i, j, −λ))k,q = λ − λ = 0 (k, q) = (i, j) = In

0 altrimenti


1
 k=q
(S(i, j, −λ)S(i, j, λ))k,q = λ − λ = 0 (k, q) = (i, j) = In

0 altrimenti


1
 k=q
• M (i, λ)M (i, λ1 )

k,q
= λλ = 1 (k, q) = (i, i) = In

0 altrimenti


1
 k=q
1
 λ
M (i, λ
)M (i, λ) k,q = = 1 (k, q) = (i, i) = In
λ
0 altrimenti

• (P (i, j)P (i, j)) = In


Si noti che è un prodotto simmetrico.

Lemma. Data una matrice A n × p si ha che:


• P (i, j)A è la matrice ottenuta da A scambiando le righe i e j;

8
• M (i, λ)A è la matrice ottenuta da A moltiplicando la riga i per λ;

• S(i, j, λ)A è la matrice ottenuta da A sommando λ volte la riga j alla riga i.

Dimostrazione. Calcolo diretto.


Osservazione. Questo lemma implica che ogni matrice elementare corrisponde ad
un’operazione elementare.

Lemma. Sia A una matrice n × n allora la forma a scala di A contiene una riga di
soli zeri oppure In è una forma a scala di A.

Dimostrazione. Si può ottenere con l’eliminazione di Gauss una matrice a scala ri-
dotta da A. Se non ci sono righe di soli zeri allora ogni riga contiene un solo elemento.
Quindi moltiplicando la riga i con a1i,i . Cosı̀ facendo si ottiene In

Lemma. Sia A una matrice n × n, se In è una matrice a scala di A allora A è


invertibile.

Dimostrazione. La tesi implica che ∃E1 , E2 , · · · , Et matrici elementari t.c.


Et Et−1 · · · E1 A = In
Ma per lemma sui prodotti di matrici invertibile si ha che:
A = (E1 E2 · · · Et )−1
e quindi A è invertibile e
A−1 = E1 E2 · · · Et

Osservazione. Anche questa dimostrazione è costruttiva perchè si nota da qui che la


matrice inversa di una matrice A può essere calcolata scrivendo la matrice (A|In ).
Quidni per eliminazione di Gauss si può ottenere (In |B) e per lemma appena visto
B = A−1 .

9
1.4 Matrice trasposta
Definizione. Sia A una matrice m×n, la matrice trasposta di A, AT , è la matrice
n × m t.c.

AT i,j = Aj,i

Lemma. Siano A(ai,j ), B(bi,j ) matrici m × n e C(ci,j ) matrice n × p, allora:


1. (A + B)T = AT + B T ;

2. (λA)T = λAT ;

3. (AT )T = A

4. (AC)T = C T AT

5. Se A è invertibile anche AT è invertibile e (AT )−1 = (A−1 )T


• (A + B)T i,j = (A + B)j,i = aj,i + bj,i = AT + B T ;
 
Dimostrazione.

• (λA)T i,j = (λA)j,i = λaj,i = (λAT )j,i ;




• (AT )T i,j = (AT )j,i = Ai,j




• (AC)T i,j = (AC)j,i = nk=1 aj,k ck,i = nk=1 (AT )kj (C T )ik = nk=1 (C T )ik (AT )kj =
 P P P

(C T AT )i,j

• (A−1 )T AT = (A−1 A)T = InT = In


AT (A−1 )T = (AA−1 )T = InT = In Dove si è usato il fatto che InT = In (per
calcolo diretto semplice).

2 Sistemi lineari
Definizione. Un’equazione lineare è un’equazione del tipo:
a1 x 1 + a2 x 2 + · · · + an x n = b
con ai ∈ <∀i ∈ N, i < n, b ∈ <
Definizione. Un sistema di equazioni lineari (m equazioni in n incognite) è un
insieme finito di equazioni lineari.

10


 a11 x1 + a12 x2 + · · · + a1n xn = b1

a21 x1 + a22 x2 + · · · + a2n xn = b2

..


 .

a x + a x + · · · + a x = b
m1 1 m2 2 mn n m

Definizione. La matrice dei coefficienti associata al sistema lineare in definizione


2 è la matrice :
 
a11 a22 · · · a1n
 a21 a22 · · · a2n 
 
 .. .. ... .. 
 . . . 
am1 am2 · · · amn

Definizione. La matrice completa del sistema in definizione 2 è la matrice:


 
a11 a22 · · · a1n b1
 a21 a22 · · · a2n b2 
 
 .. .. ... .. .. 
 . . . .
am1 am2 · · · amn bn

Definizione. Sia (A|b) la matrice completa di un sistema di equazioni lineari, allora


l’ insieme delle soluzioni di (A|b) è :
   
a x + a x + · · · + a x = b
 x1 11 1 12 2 1n n 1

 
 

 
 x 2 
 a21 x1 + a22 x2 + · · · + a2n xn = b2
 

n
Sol(A, b) :=  ..  ∈ < t.c. .
 
 . 

 ..





 xn
 
a x + a x + · · · + a x = b 

m1 1 m2 2 mn n m

Lemma. Sia (A|b) una matrice completa di un qualsiasi sistema e (A0 |b0 ) la matrice
ottenuta applicando una delle operazioni elementari alla matrice (A|b) allora :

Sol(A, b) = Sol(A0 , b0 )

Dimostrazione. Si passano in rassegna le operazioni elementari in ordine come in


definizione:
Scambiare due righe corrisponde a scambiare due equazioni del sistema, ciò chiara-
mente non infuisce sulle soluzioni del sistema.
Moltiplicando per un numero, λ, non nullo un’equazione non si variano le soluzioni
dell’equazione e quindi :

11
Sol(A, b) ⊂ Sol(A0 , b0 )
, ma posso ora trovare una matrice (A00 , b00 ) moltplicando la stessa riga di prima per
1
λ
si ottiene quindi :
Sol(A, b) ⊂ Sol(A0 , b0 ) ⊂ Sol(A00 , b00 ) = Sol(A, b)
da cui si conclude.
Sommando un multiplo di una riga ad un’altra invece si ha che le soluzioni del vecchio
sistema sono anche soluzioni del nuovo sistema, quindi Sol(A, b) ⊂ Sol(A0 , b0 ), ma ora
si può sottrarre per lo stesso multiplo della stessa riga ottenendo una matrice (A00 , b00 )
e:

Sol(A, b) ⊂ Sol(A0 , b0 ) ⊂ Sol(A00 , b00 ) = Sol(A, b)

2.1 Risolvibilità di un sistema


Sia (A|b) la matrice associata ad un sistema lineare e (A0 , b0 ) la forma a scala ricavata
attraverso eliminazione di Gauss da (A|b) allora si ha che se una riga è nulla, ma br
che è il termine noto di quella riga (o di quell’equzione) non è nullo allora l’equazione
non ha soluzione e quindi nemmeno il sistema (che ha insieme delle soluzioni nullo).
Se otteniamo una riga di soli zeri si ha che quell’equazione ha infinite soluzione
e quindi anche il sistema (se non ci sono altre equazioni a porre condizioni sulle
soluzioni) oppure se si ha un sistema di n equazioni in n incognite e queste non sono
dei delle due tipologie precedenti il sistema ha una sola soluzione. Le incognite che
sono unicamente determinate le chiameremo incognite determinate, quelle che
possono assumere qualsiasi valore le chiameremo incognite libere.

Lemma. Sia A una matrice m × n, b una matrice n × 1 allora il sistema associato


alla matrice (A|b) può avere una soluzione, insieme delle soluzioni vuoto o infinite
soluzioni.

Dimostrazione. Se una delle equazioni associate è impossibile il sistema ha insieme


delle soluzioni vuoto, altrimenti se non ci sono incognite libere ha una e una sola
soluzione, se c’è almeno un’incognita libera il sistema ha infinite soluzioni.

12
3 Spazi vettoriali
Definizione. Un vettore è una n-tupla del tipo:
 
x1
 x2 
 
 .. 
.
xn

Osservazione. Si può pensare a vettore come ad una matrice n×1. Si possono quindi
estendere le operazioni delle matrici anche ai vettori se questi sono ad ingresso reale.
In particolare si possono definire:

• Somma di due vettori:


     
x1 y1 x1 + y1
 x2   y2   x2 + y2 
 ..  +  ..  :=  .. 
     
. .  . 
xn yn xn + y n

• Prodotto per scalare :


   
x1 λx1
 x2   λx2 
λ  ..  :=  .. 
   
.  . 
xn λxn

Esiste quindi un’elemento neutro: il vettore nullo, un vettore con tutte le compoenti
nulle.

Definizione. Un campo (K, +, ·) consiiste in un insieme K e due operazioni +, · :


K × K → K t.c. ∀a, b, c ∈ K

1. a + b = b + c;

2. a + (b + c) = (a + b) + c;

3. ∃0 ∈ K t.c. a + 0 = 0 + a = a;

4. ∀a∃ − a ∈ Kt.c.a + (−a) = (−a) + a = 0;

13
5. ab = ba;

6. a(bc) = (ab)c;

7. ∃1 ∈ K t.c. 1a = a1 = a;

8. ∀a ∈ K \ {0}∃a−1 t.c. aa−1 = a−1 a = 1;

9. (a + b)c = ac + bc.

Definizione. Uno spazio vettoriale V sul campo K è un insieme V in cui gli


elementi sono i vettori ad entrata K, uno spazio vettoriale è dotato di due operazioni,
+ : V × V → V , · : K × V → V , ∃~0 ∈ V (vettore nullo) con le proprietà ∀u, v, w ∈ V ,
∀λ, µ ∈ K

1. u + (v + w) = (u + v) + w;

2. v + w = w + v;

3. v + ~0 = ~0 + v = v

4. ∃ − v ∈ V t.c. v + (−v) = ~0;

5. λ(µv) = (λµ)v;

6. ∃1 ∈ K t.c. 1v = v1 = v;

7. (λ + µ)v = λv + µv;

8. λ(u + v) = λu + λv.

Osservazione. Somma e prodotto definiti prima vanno bene con spazi vettoriali del
tipo <n .

Lemma. Sia V spazio vettoriale sul campo K, allora ∀v ∈ V, ∀λ ∈ K vale:

1. 0v = ~0;

2. λ~0 = ~0;

3. (−1)v = −v;

4. λv = ~0 ⇒ λ = 0 o v = ~0.

Dimostrazione. 1. 0v = (0 + 0)v = 0v + 0v ed essendo solo ~0 +~0 = ~0 allora 0v = ~0;

14
2. λ~0 = λ(~0 + ~0) = λ~0 + λ~0 e per lo stesso principio di prima λ~0 = ~0;

3. v + (−1)v = (1 − 1)v = 0v = ~0;

4. se λ 6= 0 allora v = 1v = λ λ1 v = λ1 (λv) = λ1 ~0 da cui si conclude.




Definizione. Sia V uno spazio vettoriale su campo K, un sottoinsieme W ⊂ V si


dice sottospazio vettoriale (di V) se :

• W non è vuoto;

• ∀v, w ∈ W, v + w ∈ W ;

• ∀λ ∈ K, w ∈ W si ha λw ∈ W

Lemma. Sia V uno spazio vettoriale su campo K, W ⊂ V sottospazio vettoriale,


allora W è uno spazio vettoriale.

Dimostrazione. Tutte le condizioni meno la quarta sono soddisfatte perchè erano


soddisfatte in V, per la quarta si può facilmente verficare perndendo λ = −1, allora
∀v ∈ W per definizione (−1)v ∈ W ⇒ −v ∈ W .
Osservazione. Si può ridefinire un sottospazio vettoriale sostituendo la prima condi-
zione con ~0 ∈ W .
Osservazione. Sia M (<) matrice m × n allora Sol(A|~0) è uno spazio vettoriale.

3.1 Generatori di uno spazio vettoriale


Definizione. Sia V uno spazio vettoriale, v1 , v2 , · · · , vr ∈ V ; un vettore v è combi-
nazione lineare di v1 , v2 , · · · , vr se ∃λ1 , λ2 , · · · , λr t.c.:

v = λ1 v1 + λ2 v2 + · · · + λr vr
     
1 0 0
0 1 0
Osservazione. Si osservi che ogni vettore in <n è combinazione lineare di  ..  ,  ..  , · · · ,  .. 
     
. . .
0 0 1

Definizione. Sia V spazio vettoriale, S ⊂ V sottoinsieme, si definisce lo span (S)


come l’insieme delle combinazioni lineari degli elementi di S:

15
P
span(S) := {v ∈ V t.c.∃λ1 , λ2 , · · · , λr t.c.v = i vi λi , v1 , v2 , · · · , vr ∈ S}

Se S è l’insieme vuoto per convenzione si calcola span(S) = {~0}

Lemma. Sia V spazio vettoriale su campo K, S ⊂ V , allora span(S) è il più piccolo


sottospazio di V contenente S.

Dimostrazione. Se S è l’insieme vuoto span(S) = {~0} che è il più piccolo sottospazio


contente S (un sottospazio deve contenere ~0, altimenti siano
P P
v := i λi vi w := i µi wi
con vi ∈ S, wi ∈ S∀i , λi , µi ∈ K∀i(v, w ∈ span(S)); allora:
P P
v + w := i λi vi + i µi wi
Che è una combinazione lineare di elementi di S e quindi sta in span(S). Inoltre sia
t∈K
P P P
tv = t i λi vi = i tλi vi = i αi vi
dove si è definito αi := tλi . Quini anche tv ∈ span(S). Quindi S è un sottospazio
vettoriale di V.
Si ricordi ora che per definizione di spazio vettoriale se due elementi stanno in uno
spazio vettoriale anche la loro somma deve stare nello spazio, quindi tutte le combi-
nazioni lineari devono stare nello spazio. Quindi non può esistere un sottospazio di
V più piccolo di span(S) contenente tutti gli elementi di S.
Osservazione. Si scrive span(v1 , v2 , · · · , vn ) per intendere span ({v1 , v2 , · · · , vn })

3.2 Dipendenza lineare


Definizione. Sia V spazio vettoriale su campo K e S ⊂ V , diciamo che S è li-
nearmente dipendente se ∃v1 , v2 , · · · , vn ∈ S (distinti) e λ1 , λ2 , · · · , λn ∈ K
t.c.
~
P
i λi vi = 0

e almeno per un i λi 6= 0.
Diciamo che S è linearmente indipendente se non è linearmente dipendente.

Lemma. Sia V uno spazio vettoriale su campo K, e S ⊂ V , S è linearmente


dipendente se e solo se contiene un vettore v combinazione lineare di vettori in S \{v}

16
Dimostrazione. ⇒ Se S è linearmente dipendente allora ∃v1 , v2 , · · · , vn ∈ S, ∃µ1 , µ2 , · · · , µn ∈
K t.c.
vi µi = ~0
P
i

Quindi:
P µi P
vn = i µn vi = i αi vi
Dove si è definito αi := µµni . Quindi vn è combinazione lineare di elementi di S \ {vn }.
⇐ Se esiste un v combinazione lineare di elementi di S \ {v} si ha che:
P
v = i λi vi
con λi ∈ K∀i, vi ∈ S \ {v}∀i. Allora:
λi vi − v = ~0
P
i

Essendo v ∈ S, S è linearmente dipendente.

Lemma. Sia S = {v1 , v2 , · · · , vn } ⊂ V sottoinsieme finito di V. Allora S è linear-


mente indipendenti se e solo se ∀v ∈ span(S) esistono unici λ1 , λ2 , · · · , λn ∈ K
t.c.
P
v = i λi vi

Dimostrazione. ⇒ Assumiamo S linearmente indipendente allora se i coefficienti λi


non fossero unici esisterebbero µ1 , µ2 , · · · , µn ∈ K t.c.:
P P
v = i λi vi v = i µi vi
Quindi:
~0 = v − v =
P P P
i λi vi + i µi vi = i (λi − µi )vi
siccome S è linearmente indipendete per ipotesi λi − µi = 0∀i e quindi λi = µi , ∀i.
⇐ Se potessimo scrivere in modo unico ogni vettore P di span(S) come combinazione
~
lineare allora potremmo in particolare scrivere 0 = i λi vi , ma una combinazione
possibile è λi = 0∀i, per ipotesi deve anche essere l’unica combinazione possibile
quindi S è linearmente indipendente.

17
3.3 Basi
Definizione. Sia V uno spazio vettoriale. Diciamo che B ⊂ V è una base di V se:
• B è linearmente indipendente;

• span(B) = V
Lemma. Sia V uno spazio vettoriale e B una base di V allora si può scrivere ogni
vettore di V in modo unico come combinazione lineare di vettori di B.
Dimostrazione. Dimostrazione simile a quella precedente. Infatti V = span(B).
(
0 j 6= i
Definizione. Sia V = <n e (ei )j := . L’insieme delle ei , i ∈ N, i ≤ n si
1 j=i
dice base canonica. Quindi la base canonica di <n è del tipo:
     

 1 0 0  
0 1
 0 
 ..  ,  ..  , · · · ,  .. 
     

 . .  .  

 0 
0 1 
Osservazione. Facile dimostrare che la definizione è ben posta, infatti la base cano-
nica è una base di B.
Teorema. Sia V uno spazio vettoriale su campo K, B = {v1 , v2 , · · · , vn } sottoinsieme
finito di V. Allora le seguenti affermazioni sono equivalenti:
1. B è una base;

2. V = span(B) e ∀i span(B \ {vi }) 6= V , ossia B è un sistema minimale di


generatori.

3. B è linearmente indipendente e ∀v ∈ V \ B si ha che B ∪ {v} è linearmente


dipendente, ossia B è un insieme linearmente indipendente massimale.
Dimostrazione. 1 ⇒ 2 Se per assurdo per un i B \ {vi } generasse V allora B sarebbe
linearmente dipendente, ma per definizione di base non può essere.
2 ⇒ 3 Se per assurdo B fosse linearmente dipendente allora esisterebbe un v ∈ B t.c.
span(B) = span(B \ {v}) che contraddirebbe l’ipotesi del 2, infatti span(B \ {vi }) 6=
V = span(B), ∀i, in particolare span(B \ {v}) 6= span(B).
3 ⇒ 1 Prendiamo un v ∈ V . B∪{v} è linearmente dipendente allora ∃λ1 , λ2 , · · · , λn , µ
t.c.

18
λi vi + µv = ~0
P
i

Essendo B linearmente indipendente si ha che µ 6= 0 e quindi:


v = i −λ
P P
i
µ i
v = i αi vi
dove αi := −λµ
i
. Quindi v ∈ span(B) e per la generalità di V si ha che V = span(B),
per ipotesi B è linearmente indipendete quindi è una base di V.

Corollario (Teorema della scelta della base). Sia V uno spazio vettoriale, S ⊂ V
un insieme finito di generatori di V, allora S contiene una base di V. In particolare
ogni spazio vettoriale finitamente generato possiede una base.

Dimostrazione. Se S è linearmente indipendente è una base, se S è linearmente di-


pendente allora esiste v ∈ S combinazione lineare di elementi di S \ {v} quindi
span(S) = span(S \ {v}). Sia ora S 0 = S \ {s}. Si applica a S’ lo stesso criterio
e si itera. Quindi alla fine si ottiene l’insieme vuoto oppure un sottoinsieme di S
linearmente indipendente che quindi è una base di V.

Teorema. Ogni spazio vettoriale possiede una base.

Dimostrazione. Per il lemma di Zorn che non viene dimostrato si ha che si può
utilizzare lo stesso processo del caso precedente e quindi dimostrare che esiste una
base.

Lemma (Lemma dello scambio). Sia V unoPspazio vettoriale finitamente generato.


Sia B = {v1 , v2 , · · · , vn } base di V e w = i λi vi , se per un certo k ∈ N, k ≤ n
λk 6= 0 allora B 0 := {v1 , v2 , · · · , vk−1 , w, vk+1 , · · · , vn } è una base di V.

Dimostrazione. Scambiamo l’ordine dei vettori di B, allora assumiamo che k=1. Si


ha che:
δw + µi v2 = ~0
P
P
sostituendo w = i λi vi si ottiene che:
δλ1 v1 + ni=2 (µi + δλi )v2 = i αi vi = ~0
P P

definendo α1 := δλ1 e αi := (µi + δλi ), i > 1; essendo i vettori di B linearmente


indipendenti αi = 0, ∀i, quindi B’ è linearmente indipendente.
Si noti ora che se v1 ∈ span(B 0 ) allora B ⊂ span(B 0 ). In effetti :
v1 = λ11 (w − ni=2 λi vi )
P

Quindi v1 ∈ span(B 0 ) e si ha di conseguenza che:

19
V = span(B) ⊂ span(B 0 ) ⊂ V
Quindi V = span(B 0 ) e quindi B’ è base di V.

Teorema (Teorema dello scambio di Steinnitz). Sia B = {v1 , · · · , vn } una base di


uno spazio vettoriale V e siano w1 , · · · , wk linarmente indipendenti. Allora k ≤ n e
si possono rinumerare i vi in modo che

{w1 , · · · , wk , vk+1 , · · · , vn }

è una base di V.

Dimostrazione. Per induzione. Si noti che per k = 1 si tratta del lemma precedente.
Quindi assumiamo il risultato per k − 1, allora
{w1 , · · · , wk−1 , vk , · · · , vn }
è base di V. Se k − 1 = n allora si avrebbe che i {w1 , · · · , wk } sarebberlo linearmente
dipendenti e ciò contraddice le ipotesi, quindi k − 1 < n ⇒ k ≤ n. A questo punto
per il lemma precedente si conclude.

Corollario. Sia V uno spazio vettoriale, se V è finitamente generato allora le basi


di V sono finite.

Dimostrazione. Sia B una base finita di V. Allora per il Teorema dello scambio non
posso trovare un insieme di cardinalità maggiore della cardinalità di B linearmente
indipendente.

Corollario. Sia V uno spazio vettoriale allora ogni base di V ha lo stesso numero
di elementi.

Dimostrazione. Siano B e B’ basi di V di cardinalità k e n allora si ha che k ≤ n e


n ≤ k da cui k = n.

Definizione. La dimesione di uno spazio vettoriale è il numero di vettori contenuti


in una base dello spazio; si indica con dim(V ).

Lemma. Sia V uno spazio vettoriale finitamente generato e U un sottospazioni di


V. Allora dim U ≤ dim V e dim U = dim V se e solo se U = V .

Dimostrazione. Per il Teorema dello scambio di Steinnitz si ha che essendo U un


sottoinsieme di V e essendo i vettori linearmente indipendenti di V minori o uguali
della dimensione di V si ha che:

20
dim U ≤ dim V
Se U 6= V si ha che ∃v ∈ V \ U . Quindi detta B la base di U si ha che v ∈
/ span(B),
ma per quanto dimostrato sopra:
dim(U ∪ {v}) = dim U + 1 ≤ dim V ⇒ dim U < dim V
Se U = V si ha banalmente che dim U = dim V .

Teorema (Teorema del completamento della base). Sia V uno spazio vettoriale fini-
tamente generato e siano w1 , · · · , wr ∈ V linearmente indipendenti. Allora esistono
wr+1 , · · · , wn t.c. {w1 , · · · , wn } è una base di V.

Dimostrazione. Sia un insieme di generatori S. Questo contiene una base, per il


teorema dello scambio di Steinnitz si ha che si possono rinumerare gli elementi della
base in modo da inserire i wi .

3.4 Rango di una matrice


Definizione. Data A ∈ Mm×n (K) allora le colonne di A sono vettori in K m . Si
definisce spazio delle colonne di A lo spazio generato dalle colonne di A e si
deinisce rango per le colonne di A la dimensione dello spazio delle colonne di A,
lo si denota con rkc A. Le righe di A sono vettori in K n ; si definisce spazio delle
righe di A lo spazio generato dalle righe di A e si deinisce rango per le righe di
A la dimensione dello spazio delle righe di A, lo si denota con rkr A .

Lemma. Sia A una matrice m × n e A’ una matrice ottenuta da A applicando una


operazione elementare sulle righe, allora gli spazi delle righe di A e di A’ coincidono.

Dimostrazione. Scambiare le righe di A significa scambiare i vettori della base che


evidentemente non cambia lo spazio generato dalla base, similmente moltiplicare una
riga per uno scalare significa moltiplicare un vettore per uno scalare e ciò non altera
lo spazio generato dalla base. Per quanto riguarda la terza operazione si ha che
V1 := span(v1 , v2 , · · · , vm ) V1 := span(v1 , v2 , · · · , vi + λvj , · · · , vm )
Si ha che v1 + λvj ∈ V1 e quindi V2 ⊂ V1 . Quindi si definisce
V3 := span(v1 , v2 , · · · , vi + λvj − vi + λvj , · · · , vm ) = V1
e si ha che
V1 ⊂ V2 ⊂ V3 = V1
Quindi V2 = V1 .

21
Lemma. Le operazioni elementari sulle righe di A non cambiano il rango per le
colonne di A.
Dimostrazione. Le operazioni sulle righe corrispondono a moltiplicare a sinistra per
una matrice elementare. Siano ci , i ∈ N, i ≤ r le colonne linearmente indipendenti
di A, sia B la matrice con ci come colonne. Si noti che lo spazio delle colonne non
varia facendo EA o EB. Le colonne di B rimangono linearmente indipendenti. Quindi
rkc (A) ≤ rkc (EA), ma anche la matrice E −1 è una matrice elementare e
rkc (A) = rkc ((E −1 E)A) = rkc (E −1 (EA)) ≥ rkc (EA) ≥ rkc (A)
Da cui rkc (A) = rkc (EA)
Lemma. Sia A matrice m × n , allora il rango delle colonne e il rango delle righe
di A coincidono e sono uguali al numero di pivot di una forma a scala di A.
Dimostrazione. Possiamo partire da A e ottenere una forma a scala ridotta da A
senza alterare il rango delle righe e il rango delle colonne utilizzando operazioni
elementari (eliminazione di Gauss). Quindi si ha che se i pivot sono p è facile verificare
che le righe sono linearmente indipendenti e quindi il rango delle righe è p. Nelle
colonne troviamo i vettori e1 , · · · , ep quindi il rango delle colonne deve essere almeno
p, ma sappiamo anche che lo spazio delle colonne è contenuto nello spazio generato
da e1 , · · · , ep . Quindi anche il rango delle colonne è p.
Definizione. Avendo dimostrato che rango delle colonne e delle righe conincidono
definiremo il rango della matrice rk(A) := rkc (A) = rkr (A)
Lemma. rk(A) = rk(AT )
Dimostrazione. Lo spazio delle colonne di A è lo spazio delle righe di AT , da cui si
conclude.

3.5 Definizione di uno spazio vettoriale


Si considerino gli spazi vettoriali del tipo <n .
Uno spazio vettoriale dei questo tipo è univocamente definito se vengono date le
equazioni cartesiane, ovvero si ricordi che Sol(A|~0) è uno spazio vettoriale, quindi
posso scrivere uno spazio vettoriale come:
  P 

 x1 
 a
i 1i i x = 0 

  P 
 x 2 
 
 a 2i x i = 0


~ N i
V = Sol(A|0) =  ..  ∈ < t.c. .
 

 . 
 .. 

  
 xn
 
 P
a x = 0


i ni i

22
Oppure uno spazio vettoriale è univocamente definito se viene dato in forma para-
metica:
P  

 i ti x i 

P ti xi 
 

 i N
V =  ..  ∈ < t.c.ti ∈ <∀i


  .  


 P tx 

i i i

Infine è possibile trovare una base, B, dello spazio e definire lo spazio come:

V = span(B)

3.6 Operazioni fra spazi vettoriali


Lemma. Dati due sottospazi U, W di V si ha che U ∩ W è un sottospazio (di V).

Dimostrazione. Dal fatto che U, W sono sottospazi segue che ~0 ∈ U ∩ W , per lo


stesso motivo se v1 , v2 ∈ U ∩ W, ∀λ ∈ K, v1 + λv2 ∈ U e v1 + λv2 ∈ W . Da cui si
conclude.
Osservazione. U ∪ W non è detto che sia un sottospazio, si può invece definire:

S1 + S2 := {v1 + v2 t.c.v1 ∈ S1 , v2 ∈ S2 }

Lemma. Siano U,W due sottospazi di V, allora U e W sono contenuti in U + W .

Dimostrazione. U e W sono sottospazi, quindi contengono il vettore nullo. Quindi


v1 + ~0 = v1 ∈ U + W ~0 + v2 = v2 ∈ U + W

Lemma. Dati U,W due sottospazi di V si ha che

span(U ∪ W ) = U + W = {u + w|u ∈ U, w ∈ W }

Dimostrazione. gli elementi di U + W sono combinazioni lineari di U e di W . Quindi


U + W ⊂ span(U ∪ W ). Ma dal lemma precedente sappiamo che U ∪ W ⊂ U + W
e quindi span(U ∪ W ) ⊂ U + W . Mettendo insieme le cose is ottiene che U + W =
span(U ∪ W )

Teorema (Formula di Grassmann). Siano U,W sottospazi di dimensione finita di V


allora

23
dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W )

Dimostrazione. Prendiamo una base di U ∩ W di dimensione µ e estendiamo, per il


teorema del completamento della base, ad una base B di U di dimensione δ ed una ba-
se B 0 di W di dimensione γ. Quindi si ha che dim(U +W ) = dim (span(B ∪ B 0 )). Ora
avendo esteso la base sia per U che per W devo evitare di ripetere i vettori contenuti
nella base dell’intersezione due volte, quindi dim(U + W ) = dim (span(B ∪ B 0 )) =
δ + γ − µ. I vettori della base B e della base B’ che non fanno parte della base
dell’intersezione sono linearmente indipendenti fra loro.

Definizione. Due sottospazi sono in somma diretta se la loro intersezione contiene


solo il vettore nullo.

Osservazione. Se due sottospazi U,W sono in somma diretta allora per la formula di
Grassmann si ha che dim(U + W ) = dim(U ) + dim(W ).

Lemma. Siano U,W due sottospazi di V spazio vettoriale. Se U,W sono in somma
diretta allora si può scrivere in modo unico v = u + w, u ∈ U, w ∈ W .

Dimostrazione. Per assurdo sia v = u + w = u0 + w0 , u, u0 ∈ U, w, w0 ∈ W . Allora


~0 = v − v = u + w − u0 − w0 ⇒ u − u0 = w − w0
Il termine di sinistra sta in U e il termine di destra sta in W, quindi entrambi devono
stare in U ∩ W , ma essendo U e W in somma diretta u − u0 = w − w0 = ~0 ⇒ u =
u0 , w = w0 .

4 Funzioni lineari
Definizione. Siano V,W spazi vettoriali su campo K, allora una funzione f : V → W
si dice lineare se ∀v, w ∈ V, λ ∈ K

• f (v +V w) = f (v) +W f (w);

• f (λv) = λf (v)

Lemma. Sia f : V → W funzione lineare, allora f (~0V ) = ~0W

Dimostrazione. Sia v ∈ V allora:


f (~0v ) = f (0v) = 0f (v) = ~0W

24
Lemma. Sia f : V → W funzione lineare, allora f (−v) = −f (v) e f (v − w) =
f (v) − f (w) ∀v, w ∈ V .

Dimostrazione. f (−v) = f ((−1)v) = −1f (v) = −f (v)


f (v − w) = f (v + (−w)) = f (v) + f (−w) = f (v) − f (w)

Lemma. Una funzione f : V → W , V, W spazi vettorali su campo K, è lineare se e


solo se ∀v, w ∈ V, λ ∈ K : f (v + λw) = f (v) + λf (w)

Dimostrazione. ⇒ Sia f lineare allora f (v + λw) = f (v) + f (λw) = f (v) + λf (w).


⇐ Se f rispetta f (v + λw) = f (v) + λf (w) allora per λ = 1 si ha la prima condizione
di linearità e per v = ~0 si ha la seconda; quindi f deve essere lineare.

Definizione. Dato uno spazio vettoriale V e B := {v1 , · · · , vn } base di V. Sia W


spazio vettoriale e w1 , · · · , wn ∈ W allora esiste unica una funzione lineare f : V →
W t.c. f (vi ) = wi , i ∈ N, i ≤ n

Dimostrazione. Ogni v ∈ V si può scrivere in modo unico come combinazione lineare


dei vettori della base. Quindi
f (v) = f (a1 v1 + a2 v2 + · · · + an vn )
Questa funzione esiste ed è ben definita. Bisogna dimostrare che è lineare. Scriviamo
v, v 0 ∈ V come
v 0 = bi vi
P P
v = ai v i
Quindi per qualsiasi λ ∈ K (K campo di V) si ha che:
f (v + λv 0 ) = f ( (ai + λbi )) = (ai + λbi )wi = ai wi + λ bi wi = f (v) + λf (v 0 )
P P P P

Quidi f è lineare.
per l’unicità si noti che
P
f (v) = f (a1 v1 + a2 v2 + · · · + an vn ) = ai w i
e quindi è unica.

Lemma. Siano V,W,U spazi vettoriali,f : V → W, g : W → U funzioni lineari


allora f og : V → U è una funzione lineare.

Dimostrazione. Siano v1 , v2 ∈ V, λ ∈ K (K campo di V,W,U). (f og)(v1 + λv2 ) =


f (g(v1 + λv2 )) = f (g(v1 ) + λg(v2 )) = f (g(v1 )) + λf (g(v2 )) = (f og)(v1 ) + λ(f og)(v2 )

25
4.1 Nucleo e immagine di una funzione lineare
Definizione. Sia f : V → W una funzione lineare. Allora si definisce nucleo di f e
lo si denota con Ker(f ) l’insieme

Ker(f ) := {v ∈ V |f (v) = ~0}

Si definisce immagine di f, e la si denota con Im(f ), l’insieme:

Im(f ) := {w ∈ W |∃v ∈ V t.c.f (v) = w}

Lemma. Sia f : V → W funzione lineare allora Ker(f ) è sottospazio di V e Im(f )


è sottospazio di W.

Dimostrazione. Siano v, w ∈ Ker(f ), λ ∈ K (K campo di V). Allora


f (v + λw) = f (v) + λf (w) = ~0
Quindi v + λw ∈ Ker(f ) che quindi è un sottospazio di V.
Similmente siano v, w ∈ Ker(f ), λ ∈ K, allora ∃δ, γ ∈ W r.c.
f (v + λw) = f (v) + λf (w) = δ + λγ
Quindi δ + λγ ∈ Im(f ) che quindi è un sottospazio di W.

Definizione. Una funzione f : V → W si dice inettiva se ∀v, w ∈ V, v 6= w allora


f (v) 6= f (w). f si dice invece suriettiva se ∀w ∈ W ∃v ∈ V t.c. f (v) = w. Se f è
sia suriettiva che inettiva allora si dice biiettiva.

Lemma. Una funzione è inettiva se e solo se Ker(f ) = {~0}.

Dimostrazione. ⇒ se f è inettiva ∀v 6= ~0 si ha che f (v) 6= f (~0) = ~0.


⇐ assumiamo ora che Ker(f ) = {~0}, si ha che presi v1 , v2 ∈ V tali che f (v1 ) = f (v2 )
allora ~0 = f (v1 ) − f (v2 ) = f (v1 − v2 ) da cui v1 − v2 ∈ Ker(f ) quindi v1 − v2 = ~0 da
cui v1 = v2 .

Lemma. Sia f : V → W una funzione lineare e W finitamente generato. Allora f è


suriettiva se e solo se dim(Im(f )) = dim(W )

Dimostrazione. ⇒ se f è suriettiva per definizione Im(f ) = W e quindi dim(Im(f )) =


dim(W ).
⇐ Im(f ) è sottospazio di W ; da lemmi precedenti si ha che dim(Im(f )) = dim(W )
se e solo se Im(f ) = W .

26
Lemma. Sia f : V → W funzione lineare e V spazio vettoriale finitamente generato.
Sia {v1 , · · · , vn } un sistema di generatori di V, allora {f (v1 ), · · · , f (vn )} è un sistema
di generatori di Im(f ).

Dimostrazione. span(f (v1 )), · · · , f (vn )) ⊂ Im(f ) perchè f è un sottospazio e f (vi ) ∈


Im(f )∀i. Prendiamo
P ora un w ∈ Im(f ), per definizione ∃v ∈ V t.c.f (v) = w; quindi
scriviamo v = λi vi e
P P
w = f (v) = f ( λi vi ) = λi f (vi ) ∈ span(f (v1 ), · · · , f (vn ))

Teorema (Teorema del rango). Sia V uno spazio vettoriale finitamente generato, W
uno spazio vettoriale e f : V → W una funzione lineare. Allora si ha che

dim(Ker(f )) + dim(Im(f )) = dim(V )

Dimostrazione. Essendo il Ker(f ) un sottospazio di V posso prendere una sua base


{v1 , · · · , vn } e completarla fino ad ottenere una base di V {v1 , · · · , vn , vn +1, · · · , vr }.
consideriamo wi := f (vi ) per il lemma precedente {w1 , · · · , wr } è una sistema di
generatori di Im(f ). Siano ora wn+1 , · · · , wr . Si noti che questi sono linearmente
indipendenti. Infatti
~0 = r
P Pr Pr 
i=n+1 λi wi = i=n+1 λi f (vi ) = f i=n+1 λi vi

Quindi ri=n+1 λi vi ∈ Ker(f ) e quindi


P
Pr Pn
i=n+1 λi vi = i=1 λi vi

Essendo i
{v1 , · · · , vn , vn + 1, · · · , vr }
una base di V si ha che i wn+1 , · · · , wn sono linearmente indipendenti. Ora si noti
che essendo i {v1 , · · · , vn } nel nucleo di f allora:
span(w1 , · · · , wr ) = span(wn+1 , · · · , wr ) = Im(f )
Quindi i wn+1 , · · · , wn formano una base di Im(f ).

Corollario. Sia f : V → W una funzione lineare e dim(V ) = dim(W ) allora f è


inettiva se e solo se è surietiva se e solo se è biiettiva.

Dimostrazione. Per il teorema precedente se dim(Ker(f )) = 0 allora dim(Im(f )) =


dim(V ).

27
Corollario. Sia f : V → W una funzione lineare e dim(V ) < dim(W ) allora f non
è suriettiva.
Dimostrazione. Da teorema precedente si ha che dim(Im(f )) ≤ dim(V ) < dim(W )
quindi non è suriettiva.
Corollario. Sia f : V → W una funzione lineare e dim(W ) < dim(V ) allora f non
è inettiva.
Dimostrazione. Da teorema precedente si ha che dim(Ker(f )) = dim(V )−dim(Im(f )) ≥
dim(V ) − dim(W ) > 0.
Definizione. Sia f : V → W una funzione lineare. Allora:
• f è un isomorfismo se ∃g : W → V t.c. f og = idV e gof = idW .
• f è un endomorfismo se V = W .
• f è un automorfismo se f è sia un isomorfismo che un endomorfismo.
Lemma. Sia f : V → W funzione lineare, allora f è un isomorfismo se e solo se f è
biiettiva.
Dimostrazione. ⇒ Sia f un isomorfismo allora sia v ∈ Ker(f ) quidni f (v) = ~0 e
g(~0) = ~0, ma g(f (v)) = idV . Quindi Ker(f ) = {~0} e la funzione è inettiva. Sia
poi w ∈ W , e v = g(w), allora f (v) ∈ Im(f ), ma f (v) = f (g(w)) = idW w quidni
w ∈ Im(f ) da cui Im(f ) = W e quindi f è anche suriettiva e quindi è biiettiva.
⇐ Assumiamo ora che f sia biiettiva, allora essendo f suriettiva si ha che ∀w ∈ W ∃v ∈
V t.c. w = f (v), allora definiamo g : W → V, g(w) := v se e solo se f (v) = w. Resta
ora da mostrare che g è lineare. Prendiamo w1 , w2 ∈ W, λ ∈ K (K campo di W,V) e
siamo v1 e v2 le rispettive immagini di w1 e w2 . Si noti che
f (v1 + λv2 ) = w1 + λw2
per linearità. Quidni g(w1 +λw2 ) = v1 +λv2 = g(w1 )+λg(w2 ). Quindi g è lineare.
Lemma. Sia f : V → W funzione lineare. Sia v ∈ V e w = f (v) allora
f −1 (w) = {v} + Ker(f )
Dimostrazione. Sia v1 ∈ f −1 (w) allora f (v − v1 ) = f (v) − f (v1 ) = w − w. Quindi
v1 − v = v0 ∈ Ker(f ) da cui v1 = v + v0 ∈ {v} + Ker(f ) e di conseguenza f −1 (w) ⊂
{v} + Ker(f )
Sia v1 ∈ {v} + Ker(f ) allora ∃v0 ∈ Ker(f ) t.c. v1 = v + v0 . Quindi:
f (v1 ) = f (v + v0 ) = f (v) + f (v0 ) = w + ~0 = w
Quindi v1 ∈ f −1 (w) e quindi {v} + Ker(f ) ⊂ f −1 (w). Mettendo insieme le cose si
ottiene la tesi.

28
4.1.1 La rotazione
 
2 r cos θ
Sia in < un vettore espresso in coordinate polari si scriva . Ruoto di un
r sin θ
angolo γ e ottengo:
     
r cos θ r cos θ + γ r cos θ cos γ − r sin θ sin γ
→ =
r sin θ r sin θ + γ r sin γ sin θ + r cos θ cos γ

In particolare la funzione rotazione Rθ : <2 → <2 ha la forma di


    
x cos θ − sin θ x
Rθ =
y sin θ cos θ y
è facile dimostrare che la rotazione è lineare.

4.1.2 Riflessioni
Si consideri una riflessione Sx : <2 → <2 rispetto all’asse x. Si ha che questa ha la
forma:
    
x −1 0 x
Sx =
y 0 1 y
Si dimostra facilmente che è lineare. Similmente la riflessione rispetto all’asse delle
y è Sy : <2 → <2 :
    
x 1 0 x
Sy =
y 0 −1 y
Si estende facilmente la definizione in <n come riflessione lungo l’asse i Si : <n → <n :

0 0 ··· 0 0
 
1
0 · · · 0
   
x1 0 1 0 x1

 x2   .. .. . . .. .. .. 
  . . . . . .   x2 
  
Si  ..  = 
 .  0 0 · · · −1 · · · 0  ... 
 
. .. .. .. . . .. 
xn  .. . . . . .  xn
0 0 0 ··· 0 1

29
4.1.3 Proiezioni
Risulta facilve verificare che si può scrivere la proiezione lungo l’asse i come Pi :
<n → <n
0 0 ··· 0 0
 
0
0 · · · 0
   
x1  0 0 0 x1
 x2   .. .. . . .. .. .. 

  . . . . . .   x2 
  
Si  ..  =    .. 
 .  0 0 · · · 1 · · · 0  . 
. .. .. .. . . .. 
xn  .. . . . . .  xn
0 0 0 ··· 0 0

4.2 Matrici di funzioni lineari


Definizione. Sia V uno spazio vettoriale ePB := {v1 , v2 , · · · , vn } una base di V,
allora si può scrivere ogni vettore come v = i λi vi con vi vettori della base. Allora
si dice che (λ1 , λ2 , · · · , λn ) sono le coordinate di v rispetto a B.

Lemma. La mappa γB : V → K n con γB (v) = (a1 , · · · , an ) se e solo se v = i ai vi


P
con vi elementi della base B è un isomorfismo.

Dimostrazione. Si nota facilmente che è biiettiva, bisogna dimostrare che è lineare;


si noti che
P P P
γ(v1 + λv2 ) = γ ( i ai vi + λ i bi vi ) = γ ( i (ai + λbi )vi ) =
(a1 + λb1 , · · · , an + λbn ) = γ(v1 ) + λγ(v2 )

P
Si noti ora che posso scrivere f (vj ) = i ai,j wi dove i wi formano una base di W
0
(f : V → W ). Allora sia MBB (f ) la matrice M (ai,j )

Lemma. Esiste una relazione biunivoca fra funzioni lineari e matrici m × n, in


0
particolare ogni funzione lineare è descritta dalla matrice MBB

Dimostrazione. Abbiamo già dimostrato che esiste una corrispondenza fra le funzioni
e le matrici. D’altra parte le immagini dei vettori della base del dominio determi-
0
na la funzione, quindi la matrice MBB determina la funzione e la corrispondenza è
biunivoca.

Lemma. Sia f : V → W funzione lineare. Siano B := {v1 , · · · , vn }, B 0 := {w1 , · · · , wn }


base rispettivamente per V e W. Allora

30
 
λ1
 λ2 
0
γB 0 (f ( i λi vi )) = MBB (f )  .. 
P  
.
λn

Dimostrazione. Si ha che
P P P P P
f ( i λi vi ) = i λi f (vi ) = i λi j aj,i wj = j (aj,i λi ) wj
che è la definizione di prodotto fra matrici.
Osservazione. Questi risultati implicano che esiste sempre una corrispondenza fra
qualunque spazio vettoriale e <n e che in <n posso definire la funzione lineare come
un prodotto fra matrici. Quindi qualunque problema che abbia a che fare con le
funzioni lineari lo si può vedere in <n come prodotto di un vettore per una matrice.

Lemma. Siano f : V → W, g : W → U funzioni lineari e B, B 0 , B 00 basi rispettiva-


mente di V, W, U . Allora
00 0 00
MBB (f og) = MBB (f )MBB0 (g)

Dimostrazione. Si nota che γB 00 o(f og)oγB−1 è equivalente alla moliplicaiozione per


00
MBB (f og) e
γB 00 o(f og)oγB−1 = γB 00 o(f oidW og)oγB−1 = γB 00 of oγB−10 oγB 0 ogoγB−1 =
(γB 00 of oγB−10 )o(γB 0 ogoγB−1 )
0 00
che equivale a fare MBB (f )MBB0 (g).

Corollario. Sia f : V → W un isomorfismo. Allora


0 −1
MBB0 (f −1 ) = MBB (f )

Dimostrazione. Si noti che f of −1 = idW e che f −1 of = idV . Quindi


0 0 0
MBB (f )MBB0 (f −1 ) = MBB0 (f of −1 ) = MBB0 (idW ) = In
0
MBB0 (f −1 )MBB (f ) = MBB (f −1 of ) = MBB (idV ) = In

31
4.3 Matrice del cambiamento di base
Definizione. La funzione idV : VB → VB 0 è una funzione lineare. Denotiamo la sua
0
matrice TBB e la definiamo matrice del cambiamento di base da B a B’.
Lemma. Sia f : V → W funzione lineare e B1 , B2 basi ordinate di V e B10 , B20 basi
ordinate di W allora
B0 B0
MB22 (f ) = TB 02 MBB11 (f )TBB12
1

Dimostrazione. Si scrive che f = idW of oidV quindi


B0 B0
MB22 (f ) = MB22 (idW of oidV )
Da cui la tesi.
Corollario. Sia V uno spazio vettoriale di dimensione finita e siano B, B 0 basi di
V, allora:
0 −1
TBB = TBB0
0 0
Dimostrazione. TBB TBB0 = IdV = In e TBB0 TBB = IdV = In
Corollario. Sia f : V → V un endomorfismo e B,B’ basi di V allora:
0
MBB0 (f ) = QMBB (f )Q−1
0
e Q := TBB
Dimostrazione. Banale dalla proposizione e del corollario precedente.
Corollario. Se  è la base canonica e B := {v1 , · · · , vn } una base dello stesso spazio
vettoriale allora le colonne di TB sono le colonne di v1 , · · · , vn
Teorema. Siano V e W spazi vettoriali di dimensione finita, sia f : V → W funzione
lineare allora esistono basi B := {v1 , · · · , vn } di V e B 0 := {w1 , · · · , wn } di W tali
per cui
 
B0 Ir 0
MB (f ) =
0 0
Dimostrazione. Sia r la dimensione dell’immagine di f allora la dimensione del nucleo
sarà n − r. Prendiamo una base del nucleo e la estendiamo ad una base di V. Gli
elementi che non fanno parte della base del nucleo generano una base dell’imagine.
Si noti ora che si ottiene facilmente che f (vi ) = ei .

32
Definizione. Due matrici A e B si dicono simili se esiste una matrice Q invertibile
t.c.
A = Q−1 BQ
Osservazione. Data una matrice A, una matrice ottenuta da A moltiplicandola con
una matrice elementare è simile ad A. Quindi la matrice a scala di A è simile ad A.

4.4 Applicazioni ai sistemi lineari


Lemma. Data A ∈ Mm×n (<) associata alla funzione f; si ha che Sol(A|~0) = Ker(f ).
Dimostrazione. x ∈ Sol(A|~0) se e solo se Ax = ~0 se e solo se f (x) = ~0 se e solo se
x ∈ Ker(f ).
Lemma. Siab ∈ K m e A ∈ Mm×n (<) allora Sol(A|b) = oppure se x ∈ Sol(A|b)
Sol(A|b) = {x} + Sol(A|~0)
Dimostrazione. Sia f la funzione associata ad A, allora
Sol(A|b) = f −1 (b) = {x} + Ker(f ) = {x} + Sol(A|~0)

Lemma. Se Sol(A|b) 6= ∅ allora ci sono n − rk(A) incognite libere e rk(A) incognite


determinate.
Dimostrazione. Il rango di A è uguale al numero di Pivot. Quindi le incognite
determinate sono rk(A), le altre saranno incognite libere e quindi saranno n − rk(A).

Teorema (Teorema di Rouché-Capelli). L’insieme Sol(A|b) 6= ∅ se e solo se rk(A|b) =


rk(A).
Dimostrazione.
Sol(A|b) 6= ∅
implica che b è nello spazio delle colonne di A che è equivalente a verificare che

rk(A|b) = rk(A)

.
Lemma. Sia A ∈ Mm×n (<) allora

33
• Ax = b ha soluzioni ∀b ∈ K m se e solo se rg(A) = m;

• Ax = ~0 ha un’unica soluzione se e solo se rk(A) = n.


Dimostrazione. Se b ∈ K m allora lo spazio delle colonne di A deve essere K m che
ha dimensione m. Ax = ~0 ha sempre una soluzione: x = ~0. Questa rimane unica
soluzione se non ci sono incognite libere che sono n − rk(A), quindi quando rk(A) =
n

4.5 Determinazione di nucleo e immagine


0
Lemma. Sia f : V → W lineare con matrice associata MBB e g : <n → <n la
funzione prodotto con
0
MBB
. Allora γB manda Ker(f ) in Ker(g) e γB 0 manda Im(f ) in Im(g)
Dimostrazione. Se v ∈ Ker(f ) allora f (v) = ~0, ma γ −1 of = goγ quindi g(γ −1 (v)) =
~0. Similmente se v ∈ Ker(g) si dimostra che γ(v) ∈ Ker(f ).
γ(Im(f )) = Im(γof ) = Im(goγ) ⊂ Im(g) e
γ −1 (Im(g)) = Im(γ −1 og) = Im(f oγ −1 ) ⊂ Im(f ).
Teorema. Siano V e W spazi vettoriali fnitamente generati, f : V → W lineare.
0
Siano B e B’ basi di V e W e A := MBB (f ). Allora
dim Im(f ) = rk(A) dim Ker(f ) = dim Sol(A|~0)
Dimostrazione. Sia g una funzione isomorfa a f in Rk → Rn . Si trova facilmente che
dim(Ker(f )) = dim(Ker(g)) = rk(A). Se prendiamo la base canonica di Rk si ha che
le colonne di A sono immagini dei vettori della base e quindi Im g è generato dalle
colonne di A che ha dimensione rk(A). Quindi
dim(Im(f )) = dim(Im(g)) = rk(A)

4.6 La matrice inversa


Definizione. Data A ∈ Mm×n (<) diciamo che B è una matrice inversa destra di
A se AB = In e diciamo che B è una matrice inversa sinistra di A se BA = Im
Osservazione. Si noti che se B è sia inversa destra che sinistra si ha che B è matrice
inversa (definizione già data).

34
Lemma. A ∈ Mm×n (<) ha una matrice inversa destra se e solo se rk(A) = m.
Dimostrazione. ⇒ Se la matrice ha un’inversa destra si ha che ∀v ∈ K m
v = Im v = (AB)v = A(Bv)
quindi v è nell’immagine della moltiplicazione con A che è suriettiva e quindi rk(A) =
m
⇐ Assumiamo rk(A) = m allora consideriamo la mappa f : K n → K m t.c. f (x) =
Ax. Dal fatto che il rango di A sia m si ha che la mappa è suriettiva e quindi esiste
g : K m → K n 0 t.c. g(ei ) = vi , quindi f (g(ei )) = ei , ∀i e
n m n n
In = Mn (f og) = Mn (f )Mm (g) = AMm (g)
per cui A ha inversa destra.
Lemma. A ∈ Mm×n (<) ha una matrice inversa sinistra se e solo se rk(A) = n.
Dimostrazione. ⇒ Se la matrice ha un’inversa sinistra si ha che ∀v ∈ K n
ABv = In v = v
quindi ABv 6= ~0∀v ∈ K n \{~0} e quindi la moltiplicazione con A è una mappa inettiva
e quindi rk(A) = n
⇐ Assumiamo rk(A) = n allora consideriamo la mappa f : K n → K m t.c. f (x) =
Ax. L’immagine della funzione è generata dalle immagini della base canonica. Dal
fatto che le immagini della base canonica sono linearmente indipendenti si ha che
∃g : K m → K n t.c. g(f (ei )) = ei . Quindi (gof ) = id e si ha che
In = Mnn (gof ) = Mmn (g)Mmn (f ) = Mmn (g)A
Quindi A ha inversa sinistra.
Lemma. Una matrice A ∈ Mn×n (<) è invertibile se e solo se rk(A) = n.
Dimostrazione. ⇒ Se ha è invertibile allora ha una matrice inversa destra (e anche
sinistra) quindi rk(A) = n.
⇐ Se il rango di A è n allora non ha righe di soli zeri e per lemmi precedenti è
invertibile.
Dimostrazione. ⇐ Una dimostrazione alternativa è notare che rk(A) = n è equiva-
lente a dire che In è una forma a scala di A. Abbiamo già dimostrato che se In è una
forma a scala di A allora A è invertibile.
Osservazione. Quindi il lemma si può riformulare come: A è invertibile se e solo se
In è una forma a scala di A.

35
Lemma. Sia A ∈ Mn×n (<) allora B è un’inversa destra di A se e solo se B è
un’inversa sinistra di A se e solo se B è matrice inversa di A.

Dimostrazione. Se B è un’inversa destra allora rk(A) = n e A ammette anche


un’inversa sinistra C, ma
B = BIn = BAC = In C = C
Quindi B = C, cioè è sia inversa destra che inversa sinistra e quindi per definizione
è matrice inversa di A.

5 Determinante
Definizione. Il determinante di una matrice A ∈ Mn×n (<) è una funzione det :
Mn×n (<) → < t.c.

• det(In ) = 1;

• det è lineare sulle righe, ovvero siano v1 , · · · , vn , w ∈ <n e λ ∈ K allora



v1
 
v1
 
v1

 v2    v2   v2
 ..   ..   ..
. . .
     
     
 vi−1  vi−1  vi−1 
     
det   = det   + λ det 
vi + λw  vi   w 

 vi+1  vi+1  vi+1 
     
 .   .   . 
 ..   ..   .. 
vn vn vn

• det è alternante, cioè se A è una matrice son due righe identiche allora det(A) =
0.

Lemma. La funzione det : M2×2 (K) → K t.c.


 
a b
det = ad − bc
c d
è un determinante.

36
Dimostrazione. Se A = I2 allora  ad − bc = 1;
a b
si ha che det = a(d1 + λd2 ) − b(c1 + λc2 ) = ad1 − bc1 + λ(ad2 −
 c 1 + λc 2 d
 1 + λd
2
a b a b
bc2 ) = det +λ ;
c1 d 1 c d
Se A ha due righe identiche allora c = a e d = b quindi ad − bc = 0. Quindi le
proprietà sono soddisfatte e det è un determinante.

Lemma. Sia A ∈ Mn×n (<) e sia A0 la matrice ottenuta da A sommando λ volte la


riga i-esima alla riga j-esima allora det(A) = det(A0 )

Dimostrazione. Utilizziamo la linerità sulle righe, in particolare sulla riga j allora


       
v1 v1 v1 v1
..  ..   ..   .. 
. . . .
 
 
 vi   vi   vi   vi 
       
0
 .
..
 . . .
det(A ) = det   = det  ..  + λ det  ..  = det(A) + λ det  .. 
       
v + λv  v  v  v 
 j i  j  i  i
 ..  .
.
.
.
.
 .. 
 .   .   . 
vn vn vn vn
il secondo determinante ha una riga di soli zeri e quindi il determinante è 0 e si
ottiene det(A) = det(A0 )

Lemma. Sia A ∈ Mn×n (<) e sia A0 la matrice ottenuta da A moltiplicando per λ la


riga i, allora λ det(A) = det(A0 )

Dimostrazione. Si utilizza direttamente la linearità sulle righe.

Lemma. Sia A ∈ Mn×n (<) e A0 ottenuta da A scambiando due righe, allora det(A) =
− det(A0 )

Dimostrazione. Si ha che

37
         
v1 v1 v1 v1 v1
 ..   ..   ..   ..   .. 
 .  . . . .
vi + vj   vi   vj   vi   vj 
         
 . 
 = det  ..  + det  ..  + det  ..  + det  ...  =
. . .  
0 = det 
 .
.         
v + v  v  v  v  v 
 j i  i  j  j  i
 .  . . . .
 ..   ..   ..   ..   .. 
vn vn vn vn vn
   
v1 v1
 ..   .. 
. .
 vi   vj 
   
.
 + det  ... 
 
det 
  .
.  
v  v 
 j  i
. .
 ..   .. 
vn vn
da cui
   
v1 v1
 ..   .. 
. .
 vi   vj 
   
. .
 ..  = − det  .. 
det    
v  v 
 j  i
. .
..  .. 
vn vn

Lemma. Se A ha una riga si soli zeri det(A) = 0


     
v1 v1 v1
 ..   ..   .. 
Dimostrazione. det  .  = det  .  = o det  .  = 0
     
vn−1  vn−1  vn−1 
~0 0w w
Teorema. Se det : Mn×n (<) → < esiste allora è unico. Inoltre det(A) = 0 se e solo
se rk(A) < n.
Dimostrazione. Sia A una matrice e B una forma a scala di A. Si ha che det(B) =
c det(A), dove c = (−1)s λ1 · · · λr avendo fatto s scambi e avendo moltiplicato r volte

38
una riga per un λi . I λi 6= 0∀i quindi c 6= 0 e quindi det(A) = 1c det(B). Se b contine
una riga di soli zeri e quindi rk(B) = rk(A) < n allora det B = 0 altrimenti B si
può portare a In e quindi det(B) = d det(A) (d è sempre diverso da 0 ) e si ha infine
det(A) = d1 det(B) = d1 det(In ) = d1

Definizione. Una matrice A si dice triangolare superiore se Ai,j = 0 se i > j, si


dice invece che A è traingolare inferiore se Ai,j = 0 se i < j.

Corollario. Sia A ∈ Mn×n (<) allora

1. Se le righe di A solo linearmente dipendenti allora det(A) = 0;

2. det(λA) = λn det(A);

3. se A è triangolare (superiore o inferiore che sia) il determinante di A è il


prodotto degli elementi sulla diagonale.

Dimostrazione. 1. Se le righe di A sono linearmente dipendenti allora rk(A) < n


e quindi det(A) = 0;

2. λA corrisponde a moltiplicare tutte e n le righe per λ quidni det(λA) =


λ det(A);

3. Gli elementi sulla matrice sono pivot se un ai,i = 0 allora rk(A) < n e det(A) =
0 altrimenti posso trovare una forma a scala (A0 ) sommando multipli di righe fra
loro; cosı̀ facendo non altero il determinante. Ottengo cosı̀ una matrice avente
sulla diagonale ai,i e 0 nel resto della matrice. Allora det(A) = det(A0 ) =
a11 a22 · · · ann det(In ) = a11 a22 · · · ann

5.1 Esistenza del determinante


Definizione. Una permutazione di {1, · · · , n} e una mappa biiettiva σ : {1, · · · , n} →
{1, · · · , n}.

Definizione. Il segno di una permutazione σ, denotato con sign(σ), è (−1)n con


n := #{(i, j)|σ(i) > σ(j), i < j}

Lemma. Sia σ una permutazione di n elementi allora

sign(σ) = i<j σ(i)−σ(j)


Q
j−i

39
Q Q
Dimostrazione. I prodotti i − j e σ(i) − σ(j) contengono gli stessi fattori, ma
potrebbero avere segno diverso. Per ogni coppia (i, j) t.c. j > i, σ(i) > σ(j) troviamo
-1. Invece per ogni coppia (i, j) t.c. j > i, σ(i) < σ(j) troviamo 1. Da cui si ottiene
la tesi.
Lemma. Siano σ, τ permutazioni di n elementi, allora
sign(στ ) = sign(σ) sign(τ )
Dimostrazione. si ha che
Q σ(τ (i))−σ(τ (j)) Q σ(τ (i))−σ(τ (j)) Q τ (i)−τ (j)
sign(στ ) = i<j j−i
= i<j τ (j)−τ (i) i<j j−i

Il secondo termine è sign(τ ), il primo se si pensa di fare un cambio di variabile è


sign(σ) (si ricorda che una permutazione è biiettiva e quindi inverbile).
Definizione. Una trasposizione è una permutazione che scambia solo due elementi.
Presi quindi k, m si ha che σ(i) = i∀i 6= k, m e σ(k) = m e σ(m) = k.
Lemma. Siano Sn le permutazioni possibili di n elementi. Definiamo ora, data una
matrice A ∈ Mn×n (<),
det(A) = σ∈Sn sign(σ) ni=1 ai,σ(i)
P Q

. Allora det(A) è un determinante.


Dimostrazione. Bisogna verificare le tre condizione date dalla definizione di deter-
minante:
• det(In ) = 0 infatti per σ 6= id allora tutte le ai,σi = 0 (esistono necessaria-
Q
mente elementi non sulla diagonale
Q e quindi nulli). Per σ = id si trova che
sign(σ) = 1 quidni det(In ) = 1 ai,i = 1;

• det(A) è lineare sulle


( righe. Siano A e B matrici simili a meno di una riga k.
ai,j i 6= k
Allora si (C)i,j = allora si ha che:
ak,j + λbk,j
P Q
P det(C) = σ∈Sn sign(σ) Ci,σ(i) =
σ∈Sn sign(σ)a1,σ(1) a2,σ(2) · · · ak−1,σ(k−1) (ak,σ(k) + λbk,σ(k) ) · · · an,σ(n) =
det(A) + λ det(B)

• det(A) è alternante. Infatti avendo A due righe uguali le produttorie sono tutte
uguali fra loro, ma il segno è opposto quindi det(A) = 0

40
Teorema (Teorema di esistenza e unicità del determinante). Il determinante esiste
ed è unico.
Dimostrazione. Abbiamo che det(A) = σ∈Sn sign(σ) ni=1 ai,σ(i) è un determinante
P Q
quindi ne esiste almeno uno. Abbiamo già dimostrato che se esiste è anche unico.

5.2 Il teorema di Binet


Lemma. Per le matrici elementari si ha che
det(P (i, j)) = −1 det(S(i, j, λ)) = 1 det(M (i, λ)) = λ
Dimostrazione. P (i, j) è ottenuta da In scambiando le righe i e j. Quindi det(P (i, j)) =
− det(In ) = −1.
La matrice det(S(i, j, λ) e la matrice det(M (i, λ)) sono triangolari e quindi il loro
determinante è il prodotto degli elementi della diagonale. Quindi det(S(i, j, λ)) = 1
e det(M (i, λ)) = λ.
Teorema (Teorema di Binet). Siano A, B ∈ Mn×n (<) allora
det(AB) = det(A) det(B)
Dimostrazione. Se A è una matrice elementare allora è facile dimostrare la tesi. Se
rk(A) = n A è un prodotto di matrici elementari e quindi si riottiene la tesi. Se
rK(A) < n anche rk(AB) < n e quindi si ottiene la tesi.
Corollario. Se una matrice A è invertibile allora det(A−1 ) = 1
det(A)

Dimostrazione. 1 = det(In ) = det(AA−1 ) = det(A) det(A−1 )


Lemma. det(A) = det(AT )
Dimostrazione. Se rk(A) < n anche rk(AT ) < n quindi det(A) = 0 = det(AT ).
Se A è una matrice elementare si nota che il suo trasposto è lei stessa e quindi
det(A) = det(AT )
Se rk(A) = n si può scrivere A come prodotto di matrici elementari (Ei ) e quindi si ot-
tiene che det(AT ) = det(E1T · · · EnT ) = det(E1T ) · · · det(EnT ) = det(E1 ) · · · det(En ) =
det(A)
Osservazione. Le operazioni sulle righe di A sono operazioni sulle colonne di AT
quindi applicando una operazione sulle colonne di A si seguono le stesse regole di
applicare le operazioni corrispondenti sulle righe di A.

41
5.3 Sviluppo di Laplace
Teorema. Si ha che
Pn i+j
det(A) = i=1 (−1) ai,j det(Ai,j )
Pn i+j
det(A) = j=1 (−1) ai,j det(Ai,j )

Dove Ai,j è la matrice A privata della riga i e della colonna j.

Dimostrazione. Per calcolo diretto:


P Qn
det(A) = σ∈S n
sign(σ) k=1 ak,σ(k) = 
Pn P Qn
i=1 σ∈Sn |σ(i)=j sign(σ)ai,j k=1,k6=i ak,σ(k) =
Pn P Qn 
a
i=1 i,j σ∈Sn |σ(i)=j sign(σ) a
k=1,k6=i k,σ(k)

Da cui si ottiene la prima tesi. Basta notare che det(A) = det(AT ) per ottenere la
seconda tesi.
Approfondimento. Si noti che con Laplace bisogna fare circa n! operazioni matema-
tiche. Con Gauss invece 21 n2 (n − 1) ≈ 12 n3 . Quindi per matrici grandi conviene
dal punto di vista del risparmio computazionale utilizzare il metodo di Gauss e non
Laplace.

Definizione. Sia A ∈ Mn×n (<). Definiamo la matrice dei cofattori di A come

(cof(A))i,j = (−1)i+j det(Ai,j )

Lemma. Si ha che

A cof(A)T = cof(A)T A = det(A)In

Dimostrazione. Si procede per sviluppo di Laplace, quindi calcolo diretto.

Corollario. Sia A ∈ Mn×n (<) t.c. det(A) 6= 0 allora

A−1 = 1
det(A)
cof(A)T

Dimostrazione. Per il caso n = 2 è facile verificare la tesi. Se n > 2 con lo sviluppo


di Laplace ci riconduciamo al caso di matrici 2 × 2.

Teorema (Regola di Cramer). Sia A ∈ Mn×n (<) e b ∈ K n . Se det(A) 6= 0 allora


l’unica soluzione di Ax = b soddisfa

42
det(Ai )
xi = det(A)

Dove la matrice Ai è ottenuta da A sostituendo la i-esima colonna con b.

Dimostrazione. Se det(A) 6= 0 allora A è invertibile. Allora Ax = b ⇒ x = A−1 b e si


ha che
xi = (A−1 b)i = det(A)
1 1
(cof(A)T b)i = det(A) ( j (cof(A)T )i,j bj =
P
1
A bj = det(A
j+i j+i i)
P
det(A) j (−1) det(A)

5.3.1 Il determinante di un endomorfismo


Definizione. Sia f : V → V un endomorfismo e sia B una qualsiasi base di B allora
il determinante di f è det(f ) := det(MBB (f ))

Lemma. Il determinante di un endomorfismo non dipende dalla scelta della base.

Dimostrazione. Siano B e C due basi di V e f : V → V un endomorfismo. Allora si


ha
det(f ) = det(MBB (f )) = det(Q−1 MCC (f )Q) = det(Q−1 ) det(MCC (f )) det(Q) =
det(Q)
det(Q)
det(MCC (f )) = det(MCC (f ))

6 Autovalori, autovettori e autospazi


Definizione. Sia f un endomorfismo f : V → V , V di dimensione finita, un auto-
vettore di f è un vettore v ∈ V, v 6= ~0 t.c. f (v) = λv per un λ ∈ K; λ è chiamato
autovalore. Definiamo infine Eλ := Ker(f − λIn ) l’ autospazio di λ.

Definizione. Sia A ∈ Mn×n (<), un autovettore di A è un vettore v ∈ K n \ {~0}


t.c. Av = λv per un λ ∈ K; λ è chiamato autovalore. Definiamo infine Eλ := {v ∈
k n |Av − λIn = ~0} l’ autospazio di λ.

Definizione. Sia A ∈ Mn×n (<), allora chiamiamo polinomio caratteristico di A

pA (t) = det(A − tIn )

Osservazione. Per semplice estensione il polinomio caratteristico di di un endomor-


fismo è il polinomio caratteristico della matrice associata.

43
Lemma. Il polinomio caratteristico è della forma
(−1)n tn + (−1)n−1 tr(A)tn−1 + an−2 tn−2 + · · · + a1 t + det(A)
Dimostrazione. Si dimostra per induzione. Per n = 2 si ha che pA (t) = t2 − (a11 −
a22)t + a11 a22 − a21 a12. Per n¿2 si ha che per lo sviluppo di Laplace si conclude
ricordando che det(A − 0In ) = det(A).
Lemma. Due matrici simili hanno lo stesso polinomio caratteristico, in particolare
il polinomio caratteristico di un endomorfismo non dipende dalla scelta della base.
Dimostrazione. Per calcolo diretto:
pA (t) = det(A − tIn ) = det(Q) det(A − tIn ) det(Q−1 ) = det(Q(A − tIn )Q−1 ) =
det(QAQ−1 − QtIn Q−1 ) = det(QAQ−1 − tQQ−1 ) = det(QAQ−1 − tIn ) = pQAQ−1 (t)

Lemma. Eλ > 0 se e solo se pA (λ) = 0. In particolare gli autovalori di A sono gli


zeri di pA (t).
Dimostrazione. Per il teorema del rango dim Eλ = n − rk(A − λIn ). Quindi Eλ > 0
se e solo se rk(A − λIn ) < n cioè det(A − λIn ) = 0
Definizione. Per un autovalore si ha che pA (t) = (t − λ)ma q(t) e chiamiamo molte-
plicità algebrica di λ il valore ma . Chiamiamo invece molteplicità geometrica
di λ il valore mg := dim(Eλ )
Lemma. Sia λ un autovalore, allora si ha che
1 ≤ mg (λ) ≤ ma (λ)
Dimostrazione. Si estende una base di Eλ ad una base dello spazio vettoriale e si
ottiene la tesi.
Lemma. Sia A una matrice associata ad un endomorfismo f di uno spazio vettoriale
V. Siano λi autovalori di A e Bi := {v1i , · · · , vni } basi degli autospazi Eλi (mg (λi ) =
ni ). Allora B1 ∪ B2 ∪ · · · ∪ Bs è un insieme linearmente indipendente.
Dimostrazione. Sia i j µij vji = ~0. Applicando f si trova i λi j vji vji = ~0 da cui
P P P P

si può ottenere i (λi − λs ) j µij vji = ~0.


P P
Ora per induzione si nota che il caso s=1 è facile. L’ipotesi induttiva è ora (λi −
λs )µij = 0 per i < s quindi µij = 0 per i < s, ma rimane quindi j µsj vjs che è una
P
base di Eλs e quindi si conclude.

44
Definizione. Una matrice si dice diagonale se ha valori solo sulla diagonale (e zeri
altrove). Una matrice A si dice diagonalizzabile se ∃Q matrice t.c. QAQ−1 è una
marice diagonale.
Osservazione. Un endomorfismo si dice diagonalizzabile se la sua matrice associata
è diagonalizzabile; viene estesa la definizione precedente.
Lemma. Sia V uno spazio vettoriale di dimensione n (finitamente generato). Sia
f : V → V un endomorfismo associato ad una matrice A. Allora f è diagonalizzabile
se e solo se pA (t) è un prodotto di fattori lienari e ma (λ) = mg (λ)∀λ.
Dimostrazione. La matrice è diagonalizzabile se e solo se l’unione delle basi degli
autospazi sono un insieme di generatori di V, ma l’unione delle basi degli autospazi
per lemma precedente è un insieme linearmente dipendete che ha come P dimensione
il grando del polinomio caratteristico. Quindi f è diagonalizzabile se ma (λi ) = n
cioè p è un prodotto di fattori lineari e ∀ima (λi ) = mg (λi )
Corollario. Se p(t) è un prodotto di n (dimensione dello spazio V) fattori lineari
distinti allora A è diagonalizzabile.
Dimostrazione. Si ha mg = 1 e quindi ma = 1 e p(t) è per ipotesi un prodotto di
fattori lineari. Quindi si conclude.
Definizione. Un autovalore λ t.c. ma (λ) = 1 è chiamato autovalore semplice.

6.1 Forma di Jordan


Definizione. Un blocco di Jordan Jn,λ di lunghezza n con autovalore λ è la matrice
avente λ sulla digonale, 1 sopra e zero altrove. Quidni la matrice n × n del tipo
 
λ 1 0 ··· 0 0
0 λ 1 · · · 0 0
 
0 0 λ · · · 0 0
Jn,λ :=  .. .. . . . . .. .. 
 
. . . . . .
 
0 0 0 · · · λ 1
0 0 0 ··· 0 λ

Osservazione. Il plinomio caratteristico di un blocco di Jordan è (λ − t)n


Definizione. Una matrice è in fomra di Jordan se
1. Ji,i+1 ∈ {0, 1} per i < n;

45
2. Se Ji,i+1 = 1 allora Ji,i = Ji + 1, i + 1;

3. Ji,k = 0 per k 6= i, i + 1
Definizione. Un vettore v 6= ~0 si dice autovalore generalizzato di un autovalore
λ se per qualche i ∈ N si ha (A − λIn )i v = ~0
Lemma. Sia A ∈ Mn×n (<). Sia λ uno zero del pA (t) e m := ma (λ). Allora esistono
V1 , V2 ∈ <n sottospazzi t.c.
1. dim(V1 ) = m, V1 è in somma diretta con V2 e V1 + V2 = V ;

2. la moltiplicazione di A manda V1 in V1 e V2 in V2 ;

3. Sia Ai la matrice A rispetto a Vi , allora pA1 (t) = (λ − t)m e PA2 (λ) 6= 0


Dimostrazione. Consideriamo Wi = Sol((A − λI)i , ~0) ⊂ K n . Essendo P (λ) = 0 si
ha che dim(W1 ) ≥ 1. Wi ⊂ Wi+1 e n ≥ dim(Wi+1 ) ≥ dim(Wi ) + 1 (per Wi 6= Wi+1 ).
Esiste quindi un j t.c. Wj = Wi , ∀i > j. Prendiamo V1 := Wj e V2 := Im((A − λIn )j )
. Segue che dim V1 + dim V2 = n. Bisogna mostrare che sono in somma diretta. Si
noti che se un vettore sta nell’intersezione per come abbiamo definito V1 e V2 allora
il vettore è nullo. Quindi sono in somma diretta.
Per il secondo punto (A−λIn )v ∈ Vi−1 , ∀v ∈ Wi , ma allora ∃w ∈ Vi−1 che (A−λI)v =
w. Da cui la tesi (simile per V2 ). Il terzo punto è semplicemente dimostrabile.
Teorema (Teorema di Jordan). Se pA (t) è un prodotto di fattori lineari allora A
ammette una forma di Jordan.
Dimostrazione. Si dimostra per induzione sulla dimensione n di A. Per n = 1 si noti
che la matrice è diagonale e quindi in forma di Jorda.
 SepA (t) ha due zeri distinti
A1 0
allora possiamo trovare A1 , A2 , Q t.c. QAQ−1 = . Per l’ipostesi induttiva
0 A2
troviamo due matrici R1 , R2 t.c. R1 A1 R1−1 è in forma di Jordan (J1 ) e R2 A2 R2−1 è in
forma di Jordan (J2 ). Quindi se:

 
R1 0
R=
0 R2

si ha che
 
−1 −1 J1 0
RQAQ R =
0 J2

46
Quindi A ammette una forma di Jordan. Rimane il caso pA (t) = (λ − t)n . Definiamo
Wi = Ker(A − λI)i . Si noti che Wn = K n . Sia j il valore più grande t.c. Wj−1 6= K n .
Allora possiamo scegliere dei vettori linearmente indipendenti in somma diretta con
Wj−1 la cui somma faccia K n . Adesso moltiplichiamo questi vettori per (A − λI)
a sinistra e di questi vettori ottenuti scegliamo quelli in somma diretta con Wj−2 la
cui somma faccia K n . Iterando questo procedimento troviamo la forma di Jordan se
tutti i vettoir sono linearmente indipendenti.

7 Forme bilineari
Definizione. Sia V uno spazio vettoriale sul campo K, una forma bilineare è una
funzione g : V × V → K tale che ∀w ∈ V si ha che f1 (v) := g(v, w), f2 (v) := (w, v)
sono entrambe lineari.

Definizione. Una forma bilineare g : V ×V → K è simmetrica se g(v, w) = g(w, v)


fissato w ∈ V
P P  P P
Osservazione. g(v, w) = g i xi v i , j vj yj = i j xi ji g(vi , vj )
Quindi g è completamente determinata da g(vi , vj ). Sia quindi la matrice A, matrice
associata a g la matrice ai,j := g(vi , vj ) e si trova che g(v, w) = γ(v)T Aγ(w) e
viceversa ogni matrice A ∈ Mn×n (<) deifinisce una forma bilineare. Quindi le matrici
quadrate corrispondono alle forme bilineari (con n := dim(V )).

Definizione. Una matrice A si dice simmetrica se AT = A.

Lemma. Una matrice A associata alla forma bilineare g è simmetrica se e solo se


g è simmetrica

Dimostrazione. ⇒ Sia A una matrice simmetrica allora


g(v, w) = g(v, w)T = (γ(v)T Aγ(w))T = γ(w)T AT γ(v) = g(w, v)
Quindi anche la forma bilineare è simmetrica.
⇐ Se g è una forma bilineare simmetrica allora g(v, w) = g(w, v). Quindi (AT )i,j =
Aj,i = g(vj , vi ) = g(vi , vj ) = Ai,j e quindi la matrice A è simmetrica.

Lemma. Sia g una forma bilineare, A matrice rispetto a B e A’ rispetto a B’. Allora

A0 = QT AQ

con Q := TBB0

47
Dimostrazione. g(v, w) = γB (v)T AγB (w) = (TBB0 γB 0 (v))T A(TBB0 γB 0 (w)) = γBT 0 (v)QT AQγB 0 (v)

Definizione. Sia g una forma bilineare. Allora si dice nucleo destro di g KerD (g) :=
{v ∈ V |g(w, v) = 0, ∀w ∈ V } e nucleo sinistro di g KerS (g) := {v ∈ V |g(v, w) =
0, ∀w ∈ V }. Se la forma bilineare è simmetrica allora nuceo destro e nucleo sini-
stro coincidono e si ha che il nucleo di una forma bilineare simmetrica è Ker(g) :=
KerD (g) = KerS (g) = {v ∈ V |g(w, v) = 0 ∀w ∈ V } = {v ∈ V |g(v, w) = 0∀w ∈ V }.

Definizione. Una forma bilineare simmetrica g si dice non degenere se Ker(g) =


{~0}, altrimenti si dice degenre.

Lemma. Sia g una forma bilineare simmetrica su uno spazio vettoriale finitamente
generato V , A la matrice di g rispetto ad una base B. Allora g è non degenere se e
solo se det(A) 6= 0.

Dimostrazione. Se det(A) = 0 le colonne di A sono linearmente dipendenti e quindi


∃v 6= ~0 t.c. AγB (v) = ~0 e quindi v ∈ Ker(g) e g è degenere. Se det(A) 6= 0 allora sia
v ∈ V, v 6= ~0 allora ∃i t.c. γB (v)i 6= 0 e sia w ∈ γB (w) = A−1 ei allora
g(v, w) = γB (v)T AγB (w) = γB (v)ei = γB (v)i 6= 0
Quindi v ∈
/ Ker(g) e quindi g è non degenere.

7.1 Forme lineari simmetriche reali


Definizione. Sia g : V ×V → K una forma bilineare simmetrica (V spazio vettoriale
su campo K), allora

• g è definita positiva se ∀v ∈ V con v 6= 0 g(v, v) > 0;

• g è semidefinita positiva se ∀v ∈ V con v 6= 0 g(v, v) ≥ 0;

• g è definita negativa se ∀v ∈ V con v 6= 0 g(v, v) < 0;

• g è semidefinita positiva se ∀v ∈ V con v 6= 0 g(v, v) ≤ 0;

• g è indefinita se ∃v, w ∈ V con g(v, v) < 0 e g(w, w) > 0;

Definizione. Una forma bilineare simmetrica e definita positiva si dice prodot-


to scalare. Uno spazio vettoriale provvisto di un prodotto scalare si dice spazio
metrico e in questo caso di può definire una norma (o lunghezza).

48
7.1.1 Prodotto scalare standard
Osservazione. Si ricordano le definizioni di prodotti scalari,
pP distanze e spazi metrici
2
dal corso di analisi. In particolare si ricorda che kxk := i xi è il norma euclidea
(o lunghezza del vettore v) e la distanza indotta datta norma euclidea d(x, y)P := |x −
y|. Si ricorda inoltre la deifinizione di prodotto
√ scalare standard v · w := i vi wi .
Da queste definizioni si ricava che kxk = v · v.
v·w
Si ricorda poi che se α è l’angolo compreso fra due vettori si ha che cos α = kvkkwk
che proviene dal più generale teorema del coseno: c2 = a2 + b2 − 2ab cos(α) nel caso
di a, b, c vertici di un generico triangolo.
Lemma. Siano u, w, v ∈ <n , λ ∈ < allora
1. Se ∀u, u · v = 0 allora v = ~0;

2. i · u ≥ 0 e se u · u = 0 allora u = ~0 (definito positivo);

3. u · w = w · u (simmetria);

4. (u + λv)w = uw + λvw = w(u + λv) (bilinearità);

5. kλvk = |λ|kvk;

6. kvk ≥ 0;

6 0∀v 6= ~0;
7. kvk =

8. d(x, y) ≥ 0 e d(x, y) = 0 se x = y;
Dimostrazione. Semplicemente se ∀u si ha uv = 0 allora anche per u = ei e quindi
uv = vi = 0∀i da cui v = ~0.
u · u è somma
P di quadrati
P quindi non può essere negativo.
v · u = i vi ui = i ui vi = u · v.
per calcolo
√ diretto si √
verifica anche la bilinearità.
2
kλvk =√ λ v · v = λ v · v = λkvk.
kvk = √v · v ≥ 0.
kvk = v · v 6= 0, l’unica possibilità per lo 0 è v = ~0.
Da ciò che è appena stato dimostrato si ottiene anche d(x, y) ≥ 0 e d(x, y) = 0 se e
solo se x = y.
Lemma. Si hanno le seguenti ugaglianze:
• ku + wk2 = kuk2 + kwk2 + 2(u · w);

49
• ku + wk2 + ku − wk2 = 2kuk2 + 2kwk2

Dimostrazione. Si ha che:

• ku + wk2 = (u + w)(u + w) = uu + vu + uv + vv = kuk2 + kwk2 + 2(u · w);

• ku+wk−ku−wk = kuk2 +kwk2 +2(u·w)+kuk2 +kwk2 −2(u·w) = 2kuk2 +2kwk2 .

Teorema (Disuguaglianza di Couchy-Schwarz). Si ha che

|(v · w)| ≤ kvkkwk

Dimostrazione. Si ha che
k(xt + y)k2 = kxk2 t2 + kyk2 − 2t(x · y)

Il ∆ di questa equazione deve essere non positivo, e quindi anche il 4
. Quindi

4
= (x · y)2 − kxk2 kyk2 ≤ 0
da cui la tesi.

Lemma (Disuguaglianza triangolare). Si ha che

kx + yk ≤ kxk + kyk

Dimostrazione. Per calcolo diretto


kx + yk2 = kxk2 + 2(x · y) + kyk2 ≤ kxk2 + 2|x · y| + kyk2 ≤
kxk2 + 2kxkkyk + kyk2 = (kxk + kyk)2
Quindi prendendo le radici a destra e a sinistra si ottiene la tesi.

7.2 Ortogonalità
Definizione. Sia V uno spazio vettoriale e g : V × V → k una forma bilineare
simmetrica non degenere. Due vettori w, v ∈ V si dicono ortogonali se g(w, v) = 0.
Due sottospazi di V U, W si dicono ortogonali se g(u, w) = 0, ∀u ∈ U, w ∈ W ; dato
un sottoinsieme S di V definiamo il suo ortogonale come

S ⊥ := {v ∈ V |g(v, w) = 0, ∀w ∈ S}

Lemma. Sia V uno spazio vettoriale, g una forma bilineare simmetrica, S un sot-
toinsime di V allora

50
• S ⊥ è un sottospazio di V;

• S ⊥ = span(S)⊥ ;

• S ⊂ span(S) ⊂ (S ⊥ )⊥

Dimostrazione. Siano v, u ∈ S ⊥ allora ∀w ∈ S si ha che


g(v + λu, w) = g(v, w) + λg(u, w) = 0 + 0 = 0
Quindi v + λu ∈ S ⊥ e ~0 ∈ S ⊥ quindi S è un sottospazio.
Per il secondo punto siano T, S t.c. S ⊂ T allora T ⊥ ⊂ S ⊥ quindi ⊥
P span(S) ⊂ S M

prendiamo ora w1 , · · · , wn ∈ S, λ1 , · · · , λn ∈ K tali che w := i λi wi allora


P P
g(v, w) = g (v, i λi wi ) = i λi g(v, wi ) = 0
Quindi v ∈ span(S)⊥ e quindi S ⊥ ∈ span(S)⊥ e quindi si ottiene la tesi.
Per l’ultimo punto si considerino i due precedenti.

Lemma. Sia V uno spazio vettoriale e W un sottospazio, allora W ∩ W ⊥ è un


sottospazio di V.

Dimostrazione. Abbiamo già dimostrato che W ⊥ è un sottospazio, l’intersezione di


due sottospazi è dimostrato essere un sottospazio.

Lemma. Sia g forma bilineare simmetrica non degenere su spazio vettoriale V di


dimensione finita. Allora ∀W sottospazio di V si ha che

dim(W ) + dim(W ⊥ ) = dim(V )

Dimostrazione. Risulta sufficiente dimostrarlo per K n . Allora dal fatto che g è non
degenere A è anche invertibile (A matrice associata a g); sia S := {w1 , · · · , wk } base
di W e sia B la matrice le cui colonne sono i vettori di S. Allora v ∈ W ⊥ = S ⊥
se wiT Av = ~0 cioè (B T A)v = ~0 e quindi S ⊥ = Sol(B T , A, ~0). Moltiplicando per una
matrice il rango non può cresciere quindi
rk(B T ) ≥ rk(B T A) ≥ rg(B T AA−1 ) = rk(B)
Da cui rk(B T A) = rg(B T ) = k e dim W ⊥ = dim(Sol(B T A, ~0)) = n − k
Da cui si conclude.

51
7.3 Proiezioni e riflessioni
Definizione. Siano U, W sottospazi di V in somma diretta allora si definiscono la
proiezione di V su W lungo U, definita da pW (v) = w e la riflessione di V rispetto
a W in direzione U definita da rW (v) = w − u.

Osservazione. Queste due applicazioni sono lineari.

Lemma. Sia V uno spazio vettoriale e W un sottospazio allora W eW ⊥ sono in


somma diretta e la loro somma da V.

Dimostrazione. La somma delle loro dimesioni da V quindi la loro somma deve dare
V. Per definizione di ortogonale si ha banalmente che sono in somma diretta perchè
la loro intersezione contiene solo il vettore nullo.
Osservazione. Possiamo quindi scrivere una proiezione da V a W lungo la direzione
W ⊥ . Questa proiezione è detta proiezione ortogonale e si mostra facilmente che
se il prodotto scalare è standard si ha che la matrice di pW è

A(AT A)−1 AT

Dove A è la matrice avente la base di W come colonne.


Un altro modo per ottenere la matrice di pW è quello di considerare Q la matrice
avente per colonne i vettori della base di V e sia k la dimensione di W allora
 
Ik 0

M (pW ) = Q Q−1
0 0

7.4 Basi ortogonali e ortonormali


Definizione. Sia V uno spazio vettoriale, una base B := {v1 , · · · , vn } è detta or-
togonale se ∀i, j, i 6= j si ha che vi · vj = 0 (ovvero se i vettori della base sono
ortogonali fra loro). Una base ortogonale si dice ortonormale se vi · vi = 1, ∀i.

Teorema (Metodo di Gram-Schmidt). Sia {v1 , · · · , vn } una base di uno spazio


vettoriale V. Allora

wi = vi − i−1 wk ·vi
P
k=1 wk ·wk · wk

è una base ortogonale di V.

52
Dimostrazione. Sia Wi = span(v1 , · · · , vi ) e per induzione su i dimostriamo il risul-
tato.
per i = 1 è banale.
Per i > 1 si ha che la matrice A con w1 , · · · , wP i−1 come colonne, allora la pro-
i−1 wk ·vi
iezione ortogonale su Wi−1 di Wi è PWi (vi ) = K=1 wk ·wk · wk . Dal fatto che

wi = vi − PWi (vi ) ∈ Wi−1 segue che wi è perpendicolare agli altri vettori wi . Dovendo
essere wi 6= ~0 e essendo l’unico vettore di intersezione fra Wi−1 e Wi−1

il vettore nullo
i vettori wi sono linearmenti indipendenti e sono quindi una base.

7.5 Le isometrie
Definizione. Un endomorfismo f : <n → <n è detto isometria se ∀v, w ∈ <n si ha
che v · w = f (v) · f (w)

Lemma. Sia f un endomorfismo, allora f è un’isometria se e solo se

M (f )T M (f ) = I

Dimostrazione. si ha f (v)f (w) = f (v)T f (w) = (Av)T (Aw) = v T AT AV = v T (AT A)w


e quindi f è un’isometria se e solo se AT A = In

Definizione. Una matrice A è detta ortogonale se e solo se AT = A−1 .

Osservazione. Quindi f è un’isometria se e solo se la sua matrice associata è ortogo-


nale.

Lemma. Le colonne di una matrice ortogonale formano una base ortogonale di <n .

Dimostrazione. Si ottiene da questa matrice una matrice identica moltiplicandola per


la sua trasposta. Lo spazio delle colonne non cambia e quindi si ottiene la tesi.

Lemma. Una matrice ortogonale ha determinante in {1, −1}.

Dimostrazione. Si ha
1 = det(I) = det(AT A) = det(AT ) det(A) = det(A)2

53
7.6 Il teorema spettrale
Lemma. Il polinomio caratteristico di una matrice simmetrica ad ingresso reale A
è un prodotto di fattori lineari (in <).

Dimostrazione. In C tutti i polinomi sono fattorizzabili per il teorema fondamentale


dell’algebra. Sia ora z̄ il coniugato di z. Allora si ha che
v̄ T Av = v̄ T λv = λ(v̄v)
e
v̄Av = v̄ T AT v = (Av)T vλT v = λ̄v T v
Da cui v̄ T v = 0 oppure λ = λ̄. Escludendo il primo caso si ottiene la tesi.

Teorema (Teorema spettrale). L’endomorfismo di <n associato alla matrice A ha


una base ortogonale di autovettori.

Dimostrazione. Per induzione. Per n := 1 non c’è nulla da dimostrare.


per n > 1 sia λ un autovalore e v1 un autovettore normalizzato. Troviamo {v1 , w2 , · · · , wn }
base di <n e con Gram-Schmidt si trova {v1 , · · · , vn } base ortogonale contenete v1 .
Sia QT Q la matrice dei prodotti scalari vi vj e si noti che QT Q = In e QT = Q−1 . Ora
la matrice B := Q−1 AQ è simile ad A. B T = (Q−1 AQ)T = Q1 AQ = B. Quindi B è
simmetrica. Si noti che la prima colonna di B è λe1 , infatti Q−1 AQ = e1 = Q−1Av =
Q−1 λv = λQ−1 v = λe1 . Quindi inserendo e1 nella base di An−1 che ammette base
ortogonale per base induttiva si ha la base cercata.
Osservazione. Si capisce quindi che grazie a questo risultato si possono diagonalizzare
tutte le matrici che rispettino le ipotesi del teorema.

7.7 Forme Hermitiane


Definizione. Sia V uno spazio vettoriale du C. Una forma sesquilineare è una
funzione h : V × V → C t.c. h(u + λv, w) = h(u, w) + λh(v, w) e

h(u, v + λw) = h(u, v) + λ̄h(u, w)

Definizione. Una forma sequilineare è chiamata Hermitiana se h(v, u) = h(u, v).

Non verrano ora dimostarate le proprietà delle matrici Hermitiane.

54
Lemma. Si ha che

• Se W ⊂ Cn è un sottospazio e h una forma hermintiana standard allora lo


spazio W ⊥ ha dimensione n − dim(W ) ed è in somma diretta con W;

• Se h è una forma hermitiana di matrice associata A allora Ā = AT ;

• Ogni matrice hermitiana ha solo autovalori reali;

• Ogni hermitiana è diagonalizzabile in C ed ha autovalori in Cn ortogonali


rispetto al prodotto hermitiano standard;

7.8 Spazio delle funzioni lineare e spazio duale


Definizione. Sia definito lo spazio delle funzioni lineari

Mor(V ; W ) = {f : V → W t.c. f è lineare }

Osservazione. Mor è uno spazio vettoriale.

Lemma. L’insieme delle applicazioni lineari è una base di Mor

Dimostrazione. Ogni funzione lineare è diversa dall’altra e non esistono funzioni


linearmente dipendenti da altre.

7.9 Prodotto vettoriale


Definizione. Definiamo il prodotto ortogonale fra due vettori x := (x1 , x2 , x3 ) e
y := (y1 , y2 , y3 )
 
e1 x1 y1
x × y := det e2 x2
 y2 
e3 x3 y3

Lemma. L’area di un parallelogramma {sv + tw|0 ≤ s ≤ 1; 0 ≤ t ≤ 1} generato da


v, w è kv × wk

Dimostrazione. Si ha che l’area del parallelogrammma è kvkkwk sin α con α l’angolo


compreso fra v e w. Facendo il modulo di v × v si ottiene
p
kv × wk = (vp 2 2 2
2 w3 − v3 w2 ) + (v3 w1 − v1 w2 ) + (v1 w2 − v2 w1 ) =
(v · v)(w · w) sin2 α = kvkkwk sin α

55
Lemma. v × w = ~0 se e solo se i vettori sono linearmenti dipendenti.
Dimostrazione. v × w = ~0 se e solo se l’area del parallelogramma è nulla, cioè se
v = ~0 o w = ~0 oppure v è un multiplo di w cioè se e solo se v e w sono linearmente
dipendenti.
Definizione. Siano v1 , · · · , vn−1 ∈ <n . Sia A ∈ Mn×(n−1) la matrice le cui colonne
sono i vettori vi allora il prodotto vettoriale v1 × v2 × · · · × vn−1 è il vettore
wi := (−1)i+1 det(A(i) )
dove A(i) è la matrice A a cui è stata tolta la riga i.
Lemma. v1 × v2 × · · · × vn−1 = ~0 se e solo se i vettori sono linearmente dipendenti.
Dimostrazione. Calcolo diretto attraverso lo sviluppo di Laplace.
Definizione. Siao v1 , · · · , vn ∈ <n . Il prallelepipedo generato dai vettori vi è
P
P (v1 , · · · , vn ) = { i ti vi |ti ∈ [0, 1]∀i}
Lemma. Il volume del parallelepipedo P (v1 , · · · , vn ) è kv1 × · · · × vn−1 k
Dimostrazione. Per calcolo diretto.

8 Spazi affini
Definizione. Uno spazio affine è una coppia (A,V) con A uno spazio dei punti e
V uno spazio vettoriale e abbiamo una mappa +A : (A, V ) → A t.c.
• ∀P ∈ A si ha P + ~0 = P ;

• ∀P ∈ A, v, w ∈ V si ha (P +A v) +A w = P +A (v +V w);

• ∀P, Q ∈ A, ∃!v ∈ V t.c. Q = P + v.


Lo spazio dei punti spesso si indentifica come spazio affine (impropriamente) e lo
spazio vettoriale si chiamerà giacitura.
Osservazione. La terza condizione si può anche riesprimere come:
• ∀P ∈ A la mappa φP (v) : V → A data da φP (v) = P +A v è biiettiva;

56
• ∀v ∈ V la mappa φv (P ) : A → A data da φv (P ) = P +A v è biiettiva;

Definizione. Dato uno spazio affine si dice dimensione dello spazio affine la di-
mensione della sua giacitura.

Definizione. Dato uno spazio affine (A, V ) e due sottospazi affini (A1 , W1 ), (A2 , W2 )
allora

• i due sottospazi si dicono paralleli se una delle due giaciture è contenuta


nell’altra.

• i due sottospazi si dicono sghembi se non hanno punti in comune e le giaciture


sono in somma diretta.

8.1 distanze
Definizione. La distanza di un punto P da uno spazio affine A è dato da

minQ∈A d(P, Q)

Osservazione. Sia pA (P ) la proiezione ortogonale di P su A allora

d(P, Q)2 = d(P, pA (P ))2 + d(pA (P ), Q)2

per il teorema di pitagora quindi d(P, A) = d(P, pA (P ))

Lemma. Siano (A1 , W1 ), (A2 , W2 ) sottospazi affini di <n , W := (W1 + W2 )⊥ , P ∈


A1 , Q ∈ A2 allora

d(A1 , A2 ) = kpW (P − Q)k

Dimostrazione. Si noti che presi P 0 ∈ A1 , Q0 ∈ A2 si ha


pW (P − Q) = pW (P − P 0 + P 0 − Q0 + Q0 − Q) =
pW (P − P 0 ) + pW (P 0 − Q0 ) + pW (Q0 − Q) = pW (P 0 − Q0 )
Quindi qualsiasi punti scelga la proiezione della differenza non varia. Quindi siano
P 0 e Q0 i punti di minima distanza fra A1 e A2 allora
d(A1 , A2 ) = kP 0 − Q0 k = kpW (P 0 − Q0 )k = kpW (P − Q)k

57
8.2 Le coniche
Definizione. Siano (A1 , V1 ) e (A2 , V2 ) sottospazi affini. Un trasformazione affine
è una coppia di mappe

f : A1 → A2

g : V1 → V2

dove g è lineare e f (p + v) = f (p) + g(v).


Un’ affinità è una trasformazione affine dove f è biiettiva.
Una isometria è un’affinità dove g è un’isometria.

Definizione. Una conica è l’insieme degli zeri di un polinomio di secondo grado.


Quindi

C := {(x, y) ∈ <2 |f (x, y) = 0}

f (x, y) = a00 + 2a01 x + 2a02 y + a11 x2 + a12 xy + a22 y 2

La matrice associata alla conica è la matrice


 
a00 a01 a02
A := a01 a11 a12 
a02 a12 a22
mentre la matrice dei termini quadrati è la matrice
 
a11 a12
B :=
a12 a22
Definizione. Diremo che una conica è in forma canonica se la sua matrice asso-
ciata è diagonale.

Teorema (Calssificazione delle coniche). Sia C una conica in <2 allora esiste un
isometria T : <2 → <2 tale che T (C) è in forma canonica e d è

1. una circonferenza o un’ellissi se (tr(B) det(A) < 0, det(B) > 0);

2. una conica complessa senza punti reali se (tr(B) det(A) > 0, det(B) > 0);

3. rette complesse incidenti in un punto reale se (det(A) = 0, det(B) > 0);

58
4. un’iperbole se (det(A) 6= 0, det(B) < 0);

5. due rette incidenti se (det(A) = 0, det(B) < 0);

6. una parabola se (tr(B) det(A) 6= 0, det(B) = 0);

7. due rette distinte, complesse o reali, se (rk(A) = 2, det(B) = 0);

8. una retta doppia (rk(A) = 1, det(B) = 0);

Dimostrazione. Per il teorema spettrale è facile verificare che la marice è diagonaliz-


zabile e che per trasformarla in forma canonica è sufficiente un’isometria.
per quanto riguarda la classificazione vera e propria basta prendere le ipotesi e
inserirle nell’equazione delle coniche.

59

Potrebbero piacerti anche