Sei sulla pagina 1di 15

AA 2018/19

Geometria
Franceschetto Giacomo

1 sistemi di equazioni lineari


03/10/2018
Definizione 1.0.1. Un’equazione lineare è un’equazione del tipo: a1 x1 , ..., an xn = b dove
i coefficienti e la soluzione sono numeri reali.

Definizione 1.0.2. Un sistema di equazioni lineari in n incognite è un numero finito di


P
equazioni: n j=1 aij xj = bi che può avere soltanto una soluzione, infinite soluzioni o nessuna
soluzione.

1.1 Le forme a scala

Definizione 1.1.1. Una matrice è in forma a scala se ∃r ∈ Z :

1. aij = 0 ∀i ∈ {r + 1, ..., m} ∧ ∀j ∈ {1, ..., n}

2. ∀i ∈ {1, ..., r} ∃j ∈ Z : aij 6= 0

3. per i ∈ {1, ..., r} sia ji = min{j|aij 6= 0}

Si parla invece di forma a scala ridotta se, alle precedenti si aggiunge la condizione che
∀k ∈ {1, ..., r} ∧ ∀i ∈ {1, ..., jk−1 } vale aijk = 0

La principali differenze sono che esistono diverse forme a scala di una matrice
mentre la forma a scala ridotta è unica. Data una matrice in forma a scala chiamiamo
incognite determinate x1 , ..., xr incognite libere le rimanenti.

Proposizione 1.1.1. Sia A matrice allora utilizzando le operazione elementari si può arrivare
alle forme a scala di A dimostrata

1.2 Operazioni elementari

Definizione 1.2.1. Data la matrice A possiamo chiamare operazioni elementari sulle righe
di A le seguenti operazioni:

1. scambiare due righe di A

2. moltiplicare una riga di A per un numero λ 6= 0


2 matrici 2

3. sommare λ volte la riga i di A alla riga K di A con k 6= i

Si noti che applicare le operazioni elementari su una qualsiasi matrice completa1 di


un sistema lineare non cambia l’insieme di soluzioni.2

2 matrici
04/10/2018
Definizione 2.0.1. Una matrice mxn dove m, n ∈ N è uno schema di mn numeri reali
scritti in m righe di n numeri: A = (aij )

2.1 Operazioni sulle matrici

• la somma di due matrici delle stesse dimensioni: A + B = (aij + bij )

• il prodotto per uno scalare viene definito come: λA = (λaij )

• il prodotto tra due matrici A mxn e B nxp, a condizione che il numero di colonne
di A sia uguale al numero di righe di B, sarà una matrice AB mxp tale che
P
(AB)ij = n k=1 aik bkj

2.2 Regole di calcolo


3 Definiamoin principio due matrici speciali che torneranno utili: 0 = 0mxn è
la matrice nulla, In è la matrice identità, matrice quadrata formata dalla diagonale
(1, 1) → (n, n) di uno e per il resto da zeri.

Proposizione 2.2.1. Data la matrice A mxn:

1. B mxn ⇒ A + B = B + A

2. B, C mxn ⇒ A + (B + C) = (A + B) + C

3. A + 0mxn = 0mxn + A = A

4. B nxp, C pxq ⇒ (AB)C = A(BC)

5. Im A = AIn = A

6. B, C nxp ⇒ A(B + C) = AB + AC

7. B mxn, C nxp ⇒ (A + B)C = AC + BC AB 6= BA

2.3 La matrice inversa


05/10/2018
L’invertibilità è una proprietà che riguarda solo le matrici quadrate.
1 Diversa dalla matrice dei coefficienti.
2 Dimostrare la prima operazione elementare è immediato, per le altre due si sfrutta la doppia inclusione
per arrivare all’uguaglianza degli insiemi di soluzioni applicando due volte le operazioni.
3 Si dimostrano sviluppando ed eguagliando ambo i membri
2 matrici 3

Definizione 2.3.1. Data una matrice A nxn diciamo che B è la sua inversa se AB = BA = In ;
quindi B = A−1

Proposizione 2.3.1. L’inversa di una matrice è unica

Dimostrazione 2.3.1.1. Supponiamo B, C inverse di A per assurdo, allora:

C = In C = (BA)C = B(AC) = BIn = B

Proposizione 2.3.2. Se A, B sono invertibili allora AB è invertibile e (AB)−1 = B−1 A−1 .

Dimostrazione 2.3.2.1.

(AB)(B−1 A−1 ) = A(BB−1 )A−1 = A(In )A−1 = AA−1 = In

e vale anche per (B−1 A−1 )(AB).

Proposizione 2.3.3. Se A è invertibile lo è anche A−1 e (A−1 )−1 = A4 .

Proposizione 2.3.4. Possiamo costruire delle matrici nxn invertibili dette matrici elementari
che vanno a sostituire le operazioni elementari, data A nxp:

• Sia P(i, j) matrice con 1 6 i < j 6 n e solo uno sulla diagonale meno (i, i) e (j, j) dove
c’è zero e il resto tutto nullo meno (i, j) e (j, i) dove c’è 1, P(i, j)A è la matrice ottenuta
da A scambiando le righe i, j.

• Sia S(i, j; λ) matrice con 1 6 i < j 6 n, i 6= j uguale a In meno per (i, j) dove c’è λ,
S(i, j; λ)A è la matrice ottenuta da A sommando λ volte la riga j alla riga i.

• Sia M(i; λ) matrice con 1 6 i 6 n, λ 6= 0 uguale a In meno per (i, i) dove c’è λ,
M(i; λ)A è la matrice ottenuta da A moltiplicando λ alla riga i.

Proposizione 2.3.5. Sia A una matrice nxn. Se In è una forma a scala di A allora questa è
invertibile.

Dimostrazione 2.3.5.1.

Et ...E1 A = In con Ei matrici elementari


A = (Et ...E1 )−1
quindi anche A è invertibile:
A−1 = Et ...E1

Osservazione 2.3.1. Diventa utile applicare il seguente metodo per trovare l’inversa di A: a
partire dalla matrice nx2n (A|In ) utilizzare Gauβ e arrivare a (In |B) dove B = A−1 perchè:

Et ...E1(A|In ) = (Et ...E1A|Et ...E1In ) = (In |Et ...E1)


B = Et ...E1 = A−1

Quindi l’unica soluzione possibile di Ax = b è A− 1b sempre che A sia invertibile.


4 Facilmente dimostrabile.
3 spazi vettoriali 4

2.4 La matrice trasposta

Definizione 2.4.1. La trasposta di A corrisponde ad (AT )ij = Aji

Proposizione 2.4.1. A, B nxm, C nxp

1. (A + B)T = AT + BT

2. (λA)T = λAT

3. (AT )T = A

4. (AC)T = CT AT

5. se A è invertibile allora anche AT lo è e (AT )−1 = (A− 1)T dimostrate

3 spazi vettoriali
Definizione 3.0.1. Un campo5 consiste in un insieme k e due operazioni (+, · : kxk → k) che
soddisfano:

1. ∀a, b ∈ k, a + b = b + a

2. ∀a, b ∈ k, a + (b + c) = (a + b) + c

3. ∃0 ∈ k : ∀a ∈ k, a + 0 = 0 + a = a

4. ∀a ∈ k ∃ − a : a + −a = −a + a = 0

5. ∀a, b ∈ k, ab = ba

6. ∀a, b ∈ k, a(bc) = (ab)c

7. ∃1 ∈ k : ∀a ∈ k, a · 1 = 1 · a = a

8. ∀a ∈ k ∃a−1 : a · a−1 = a−1 · a = 1

9. ∀a, b, c ∈ k, a(b + c) = ab + ac

Un campo finito è un campo con un numero finito di elementi e, definito un campo k, ogni
passo del procedimento di Gauβ è definito su k.

Definizione 3.0.2. Uno spazio vettoriale6 su un campo k è un insieme V i cui elementi si


chiamano vettori, dotato di due operazioni (+ : vxv → v, · : kxv → k) e che contiente un vettore
nullo. Dato V devono valere le seguenti proprietà ∀u, v, w ∈ V e ∀λ, µ ∈ k:

1. u + (v + w) = (u + v) + w

2. v + w = w + v

3. v + ~0 = ~0 + v = v
5 Q, R, C sono esempi di campi, N, Z invece non sono campi.
6 Sono esempi di spazi vettoriali Rn e ogni matrice mmxn (R)
3 spazi vettoriali 5

4. ∃ − v ∈ V : v + (−v) = ~0

5. λ(µ · v) = (λµ)v

6. 1 · v = v

7. (λ + µ)v = λv + µv

8. λ(u + v) = λu + λv

Lemma 3.0.1. Sia V spazio vettoriale su un campo k, allora ∀v ∈ V e ∀λ ∈ k valgono:

1. 0 · v = ~0

2. λ · ~0 = ~0

3. (−1)v = −v

4. λv = ~0 ⇒ v = ~0 o λ = 0

Dimostrazione 3.0.1.1. Si dimostrino i precedenti punti:

1. 0 = 0 +k 0 ⇒ 0v = 0v +v 0v ⇒ 0v = ~0

2. λ~0 = λ~0 + λ~0 ⇒ λ~0 = ~0

3. v + (−1)v = (1 − 1)v = 0v = ~0 ⇒ −v = (−1)v

4. se λ 6= 0 e λv = 0 ⇒ v = λ1 (λv) = ~0

3.1 Sottospazi vettoriali

Definizione 3.1.1. Sia V uno spazio vettoriale su k, w ⊂ v è un sottospazio vettoriale7 di


V se :

• w 6= ∅ (oppure ~0 ∈ W)

• ∀w, v ∈ V, v + w ∈ W

• ∀w ∈ W, λ ∈ k, λw ∈ W

Proposizione 3.1.1. Sia V uno spazio vettoriale su k e W un sottospazio vettoriale di V ⇒ W


è uno spazio vettoriale. dimostrata

3.2 Generatori di uno spazio


12/10/2018
Definizione 3.2.1. Sia V uno spazio vettoriale, S ⊂ V un suo sottospazio, definiamo span(S)
l’insieme di tutte le combinazioni lineari di elementi di S.

Proposizione 3.2.1. Sia V uno spazio vettoriale, S ⊂ V allora span(S) è il sottospazio di V


più piccolo che contiene S.
7 Sol(A, ~
0) è un esempio di sottospazio di una matrice A mxn.
3 spazi vettoriali 6

Definizione 3.2.2. Uno spazio vettoriale V è detto finitamente generato8 se esiste un insieme
finito S tale che span(S) = V

Proposizione 3.2.1. Sia S insieme, S ⊂ V e v una combinazione lineare di elementi si S allora


span(S) = span(S ∪ {v})

3.3 Dipendenza ed indipendenza lineare


17/10/2018
Definizione 3.3.1. Sia V spazio vettoriale, S ⊂ V sottoinsieme ⇒

• S è linearmente dipendente se ∃v1 , . . . , vr ∈ S distinti e λ1 , . . . , λr ∈ k non tutti nulli


: λ1 v1 + · · · + λr vr = ~0.

• S è linearmente indipendente se non è L.D.

Proposizione 3.3.1. V sottospazio, S ⊂ Vsottoinsieme S è L.D. ⇔ ∃v ∈ S : v è una C.L. di


vettori in S v.

Proposizione 3.3.2. Sia S = {v1 , . . . , vr } ⊂ V un insieme finito in uno spazio vettoriale ⇒ S


è L.I. ⇔ ∀v ∈ span(S) esistono e sono unici i λ1 , . . . , λr ∈ K 9 : v = λ1 v1 + · · · + λr vr .

3.4 Basi
18/10/2018
Definizione 3.4.1. Sia V uno spazio vettoriale, B ⊂ V è una base di V se

1. B è L.I.

2. span(B) = V

Proposizione 3.4.1. V spazio vettoriale, B base di V ⇒ ∀v ∈ V v si può scrivere in modo


unico come C.L. dei vettori in B.

Proposizione 3.4.2. V spazio vettoriale, B = {v1 , . . . , vr } sottoinsieme, allora le seguenti sono


equivalenti:

1. B è una base

2. V = span(B) ∀i v 6= span(B\{vi }), B è un sistema di generatori minimale di V.

/ B B ∪ {v} è L.D, B è un insieme L.I. massimale.


3. B è L.I. e ∀v ∈ 10

Teorema 3.4.1 (Teorema della scelta della base). Sia S ⊂ V insieme finito di generatori di
V allora S contiene una base di V. In particolare ofni spazio vettoriale finitamente generato
possiede una base.

Teorema 3.4.2. Ogni spazio vettoriale possiede una base.


8 Rn e mmxn sono spazi finitamente generati.
9 Coordinati di v rispetto ad S
10Si dimostra che (1) ⇒ (2), (2) ⇒ (3), (3) ⇒ (1).
3 spazi vettoriali 7

Lemma 3.4.1 (Lemma dello scambio). Sia V uno spazio finitamente generato, sia B =
{v1 , . . . , vn } base e w = λ1 v1 + · · · + λn vn ∈ V, se λk 6= 0 allora anche {v1 , . . . , vk−1 , w, vk+1 , . . . vn }
è una base.

Teorema 3.4.3 (Teorema dello scambio). Sia B = {v1 , . . . , vn } base di uno spazio vettoriale
V, w1 , . . . , wk L.I. se k 6 n ⇒ si possono rinumerare i vi in modo tale da trovare che :
{w1 , . . . , wk , vk+1 , . . . , vn } sia una base di V. 11

Corollario 3.4.3.1. Sia V uno spazio vettoriale finitamente generato, allora ogni base di V è
finita.

Corollario 3.4.3.2. Sia V uno spazio vettoriale finitamente generato, allora ogni due basi di V
hanno lo stesso numero di elementi.

3.5 Dimensione

Definizione 3.5.1. V spazio vettoriale, la dimensione di V è ∞ se non è finitamente generato,


al contrario è il numero di vettori di una sua base se è finitamente generato.

Proposizione 3.5.1. Sia V uno spazio vettoriale finitamente generato, U sottospazio di V,


allora dim(U) 6 dim(V). Inoltre dim(U) = dim(V) ⇔ U = V.

Teorema 3.5.1 (Teorema di completamento ad una base). Sia V uno spazio vettoriale
finitamente generato,w1 , . . . , wr ∈ V ⇒ ∃ wr+1 , . . . , wn : B = {w1 , . . . , wr , wr+1 , . . . , wn }
è una base di V.

3.6 Rango di una matrice


19/10/2018
Definizione 3.6.1. Il rango delle colonne di una matrice Amxn è la dimensione dello spazio
delle colonne. (∼ per le righe).

Proposizione 3.6.1. Applicare operazioni elementari di riga ad una matrice non varia lo spazio
delle righe.

Proposizione 3.6.2. Applicare operazioni elementari di riga ad una matrice non cambia il
rango delle colonne.

Proposizione 3.6.3. Il rango delle colonne di A ed il rango delle righe di A coincidono e sono
uguale al numero di pivots in una forma a scala di A.

Definizione 3.6.2. Il rango di una matrice è il rango delle sue colonne (o righe).

Corollario 3.6.0.1. Sia Amxn allora rg(A) = rg(AT ).

3.7 Sottospazi di Kn

Un sottospazio può essere descritto sia che tramite un sistema di equazioni cartesiani
che attraverso delle equazioni parametrico.
3 spazi vettoriali 8

3.7.1 Da equazioni parametriche a equazioni cartesiane


24/10/2018
• impostare una matrice con i vettori della base disposti verticalmente affiancati da
una matrice identità, si applica Gauβ fino ad arrivare alla forma a scala, nel lato
della matrice identità le equazioni cartesiane saranno quelle affiancate da righe
nulle.

• si dispongono i vettori della base orizzontalmente, si aggiunge un vettore v =


{x1 , . . . , xn } come ultima riga e si procede arrivando alla forma a scala, si pone la
condizione che l’ultima riga sia nulla per mantenere il rango della matrice.

3.7.2 Da equazioni cartesiane a equazioni parametriche


• presa la matrice dei coefficienti si raggiunge la forma a scala ridotta e si determi-
nano le incognite libere.

3.8 Intersezione e somma di spazi vettoriali

Lemma 3.8.1. U ∩ W è un sottospazio, mentre, in generale, U ∪ W non è un sottospazio.

Lemma 3.8.2. Siano U, W sottospazi di V, allora sono contenuti in U + V, si ha che span(U ∪


W) = U + W

Come riusciamo a determinare esplicitamente U + W e U ∩ W ?

• U + W prendo le due basi e le unisco in un unico insieme di vettori generatori,


questi però non è detto che siano L.I. allora dobbiamo trovare il sottoinsieme
di generatori che è anche base di U + W. Attraverso la medesima maniera in
cui si ottengono le equazioni cartesiane dalle parametriche possiamo valutare le
relazioni tra questi vettori e raggiungere il risultato desiderato.

• U ∩ W, conviene partire dalle forme parametriche e riunire le condizioni in un


unico sistema

Proposizione 3.8.1 (Formula di Grassman). Siano U e W sottospazi di dimensione finita di


uno spazio vettoriale V allora:

dim(U + w) = dim(U) + dim(W) − dim(U ∩ W)

Definizione 3.8.1. Diciamo che due sottospazi di uno spazio vettoriale sono in somma diretta
se U ∩ W = ∅, allora scriviamo U ⊕ W per U + W.

Lemma 3.8.3. Siano U, W sottospazi in somma diretta allora ∀v ∈ U ⊕ W si può scrivere come
v = u + w in modo unico.
11Si dimostra per induzione
4 funzioni lineari 9

4 funzioni lineari
Definizione 4.0.1. Una funzione f : V → W è una funzione lineare12 se per ogni v, w ∈ V,
λ∈K
1. f(v +V w) = f(v) +W f(w)
2. f(λv) = λf(v)
Lemma 4.0.1. Sia f lineare, allora f(~0V ) = ~0W
Lemma 4.0.2. Sia f lineare, allora f(−v) = −f(v) e f(v1 − v2 ) = f(v1 ) − f(v2 )
Proposizione 4.0.1. Sia f : V → W, f è lineare ⇔ f(v + λw) = f(v) + λf(w)
Proposizione 4.0.2. Siano V spazio vettoriale di base B = {v1 , . . . , vn }, W spazio vettoriale e
w1 , . . . , wn un insieme di vettori. Allora esiste ed è unica una funzione lineare f : V → W tale
che f(vi ) = wi
Lemma 4.0.3. Siano f : V → W e g : W → U funzioni lineari, allora g ◦ f : V → U è una
funzione lineare.

4.1 Nucleo e immagine


31/10/2018
Definizione 4.1.1. Data f : V → W lineare definiamo
• nucleo, ker(f) = {v ∈ V|f(v) = ~0}
• immagine, im(f) = {v ∈ V|f(v) = w} 13
Lemma 4.1.1. ker(f) è sottospazio di V mentre im(f) è sottospazio di W.
Lemma 4.1.2. f : V → W lineare è iniettiva ⇔ ker(f) = {~0}
Lemma 4.1.3. f : V → W lineare con W finitamente generato è suriettiva ⇔ im(f) = W ∼
dim(im(f)) = dim(W)
Lemma 4.1.4. Sia V finitamente generato dai vettori v1 , . . . , vn ⇒ span(f(v1 ), . . . , f(vn ) =
im(f)
Osservazione 4.1.1. Per trovare una base di im(f) basta partire da una base di V, v1 , . . . , vn .
Allora basta trovare il sottoinsieme di f(v1 ), . . . , f(vn ), generatori di im(f), che è anche una
base.
Teorema 4.1.1 (Teorema del rango). Siano V spazio vettoriale finitamente generato, W spazio
vettoriale, f : V → W lineare, allora ker(f) e im(f) sono finitamente generati e:
dim(V) = dim(ker(f)) + dim(im(f))
Corollario 4.1.1.1. Se dim(V) = dim(W) allora f è iniettiva ⇔ f è suriettiva ⇔ f è biettiva.
Corollario 4.1.1.2. Se dim(V) < dim(W) allora f non è suriettiva.
Corollario 4.1.1.3. Se dim(V) > dim(W) allora f non è iniettiva.
12Sono esempi di funzioni lineari la moltiplicazioni di vettori per matrici (riflessione rispetto all’asse delle
ordinate, rotazioni, proiezioni sull’asse delle ascisse) e le rette passanti per l’origine in R.
13Si nota che ker(f) ⊂ V, im(f) ⊂ W
4 funzioni lineari 10

Definizione 4.1.2. Sia f : V → W lineare, allora:

1. f è un isomorfismo se esiste g : W → V lineare tale che g(f(v)) = idV (v) e f(g(w)) =


idW (w)

2. f è un endomorfismo se V = W

3. f è un automorfismo se è un isomorfismo e un endomorfismo

Proposizione 4.1.1. Sia f : V → W lineare, ⇒ f è un isomorfismo ⇔ f è biettiva

Lemma 4.1.5. Sia f : V → W lineare, v ∈ V e w = f(v), allora f−1 (w) = v + ker(f)

4.2 La matrice di una funzione lineare

Vogliamo mostrare che per studiare le mappe lineari(funzioni) tra spazi vettoriali
di dimensione finita è sufficiente studiare le funzioni del tipo f(x) = Ax. Scrivere un
vettore di uno spazio vettoriale rispetto alla sua base definisce la mappa da V a Kn tale
che ϕB (v) = (a1, . . . , an ) ⇔ v = a1 v1 , . . . , an vn . 14

Lemma 4.2.1. La mappa ϕB : V → Kn è un isomorfismo

Proposizione 4.2.1. V, W spazi vettoriali di basi finite e ordinate B, B 0 , il procedimento che


0
associa ad ogni funzione lineare f la sua matrice MB
B (f) induce una corrispondenza biunivoca
15

tra le funzioni lineari V → W e le matrici mxn.

Proposizione 4.2.2. Sia f : V → W lineare, B = {v1 , . . . , vn }, B 0 = {w1 , . . . , wm } basi,


allora  
λ1
B0  .. 
ϕB 0 (f(λ1 v1 , . . . , λn vn )) = MB (f)  . 
λn
0
in altre parole ϕB 0 ◦ f ◦ ϕ−1 n
B :K →K
m è la moltiplicazione con la matrice MB (f).
B

Proposizione 4.2.3. Siano f : V → W e g : W → Z lineari, B, B 0 B 00 basi, allora


00 00 0
MB B B
B (g ◦ f) = MB 0 (g) · MB (f)
0
Corollario 4.2.0.1. Sia f : V → W un isomorfismo, allora MB
B 0 (f
−1 ) = (MB (f))−1
B

14La mappa è iniettiva e suriettiva.


P B0
15Dati f(vj ) = mi=1 aij mi, MB (f) è la matrice mxn (aij )
4 funzioni lineari 11

4.3 Matrice del cambiamento di base

Definizione 4.3.1. Chiamiamo MB


B1 la matrice di cambiamento di base da B1 a B2 e la
2

denotiamo con TBB12

Proposizione 4.3.1. Sia f : V → W lineare, B1 , B2 basi ordinate di V,B10 , B20 basi ordinate di
W allora:
B0 B0 B0
MB22 (f) = TB 02 MB11 TBB12
1

0
Corollario 4.3.0.1. Sia V spazio vett. di dimensione finita, B, B 0 sue basi, ⇒ TBB = (TBB0 )−1
0
Corollario 4.3.0.2. Sia f : V → V endomorfismo, B, B 0 basi di V, ⇒ MB B −1
B 0 (f) = QMB Q
B 0
con Q = TB

Teorema 4.3.1. Siano V, W spazi di dimensione finita, f : V → W lineare, allora esistono basi
 
0 Ir 0
di V e W tali che MB
B (f) =
0 0

Definizione 4.3.2. Siano A, B due matrici nxn, le denotiamo come simili se esiste una matrice
invertibile Q tale che A = Q−1 BQ. 16

4.4 Applicazioni ai sistemi di equazioni lineari

Lemma 4.4.1. Abbiamo che Sol(A, ~0) = ker(f).

Lemma 4.4.2. Sia b ∈ Km allora Sol(A, b) = ∅ oppure ∀x ∈ Sol(A, b) abbiamo che


Sol(A, b) = {x} + Sol(A, ~0). 17

Lemma 4.4.3. Se Sol(A, b) 6= ∅ allora ci sono n − rg(A) incognite libere e rg(A) incognite
determinate.

Teorema 4.4.1 (Teorema di Rouché-Capelli). Sol(A, b) 6= ∅ ⇔ rg(A|b) = rg(A)

Proposizione 4.4.1. Sia Amxn , allora:

1. Ax = b ha soluzioni per ogni b ∈ Km ↔ rg(A) = m

2. Ax = ~0 ha un’unica soluzione ↔ rg(A) = n

4.5 Determinare nucelo e immagine


0
Sia f : V → W lineare, g : Kn → Km la moltiplicazione con MB
B (f).

Proposizione 4.5.1. Abbiamo che ϕB manda ker(f) a ker(g) e che ϕB 0 manda im(f) a im(g)

Teorema 4.5.1 (Teorema del rango). Siao V, W spazi vettoriali di dimensioni finite, B, B 0
basi ordinate, f : V → W lineare, A matrice di f rispetto a B, B 0 allora:
dim im(f) = rg(A) e dim ker(f) = dim Sol(A, ~0)
16Sono simili se e solo se sono matrici di un endomorfismo rispetto a basi diverse
17Definiamo omogeneo il sistema con b = ~0, inomogeneo l’opposto.
5 determinanti, autovalori e autospazi 12

4.6 La matrice inversa

Definizione 4.6.1. Sia Amxn , diciamo che la sua inversa sinistra è Bnxm se BA = In , e
che la sua inversa destra è Cnxm se AC = Im .

Lemma 4.6.1. Se A ha un’inversa destra allora rg(A) = m, se ha un’inversa sinistra rg(A) =


n.

Lemma 4.6.2. Se A ha rg(A) = m allora ha un’inversa destra , se rg(A) = n allora ha


un’inversa sinistra .

Proposizione 4.6.1. Una matrice quadrata è invertibile ↔ rg(A) = n, quindi solo se In è una
sua forma a scala

Proposizione 4.6.2. Sia Anxn , B è inversa destra di A ↔ B è inversa sinistra di A ↔ B è


inversa di A.

5 determinanti, autovalori e autospazi


5.1 Proprietà del determinante

Definizione 5.1.1. Il determinante è una funzione Mnxn (K) → K tale che:

• det(In ) = 1

• det è lineare sulle righe

• det è alternante, se due righe sono identiche si annulla


 
a b
Lemma 5.1.1. det = ad − bc è un determinante
c d

Lemma 5.1.2. Sommare λ volte una riga ad un’altra non varia il determinante.

Lemma 5.1.3. Scambiare due righe di una matrice inverte il segno del suo determinante.

Lemma 5.1.4. Se la matrice ha una riga composta esclusivamente da zeri allora il determinante
è nullo.

Quindi per trovare il determinante di una matrice è sufficiente ricondursi alla sua
forma a scala ridotta.

Proposizione 5.1.1. Se det esiste, allora è unico. Inoltre det = 0 ⇔ rg(A) < n.

Corollario 5.1.0.1. Sia An :

• se le righe di A sono L.D ⇒ det = 0

• det(λA) = λn det(A)

• se A è una matrice triangolare allora det è il prodotto degli elementi sulla diagonale
5 determinanti, autovalori e autospazi 13

5.2 Esistenza del determinante

Definizione 5.2.1. Una permutazione di {1, . . . , n} è una mappa biettiva σ : {1, . . . , n} →


{1, . . . , n}. Denotiamo con Sn tutte le permutazioni di {1, . . . , n}.
Definizione 5.2.2. Il segno di una permutazione è la parità del numero di caselle che stanno
sopra la diagonale :
sign(σ) = (−1)e dove e = #{(i, j) : σ(i) > σ(j); i < j}
Y σ(j) − σ(i)
sign(σ) =
j−i
i<j

Lemma 5.2.1. sign(τσ) = sign(τ)sign(σ)


Definizione 5.2.3. Una trasposizione è una permutazione che permuta soltanto due elementi.
Adesso definiamo det A come:
X Y
n
det(A) = sign(σ) aiσ(i)
σ∈Sn i=1

si verifica che la seguente definizione soddisfa le condizioni per essere un determinante.


Teorema 5.2.1. Il determinante esiste ed è unico.

5.3 Il teorema di Binet

Lemma 5.3.1. det P(i, j) = −1 det S(i, j, λ) = 1 δM(i, λ) = λ


Teorema 5.3.1 (teroema di Binet). det AB = det A det B
1
Corollario 5.3.1.1. Se A è invertibile allora det A 6= 0 è det A−1 = det A

Corollario 5.3.1.2. det AT = det A 18

5.4 Sviluppo del determinante di Laplace


Pn i+j a i,j
Teorema 5.4.1 (sviluppo lungo la i-esima riga). det A = j=1 (−1) ij det A

5.5 La matrice dei cofattori

La matrice dei cofattori viene definita come cof(A)i,j = (−1)i+j aij det Ai,j
Proposizione 5.5.1. Acof(A)T = cof(A)T A = det(A)In
1
Corollario 5.5.0.1. A−1 = det A cof(A)
T

Teorema 5.5.1 (regola di Cramer). Se det a 6= 0 allora l’unica soluzione di Ax = b soddisfa :


det Ai
xi = per i = 1, . . . , n
det A
dove Ai è la matrice ottenuta sostituendo la i-esima colonna con il vettore b.
18questo ci consente di applicare le regole sul determinante per le operazioni sulle righe anche alle colonne
6 prodotti scalari, forme bilineari e applicazioni 14

5.6 Determinante di un endomorfismo

Proposizione 5.6.1. Sia f : V → V endomorfismo e B,B’ basi di V allora : det MB


B (f) =
B 0 19
det MB 0 (f).

5.7 Autovalori e autovettori

Sia f un endomorfismo di V spazio vettoriale di dimensione finita.


Definizione 5.7.1. Un autovettore di f è un vettore non nullo tale che f(v) = λv, λ è il
rispettivo autovalore. Lo spazio che comprende tutti gli autovettori di autovalore λ viene
definito autospazio : Eλ = ker(f − λidV )
Definizione 5.7.2. Il polinomio caratteristico di A è det(A − tIn ) ed è della forma (−1)n tn +
(−1)n−1 tr(A)tn−1 + an−2 tn−2 + · · · + a1 t + det A.
Lemma 5.7.1. Due matrici simili hanno lo stesso polinomio caratteristico, in particolare il
polinomio caratteristico di un endomorfismo non dipende dalla scelta della base.
Lemma 5.7.2. Gli autovalori di una matrice sono gli zeri del suo polinomio caratteristico.
Definizione 5.7.3. La molteplicità algebrica di un autovalore è il grado del monomio in
cui appare nel polinomio caratteristico, la molteplicità geometrica è la dimensione del suo
autospazio.
Lemma 5.7.3. 1 6 mg 6 ma
Lemma 5.7.4. L’unione delle basi degli autospazi di una matrice è un insieme L.I. .
Definizione 5.7.4. Un endomorfismo è diagonalizzabile se esiste una base B per V tale che
MB
B (f) è una matrice diagonale. Una matrice è diagonalizzabile se esiste una matrice Q tale che
QAQ− 1 è una matrice diagonale.
Proposizione 5.7.1. Sia f endomorfismo associato alla matrice A, f è diagonalizzabile ⇔ pA (t)
è un prodotto di fattori lineari e per ogni autovalore ma = mg
Corollario 5.7.0.1. Se p(t) è il prodotto di n fattori lineari distinti allora A è diagonalizzabile.

5.8 Forma di Jordan

Definizione 5.8.1. Un vettore non nullo è detto autovettore generalizzato di λ autovalore


se per qualche intero i abbiamo (A − λIn )i v = 0.
Proposizione 5.8.1. Se pA (t) è un prodotto di fattori lineare allora A ammette una forma di
Jordan.
Il resto è un casino guarda le dispense.

6 prodotti scalari, forme bilineari e applicazioni


19Per un endomorfismo il determinante della matrice associata non dipende dalla scelta della base.
7 spazi affini 15

7 spazi affini