Geometria
Franceschetto Giacomo
Si parla invece di forma a scala ridotta se, alle precedenti si aggiunge la condizione che
∀k ∈ {1, ..., r} ∧ ∀i ∈ {1, ..., jk−1 } vale aijk = 0
La principali differenze sono che esistono diverse forme a scala di una matrice
mentre la forma a scala ridotta è unica. Data una matrice in forma a scala chiamiamo
incognite determinate x1 , ..., xr incognite libere le rimanenti.
Proposizione 1.1.1. Sia A matrice allora utilizzando le operazione elementari si può arrivare
alle forme a scala di A dimostrata
Definizione 1.2.1. Data la matrice A possiamo chiamare operazioni elementari sulle righe
di A le seguenti operazioni:
2 matrici
04/10/2018
Definizione 2.0.1. Una matrice mxn dove m, n ∈ N è uno schema di mn numeri reali
scritti in m righe di n numeri: A = (aij )
• il prodotto tra due matrici A mxn e B nxp, a condizione che il numero di colonne
di A sia uguale al numero di righe di B, sarà una matrice AB mxp tale che
P
(AB)ij = n k=1 aik bkj
1. B mxn ⇒ A + B = B + A
2. B, C mxn ⇒ A + (B + C) = (A + B) + C
3. A + 0mxn = 0mxn + A = A
5. Im A = AIn = A
6. B, C nxp ⇒ A(B + C) = AB + AC
Definizione 2.3.1. Data una matrice A nxn diciamo che B è la sua inversa se AB = BA = In ;
quindi B = A−1
Dimostrazione 2.3.2.1.
Proposizione 2.3.4. Possiamo costruire delle matrici nxn invertibili dette matrici elementari
che vanno a sostituire le operazioni elementari, data A nxp:
• Sia P(i, j) matrice con 1 6 i < j 6 n e solo uno sulla diagonale meno (i, i) e (j, j) dove
c’è zero e il resto tutto nullo meno (i, j) e (j, i) dove c’è 1, P(i, j)A è la matrice ottenuta
da A scambiando le righe i, j.
• Sia S(i, j; λ) matrice con 1 6 i < j 6 n, i 6= j uguale a In meno per (i, j) dove c’è λ,
S(i, j; λ)A è la matrice ottenuta da A sommando λ volte la riga j alla riga i.
• Sia M(i; λ) matrice con 1 6 i 6 n, λ 6= 0 uguale a In meno per (i, i) dove c’è λ,
M(i; λ)A è la matrice ottenuta da A moltiplicando λ alla riga i.
Proposizione 2.3.5. Sia A una matrice nxn. Se In è una forma a scala di A allora questa è
invertibile.
Dimostrazione 2.3.5.1.
Osservazione 2.3.1. Diventa utile applicare il seguente metodo per trovare l’inversa di A: a
partire dalla matrice nx2n (A|In ) utilizzare Gauβ e arrivare a (In |B) dove B = A−1 perchè:
1. (A + B)T = AT + BT
2. (λA)T = λAT
3. (AT )T = A
4. (AC)T = CT AT
3 spazi vettoriali
Definizione 3.0.1. Un campo5 consiste in un insieme k e due operazioni (+, · : kxk → k) che
soddisfano:
1. ∀a, b ∈ k, a + b = b + a
2. ∀a, b ∈ k, a + (b + c) = (a + b) + c
3. ∃0 ∈ k : ∀a ∈ k, a + 0 = 0 + a = a
4. ∀a ∈ k ∃ − a : a + −a = −a + a = 0
5. ∀a, b ∈ k, ab = ba
7. ∃1 ∈ k : ∀a ∈ k, a · 1 = 1 · a = a
9. ∀a, b, c ∈ k, a(b + c) = ab + ac
Un campo finito è un campo con un numero finito di elementi e, definito un campo k, ogni
passo del procedimento di Gauβ è definito su k.
1. u + (v + w) = (u + v) + w
2. v + w = w + v
3. v + ~0 = ~0 + v = v
5 Q, R, C sono esempi di campi, N, Z invece non sono campi.
6 Sono esempi di spazi vettoriali Rn e ogni matrice mmxn (R)
3 spazi vettoriali 5
4. ∃ − v ∈ V : v + (−v) = ~0
5. λ(µ · v) = (λµ)v
6. 1 · v = v
7. (λ + µ)v = λv + µv
8. λ(u + v) = λu + λv
1. 0 · v = ~0
2. λ · ~0 = ~0
3. (−1)v = −v
4. λv = ~0 ⇒ v = ~0 o λ = 0
1. 0 = 0 +k 0 ⇒ 0v = 0v +v 0v ⇒ 0v = ~0
4. se λ 6= 0 e λv = 0 ⇒ v = λ1 (λv) = ~0
• w 6= ∅ (oppure ~0 ∈ W)
• ∀w, v ∈ V, v + w ∈ W
• ∀w ∈ W, λ ∈ k, λw ∈ W
Definizione 3.2.2. Uno spazio vettoriale V è detto finitamente generato8 se esiste un insieme
finito S tale che span(S) = V
3.4 Basi
18/10/2018
Definizione 3.4.1. Sia V uno spazio vettoriale, B ⊂ V è una base di V se
1. B è L.I.
2. span(B) = V
1. B è una base
Teorema 3.4.1 (Teorema della scelta della base). Sia S ⊂ V insieme finito di generatori di
V allora S contiene una base di V. In particolare ofni spazio vettoriale finitamente generato
possiede una base.
Lemma 3.4.1 (Lemma dello scambio). Sia V uno spazio finitamente generato, sia B =
{v1 , . . . , vn } base e w = λ1 v1 + · · · + λn vn ∈ V, se λk 6= 0 allora anche {v1 , . . . , vk−1 , w, vk+1 , . . . vn }
è una base.
Teorema 3.4.3 (Teorema dello scambio). Sia B = {v1 , . . . , vn } base di uno spazio vettoriale
V, w1 , . . . , wk L.I. se k 6 n ⇒ si possono rinumerare i vi in modo tale da trovare che :
{w1 , . . . , wk , vk+1 , . . . , vn } sia una base di V. 11
Corollario 3.4.3.1. Sia V uno spazio vettoriale finitamente generato, allora ogni base di V è
finita.
Corollario 3.4.3.2. Sia V uno spazio vettoriale finitamente generato, allora ogni due basi di V
hanno lo stesso numero di elementi.
3.5 Dimensione
Teorema 3.5.1 (Teorema di completamento ad una base). Sia V uno spazio vettoriale
finitamente generato,w1 , . . . , wr ∈ V ⇒ ∃ wr+1 , . . . , wn : B = {w1 , . . . , wr , wr+1 , . . . , wn }
è una base di V.
Proposizione 3.6.1. Applicare operazioni elementari di riga ad una matrice non varia lo spazio
delle righe.
Proposizione 3.6.2. Applicare operazioni elementari di riga ad una matrice non cambia il
rango delle colonne.
Proposizione 3.6.3. Il rango delle colonne di A ed il rango delle righe di A coincidono e sono
uguale al numero di pivots in una forma a scala di A.
Definizione 3.6.2. Il rango di una matrice è il rango delle sue colonne (o righe).
3.7 Sottospazi di Kn
Un sottospazio può essere descritto sia che tramite un sistema di equazioni cartesiani
che attraverso delle equazioni parametrico.
3 spazi vettoriali 8
Definizione 3.8.1. Diciamo che due sottospazi di uno spazio vettoriale sono in somma diretta
se U ∩ W = ∅, allora scriviamo U ⊕ W per U + W.
Lemma 3.8.3. Siano U, W sottospazi in somma diretta allora ∀v ∈ U ⊕ W si può scrivere come
v = u + w in modo unico.
11Si dimostra per induzione
4 funzioni lineari 9
4 funzioni lineari
Definizione 4.0.1. Una funzione f : V → W è una funzione lineare12 se per ogni v, w ∈ V,
λ∈K
1. f(v +V w) = f(v) +W f(w)
2. f(λv) = λf(v)
Lemma 4.0.1. Sia f lineare, allora f(~0V ) = ~0W
Lemma 4.0.2. Sia f lineare, allora f(−v) = −f(v) e f(v1 − v2 ) = f(v1 ) − f(v2 )
Proposizione 4.0.1. Sia f : V → W, f è lineare ⇔ f(v + λw) = f(v) + λf(w)
Proposizione 4.0.2. Siano V spazio vettoriale di base B = {v1 , . . . , vn }, W spazio vettoriale e
w1 , . . . , wn un insieme di vettori. Allora esiste ed è unica una funzione lineare f : V → W tale
che f(vi ) = wi
Lemma 4.0.3. Siano f : V → W e g : W → U funzioni lineari, allora g ◦ f : V → U è una
funzione lineare.
2. f è un endomorfismo se V = W
Vogliamo mostrare che per studiare le mappe lineari(funzioni) tra spazi vettoriali
di dimensione finita è sufficiente studiare le funzioni del tipo f(x) = Ax. Scrivere un
vettore di uno spazio vettoriale rispetto alla sua base definisce la mappa da V a Kn tale
che ϕB (v) = (a1, . . . , an ) ⇔ v = a1 v1 , . . . , an vn . 14
Proposizione 4.3.1. Sia f : V → W lineare, B1 , B2 basi ordinate di V,B10 , B20 basi ordinate di
W allora:
B0 B0 B0
MB22 (f) = TB 02 MB11 TBB12
1
0
Corollario 4.3.0.1. Sia V spazio vett. di dimensione finita, B, B 0 sue basi, ⇒ TBB = (TBB0 )−1
0
Corollario 4.3.0.2. Sia f : V → V endomorfismo, B, B 0 basi di V, ⇒ MB B −1
B 0 (f) = QMB Q
B 0
con Q = TB
Teorema 4.3.1. Siano V, W spazi di dimensione finita, f : V → W lineare, allora esistono basi
0 Ir 0
di V e W tali che MB
B (f) =
0 0
Definizione 4.3.2. Siano A, B due matrici nxn, le denotiamo come simili se esiste una matrice
invertibile Q tale che A = Q−1 BQ. 16
Lemma 4.4.3. Se Sol(A, b) 6= ∅ allora ci sono n − rg(A) incognite libere e rg(A) incognite
determinate.
Proposizione 4.5.1. Abbiamo che ϕB manda ker(f) a ker(g) e che ϕB 0 manda im(f) a im(g)
Teorema 4.5.1 (Teorema del rango). Siao V, W spazi vettoriali di dimensioni finite, B, B 0
basi ordinate, f : V → W lineare, A matrice di f rispetto a B, B 0 allora:
dim im(f) = rg(A) e dim ker(f) = dim Sol(A, ~0)
16Sono simili se e solo se sono matrici di un endomorfismo rispetto a basi diverse
17Definiamo omogeneo il sistema con b = ~0, inomogeneo l’opposto.
5 determinanti, autovalori e autospazi 12
Definizione 4.6.1. Sia Amxn , diciamo che la sua inversa sinistra è Bnxm se BA = In , e
che la sua inversa destra è Cnxm se AC = Im .
Proposizione 4.6.1. Una matrice quadrata è invertibile ↔ rg(A) = n, quindi solo se In è una
sua forma a scala
• det(In ) = 1
Lemma 5.1.2. Sommare λ volte una riga ad un’altra non varia il determinante.
Lemma 5.1.3. Scambiare due righe di una matrice inverte il segno del suo determinante.
Lemma 5.1.4. Se la matrice ha una riga composta esclusivamente da zeri allora il determinante
è nullo.
Quindi per trovare il determinante di una matrice è sufficiente ricondursi alla sua
forma a scala ridotta.
Proposizione 5.1.1. Se det esiste, allora è unico. Inoltre det = 0 ⇔ rg(A) < n.
• det(λA) = λn det(A)
• se A è una matrice triangolare allora det è il prodotto degli elementi sulla diagonale
5 determinanti, autovalori e autospazi 13
La matrice dei cofattori viene definita come cof(A)i,j = (−1)i+j aij det Ai,j
Proposizione 5.5.1. Acof(A)T = cof(A)T A = det(A)In
1
Corollario 5.5.0.1. A−1 = det A cof(A)
T
7 spazi affini