Sei sulla pagina 1di 40

ELENA RUBEI

Dispense di
ALGEBRA LINEARE,
c.d.l. in Informatica, Università di Firenze,
http://web.math.unifi.it/users/rubei/didattica.html

Contents
1 Notazioni fondamentali in matematica 3

2 I numeri complessi 4

3 Rn e le matrici 6
3.1 Definizione di Rn e di matrici, somma e prodotto per uno scalare . . . . . . . . 6
3.2 Vari tipi di matrici, trasposta, traccia . . . . . . . . . . . . . . . . . . . . . . . . 8
3.3 Prodotto scalare standard e norma . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.4 Prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.5 Matrici invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

4 Sistemi lineari 15
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non . . . . . . . . 15
4.2 Operazioni elementari di riga, matrici a scalini . . . . . . . . . . . . . . . . . . . 15
4.3 Metodo per risolvere un sistema lineare quando la sua matrice completa è a scalini 17
4.4 Metodo per risolvere un qualsiasi sistema lineare . . . . . . . . . . . . . . . . . . 18

5 Spazi vettoriali 21
5.1 Definizione e prime proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.3 Generatori, insiemi di vettori linearmente indipendenti, basi, dimensione . . . . . 24
5.4 Dimensione di M (m × n, R) e di Rk [x] . . . . . . . . . . . . . . . . . . . . . . 27
5.5 Un esempio fondamentale: lo spazio generato dalle colonne di una matrice (range)
e lo spazio generato dalle righe . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

6 Applicazioni lineari 30
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale . . . . . . . . . . 30
6.2 Applicazioni lineari associate a matrici . . . . . . . . . . . . . . . . . . . . . . . 32

7 Determinante, spazi generati da righe e colonne, rango, inversa di una matrice 33


7.1 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
7.2 Spazi generati da righe e colonne e rango . . . . . . . . . . . . . . . . . . . . . 34
7.3 Il teorema di Rouché-Capelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.4 Relazione fra rango e determinante . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.5 Metodo per calcolare l’inversa di una matrice . . . . . . . . . . . . . . . . . . . 36

1
8 Autovettori e autovalori, diagonalizzabilità 38

Ordine di lettura consigliato : 3.1, 3.2, 5.1, 5.2, 3.3, 3.4, etc

2
1 Notazioni fondamentali in matematica

“∀” significa “per qualsiasi”

“∃” significa “esiste”

“⇒” significa “implica”

“⇔” significa “implica e è implicato”, “se e solo se”

“∈” significa “appartiene”, “è un elemento di”

“⊂” significa “è incluso”

3
2 I numeri complessi
Come è ben noto non tutte le equazioni polinomiali hanno soluzioni nei reali. Ad esempio
l’equazione
x2 = −1
non ha soluzione nei reali, cioè non esiste un numero reale x il cui quadrato è −1.
L’insieme dei numeri complessi è stato introdotto proprio per consentire di trovare soluzione a
tutte le equazione polinomiali, cioè è stato introdotto come un insieme “più grande” dell’insieme
dei numeri reali, nel quale ogni equazione polinomiale ha soluzione. In altre parole per ottenere
l’insieme dei numeri complessi si aggiunge all’insieme dei numeri reali l’insieme di tutte le soluzioni
di equazioni polinomiali.

Informalmente si definisce C (insieme dei numeri complessi) nel modo seguente:


si definisce i (unità immaginaria) come un numero che gode della seguente proprietà:

i2 = −1

e si definisce:
C = {a + bi| a, b ∈ R}
Quindi un numero complesso è un numero del tipo

z = a + bi

dove a e b sono due numeri reali e i è l’unità immaginaria. Si dice che a è la parte reale del
numero complesso a + bi e bi è la parte immaginaria. In genere si scrive:
Re(z) = a
Im(z) = b (coefficiente della parte immaginaria).
La somma e il prodotto in C si definiscono nel modo seguente:

(a + bi) + (c + di) = a + b + (c + d)i

(a + bi) · (c + di) = ac − bd + (ad + bc)i


La definizione di prodotto può sembrare strana e difficile da memorizzare, ma in realtà si ricava
facilmente “facendo valere” le proprietà distribuitiva e commutative e ricordando che i2 = −1:

(a+bi)·(c+di) = a·(c+di)+bi·(c+di) = ac+adi+bci+bdi2 = ac+adi+bci−bd = ac−bd+(ad+bc)i

Ovviamente si può vedere l’insieme dei numeri reali contenuto nell’insieme dei numeri complessi:
a ∈ R si può vedere come il numero complesso a + 0i.
Si definisce coniugato di un numero complesso z = a + bi il numero complesso a − bi e si denota
z:
z = a − bi

Si definisce modulo di un numero complesso z = a + bi il numero reale a2 + b2 e si denota
|z|: p
|z| = a2 + b2
Se z ∈ R, allora il modulo coincide
√ con il valore
√ assoluto: infatti in tal caso, se si scrive z = a+bi,
si ha che b = 0 e quindi |z| = a2 + b2 = a2 = |a|.

4
Si dimostrano facilmente le seguenti proprietà:
1) |z| = |z|
2) |z| = 0 se e solo se z = 0
3) |z · w| = |z||w|
4) z · z = |z|2
5) z + w = z + w
6) z · w = z · w
Inoltre è semplice dimostrare che valgono le proprietà associativa e commutativa sia per la somma
che per il prodotto, esiste un elemento neutro per la somma (0 = 0 + 0i), esiste un elemento
neutro per il prodotto (1 = 1 + 0i), vale la proprietà distributiva, esiste l’opposto per la somma
(cioè, dato un qualsiasi numero complesso z = a + bi, esiste un numero complesso che sommato
a z dà 0: esso sarà −a − bi); infine per qualsiasi numero complesso z = a + bi diverso da 0,
esiste l’inverso, cioè un numero complesso che moltiplicato per z dà 1: esso sarà |z|z 2 .

Più formalmente si può definire


C = {(a, b)| a, b ∈ R}
definendo la somma e il prodotto nel modo seguente:
(a, b) + (c, d) = (a + b, c + d)
(a, b) · (c, d) = (ac − bd, ad + bc)

L’insieme dei numeri complessi può essere identificato con i punti del piano in cui è stato fissato
un sistema di riferimento cartesiano, precisamente al numero complesso a + bi si fa corrispondere
il punto del piano di coordinate cartesiane (a, b). Il piano identificato con l’insieme dei numeri
complessi si chiama piano di Argand-Gauss.

(a,b)
b

Sia θ l’angolo formato dal semiasse positivo delle ascisse e il segmento che congiunge (0, 0) con
(a, b) tale che π < θ ≤ π e sia ρ la lunghezza del segmento che congiunge (0, 0) con (a, b),
allora si ha ovviamente:
z = a + bi = ρ(cos θ + isen θ)
(forma trigonometrica dei numeri complessi).
Supponiamo che z = a + bi = ρ(cos θ + isen θ) w = c + di = λ(cos η + isen η). Si può
dimostrare facilmente che
z · w = (ρλ)[cos(θ + η) + isen(θ + η)]
Quindi in pratica moltiplicare per z = ρ(cos θ + isen θ) un numero complesso w significa molti-
plicare per ρ la lunghezza del segmento che unisce l’origine col punto del piano che rappresenta
w e ruotare tale segmento di θ.

5
3 Rn e le matrici
3.1 Definizione di Rn e di matrici, somma e prodotto per uno scalare
Definizione 1 Sia n un numero naturale ≥ 1. Si definisce
  
 x1 
 . 
 

n
R =  . | x1 , ..., xn ∈ R
 


 . 


xn
 
x1
 . 
Notazione 2 Sia x =  .  ∈ Rn . L’elemento xi che compare al’i-esimo posto si definisce
.
 
xn
i-esima componente di x.
Definizione 3 Sia n un numero naturale ≥ 1. Si definisce la somma fra due elementi di Rn
nel modo seguente:      
x1 y1 x1 + y1
 .   .   . 
     
 . + . = . 
     
 .   .   . 
xn yn xn + yn
(cioè se x, y ∈ Rn , si definisce x + y come l’elemento di Rn tale che (x + y)i = xi + yi
∀i = 1, ..., n).
Esempio      
1 1 2

 0  
  3  
  3 


 −2 +
  2 =
  0 

 −π   2   −π + 2 
7 1 8
Definizione 4 Sia n un numero naturale ≥ 1. Si definisce il prodotto fra un elemento di Rn
e uno scalare (cioè un numero reale) nel modo seguente:
   
x1 λx1
 .   . 
   
λ . = . 
  
 .   . 
xn λxn
(cioè se x ∈ Rn e λ ∈ R, si definisce λx come l’elemento di Rn tale che (λx)i = λxi
∀i = 1, ..., n).
Esempio    
1 3

 0  
  0 

3
 −2 =
  −6 

 −π   −3π 
7 21

6
Osservazione 5 Fissando un sistema cartesiano nel piano, si stabilisce un’ovvia bigezione fra
R2 e il piano.
Analogamente fissando un sistema cartesiano nello spazio, si stabilisce un’ovvia bigezione fra R3
e lo spazio.
 
x
Osservazione 6 “Regola del parallelogramma” Per ogni elemento di R2 consideriamo il
y
   
0 x
segmento orientato avente come punto iniziale e come punto finale. In tal modo
0 y
2
la somma di due elementi di R può essere interpretata geometricamente tramite la cosiddetta
regola del parallelogramma:

x’ x+x’
y’ y+y’

x
y

Definizione 7 Siano m, n due numeri naturali ≥ 1. Una matrice m × n è una tabella con m
righe e n colonne. Si dice a coefficienti in R se tutti gli elementi sulla tabella sono numeri reali.
Notazione 8 L’elemento che sta sull’i-esima riga e j-esima colonna di una matrice A si denota
con ai,j o Ai,j .
La riga i-esima si denota con A(i) .
La colonna j-esima si denota con A(j) .
Definizione 9 Siano m e n due numeri naturali ≥ 1. Si definisce
M (m × n, R) = {A| A matrice m × n a coeff icienti in R}
Definizione 10 Siano m, n due numero naturale ≥ 1. Si definisce la somma fra due elementi
di M (m × n, R) nel modo seguente: siano A, B ∈ M (m × n, R), si definisce A + B come la
matrice m × n tale che
(A + B)i,j = Ai,j + Bi,j
∀i = 1, ..., m, j = 1, ..., n.
Esempio
     
1 0 2 1 3 2 2 3 4

 0 0 3  
 3 1 0  
  3 1 3 


 −2 1 −1  + 

 2 0 −1 =
  0 1 −2 

 −π 4 5   2 4 √1   −π + 2 8 6√ 
7 0 1 1 −6 − 2 8 −6 1 − 2

7
Definizione 11 Siano m, n due numero naturale ≥ 1. Si definisce il prodotto fra un elemento
di M (m × n, R) e uno scalare nel modo seguente: sia A ∈ M (m × n, R) e λ ∈ R; si definisce
λA come la matrice m × n tale che

(λA)i,j = λAi,j

∀i = 1, ..., m, j = 1, ..., n.

Esempio    
1 0 2 3 0 6

 0 0 3  
 0 0 9 

3
 −2 1 −1 
 =  −6
 3 −3 
 −π 4 5   −3π 12 15 
7 0 1 21 0 3

Proposizione 12 Valgono le seguenti proprietà:


1) (A + B) + C = A + (B + C) ∀A, B, C ∈ M (m × n, R) (proprietà associativa della somma)
2) A + B = B + A ∀A, B ∈ M (m × n, R) (proprietà commutativa della somma)
3) La matrice m × n con tutti i coefficienti nulli è un elemento neutro per la somma in M (m ×
n, R), cioè 0m×n + A = A + 0m×n = A ∀A ∈ M (m × n, R).
4) Per ogni A ∈ M (m × n, R) l’elemento (−1)A è opposto di A per la somma in M (m × n, R),
cioè A + (−1)A = (−1)A + A = 0m×n
5) (λ + µ)A = λA + µA ∀λ, µ ∈ R ∀A ∈ M (m × n, R) (proprietà distributiva rispetto alla
somma in R)
6) λ(A + B) = λA + λB ∀λ ∈ R ∀A, B ∈ M (m × n, R) (proprietà distributiva rispetto alla
somma in M (m × n, R))
7) (λµ)A = λ(µA) ∀λ, µ ∈ R ∀A ∈ M (m × n, R)
8) 1A = A ∀A ∈ M (m × n, R).

Dimostrazione. Per esercizio.

Nel capitolo 3 vedremo che la proposizione sopra si può enunciare brevemente dicendo che
M (m × n, R) è uno spazio vettoriale su R.

In modo del tutto analogo a come si è definito Rn , le matrici a coefficienti in R e le operazioni


di somma e moltiplicazione per scalari, si possono definire Cn , le matrici a coefficienti in C e le
operazioni di somma e moltiplicazione per scalari. Valgono per essi proprietà del tutto anaologhe
a quelle enunciate per R.

3.2 Vari tipi di matrici, trasposta, traccia


Definizione 13 Sia n ∈ N n ≥ 1. Sia A ∈ M (n × n, R). Si definisce diagonale (principale) di
A l’n-upla (a1,1 , ...., an,n ).

Definizione 14 Sia n ∈ N n ≥ 1. Sia A ∈ M (n × n, R). Si dice che A è diagonale se

ai,j = 0

per i 6= j (cioè se tutti gli elementi al di fuori della diagonale principale sono nulli).

8
Esempio  
3 0 0 0
 0 1 0 0 
 
 0 0 −3 0 
0 0 0 2
Esempio (fondamentale) Si dice matrice identità n × n (e si denota con In ) la matrice n × n
con tutti 1 sulla diagonale e 0 altrove. Per esempio

I1 = (1)
 
1 0
I2 =
0 1
 
1 0 0
I3 =  0 1 0 
0 0 1

Definizione 15 Sia n ∈ N n ≥ 1. Sia A ∈ M (n×n, R). Si dice che A è triangolare superiore


se
ai,j = 0
per i > j (cioè se tutti gli elementi al di sotto della diagonale principale sono nulli).

Esempio  
1 1 1 6 1

 0 1 2 6 −1 

 0 0 0 −3 4 
 0 0 0 −3 2 
0 0 0 0 23

Definizione 16 Sia n ∈ N n ≥ 1. Sia A ∈ M (n × n, R). Si dice che A è triangolare inferiore


se
ai,j = 0
per i < j (cioè se tutti gli elementi al di sopra della diagonale principale sono nulli).

Esempio  
3 0 0 0 0

 0 1 0 0 0 


 π 1 2 0 0 

 0 2 2 2 0 
0 4 0 3 0

Definizione 17 Sia n ∈ N n ≥ 1. Sia A ∈ M (n × n, R). Si dice che A è simmetrica se

ai,j = aj,i

∀i, j (cioè se gli elementi simmetrici rispetto alla diagonale principale sono uguali).

Esempio  
4 1 0 7
 1 0 2 6 
 
 0 2 9 −3 
7 6 −3 8

9
Definizione 18 Sia n ∈ N n ≥ 1. Sia A ∈ M (n × n, R). Si dice che A è antisimmetrica se

ai,j = −aj,i

∀i, j ∈ {1, .., n} (cioè se gli elementi simmetrici rispetto alla diagonale principale sono opposti).

Esempio  
0 1 0 −7
 −1 0 2 6 
 
 0 −2 0 −3 
7 −6 3 0

Osservazione 19 Gli elementi sulla diagonale principale di una matrice antisimmetrica sono
nulli.

(Infatti ai,i = −ai,i ∀i ∈ {1, ..., n}, pertanto 2ai,i = 0 e quindi ai,i = 0.)

Definizione 20 Siano m e n due numeri naturali ≥ 1. Sia A ∈ M (m × n, R). Si definisce


trasposta di A (che si indica con tA) la matrice n × m cosı̀ definita:

(tA)i,j = Aj,i

∀i ∈ 1, ..., n, j ∈ 1, ..., m.

Proposizione 21 Proprietà della trasposta


1) t (tA) = A ∀A ∈ M (m × n, R).
2) t (A + B) = tA + tB ∀A, B ∈ M (m × n, R).
3) t (λA) = λtA ∀λ ∈ R ∀A ∈ M (m × n, R).

Dimostrazione.
1) Per ogni i ∈ {1, ..., m} e per ogni j ∈ {1, ..., n} si ha

(t (tA))i,j = (tA)j,i = Ai,j

2) Per ogni i ∈ {1, ..., n} e per ogni j ∈ {1, ..., m} si ha

(t (A + B))i,j = (A + B)j,i = Aj,i + Bj,i

(tA + tB)i,j = (tA)i,j + (tB)i,j = Aj,i + Bj,i


3) Per ogni i ∈ {1, ..., n} e per ogni j ∈ {1, ..., m} si ha

(t (λA))i,j = (λA)j,i = λAj,i = λ(tA)i,j

Q.e.d.

Osservazione 22 Sia n ∈ N n ≥ 1. Sia A ∈ M (n × n, R);


1) A è simmetrica se e solo se A = tA
2) A è antisimmetrica se e solo se A = −tA

Definizione 23 Si definisce traccia di una matrice quadrata la somma degli elementi della sua
diagonale.

10
3.3 Prodotto scalare standard e norma
Definizione 24 Sia n un numero naturale ≥ 1. Si definisce prodotto scalare standard fra due
elementi v e w di Rn il numero reale
X
vi wi
i=1,...,n

Esso si indica con (v, w)

Esempio Siano   
−1 1
 31   0 
v=
 2 
 w=
 1 

9 −1
Allora (v, w) = −1 · 1 + 31 · 0 + 2 · 1 + 9 · (−1) = −8.

Proposizione 25 Proprietà del prodotto scalare standard


1) Simmetria: (v, w) = (w, v) ∀v, w ∈ Rn
2) Bilinearità:
linearità nel primo argomento:
(λv, w) = λ(v, w) ∀λ ∈ R ∀v, w ∈ Rn
(v + w, u) = (v, u) + (w, u) ∀v, w, u ∈ Rn
linearità nel secondo argomento:
(v, λw) = λ(v, w) ∀λ ∈ R ∀v, w ∈ Rn
(v, w + u) = (v, w) + (v, u) ∀v, w, u ∈ Rn
3) Definita positività:
(v, v) ≥ 0 ∀v ∈ Rn (positività); inoltre (v, v) = 0 se e solo se v = 0.

Dimostrazione. P P
1) (v, w) = i=1,...,n
P vi wi = i=1,...,n wi vi = (w, v)
2) λ(v, w) P = λ i=1,...,n vi wi P P
(λv, w) = Pi=1,...,n (λv)i wi = Pi=1,...,n λvi wi = λ Pi=1,...,n vi wi
(v, λw) = i=1,...,n P vi (λw)i = i=1,...,n P vi λwi = λ i=1,...,n vi wi P
(v
P + w, u) = i=1,...,n
P (v + w) i u i = i=1,...,n (vi + wi )ui = i=1,...,n (vi ui + wi ui ) =
i=1,...,n vi u i + i=1,...,n wi u i = (v, u) + (w, u)
La linearità nel secondo argomento si dimostra in modo analogo oppure la possiamo derivare
dalla linearità
P nel secondo argomento e la simmetria.
3) (v, v) = i=1,...,n vi vi = i=1,...,n vi2 ≥ 0;
P
2 2
P
inoltre (v, v) = 0 se e solo se i=1,...,n (vi ) = 0 e questo è vero se e solo se (vi ) = 0
∀i = 1, ..., n cioè se e solo se vi = 0 ∀i = 1, ..., n.
Q.e.d.

Definizione 26 Sia v ∈ Rn . Si definisce norma o lunghezza di v il numero reale


p
(v, v)

cioè la radice quadrata del prodotto scalare di v con se stesso (che è positivo per la proprietà 3
del prodotto scalare, quindi ne posso considerare la radice quadrata), cioè
s X s X
vi vi = (vi )2
i=1,...,n i=1,...,n

11
Esempio Sia 

−1
 3 
v=
 2 

2

Allora |v| = 18.

Proposizione 27 Proprietà della norma


1) |v| ≥ 0 ∀v ∈ Rn ; inoltre |v| = 0 se e solo se v = 0
2) |λv| = |λ||v| ∀λ, ∀v ∈ Rn

Dimostrazione.
1) Essendo la norma una radice quadrata è ovviamente maggiore o uguale qPa 0. Inoltre ovviamente
√ n 2
|0| = 0 · 0 + ..... + 0 · 0 = 0; inoltre se v ∈ R e |v| = 0 allora i=1,...,n vi = 0, quindi
2
vi2 = 0 i = 1, ..., n, quindi vi = 0 i = 1, ..., n, cioè v = 0.
P
i=1,...,n vi = 0, quindiq qP
p
2 = 2
P
2) |λv| = (λv, λv) = i=1,...,n (λv)i i=1,...,n (λvi ) =
qP q P qP
= 2 2 λ2 i=1,...,n vi2 = |λ| 2
i=1,...,n λ vi = i=1,...,n vi = |λ||v|
Q.e.d.

3.4 Prodotto di matrici


Definizione 28 Siano m, n, l tre numeri naturali ≥ 1. Sia A ∈ M (m×n, R) e B ∈ M (n×l, R).
Si definisce AB la matrice m × l cosı̀ definita:
X
(AB)i,j = Ai,k Bk,j
k=1,...,n

∀i = 1, ..., m, ∀j = 1, ...., l, o, equivalentemente,

(AB)i,j = (t A(i) , B(j) )

(prodotto scalare standard fra la trasposta della riga i-esima di A e la colonna j-esima di B)
∀i = 1, ..., m, ∀j = 1, ...., l.

Esempio 

 10  
1 0 3 2  11 20  −1 8
 11 2 0 2   =  31 42 
 0 2 
−1 1 −1 1 9 19
−1 1

Osservazione 29 Il prodotto di matrici non gode della proprietà commutativa.

Esempio     
1 0 1 10 1 10
=
−1 2 3 −1 5 −12
    
1 10 1 0 −9 20
=
3 −1 −1 2 4 −2

12
Proposizione 30 Proprietà del prodotto di matrici
1) (AB)C = A(BC) ∀A ∈ M (m × n, R), B ∈ M (n × p, R), C ∈ M (p × q, R).
2) A(B + C) = AB + AC ∀A ∈ M (m × n, R), B ∈ M (n × p, R), C ∈ M (n × p, R).
3) (A + B)C = AC + BC ∀A ∈ M (m × n, R), B ∈ M (m × n, R), C ∈ M (n × p, R).
4) λ(AB) = (λA)B = A(λB) ∀A ∈ M (m × n, R), B ∈ M (n × p, R), λ ∈ R
5) AIn = A e Im A ∀A ∈ M (m × n, R)

Dimostrazione.
Per dimostrare che due matrici sono uguali, basta ovviamente dimostrare che i coefficienti cor-
rispondenti sono uguali; quindi per provare un’uguaglianza di matrici, basta dimostrare che per
qualsiasi i, j, il coefficiente
P i, j del primo membro
P è ugualeP al coefficiente i, j del secondo membro.
((AB)C)i,jP= k=1,...,p (AB)i,k Ck,j P
1) P = k=1,...,p [ r=1,...,n Ai,r Br,k ]Ck,j =
= k=1,...,p [ r=1,...,n Ai,r Br,k Ck,j ] = k=1,...,p,r=1,...,n Ai,r Br,k Ck,j
P P P
(A(BC))
P i,j = P r=1,...,n Ai,r (BC)r,j =P r=1,...,n Ai,r k=1,...,p Br,k Ck,j =
= r=1,...,n k=1,...,p Ai,r Br,k Ck,j = r=1,...,n,k=1,...,p Ai,r Br,k Ck,j
P
2) P
(A(B + C))i,j = k=1,..,n Ai,kP(B + C)k,j =
= Pk=1,..,n Ai,k (Bk,j +P
Ck,j ) = k=1,..,n (Ai,k Bk,j + Ai,k Ck,j ) =
= k=1,..,n Ai,k Bk,j + k=1,..,n Ai,k Ck,j = (AB)i,j + (AC)i,j =
= (AB + AC)i,j

3) Analoga a 2).
P P
P (λ(AB))i,j = λ(AB)i,jP= λ k=1,...,n Ai,k Bk,j = k=1,...,n λ(Ai,k Bk,j ) =
4)
k=1,...,n (λAi,k )Bk,j = k=1,...,n (λA)i,k Bk,j = ((λA)B)i,j
Analogamente la seconda uguaglianza.
P P
5) (AIn )i,j = k=1,...,n Ai,k (In )k,j = k=1,...,n Ai,k δk,j = Ai,j 1 = Ai,j dove δk,j è il cosidetto
simbolo di Kronecker, cosı̀ definito

0 se k 6= j
δk,j =
1 se k = j

Analogamente l’altra uguaglianza.


Q.e.d.

Proposizione 31 t (AB) = tB tA ∀A ∈ M (m × k, R), B ∈ M (k × n, R).

Dimostrazione.
(t (AB))i,j = (AB)j,i = t=1,...,k Aj,t Bt,i
P

(tB tA)i,j = t=1,...,k (tB)i,t (tA)t,j = t=1,...,k Bt,i Aj,t = t=1,...,k Aj,t Bt,i
P P P
Q.e.d.

3.5 Matrici invertibili


Definizione 32 Sia n ∈ N, n ≥ 1. Sia A ∈ M (n × n, R). Si dice che A è invertibile se esiste
B ∈ M (n × n, R) tale che
AB = BA = In

13
Osservazione 33 (- Definizione.) Sia n ∈ N, n ≥ 1. Sia A ∈ M (n × n, R). Siano B, C ∈
M (n × n, R) tali che AB = BA = In = AC = CA. Allora B = C.
In altre parole se A è invertibile esiste una e una sola matrice B tale che AB = BA = In . Tale
matrice si dice l’inversa di A e si denota con A−1 .

Dimostrazione.
Per ipotesi so che
AB = In
Moltiplico a sinistra entrambi i membri dell’uguaglianza per C, ottenendo cosı̀

C(AB) = CIn

da cui
(CA)B = C
Dato che per ipotesi CA = In , ottengo

In B = C

e quindi
B=C
Q.e.d.

Notazione 34 GL(n, R) = {A ∈ M (n × n, R)| A invertibile}

Esempio. GL(1, R) = {(a)| a ∈ R − {0}}

Osservazione 35 Sia n ∈ N, n ≥ 1.
i) Siano A, B ∈ GL(n, R). Allora AB ∈ GL(n, R) e (AB)−1 = B −1 A−1
ii) Se A ∈ GL(n, R) allora A−1 ∈ GL(n, R) e (A−1 )−1 = A

   
a b 1 d −b
Esercizio. è invertibile se e solo se ad−bc 6= 0 e in tal caso l’inversa è .
c d ad−bc −c a

NOTA. Tutto quello che è stato detto nei paragrafi 3.1, 3.2, 3.4 e 3.5 può essere enunciato
sostituendo C a R.

14
4 Sistemi lineari
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non
Definizione 36 Un sistema lineare è un sistema di equazioni lineari cioè un sistema di equazioni
i cui membri sono polinomi di grado ≤ 1 nelle incognite.

Osservazione 37 Un sistema lineare di m equazioni e n incognite x1 , ..., xn può essere scritto


nella forma
Ax = b
 
x1
 . 
per una certa matrice A ∈ M (m × n, R) e un certo b ∈ Rm , dove x =  . .
 
 . 
xn
(Basta prendere, per ogni i, come coefficienti della i-esima riga di A i coefficienti di x1 , ..., xn
nella i-esima equazione del sistema e come bi il termine noto della i-esima equazione del sistema).

Definizione 38 La matrice A si dice matrice incompleta del sistema. La matrice m × (n + 1)


ottenuta affiancando (a destra) ad A l’m-upla b si chiama matrice completa del sistema e si
indica con A|b

Esempio Consideriamo il seguente sistema lineare nelle incognite x1 , x2 , x3 , x4 , x5 .



 2x1 + x3 − 6x4 = 0
x1 − x4 − 6x5 = 5
x2 − x3 − x4 = 3

La matrice incompleta A e b saranno


   
2 0 1 −6 0 0
A =  1 0 0 −1 −6  b= 5 
0 1 −1 −1 0 3

La matrice completa A|b sarà


 
2 0 1 −6 0 0
A|b =  1 0 0 −1 −6 5 
0 1 −1 −1 0 3

Definizione 39 Un sistema lineare Ax = b si dice omogeneo se b = 0.

Vogliamo adesso illustrare un metodo sistematico per risolvere i sistemi lineari. Per fare ciò
occorre premettere le nozioni di matrici a scalini e operazioni elementari di riga.

4.2 Operazioni elementari di riga, matrici a scalini


Definizione 40 Si definiscono operazioni elementari sulle righe di una matrice le seguenti
operazioni:
operazioni di tipo I: scambiare due righe
operazioni di tipo II: moltiplicare una riga per uno scalare non nullo
operazioni di tipo III: sommare ad una riga un multiplo di un’altra riga.

15
Definizione 41 Una matrice si dice a scalini (per righe) se soddisfa la seguente proprietà:
se in una riga i primi k elementi sono nulli allora la riga successiva (se esiste) o è tutta nulla o
almeno i primi k + 1 elementi sono nulli.

Definizione 42 Il primo elemento non nullo di ogni riga non nulla di una matrice a scalini si
dice pivot.

Esempi di matrici a scalini


 
0 1 0 6 −1
 0 0 2 6 −1 
 
 0 0 0 −3 4 
0 0 0 0 12
 
3 1 0 9 1
 0 1 0 6 −1 
 
 0 0 0 −3 4 
 
 0 0 0 0 2 
0 0 0 0 0
Esempi di matrici non a scalini
 
0 1 0 6 −1
 0 1 2 6 −1 
 
 0 2 0 −3 4 
0 0 0 0 12
 
1 1 1 6 1
 0 1 2 6 −1 
 
 0 2 0 −3 4 
 
 0 2 0 0 12 
0 0 0 0 0
Proposizione 43 Data una qualsiasi matrice, si può ottenere da essa, con operazioni elementari
di riga di tipo I e III, una matrice a scalini.

Dimostrazione. Per induzione sul numero di righe della matrice.


Sia j l’indice della prima colonna non nulla. Con un scambio opportuno di righe possiamo fare
in modo che il primo elemento della j-esima colonna sia diverso da zero. Con operazioni di tipo
III possiamo fare in modo che tutti gli elementi dal secondo in poi della j-esima colonna siano
nulli. Ripetiamo il procedimento sulla matrice ottenuta togliendo la prima riga.
Q.e.d.

Esempio
 
0 1 0
6 −1
 0 1 2
6 −1 
 
 0 2 0
−3 4 
0 0 0
10 12
 
0 1 0 6 −1
 0 0 2 0 0 
  II − I
 0 0 0 −15 6  III − 2I
0 0 0 10 12

16
 
0 1 0 6 −1
 0 0 2 0 0 
 
 0 0 0 −15 6 
0 0 0 0 16 IV + 23 III

4.3 Metodo per risolvere un sistema lineare quando la sua matrice com-
pleta è a scalini
Si scrive la matrice completa del sistema e si scrivono le incognite sopra essa. Supponiamo
che non ci siano pivots nell’ultima colonna della matrice completa. Chiamiamo “incognite
corrispondenti ad un pivot” quelle che “stanno sopra un pivot” e “incognite non corrispondenti
ad un pivot” le altre.
Sfruttando le equazioni, partendo dall’ultima, si scrivono le incognite corrispondenti ai pivots in
funzione di quelle non corrispondenti ai pivots.

Esempio. Consideriamo il seguente sistema lineare



 x + 2y + z − 2w − u = 0
z − w − 3u = 1
w+u=2

Scriviamo la matrice associata e scriviamo le incognite sopra la matrice

x y z w u
 
1 2 1 −2 −1 0
 0 0 1 −1 −3 1 
0 0 0 1 1 2
Le variabili che corrispondono ai pivots sono x, z, w, quelle che non corrispondono ai pivots sono
y, u.
Voglio scrivere le variabili che corrispondono ai pivots in funzione delle variabili che non cor-
rispondono ai pivots.
Dall’ultima equazione w + u = 2 ricavo w in funzione di u (e quindi di y, u):

w =2−u

Dalla penultima equazione z − w − 3u = 1 ricavo

z = w + 3u + 1

e, sostituendo l’espressione già trovata di w in funzione di y, u, ricavo anche z in funzione di


y, u:
z = 2 − u + 3u + 1 = 3 + 2u
Dalla prima equazione ricavo
x = −2y − z + 2w + u
da cui sostituendo l’espressione già trovate di w e z in funzione di y, u, ricavo anche x in funzione
di y, u:
x = −2y − 3 − 2u + 4 − 2u + u = −2y − 3u + 1

17
Quindi l’insieme delle soluzioni del sistema lineare è
  

 −2y − 3u + 1 

y

 
 





 3 + 2u  | y, u ∈ R

−u + 2

   


 

u
 

che si può anche scrivere


       

 −2 −3 1 

1 0 0

 
  




 
 




y 0 +u
  2 +
  3  | y, u ∈ R

0 −1 2

       


 

0 1 0
 

4.4 Metodo per risolvere un qualsiasi sistema lineare


Osservazione 44 Facendo operazioni elementari di riga sulla matrice completa di un sistema
lineare non si altera l’insieme delle soluzioni.
Dimostrazione. Fare un’operazione elementare di riga di tipo I (scambio di due righe) sulla
matrice associata al sistema significa scambiare due equazioni del sistema e questo ovviamente
non altera l’insieme delle soluzioni.
Fare un’operazione elementare di riga di tipo III (moltiplicare una riga per uno scalre non nullo)
sulla matrice associata al sistema significa moltiplicare entrambi i membri di un’equazione del
sistema per uno scalare non nullo e questo ovviamente non altera l’insieme delle soluzioni.
Infine fare un’operazione elementare di riga di tipo II (sommare ad una riga un multiplo di
un’altra riga) sulla matrice associata al sistema significa sommare ad un’equazione un multiplo
di un’altra equazione (membro a membro) e questo non altera l’insieme delle soluzioni.
Q.e.d.
Vediamo adesso come si risolve un sistema lineare qualsiasi.
Anzi tutto si scrive la matrice completa associata al sistema. Facendo operazioni elementari di
riga, si riduce la matrice completa del sistema in forma a scalini. Si risolve il sistema lineare
associato alla matrice cosı̀ ottenuta; l’insieme delle soluzioni è uguale all’ insieme delle soluzioni
del sistema iniziale per l’Osservazione 44.

Esempio Consideriamo il sistema lineare



 y+z−w−u=1
x + y + z − 3w − u = 0
2x + 2y + 3z − 5w − u = −1

Scriviamo la matrice associata al sistema


 
0 1 1 −1 −1 1
 1 1 1 −3 −1 0 
2 2 3 −5 −1 −1
Riduciamo a scalini, facendo operazioni elementari di riga.
 
1 1 1 −3 −1 0 II
 0 1 1 −1 −1 1  I
2 2 3 −5 −1 −1

18
 
1 1 1 −3 −1 0
 0 1 1 −1 −1 1 
0 0 1 1 1 −1 III − 2I
Scriviamo le incognite sopra la matrice a scalini cosı̀ ottenuta:

 x y z w u 
1 1 1 −3 −1 0
 0 1 1 −1 −1 1 
0 0 1 1 1 −1
Ricaviamo adesso le variabili che corrispondono ai pivots, cioè x, y, z in funzione di quelle che
non corrispondono ai pivots, cioè w, u. Dall’ultima equazione ricaviamo

z = −w − u − 1

Dalla seconda equazione ricaviamo

y = −z + w + u + 1

da cui sostituendo
y = w + u + 1 + w + u + 1 = 2w + 2u + 2
Dalla prima equazione ricaviamo

x = −y − z + 3w + u

da cui sostituendo

x = −2w − 2u − 2 + w + u + 1 + 3w + u = −1 + 2w

Quindi l’insieme del soluzioni è


  

 −1 + 2w 

 2u + 2w + 2

 
 



 −u − w − 1  | w, u ∈ R
 
w

   


 

u
 

Osservazione 45 Un sistema lineare omogeneo ha sempre una soluzione: quella nulla.

(Infatti un sistema linare omogeneo si può scrivere nella forma Ax = 0 e 0 è una soluzione infatti
A0 = 0.)

Osservazione 46 Un sistema lineare omogeneo con più incognite che equazioni ha una soluzione
non nulla.

Dimostrazione.
Quando riduco la matrice completa a scalini, il numero dei pivots è ovviamente minore o uguale
al numero delle righe che è uguale al numero delle equazioni del sistema, il quale per ipotesi
è minore del numero dell incognite. Quindi il numero dei pivots è minore del numero delle
incognite. Pertanto ci sono necessariamente delle variabili non corrispondenti a pivots, quindi
assegnando dei valori non nulli ad esse ottengo una soluzione non nulla.
Q.e.d.

19
Osservazione 47 Un sistema lineare ha soluzione se e solo se, riducendo a scalini con operazioni
elementari di riga la matrice completa, non ci sono pivots nell’ultima colonna.

Dimostrazione. Basta dimostrare che un sistema lineare la cui matrice completa è a scalini ha
soluzioni se e solo se non ci sono pivots nell’ultima colonna.
Ma questo è ovvio in quanto se c’è un pivot nell’ultima colonna (chiamiamolo p) vuol dire che
nel sistema lineare c’è l’equazione 0x1 + .... + 0xn = p, che ovviamente non ha soluzioni in
quanto p 6= 0. Viceversa se non ci sono pivots nell’ultima colonna allora trovo le soluzioni con il
metodo illustrato sopra.
Q.e.d.

Teorema 48 Teorema di struttura delle soluzioni di un sistema lineare


Sia A ∈ M (m × n, R) e sia b ∈ Rm .
Supponiamo che il sistema Ax = b abbia una soluzione.
Sia x una soluzione del sistema lineare Ax = b.
Allora {x ∈ Rn | Ax = b} = {x + y| y ∈ Rn e Ay = 0}

Dimostrazione.
Sia S1 := {x ∈ Rn | Ax = b} e S2 := {x + y| y ∈ Rn e Ay = 0}.
Dimostriamo anzitutto che S2 ⊂ S1 .
Sia y ∈ Rn tale che Ay = 0. Voglio dimostrare che x + y ∈ S1 cioè che A(x + y) = b. Per la
proprietà distributiva del prodotto di matrici A(x + y) = Ax + Ay = b + 0 = b.
Dimostriamo adesso che S1 ⊂ S2 .
Sia x ∈ S1 . Occorre dimostrare che esiste y ∈ Rn tale che Ay = 0 e x = x + y. Definisco
y = x − x. Ovviamente Ay = 0, infatti Ay = A(x − x) = Ax − Ax = b − b = 0.
Q.e.d.

NOTA. Tutto quello che è stato detto in questo capitolo può essere enunciato sostituendo C a
R.

20
5 Spazi vettoriali
5.1 Definizione e prime proprietà
Definizione 49 Sia V un insieme dotato di due operazioni, una (detta somma) + : V ×V → V ,
l’altra (detta prodotto per scalari) · : R × V → V .
Si dice che V è uno spazio vettoriale su R se valgono le seguenti proprietà:
1) (v + w) + u = v + (w + u) ∀v, w, u ∈ V (proprietà associativa della somma)
2) v + w = w + v ∀v, w ∈ V (proprietà commutativa della somma)
3) Esiste un elemento neutro per la somma, cioè esiste un elemento z di V tale che z+v = v+z =
v ∀v ∈ V . (Si può dimostrare che tale elemento è necessariamente unico, vedere l’osservazione
immediatamente seguente questa definizione; lo denoteremo quindi 0V e lo chiameremo zero di
V .)
4) Per ogni v ∈ V esiste un opposto, cioè un elemento v ′ ∈ V tale che v + v ′ = v ′ + v = 0V
5) (λ + µ)v = λv + µv ∀λ, µ ∈ R ∀v ∈ V (proprietà distributiva rispetto alla somma in R)
6) λ(v + w) = λv + λw ∀λ ∈ R ∀v, w ∈ V (proprietà distributiva rispetto alla somma in V )
7) (λµ)v = λ(µv) ∀λ, µ ∈ R ∀v ∈ V
8) 1v = v ∀v ∈ V

Osservazione 50 In ogni spazio vettoriale V esiste un solo elemento neutro per la somma.

Dimostrazione.
Siano z e z ′ due elementi neutri per la somma di V
Si ha che z + z ′ = z in quanto z ′ è elemento neutro per la somma.
Inoltre si ha che z + z ′ = z ′ in quanto z è elemento neutro per la somma.
Quindi z = z ′ , in quanto sono entrambi uguali a z + z ′ .
Q.e.d.

Osservazione 51 In ogni spazio vettoriale V si ha che

0R v = 0V
∀v ∈ V

Dimostrazione.
Si ha:
0R v = (0R + 0R )v = 0R v + 0R v
(la prima uguaglianza segue dal fatto che 0R + 0R = 0R , la seconda segue dalla proprietà 5
degli spazi vettoriali, cioè la proprietà distributiva rispetto alla somma in R).
Sia w un opposto di 0R v (esite per la proprietà 4 degli spazi vettoriali). Sommando w al primo
membro e all’ultimo membro della catena di uguaglianze sopra, si ottiene

0R v + w = (0R v + 0R v) + w

e quindi, applicando la definizione di opposto al primo membro e la proprietà 1 di spazio vettoriale


cioè la proprietà associativa della somma al secondo membro, ottengo

0V = 0R v + (0R v + w)

e quindi, per definizione di opposto,

0V = 0R v + 0V

21
da cui
0V = 0R v
Q.e.d.

Osservazione 52 Per qualsiasi v ∈ V l’elemento (−1)v è un opposto di v.

Dimostrazione.
(−1)v + v = (−1)v + 1v = (−1 + 1)v = 0R v = 0V
(la prima uguaglianza segue dalla proprietà 8 degli spazi vettoriali, la seconda dalla proprietà
distributiva rispetto alla somma in R, l’ultima dall’osservazione precedente).
Q.e.d.

Osservazione 53 Per qualsiasi v ∈ V , esiste un solo opposto di v (e quindi per l’osservazione


precedente è (−1)v).

Dimostrazione.
Siano v ′ e v ′′ due opposti di v, quindi v ′ + v = 0V e v ′′ + v = 0V ;
in particolare
v ′ + v = v ′′ + v
Sommando ad entrambi i membri un opposto, w, di v , si ottiene

(v ′ + v) + w = (v ′′ + v) + w

e quindi
v ′ + (v + w) = v ′′ + (v + w)
Pertanto
v ′ + 0V = v ′′ + 0V
da cui v ′ = v ′′ . Q.e.d.

Esempio basilare. Sia n ∈ N, n, ≥ 1; ; l’insieme Rn con le operazioni di somma e di prodotto


per uno scalare definite nel capitolo 1 è uno spazio vettoriale.

Esempio basilare. Siano n, m ∈ N, n, m ≥ 1; l’insieme M (m×n, R) con le operazioni di somma


e di prodotto per uno scalare definite nel capitolo 1 è uno spazio vettoriale.

Definizione 54 Gli elementi di uno spazio vettoriale si dicono vettori.

Definizione 55 Sia V uno spazio vettoriale. Siano v1 , ..., vk ∈ V e λ1 , ..., λk ∈ R. Si definisce


combinazione lineare di v1 , ..., vk con coefficienti λ1 , ..., λk il vettore

λ1 v1 + ... + λk vk

22
5.2 Sottospazi vettoriali
Definizione 56 Sia V uno spazio vettoriale su R. Un sottospazio di V è un sottoinsieme non
vuoto S di V tale che
• v + w ∈ S ∀v, w ∈ S (chiusura per la somma)
• λv ∈ S ∀λ ∈ R, ∀v ∈ S (chiusura per la moltiplicazione per scalari).

Esempio. L’insieme delle matrici simmetriche n × n è un sottospazio vettoriale dell’insieme delle


matrici n × n, infatti la somma di due matrici simmetriche è simmetrica e il prodotto fra uno
scalare e una matrice simmetrica è ancora una matrice simmetrica.

Osservazione 57 Un sottospazio vettoriale S di uno spazio vettoriale V contiene 0V .

Dimostrazione.
Essendo un sottospazio, S è non vuoto, quindi contiene un elemento v. Allora, per la proprietà
di chiusura per la moltiplicazione per scalari, si deve avere che OR v ∈ S. Ma, per l’osservazione
51, si ha che OR v = 0V , quindi 0V ∈ S.
Q.e.d.

Osservazione 58 Un sottospazio vettoriale S di uno spazio vettoriale V con le operazioni di


somma e di prodotto per scalari ereditate da V è lui stesso uno spazio vettoriale.

Proposizione 59 Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo. Siano
v1 , ..., vk ∈ V . L’insieme delle combinazioni lineari di v1 , ..., vk , cioè

{λ1 v1 + .... + λk vk | λ1 , ..., λk ∈ R}

è un sottospazio vettoriale di V . (In genere è denotato hv1 , ..., vk i e si legge “span di v1 , ...., vk ”.)

Dimostrazione.
Sia S = {λ1 v1 + .... + λk vk | λ1 , ..., λk ∈ R}.
Ovviamente S è non vuoto.
• S è chiuso per la somma, infatti sommando due elementi di S, λ1 v1 + .... + λk vk e µ1 v1 +
.... + µk vk , si ottiene
(λ1 v1 + .... + λk vk ) + (µ1 v1 + .... + µk vk )
che, per le proprietà 1),2),5) degli spazi vettoriali, è uguale a

(λ1 + µ1 )v1 + .... + (λk + µk )vk

che è un elemento di S.
• S è chiuso per la moltiplicazione per scalari, infatti, moltiplicando un elemento di S, λ1 v1 +
.... + λk vk , per uno scalare γ, si ottiene

γ(λ1 v1 + .... + λk vk )

che, per le proprietà 6) e 7) degli spazi vettoriali, è uguale a

(γλ1 )v1 + .... + (γλk )vk

che è un elemento di S.
Q.e.d.

23
Proposizione 60 Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo. Siano
v1 , ..., vk ∈ V .
1) hv1 , ..., vi−1 , vi , vi+1 , ..., vj−1 , vj , vj+1 , ...., vk i = hv1 , ..., vi−1 , vj , vi+1 , ..., vj−1 , vi , vj+1 , ...., vk i
(cioè il sottospazio non cambia cambiando l’ordine dei generatori)
2) hv1 , ..., vi−1 , vi , vi+1 , ..., vk i = hv1 , ..., vi−1 , λvi , vi+1 , ...vk i ∀λ ∈ R − {0} (cioè il sottospazio
non cambia se moltiplico un generatore per uno scalare non nullo)
3) hv1 , ..., vi−1 , vi , vi+1 , ..., vj−1 , vj , vj+1 , ...., vk i = hv1 , ..., vi−1 , vi +λvj , vi+1 , ..., vj−1 , vj , vj+1 , ...., vk i
∀λ ∈ R (cioè il sottospazio non cambia se ad un generatore sommo un multiplo di un altro gen-
eratore).

Dimostrazione. Per esercizio.

Proposizione 61 L’insieme delle soluzioni di un sistema lineare in n incognite è un sottospazio


vettoriale di Rn se e solo se il sistema lineare è omogeneo.

Dimostrazione.
Scriviamo il nostro sistema lineare nella forma matriciale Ax = b.
Vogliamo dimostrare che S := {x ∈ Rn | Ax = b} è un sottospazio vettoriale se e solo se b = 0.
Se S è un sottospazio vettoriale allora deve contenere 0 quindi A0 = b quindi b = 0.
Viceversa se b = 0, S = {x ∈ Rn | Ax = 0} ed è un sottospazio vettoriale infatti:
• è non vuoto (infatti contiene 0, perchè A0 = 0)
• è chiuso per la somma, infatti se x e x′ ∈ S, quindi Ax = 0 e Ax′ = 0, allora anche x + x′ ∈ S
perchè A(x + x′ ) = Ax + Ax′ = 0 + 0 = 0.
• è chiuso per la moltiplicazione per scalari infatti se x ∈ S, quindi Ax = 0 e λ ∈ R allora anche
λx ∈ S perchè A(λx) = λAx = λ0 = 0.
Q.e.d.

5.3 Generatori, insiemi di vettori linearmente indipendenti, basi, dimen-


sione
Definizione 62 Sia V uno spazio vettoriale. Si dice che un insieme di vettori v1 , ..., vk è un
insieme di vettori linearmente dipendenti se esistono λ1 , ..., λk ∈ R non tutti nulli tali che

λ1 v1 + ... + λk vk = 0

Definizione 63 Sia V uno spazio vettoriale. Si dice che un insieme di vettori v1 , ..., vk è un
insieme di vettori linearmente indipendenti se l’unica loro combinazione lineare uguale a 0 è
quella con tutti i coefficienti uguali a 0.

Definizione 64 Sia V uno spazio vettoriale. Un insieme di vettori di V si dice un insieme di


generatori per V se ogni elemento di V è una loro combinazione lineare.

Osservazione 65 Un sottoinsieme di un insieme di vettori linearmente indipendenti è ancora un


insieme di vettori linearmente indipendenti

Dimostrazione. L’affermazione è ovvia, in quanto se avessi una combinazione lineare con coeffi-
cienti non tutti nulli del sottoinsieme di vettori, potrei facilmente trovare una combinazione con
coefficienti non tutti nulli dell’insieme di vettori (basta prendere gli stessi coefficienti per i vettori
del sottoinsieme e coefficienti nulli per gli altri vettori).
Q.e.d.

24
Osservazione 66 Se {v1 , ..., vk } è un insieme di vettori dipendenti di V allora esiste i ∈
{1, ..., k} tale che vi si può scrivere come combinazione lineare di v1 , ..., vi , vi+1 , ..., vk .

Dimostrazione.
Dato che v1 , ..., vk sono un insieme di vettori linearmenti dipendenti, esistono λ1 , ..., λk ∈ R
non tutti nulli tali che
λ1 v1 + .....λk vk = 0
Supponiamo λi 6= 0. Allora
λ1 λi−1 λi+1 λn
vi = − v1 − ........ − vi−1 − vi+1 − ........ − vn
λi λ1 λ1 λi
Q.e.d.

Definizione 67 Sia V uno spazio vettoriale. Un insieme di vettori di V si dice una base di V
se è un insieme di vettori linearmente indipendenti che genera V .

Teorema 68 Sia V uno spazio vettoriale.


Sia {v1 , ..., vk } un insieme di vettori indipendenti di V .
Sia {w1 , ..., ws } un insieme di generatori di V .
Allora k ≤ s.

Dimostrazione. Dato che {w1 , ..., ws } è un insieme di generatori di V , esistono λi,j ∈ R tali che
X
vi = λi,j wj
j=1...s

per i = 1, ..., k.
Consideriamo la combinazione lineare
X X X X X
xi vi = xi λi,j wj = xi λi,j wj =
i=1,...,k i=1,...,k j=1,...,s i=1,...,k j=1,...,s

X X X X
= xi λi,j wj = ( xi λi,j )wj
j=1,...,s i=1,...,k j=1,...,s i=1,...,k

Se per assurdo k > s allora il sistema lineare omogeneo nelle incognite xi dato dalle j equazioni:
X
xi λi,j = 0
i=1,...,k

per j = 1, ..., s ha una soluzione non nulla (x1 , ..., xk ) per l’osservazione 46.
Quindi si ottiene X
xi vi = 0
i=1,...k

contraddicendo l’ipotesi per cui {v1 , ..., vk } è un insieme di vettori indipendenti di V . Quindi
k ≤ s.
Q.e.d.

Corollario 69 Sia V uno spazio vettoriale.


Siano {v1 , ..., vk } e {w1 , ..., ws } due basi di V .
Allora k = s.

25
Dato che due basi di uno stesso spazio vettoriale hanno la stessa cardinalità, per il corollario
appena enunciato, possiamo definire:

Definizione 70 Si dice dimensione di uo spazio vettoriale la cardinalità di una sua base.

Teorema 71 Completamento di vettori indipendenti ad una base. Dato un insieme di


vettori linearmente indipendenti {v1 , ..., vk } in uno spazio vettoriale V di dimensione n, allora
k ≤ n, inoltre
se k = n allora {v1 , ..., vk } è una base di V ,
se invece k < n è sempre possibile trovare {vk+1 , ..., vn } tali che {v1 , ..., vn } formano una base
di V .

Dimostrazione.
Il fatto che k ≤ n segue dal Teorema 68.
Per dimostrare la restante parte della tesi, premetto la seguente osservazione
Osservazione. Se {v1 , ..., vk } non è una base di V allora ovviamente hv1 , ..., vk i =
6 V e scegliendo
vk+1 non contenuto in hv1 , ..., vk i si ottiene che {v1 , ..., vk , vk+1 } sono ancora indipendenti,
infatti:
P
supponiamo i=1,...,k+1 λi vi = 0 per certi λi ∈ R; vogliamo dimostrare λi = 0 per i =
1, ..., k +
P 1; si ha λk+1 = 0 (altrimenti vk+1 sarebbe combinazione lineare dei precedenti) quindi
rimane i=1,...,k λi vi = 0 e siccome {v1 , ..., vk } sono indipendenti segue λi = 0 per i = 1, ..., k.
Quindi per l’osservazione, se k = n, {v1 , ..., vk } è una base di V (se non lo fosse otterrei un
insieme di k + 1 vettori indipendenti quindi, per il Teorema 68, si avrebbe k + 1 ≤ n, che è
assurdo).
Se k < n allora {v1 , ..., vk } non può essere una base e quindi per l’Osservazione posso trovare
un vettore vk+1 tale che {v1 , ..., vk , vk+1 } sono ancora indipendenti.
Continuando in questo modo aggiungiamo n − k vettori fino a che non troviamo una base.
Q.e.d.

Teorema 72 Estrazione di una base da vettori generatori Se v1 , ..., vk generano uno spazio
vettoriale V , si può trovare un sottoinsieme di essi che forma una base di V .

Dimostrazione.
Se {v1 , ..., vk } non è già una base, cioè non sono indipendenti, per l’Osservazione 66, esiste
un vettore dell’insieme {v1 , ..., vk } che è combinazione lineare dei rimanenti. Allora i rimanenti
formano ancora un insieme di generatori per V
(infatti supponiamo ad esempio che sia vk combinazione lineare di v1 , .., vk−1 :
X
vk = ci vi
i=1,...,k−1

per certi ci ; sia v ∈ V ; dato che v1 , ..., vk generano V , esistono λ1 , ..., λk tali che
X
v= λi vi
i=1,...,k
P
sostituendo a vk l’espressione i=1,...,k−1 ci vi , si ottiene
X X
v= λi vi + λk ci vi
i=1,...,k−1 i=1,...,k−1

26
X
= (λi + λk ci )vi
i=1,...,k−1

e quindi v è combinazione lineare di v1 , .., vk−1 ; quindi v1 , .., vk−1 sono generatori per V ).
Ripetendo il procedimento sui rimanenti, alla fine si arriva ad estrarre una base da {v1 , ..., vk }.
Q.e.d.

Teorema 73 Sia S un sottospazio vettoriale di dimensione k di uno spazio vettoriale V di


dimensione n, allora k ≤ n.
Se k = n allora S = V .

Dimostrazione.
Sia {v1 , ..., vk } una base di S. Essendo linearmente indipendenti in S sono anche linearmente
indipendenti in V , quindi, per il Teorema 71, k ≤ n.
Sempre per il Teorema 71, se k = n allora {v1 , ..., vk } è una base di V ; quindi, se v ∈ V , v può
essere scritto come combinazione lineare di v1 , ..., vk e quindi, dato che v1 , ..., vk sono elementi
di S e una combinazione lineare di elementi di S è ancora un elemento di S (essendo S un
sottospazio vettoriale), si ha che v appartiene a S.
Q.e.d.

Proposizione 74 Sia V uno spazio vettoriale di dimensione n. Se v1 , .., vn sono vettori gener-
atori di V , allora formano una base.

Dimostrazione
Si può estrarre da {v1 , .., vn } una base. Essa deve essere costituita da n elementi, (dato V ha
dimensione n), quindi coincide con {v1 , .., vn }.
Q.e.d.

5.4 Dimensione di M(m × n, R) e di Rk [x]


Osservazione 75 La dimensione di M (m × n, R) è mn.

Dimostrazione. Sia Ei,j la matrice m × n con il coefficiente i, j uguale a 1 e tutti gli altri nulli.
L’insieme {Ei,j }i=1,...,m, j=1,...,n è una base di M (m × n, R), infatti se A ∈ M (m × n, R) si ha
X
A= ai,j Ei,j
i=1,...,m, j=1,...,n

quindi l’insieme {Ei,j }i=1,...,m, j=1,...,n è un insiem di generatori per M (m × n, R) e si dimostra


anche facilmente che sono indipendenti.
Q.e.d.

Notazione 76 Sia Rk [x] l’insieme dei polinomi in x a coefficienti in R di grado minore o uguale
a k, cioè
{a0 + a1 x + .... + ak xk | a0 , ..., ak ∈ R}
E’ uno spazio vettoriale con la usuale somma di polinomi e prodotto per uno scalare.

Osservazione 77 La dimensione di Rk [x] è k + 1.

Dimostrazione.
L’insieme {1, x, ..., xk } è una base di Rk [x].
Q.e.d.

27
5.5 Un esempio fondamentale: lo spazio generato dalle colonne di una
matrice (range) e lo spazio generato dalle righe
Sia A una matrice m × n a coefficienti in R. Ad essa si possono associare due spazi vettoriali:
il sottospazio di Rm generato dalle colonne di A (che a volte viene chiamto “range di A”)
hA(1) , ..., A(n) i

e il sottospazio di Rn generato dalle righe di A


hA(1) , ..., A(m) i
Ovviamente questi due spazi non sono uguali, ma in seguito dimostreremo che, sorpendente-
mente, la loro dimensione è la stessa (e chiameremo tale numero rango della matrice).

Esempio. Sia  
3 0 3 −3
A= 0 1 2 1 
0 2 4 2
Lo spazio generato dalle colonne è il seguente sottospazio di R3 :
*       + *   +
3 0 3 −3 3 0
 0 , 1 , 2 , 1  =  0 , 1  =
0 2 4 2 0 2
     
 3 0 
= t  0  + s  1  | t, s ∈ R
0 2
 
 
3
Quindi per esempio  3  appartiene a tale spazio.
6
Lo spazio generato dalle righe è il seguente sottospazio di R4 :
         
* 3 0 0 + * 3 0 +
 0   1   2   0   1 
 3 , 2 , 4  =  3 , 2  =
         

−3 1 2 −3 1
     

 3 0 

0  1 
   
= t   + s   | t, s ∈ R

 3   2  

−3 1
 
 
3
 −1 
Quindi per esempio 
 1  appartiene a tale spazio.

−4

Osservazione 78 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne.

28
Dimostrazione. Segue immediatamente dalla Proposizione 60.
Q.e.d.

Osservazione 79 Sia A ∈ M (m × n, R) e B ∈ M (n × k, R).


Allora lo spazio generato dalle colonne di AB è contenuto nello spazio generato dalle colonne di
A.
Inoltre lo spazio generato dalle righe di AB è contenuto nello spazio generato dalle righe di B.

Riprenderemo nel capitolo 5 lo studio dello spazio generato dalle colonne di una matrice e dello
spazio generato dalle righe; in particolare studieremo la loro dimensione (detta rango).

NOTA. Tutto quello che è stato detto in questo capitolo può essere enunciato sostituendo C a
R.

29
6 Applicazioni lineari
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale
Definizione 80 Siano V e W due spazi vettoriali su R. Si dice che f : V → W è una funzione
lineare se e solo se valgono le seguenti proprietà:
a) f (v1 + v2 ) = f (v1 ) + f (v2 ) ∀v1 , v2 ∈ V (additività)
b) f (λv) = λf (v) ∀v ∈ V , ∀λ ∈ R (omogeneità)

Definizione 81 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.


Si definisce nucleo (in inglese kernel) di f il seguente sottoinsieme di V :

Ker(f ) = {v ∈ V | f (v) = 0}

Si definisce immagine di f il seguente sottoinsieme di W :

Im(f ) = {w ∈ W | ∃v ∈ V t.c. f (v) = w} = {f (v)| v ∈ V }

Osservazione 82 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.


Allora f (0V ) = 0W .

Dimostrazione. f (0V ) = f (0R 0V ) = 0R f (0V ) = 0W Q.e.d.

Osservazione 83 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.


Allora Ker(f ) è un sottospazio vettoriale di V e Im(f ) è un sottospazio vettoriale di W .

Dimostrazione. Siano v1 e v2 due elementi di Ker(f ), quindi f (v1 ) = 0V e f (v2 ) = 0V . Voglio


dimostrare che v1 + v2 ∈ Ker(f ), cioè che f (v1 + v2 ) = 0. Dato che f è lineare si ha che
f (v1 + v2 ) = f (v1 ) + f (v2 ) = 0V + 0V = 0V .
Sia v ∈ Ker(f ), quindi f (v) = 0V e λ ∈ R, devo dimostrare che λv ∈ Ker(f ), cioè che
f (λv) = 0. Dato che f è lineare, f (λv) = λf (v) = λ0V = 0V .
Q.e.d.

Osservazione 84 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.


Allora f è iniettiva se e solo se Ker(f ) = {0V }.

Dimostrazione. Ricordo che f è iniettiva se e solo se f (v1 ) = f (v2 ) implica v1 = v2 , cioè se e


solo se l’immagine inversa f −1 (w) di un qualsiasi elemento w di Im(f ) è costituita solo da un
elemento.
Supponiamo che f sia iniettiva; in particolare f −1 (0W ), che contiene sicuramente 0V , può
contenere solo 0V , quindi f −1 (0W ) = {0V }, ma f −1 (0W ) è Ker(f ), quindi Ker(f ) = {0V }.
Supponiamo che Ker(f ) = {0V }. Voglio dimostrare che se v1 e v2 sono due elementi di V e
f (v1 ) = f (v2 ) allora v1 = v2 . Dato che f (v1 ) = f (v2 ) si ha che f (v1 ) − f (v2 ) = 0W e quindi,
dato che f è lineare, f (v1 − v2 ) = 0W . Quindi v1 − v2 ∈ Ker(f ). Dato che Ker(f ) = {0V },
si deve avere v1 − v2 = 0V . Quindi v1 = v2 .
Q.e.d.

Teorema 85 . Relazione fondamentale. Siano V e W due spazi vettoriali su R con dim V <
+∞. Sia f : V → W una funzione lineare. Allora

dim Ker(f ) + dim Im(f ) = dim V

30
Dimostrazione.
Siano k = dim Ker(f ), n = dim V . Sia {v1 , .., vk } una base di Ker(f ), e completiamola ad
una base di V {v1 , .., vn }. Vogliamo dimostrare che dim Im(f ) = n − k. Basta dimostrare che
gli n − k vettori f (vk+1 ), .., f (vn ) formano una base di Im(f ).
• Dimostriamo anzitutto che f (vk+1 ), .., f (vn ) generano Im(f ). Sia w ∈ Im(f ); allora esiste
v in V tale che w = f (v). Siccome {v1 , .., vn } è una base di V , esistono coefficienti reali λi tali
che X
v= λi vi
i=1,...,n

Pertanto
X f lineare X f (vi )=0 per i=1,...,k X
w = f (v) = f ( λi vi ) = λi f (vi ) = λi f (vi )
i=1,...,n i=1,...,n i=k+1,...,n

come volevamo.
• Dimostriamo adesso che f (vk+1 ), .., f (vn ) sono linearmente indipendenti.
Siano λi ∈ R i = k + 1, ..., n tali che
X
λi f (vi ) = 0
i=k+1,...,n

Allora, per la linearità di f , X


f( λi vi ) = 0
i=k+1,...,n
P
e quindi i=k+1,...,n λi vi appartiene a Ker(f ) e quindi si può scrivere come combinazione
lineare di v1 , .., vk . Pertanto esistono coefficienti reali µj j = 1, ..., k tali che
X X
λi vi = µj vj
i=k+1,...,n j=1,...,k

da cui X X
λi vi − µj vj = 0
i=k+1,...,n j=1,...,k

Dato che v1 , ...., vn sono linearmente indipendenti, otteniamo che tutti i coefficienti della com-
binazione lineare sopra sono nulli, in particolare λi = 0 per i = k + 1, ..., n come volevamo.
Q.e.d.
Proposizione 86 Siano V e W due spazi vettoriali su R e sia {v1 , .., vn } una base di V . Siano
f, g due funzioni lineari. Se f (vi ) = g(vi ) i = 1, ..., n, allora f = g.
Dimostrazione.
Sia v un qualsiasi elemento di V . Voglio vederePche f (v) = g(v). Dato che {v1 , .., vn } è una
base di V , esistono λ1 , ..., λn ∈ R tali che v = i=1,...,n λi vi . Dato che f è lineare
X X
f (v) = f ( λi vi ) = λi f (vi )
i=1,...,n i=1,...,n

Analogamente X X
g(v) = g( λi vi ) = λi g(vi )
i=1,...,n i=1,...,n

ma dato che f (vi ) = g(vi ) i = 1, ..., n, le due espressioni coincidono. Quindi f (v) = g(v).
Q.e.d.

31
6.2 Applicazioni lineari associate a matrici
Definizione 87 Sia A ∈ M (m×n, R). Definisco l’applicazione lineare associata ad A l’applicazione

fA : Rn → Rm

definita nel modo seguente:


fA (x) = Ax

Osservazione 88 fA è lineare.

Dimostrazione.
prop. 2 prod. matrici
a) (additività) fA (x + y) = A(x + y) = Ax + Ay = fA (x) + fA (y)
prop 4 prod. matrici
b) (omogeneità) fA (λx) = A(λx) = λAx = λfA (x)
Q.e.d.

Proposizione 89 Sia f : Rn → Rm lineare; allora esiste A ∈ M (m × n, R) tale che f = fA .

Dimostrazione.
Sia A la matrice che ha come colonne rispettivamente f (e1 ),..., f (en ).
Voglio dimostrare che f = fA .
Per la Prop. 86 basta dimostrare che f (ej ) = fA (ej ) j = 1, ..., n.
Ma questo è ovvio in quanto fA (ej ) è Aej cioè la j-esima colonna di A, che, per come si è
definita A, è proprio f (ej ).
Q.e.d.

Osservazione 90 Sia A ∈ M (m × n, R). Allora l’immagine di fA è generata dalle colonne di


A.

Dimostrazione.
Im(fA ) = {fA (x)| x ∈ Rn } = {Ax| x ∈ Rn } = {A(1) x1 + ... + A(n) xn | x1 , ..., xn ∈ R} =
hA(1) , ..., A(n) i
Q.e.d.

NOTA. Tutto quello che è stato detto in questo capitolo può essere enunciato sostituendo C a
R.

32
7 Determinante, spazi generati da righe e colonne, rango,
inversa di una matrice
7.1 Determinante
Definizione 91 Sia A ∈ M (n × n, R).
Se n = 1 e quindi A = (a) con a ∈ R si definisce il determinante di A nel modo seguente:

det(A) = a
 
a b
Se n = 2 e quindi A = con a, b, c, d ∈ R si definisce il determinante di A nel modo
c d
seguente
det(A) = ad − bc
Più in generale per n ≥ 2 si definisce il determinante di A ∈ M (n × n, R) nel modo seguente:
fissiamo i ∈ {1, ..., n}; definiamo
X
det(A) = (−1)i+j ai,j det(Aı̂,̂ )
j=1,...,n

dove Aı̂,̂ è la matrice ottenuta da A togliendo la riga i-esima e la colonna j-esima (sviluppo per
l’i-esima riga).
 
2 3
Esempio. det = −14
 4 −1
2 1 0      
2 2 −3 2 −3 2
det  −3 2 2  = 2 det − 1 det + 0 det = 2 · 12 −
1 7 1 7 1 1
1 1 7
1(−23) + 0(−5) = 24 + 23 = 47

Proposizione 92 Proprietà del determinante


1) det(A) = det(A′ ) + det(A′′ ) se A(i) = A′(i) = A′′(i) ∀i 6= k e A(k) = A′(k) + A′′(k) .
2) Moltplicando una riga di una matrice per uno scalare λ, il determinante è moltiplicato per λ,
cioè se à è ottenuta da A moltiplicando una riga di A per λ, allora det(Ã) = λdet(A).
3) Il determinante di una matrice cambia di segno se si scambiano due righe della matrice, cioè
det(A) = det(Ã) per qualsiasi A ∈ M (n × n, R), se à è ottenuta da A scambiando due righe.
4) Il determinante è zero sulle matrici con due righe uguali.
5) Sommando ad una riga un multiplo di un’altra riga il determinante non cambia.
6) Il determinante è zero sulle matrici con una riga nulla.
7) det(A) = det(tA) ∀A ∈ M (n × n, R).
8) Le regole 1,...., 6 valgono anche per le colonne.
9) det(AB) = det(A)det(B) ∀A, B ∈ M (n × n, R).
10) Il determinante
  di una matrice triangolare è il prodotto degli elementi sulla diagonale.
A B
11) det = det(A)det(C) ∀A ∈ M (n × n, R) ∀B ∈ M (n × m, R) ∀C ∈ M (m ×
0 C
m, R).

Dimostrazione omessa.
(Le proprietà 1 e 2 sono dette in breve “il determinante è una funzione multilineare delle righe”;
la proprietà 3 è detta in breve “il determinante è una funzione alternante delle righe”.)

33
7.2 Spazi generati da righe e colonne e rango
Definizione 93 Sia A ∈ M (m × n, R). Si definisce rango per righe di A la dimensione del
sottospazio di Rn generato dalle righe di A

rkr (A) = dim(hA(1) , ..., A(m) i)

Si definisce rango per colonne di A la dimensione del sottospazio di Rm generato dalle colonne
di A
rkc (A) = dim(hA(1) , ..., A(n) i)

Osservazione 94 Sia A ∈ M (m × n, R). Allora

rkr (A) ≤ min{m, n}

in quanto rkr (A) è la dimensione di un sottospazio di Rn , quindi ha dimensione ≤ n, generato


da m elementi (le righe di A), quindi ha dimensione ≤ m. Analogamente

rkc (A) ≤ min{m, n}

Osservazione 95 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe. Quindi il rango per righe non cambia facendo operazioni elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne. Quindi il rango per colonne non cambia facendo operazioni elementari di colonne.

Dimostrazione. Segue immediatamente dalla Proposizione 60.


Q.e.d.

Proposizione 96 Sia A una matrice a scalini allora rkr (A) è uguale al numero degli scalini.

Dimostrazione.
Sia k il numero degli scalini cioè delle righe non nulle.
Siano j1 ,..., jk gli indici delle colonne dove compaiono i pivots.
Per dimostrare la tesi basta dimostrare che le prime k righe sono indipendenti.
Siano λ1 , ..., λk ∈ R tali che
λ1 A(1) + .... + λk A(k) = 0 (1)
Voglio dimostrare che λ1 = ... = λk = 0.
Considerando i j1 -esimi coefficienti dell’uguaglianza 1, ricavo

λ1 A1,j1 + .... + λk Ak,j1 = 0

cioè
λ1 A1,j1 = 0
(in quanto A2,j1 = .... = Ak,j1 = 0) da cui

λ1 = 0

in quanto A1,j1 6= 0 essendo un pivot.


Considerando i j2 -esimi coefficienti dell’uguaglianza 1, ricavo

λ1 A1,j2 + λ2 A2,j2 + .... + λk Ak,j2 = 0

34
cioè
λ2 A2,j2 = 0
(in quanto λ1 = 0 e A3,j2 = .... = Ak,j2 = 0) da cui
λ2 = 0
in quanto A2,j2 6= 0 essendo un pivot.
Proseguendo analogamente ricaviamo λ1 = ... = λk = 0.
Q.e.d.
Proposizione 97 Sia A ∈ M (m × n, R). Allora
dim(Ker(fA )) = n − rkr (A)
Dimostrazione.
Ovviamente
Ker(fA ) = {x ∈ Rn | Ax = 0}

che, se A è una matrice a scalini ottenuta da A con operazioni elementari di riga, è uguale a
{x ∈ Rn | A′ x = 0}
quindi all’insieme delle soluzioni del sistema lineare omogeneo con matrice incompleta A′ .
Per trovare tale insieme di soluzioni devo scrivere le variabili che corrispondono ai pivots in
funzione di quelle che non corrispondono ai pivots.
Sia k = rkr (A) che è uguale a rkr (A′ ). Modulo riordinare le variabili, posso supporre che le
variabili che corrispondono ai pivots siano le prime k: x1 , ...., xk .
Sfruttando le equazioni scrivo x1 , ...., xk in funzione di xk+1 , ...., xn :
x1 = f1 (xk+1 , ...., xn )
.
.
.
xk = fk (xk+1 , ...., xn )
Quindi l’insieme delle soluzioni è
 f (x , ...., x )     .   .  
1 k+1 n
.
 .   . 

 
 
 


   
 
 



  .  




  .   .  





 . 


 
 

 .
 
  .
 
 


 fk (xk+1 , ...., xn )   .   . 
| xk+1 , ...., xn ∈ R = xk+1 + .... + xn | xk+1 , ...., xn ∈ R
xk+1  1   0 
     

   
 

  .  



  0   .  


. .  . 

  
  
     

     
0
   

 .  
  . 

xn 0 1

quindi ha dimensione n − k
Q.e.d.
Osservazione 98 Sia A ∈ M (m × n, R). Allora dim(Im(fA )) = rkc (A).
Dimostrazione.
Segue immediatamente dall’Osservazione 90.
Q.e.d.
Teorema 99 Sia A ∈ M (m × n, R). Allora rkr (A) = rkc (A)
Dimostrazione.
Oss.98 Relaz.F ondam. P rop.97
rkc (A) = dim(Im(fA )) = n − dimKer(fA ) = rkr (A).
Q.e.d.

35
7.3 Il teorema di Rouché-Capelli
Teorema 100 Teorema di Rouché-Capelli. Sia A ∈ M (m × n, R) e sia b ∈ Rm . Il sistema
lineare Ax = b ha soluzione se e solo se rk(A) = rk(A|b).

Dimostrazione.
Il sistema lineare Ax = b ha soluzione se e solo se esistono x1 , ..., xn ∈ R tali che

x1 A(1) + .... + xn A(n) = b

cioè se e solo se b è combinazione lineare di A(1) , ...., A(n) . Questo equivale a dire che

hA(1) , ...., A(n) i = hA(1) , ...., A(n) , bi

Dato che si ha sempre hA(1) , ...., A(n) i ⊂ hA(1) , ...., A(n) , bi, dire questi due sottospazi sono
uguali equivale a dire che le loro dimensioni sono uguali.
Q.e.d.

7.4 Relazione fra rango e determinante


Teorema 101 Sia A ∈ M (n × n, R).

A ∈ GL(n, R) ⇔ rk(A) = n ⇔ det(A) 6= 0

Dimostrazione omessa.

Teorema 102 (Criterio dei minori orlati). Sia A ∈ M (m × n, R). Allora rk(A) è k se
e solo se esite una sottomatrice k × k con determinante diverso da 0 e tutte le sottomatrici
(k + 1) × (k + 1) contenenti tale sottomatrice hanno determinante uguale a 0

Dimostrazione omessa.
 
1 0 2 3 −1
 −2 0 −4 −6 2 
Esempio. Sia A =   2 1 2

−6 2 
0 1 −2 −12 4
Esiste una sottomatrice 2 × 2 (per esempio quella formata dalle prime due colonne e la seconda e
terza riga) con determinante diverso da 0 e tutte le sottomatrici 3 × 3 che la contengono hanno
determinante uguale a 0; quindi il rango di A è 2.

7.5 Metodo per calcolare l’inversa di una matrice


Sia A ∈ GL(n, R).
Un metodo per calcolare l’inversa è il seguente (omettiamo la dimostrazione):
• affiancare ad A a destra la matrice In , ottenendo cosı̀ una matrice n × 2n: (A|In )
• fare operazioni elementari di riga sulla matrice (A|In ) fino ad ottenere una matrice la cui prima
parte è In , cioè del tipo (In |B).
La matrice B cosı̀ trovata è l’inversa di A.

Esempio. Sia  
1 0 2
A= 0 2 1 
−1 0 0

36
Affiancando ad A la matrice I3 ottengo
 
1 0 2 1 0 0
 0 2 1 0 1 0 
−1 0 0 0 0 1

Faccio adesso operazioni elementari di riga.


 
1 0 2 1 0 0
 0 2 1 0 1 0 
0 0 2 1 0 1 III + I
 
1 0 0 0 0 −1 I − III
 0 2 0 −1 1 −1  II − 21 III
2 2
0 0 2 1 0 1
 
1 0 0 0 0 −1
 0 1 0 −1 1 −1 1
2 II

4 2 4
1 1 1
0 0 1 2 0 2 2 III

La matrice  
0 0 −1
B =  − 41 1
2 − 41 
1 1
2 0 2

è l’inversa di A.

NOTA. Tutto quello che è stato detto in questo capitolo può essere enunciato sostituendo C a
R.

37
8 Autovettori e autovalori, diagonalizzabilità
Definizione 103 Sia V uno spazio vettoriale su R e f : V → V una applicazione lineare. Un
vettore v ∈ V non nullo si dice autovettore di f se esiste λ ∈ R tale che

f (v) = λv

(quindi se f manda v in un suo multiplo). In tal caso si dice che λ è un autovalore di f


(l’autovalore di f relativo a v).
Autovettori ed autovalori di una matrice quadrata A sono per definizione autovalori ed autovettori
di fA . Quindi v ∈ Rn − {0} è un autovettore di A con autovalore λ se vale

Av = λv

Esempio. Sia  
1 2 0
A= 2 1 1 
0 0 1
 
1
Il vettore  1  è autovettore di A di autovalore 3.
0

Per semplicità tratteremo soprattutto il caso degli autovalori ed autovettori di una matrice.

Definizione 104 Sia A ∈ M (n × n, R). Il polinomio caratteristico di A è definito nel modo


seguente:
pA (t) := det(A − tI)
dove I la matrice identità n × n.

Esempio. Sia  
1 2 0
A= 2 1 1 
0 0 1
Allora
 
1−t 2 0
pA (t) = det  2 1−t 1  = (1 − t)[(1 − t)(1 − t) − 4] = (1 − t)(t2 − 2t − 3)
0 0 1−t

Lemma 105 Un numero reale λ è un autovalore di A se e solo se è una radice (reale) del
polinomio caratteristico di A.

Dimostrazione λ è un autovalore di A ⇔ ∃v ∈ Rn −{0} tale che Av = λv ⇔ ∃v ∈ Rn −{0} tale


T hm.101
che (A − λI)v = 0 ⇔ Ker(A − λI) 6= {0} ⇔ A − λI non è iniettiva ⇔ det(A − λI) = 0
Q.e.d.

Osservazione 106 L’insieme degli autovettori di A con autovalore λ, unito al vettore zero,
coincide con Ker(A − λI) e si dice autospazio di A relativo a λ.

38
Definizione 107 Sia A una matrice quadrata e sia λ un suo autovalore.
La dimensione di Ker(A − λI) si dice molteplicità geometrica di λ.
La molteplicità di λ come radice del polinomio caratteristico si dice molteplicità algebrica di
λ.

Definizione 108 Due matrici A e B si dicono simili se esiste C invertibile tale che

A = C −1 BC

Lemma 109 Due matrici simili hanno lo stesso polinomio caratteristico.

Dimostrazione. Supponiamo che A e B siano simili, quindi esiste C tale che A = C −1 BC.
Allora
pA (t) = det(A − tI) = det(C −1 BC − tI) = det(C −1 (B − tI)C) =
= det(C −1 )det(B − tI)det(C) = det(B − tI) = pB (t)
Q.e.d.

Esercizi.
i) Provare che la similitudine una relazione di equivalenza.
ii) Provare che se A è una matrice 2 × 2 allora pA (t) = t2 − tr(A)t + det(A)
iii) Provare che gli autovalori di una matrice triangolare sono gli elementi sulla diagonale.

Definizione 110 Una matrice quadrata A si dice diagonalizzabile se è simile ad una matrice
diagonale.

Teorema 111 Una matrice A diagonalizzabile se e solo se esiste una base di autovettori di A.

Dimostrazione. Se A è diagonalizzabile allora esiste C invertibile tale che C −1 AC = D con D


diagonale. Moltiplicando a sinistra per C si ottiene AC = CD.
Tale equazione equivale a AC (j) = λj C (j) per ogni j = 1, ..., n dove λj è il j-esimo elemento
della diagonale di D; quindi le colonne di C formano la base richiesta di autovettori.
Viceversa se esiste una base di autovettori per A, definiamo C la matrice ottenuta affiancando
gli elementi di tale base. Allora vale AC (j) = λj C (j) per ogni j = 1, ..., n; quindi, chiamando D
la matrice che ha λ1 , ..., λn sulla diagonale, si ha AC = CD, da cui C −1 AC = D.

Osservazione 112 Se A è simile ad una matrice D diagonale, allora sulla diagonale di D ap-
paiono gli autovalori di A (infatti A e D hanno lo stesso polinomio caratteristico).

Proposizione 113 Per qualsiasi autovalore si ha che la molteplicità geometrica è minore o uguale
della molteplicità algebrica.

Dimostrazione omessa.

Come abbiamo già detto, gran parte dell’algebra lineare che abbiamo enunciato per l’insieme dei
numeri reali R, può essere in modo del tutto analogo enunciato per l’insieme dei numeri complessi
C (spazi vettoriali su C, Cn , M (m × n, C), applicazioni lineari, determinante, rango.....)
In particolare ben definito il determinante di una matrice quadrata a coefficienti complessi e
una matrice quadrata a coefficienti complessi invertibile se e solo se il suo determinante è non
nullo.
Con dimostrazione del tutto analoga alla dimostrazione del Lemma 105, si dimostra che λ ∈ C
è radice del polinomio caratteristico di A se e solo se esiste v ∈ Cn tale che Av = λv. Un tale
v si dice autovettore (complesso) di A con autovalore (complesso) λ.

39
Teorema 114 Criterio necessario e sufficiente di diagonalizzabilità.
Una matrice A è diagonalizzabile se e solo se tutti le radici complesse del polinomio caratteristico
di A sono numeri reali e per ogni autovalore (reale) di A la molteplicità geometrica uguale alla
molteplicità algebrica.

Dimostrazione omessa.

Esempi.
1) Sia  
1 −2 0
A= 2 1 1 
0 0 −1
Allora
 
1−t −2 0
pA (t) = det  2 1−t 1  = (−1 − t)[(1 − t)(1 − t) + 4] = (−1 − t)(t2 − 2t + 5)
0 0 −1 − t

Quindi non tutte le radici complesse del polinomio caratteristico sono reali. Quindi A non è
diagonalizzabile.

2) Sia  
1 2 0
B= 2 1 1 
0 0 −1
Allora

pB (t) = (−1 − t)[(1 − t)(1 − t) − 4] = (−1 − t)(t2 − 2t − 3) = −(t − 3)(t + 1)2

Quindi tutte le radici complesse del polinomio caratteristico sono reali. Esse sono t = 3 e t = −1.
Ovviamente la molteplicità algebrica di 3 è 1, quella di −1 è 2; ovviamente la molteplicità
geometrica di 3 è 1, inoltre si calcola facilmente che la molteplicità geometrica di −1 è 1; quindi
B non è diagonalizzabile.

3) Sia  
3 1 1
C = 2 4 2 
3 3 5
Allora
pC (t) = −t3 + 12t2 − 36t + 32 = (2 − t)2 (8 − t)
Quindi tutte le radici complesse del polinomio caratteristico sono reali. Esse sono t = 2 e
t = 8. Ovviamente la molteplicità algebrica di 2 è 2, quella di 8 è 1; ovviamente la molteplicità
geometrica di 8 è 1, inoltre si calcola facilmente che la molteplicità geometrica di 2 è 2; quindi
C è diagonalizzabile.

40

Potrebbero piacerti anche