P. 1
rubei

rubei

|Views: 7|Likes:
Published by Franco Landi

More info:

Published by: Franco Landi on Nov 30, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

11/30/2010

pdf

text

original

ELENA RUBEI

Dispense di
ALGEBRA LINEARE,
c.d.l. in Informatica, Universit`a di Firenze,
http://web.math.unifi.it/users/rubei/didattica.html
Contents
1 Notazioni fondamentali in matematica 3
2 I numeri complessi 4
3 R
n
e le matrici 6
3.1 Definizione di R
n
e di matrici, somma e prodotto per uno scalare . . . . . . . . 6
3.2 Vari tipi di matrici, trasposta, traccia . . . . . . . . . . . . . . . . . . . . . . . . 8
3.3 Prodotto scalare standard e norma . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.4 Prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.5 Matrici invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4 Sistemi lineari 15
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non . . . . . . . . 15
4.2 Operazioni elementari di riga, matrici a scalini . . . . . . . . . . . . . . . . . . . 15
4.3 Metodo per risolvere un sistema lineare quando la sua matrice completa `e a scalini 17
4.4 Metodo per risolvere un qualsiasi sistema lineare . . . . . . . . . . . . . . . . . . 18
5 Spazi vettoriali 21
5.1 Definizione e prime propriet`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.3 Generatori, insiemi di vettori linearmente indipendenti, basi, dimensione . . . . . 24
5.4 Dimensione di M(m×n, R) e di R
k
[x] . . . . . . . . . . . . . . . . . . . . . . 27
5.5 Un esempio fondamentale: lo spazio generato dalle colonne di una matrice (range)
e lo spazio generato dalle righe . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
6 Applicazioni lineari 30
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale . . . . . . . . . . 30
6.2 Applicazioni lineari associate a matrici . . . . . . . . . . . . . . . . . . . . . . . 32
7 Determinante, spazi generati da righe e colonne, rango, inversa di una matrice 33
7.1 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
7.2 Spazi generati da righe e colonne e rango . . . . . . . . . . . . . . . . . . . . . 34
7.3 Il teorema di Rouch´e-Capelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.4 Relazione fra rango e determinante . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.5 Metodo per calcolare l’inversa di una matrice . . . . . . . . . . . . . . . . . . . 36
1
8 Autovettori e autovalori, diagonalizzabilit`a 38
Ordine di lettura consigliato : 3.1, 3.2, 5.1, 5.2, 3.3, 3.4, etc
2
1 Notazioni fondamentali in matematica
“∀” significa “per qualsiasi”
“∃” significa “esiste”
“⇒” significa “implica”
“⇔” significa “implica e `e implicato”, “se e solo se”
“∈” significa “appartiene”, “`e un elemento di”
“⊂” significa “`e incluso”
3
2 I numeri complessi
Come `e ben noto non tutte le equazioni polinomiali hanno soluzioni nei reali. Ad esempio
l’equazione
x
2
= −1
non ha soluzione nei reali, cio`e non esiste un numero reale x il cui quadrato `e −1.
L’insieme dei numeri complessi `e stato introdotto proprio per consentire di trovare soluzione a
tutte le equazione polinomiali, cio`e `e stato introdotto come un insieme “pi`u grande” dell’insieme
dei numeri reali, nel quale ogni equazione polinomiale ha soluzione. In altre parole per ottenere
l’insieme dei numeri complessi si aggiunge all’insieme dei numeri reali l’insieme di tutte le soluzioni
di equazioni polinomiali.
Informalmente si definisce C (insieme dei numeri complessi) nel modo seguente:
si definisce i (unit`a immaginaria) come un numero che gode della seguente propriet`a:
i
2
= −1
e si definisce:
C = {a + bi| a, b ∈ R}
Quindi un numero complesso `e un numero del tipo
z = a + bi
dove a e b sono due numeri reali e i `e l’unit`a immaginaria. Si dice che a `e la parte reale del
numero complesso a + bi e bi `e la parte immaginaria. In genere si scrive:
Re(z) = a
Im(z) = b (coefficiente della parte immaginaria).
La somma e il prodotto in C si definiscono nel modo seguente:
(a + bi) + (c + di) = a + b + (c + d)i
(a + bi) · (c + di) = ac −bd + (ad + bc)i
La definizione di prodotto pu` o sembrare strana e difficile da memorizzare, ma in realt`a si ricava
facilmente “facendo valere” le propriet`a distribuitiva e commutative e ricordando che i
2
= −1:
(a+bi)·(c+di) = a·(c+di)+bi·(c+di) = ac+adi+bci+bdi
2
= ac+adi+bci−bd = ac−bd+(ad+bc)i
Ovviamente si pu` o vedere l’insieme dei numeri reali contenuto nell’insieme dei numeri complessi:
a ∈ R si pu` o vedere come il numero complesso a + 0i.
Si definisce coniugato di un numero complesso z = a+bi il numero complesso a−bi e si denota
z:
z = a −bi
Si definisce modulo di un numero complesso z = a + bi il numero reale

a
2
+ b
2
e si denota
|z|:
|z| =

a
2
+ b
2
Se z ∈ R, allora il modulo coincide con il valore assoluto: infatti in tal caso, se si scrive z = a+bi,
si ha che b = 0 e quindi |z| =

a
2
+ b
2
=

a
2
= |a|.
4
Si dimostrano facilmente le seguenti propriet`a:
1) |z| = |z|
2) |z| = 0 se e solo se z = 0
3) |z · w| = |z||w|
4) z · z = |z|
2
5) z + w = z + w
6) z · w = z · w
Inoltre `e semplice dimostrare che valgono le propriet`a associativa e commutativa sia per la somma
che per il prodotto, esiste un elemento neutro per la somma (0 = 0 + 0i), esiste un elemento
neutro per il prodotto (1 = 1 + 0i), vale la propriet`a distributiva, esiste l’opposto per la somma
(cio`e, dato un qualsiasi numero complesso z = a+bi, esiste un numero complesso che sommato
a z d`a 0: esso sar`a −a − bi); infine per qualsiasi numero complesso z = a + bi diverso da 0,
esiste l’inverso, cio`e un numero complesso che moltiplicato per z d`a 1: esso sar`a
z
|z|
2
.
Pi`u formalmente si pu` o definire
C = {(a, b)| a, b ∈ R}
definendo la somma e il prodotto nel modo seguente:
(a, b) + (c, d) = (a + b, c + d)
(a, b) · (c, d) = (ac −bd, ad + bc)
L’insieme dei numeri complessi pu` o essere identificato con i punti del piano in cui `e stato fissato
un sistema di riferimento cartesiano, precisamente al numero complesso a+bi si fa corrispondere
il punto del piano di coordinate cartesiane (a, b). Il piano identificato con l’insieme dei numeri
complessi si chiama piano di Argand-Gauss.
(a,b)
a
b
Sia θ l’angolo formato dal semiasse positivo delle ascisse e il segmento che congiunge (0, 0) con
(a, b) tale che π < θ ≤ π e sia ρ la lunghezza del segmento che congiunge (0, 0) con (a, b),
allora si ha ovviamente:
z = a + bi = ρ(cos θ + isen θ)
(forma trigonometrica dei numeri complessi).
Supponiamo che z = a + bi = ρ(cos θ + isen θ) w = c + di = λ(cos η + isen η). Si pu` o
dimostrare facilmente che
z · w = (ρλ)[cos(θ + η) + isen(θ + η)]
Quindi in pratica moltiplicare per z = ρ(cos θ +isen θ) un numero complesso w significa molti-
plicare per ρ la lunghezza del segmento che unisce l’origine col punto del piano che rappresenta
w e ruotare tale segmento di θ.
5
3 R
n
e le matrici
3.1 Definizione di R
n
e di matrici, somma e prodotto per uno scalare
Definizione 1 Sia n un numero naturale ≥ 1. Si definisce
R
n
=

¸
¸
¸
x
1
.
.
.
xn
¸

| x
1
, ..., x
n
∈ R

Notazione 2 Sia x =

¸
¸
¸
x
1
.
.
.
xn
¸

∈ R
n
. L’elemento x
i
che compare al’i-esimo posto si definisce
i-esima componente di x.
Definizione 3 Sia n un numero naturale ≥ 1. Si definisce la somma fra due elementi di R
n
nel modo seguente:

¸
¸
¸
¸
¸
x
1
.
.
.
x
n
¸

+

¸
¸
¸
¸
¸
y
1
.
.
.
y
n
¸

=

¸
¸
¸
¸
¸
x
1
+ y
1
.
.
.
x
n
+ y
n
¸

(cio`e se x, y ∈ R
n
, si definisce x + y come l’elemento di R
n
tale che (x + y)
i
= x
i
+ y
i
∀i = 1, ..., n).
Esempio

¸
¸
¸
¸
¸
1
0
−2
−π
7
¸

+

¸
¸
¸
¸
¸
1
3
2
2
1
¸

=

¸
¸
¸
¸
¸
2
3
0
−π + 2
8
¸

Definizione 4 Sia n un numero naturale ≥ 1. Si definisce il prodotto fra un elemento di R
n
e uno scalare (cio`e un numero reale) nel modo seguente:
λ

¸
¸
¸
¸
¸
x
1
.
.
.
x
n
¸

=

¸
¸
¸
¸
¸
λx
1
.
.
.
λx
n
¸

(cio`e se x ∈ R
n
e λ ∈ R, si definisce λx come l’elemento di R
n
tale che (λx)
i
= λx
i
∀i = 1, ..., n).
Esempio
3

¸
¸
¸
¸
¸
1
0
−2
−π
7
¸

=

¸
¸
¸
¸
¸
3
0
−6
−3π
21
¸

6
Osservazione 5 Fissando un sistema cartesiano nel piano, si stabilisce un’ovvia bigezione fra
R
2
e il piano.
Analogamente fissando un sistema cartesiano nello spazio, si stabilisce un’ovvia bigezione fra R
3
e lo spazio.
Osservazione 6 “Regola del parallelogramma” Per ogni elemento

x
y

di R
2
consideriamo il
segmento orientato avente

0
0

come punto iniziale e

x
y

come punto finale. In tal modo
la somma di due elementi di R
2
pu` o essere interpretata geometricamente tramite la cosiddetta
regola del parallelogramma:
y
y’
x’
y+y’
x+x’
x
Definizione 7 Siano m, n due numeri naturali ≥ 1. Una matrice m× n `e una tabella con m
righe e n colonne. Si dice a coefficienti in R se tutti gli elementi sulla tabella sono numeri reali.
Notazione 8 L’elemento che sta sull’i-esima riga e j-esima colonna di una matrice A si denota
con a
i,j
o A
i,j
.
La riga i-esima si denota con A
(i)
.
La colonna j-esima si denota con A
(j)
.
Definizione 9 Siano m e n due numeri naturali ≥ 1. Si definisce
M(m×n, R) = {A| A matrice m×n a coefficienti in R}
Definizione 10 Siano m, n due numero naturale ≥ 1. Si definisce la somma fra due elementi
di M(m× n, R) nel modo seguente: siano A, B ∈ M(m× n, R), si definisce A + B come la
matrice m×n tale che
(A + B)
i,j
= A
i,j
+ B
i,j
∀i = 1, ..., m, j = 1, ..., n.
Esempio

¸
¸
¸
¸
¸
1 0 2
0 0 3
−2 1 −1
−π 4 5
7 0 1
¸

+

¸
¸
¸
¸
¸
1 3 2
3 1 0
2 0 −1
2 4 1
1 −6 −

2
¸

=

¸
¸
¸
¸
¸
2 3 4
3 1 3
0 1 −2
−π + 2 8 6
8 −6 1 −

2
¸

7
Definizione 11 Siano m, n due numero naturale ≥ 1. Si definisce il prodotto fra un elemento
di M(m×n, R) e uno scalare nel modo seguente: sia A ∈ M(m×n, R) e λ ∈ R; si definisce
λA come la matrice m×n tale che
(λA)
i,j
= λA
i,j
∀i = 1, ..., m, j = 1, ..., n.
Esempio
3

¸
¸
¸
¸
¸
1 0 2
0 0 3
−2 1 −1
−π 4 5
7 0 1
¸

=

¸
¸
¸
¸
¸
3 0 6
0 0 9
−6 3 −3
−3π 12 15
21 0 3
¸

Proposizione 12 Valgono le seguenti propriet`a:
1) (A +B) +C = A +(B + C) ∀A, B, C ∈ M(m×n, R) (propriet`a associativa della somma)
2) A + B = B + A ∀A, B ∈ M(m×n, R) (propriet`a commutativa della somma)
3) La matrice m×n con tutti i coefficienti nulli `e un elemento neutro per la somma in M(m×
n, R), cio`e 0
m×n
+ A = A + 0
m×n
= A ∀A ∈ M(m×n, R).
4) Per ogni A ∈ M(m×n, R) l’elemento (−1)A `e opposto di A per la somma in M(m×n, R),
cio`e A + (−1)A = (−1)A + A = 0
m×n
5) (λ + µ)A = λA + µA ∀λ, µ ∈ R ∀A ∈ M(m × n, R) (propriet`a distributiva rispetto alla
somma in R)
6) λ(A + B) = λA + λB ∀λ ∈ R ∀A, B ∈ M(m× n, R) (propriet`a distributiva rispetto alla
somma in M(m×n, R))
7) (λµ)A = λ(µA) ∀λ, µ ∈ R ∀A ∈ M(m×n, R)
8) 1A = A ∀A ∈ M(m×n, R).
Dimostrazione. Per esercizio.
Nel capitolo 3 vedremo che la proposizione sopra si pu` o enunciare brevemente dicendo che
M(m×n, R) `e uno spazio vettoriale su R.
In modo del tutto analogo a come si `e definito R
n
, le matrici a coefficienti in R e le operazioni
di somma e moltiplicazione per scalari, si possono definire C
n
, le matrici a coefficienti in C e le
operazioni di somma e moltiplicazione per scalari. Valgono per essi propriet`a del tutto anaologhe
a quelle enunciate per R.
3.2 Vari tipi di matrici, trasposta, traccia
Definizione 13 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si definisce diagonale (principale) di
A l’n-upla (a
1,1
, ...., a
n,n
).
Definizione 14 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e diagonale se
a
i,j
= 0
per i = j (cio`e se tutti gli elementi al di fuori della diagonale principale sono nulli).
8
Esempio

¸
¸
¸
3 0 0 0
0 1 0 0
0 0 −3 0
0 0 0 2
¸

Esempio (fondamentale) Si dice matrice identit`a n × n (e si denota con I
n
) la matrice n ×n
con tutti 1 sulla diagonale e 0 altrove. Per esempio
I
1
= (1)
I
2
=

1 0
0 1

I
3
=

¸
1 0 0
0 1 0
0 0 1
¸

Definizione 15 Sia n ∈ Nn ≥ 1. Sia A ∈ M(n×n, R). Si dice che A `e triangolare superiore
se
a
i,j
= 0
per i > j (cio`e se tutti gli elementi al di sotto della diagonale principale sono nulli).
Esempio

¸
¸
¸
¸
¸
1 1 1 6 1
0 1 2 6 −1
0 0 0 −3 4
0 0 0 −3 2
0 0 0 0 23
¸

Definizione 16 Sia n ∈ N n ≥ 1. Sia A ∈ M(n×n, R). Si dice che A `e triangolare inferiore
se
a
i,j
= 0
per i < j (cio`e se tutti gli elementi al di sopra della diagonale principale sono nulli).
Esempio

¸
¸
¸
¸
¸
3 0 0 0 0
0 1 0 0 0
π 1 2 0 0
0 2 2 2 0
0 4 0 3 0
¸

Definizione 17 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e simmetrica se
a
i,j
= a
j,i
∀i, j (cio`e se gli elementi simmetrici rispetto alla diagonale principale sono uguali).
Esempio

¸
¸
¸
4 1 0 7
1 0 2 6
0 2 9 −3
7 6 −3 8
¸

9
Definizione 18 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e antisimmetrica se
a
i,j
= −a
j,i
∀i, j ∈ {1, .., n} (cio`e se gli elementi simmetrici rispetto alla diagonale principale sono opposti).
Esempio

¸
¸
¸
0 1 0 −7
−1 0 2 6
0 −2 0 −3
7 −6 3 0
¸

Osservazione 19 Gli elementi sulla diagonale principale di una matrice antisimmetrica sono
nulli.
(Infatti a
i,i
= −a
i,i
∀i ∈ {1, ..., n}, pertanto 2a
i,i
= 0 e quindi a
i,i
= 0.)
Definizione 20 Siano m e n due numeri naturali ≥ 1. Sia A ∈ M(m × n, R). Si definisce
trasposta di A (che si indica con
t
A) la matrice n ×m cos`ı definita:
(
t
A)
i,j
= A
j,i
∀i ∈ 1, ..., n, j ∈ 1, ..., m.
Proposizione 21 Propriet`a della trasposta
1)
t
(
t
A) = A ∀A ∈ M(m×n, R).
2)
t
(A + B) =
t
A +
t
B ∀A, B ∈ M(m×n, R).
3)
t
(λA) = λ
t
A ∀λ ∈ R ∀A ∈ M(m×n, R).
Dimostrazione.
1) Per ogni i ∈ {1, ..., m} e per ogni j ∈ {1, ..., n} si ha
(
t
(
t
A))
i,j
= (
t
A)
j,i
= A
i,j
2) Per ogni i ∈ {1, ..., n} e per ogni j ∈ {1, ..., m} si ha
(
t
(A + B))
i,j
= (A + B)
j,i
= A
j,i
+ B
j,i
(
t
A +
t
B)
i,j
= (
t
A)
i,j
+ (
t
B)
i,j
= A
j,i
+ B
j,i
3) Per ogni i ∈ {1, ..., n} e per ogni j ∈ {1, ..., m} si ha
(
t
(λA))
i,j
= (λA)
j,i
= λA
j,i
= λ(
t
A)
i,j
Q.e.d.
Osservazione 22 Sia n ∈ N n ≥ 1. Sia A ∈ M(n ×n, R);
1) A `e simmetrica se e solo se A =
t
A
2) A `e antisimmetrica se e solo se A = −
t
A
Definizione 23 Si definisce traccia di una matrice quadrata la somma degli elementi della sua
diagonale.
10
3.3 Prodotto scalare standard e norma
Definizione 24 Sia n un numero naturale ≥ 1. Si definisce prodotto scalare standard fra due
elementi v e w di R
n
il numero reale
¸
i=1,...,n
v
i
w
i
Esso si indica con (v, w)
Esempio Siano
v =

¸
¸
¸
−1
31
2
9
¸

w =

¸
¸
¸
1
0
1
−1
¸

Allora (v, w) = −1 · 1 + 31 · 0 + 2 · 1 + 9 · (−1) = −8.
Proposizione 25 Propriet`a del prodotto scalare standard
1) Simmetria: (v, w) = (w, v) ∀v, w ∈ R
n
2) Bilinearit`a:
linearit`a nel primo argomento:
(λv, w) = λ(v, w) ∀λ ∈ R ∀v, w ∈ R
n
(v + w, u) = (v, u) + (w, u) ∀v, w, u ∈ R
n
linearit`a nel secondo argomento:
(v, λw) = λ(v, w) ∀λ ∈ R ∀v, w ∈ R
n
(v, w + u) = (v, w) + (v, u) ∀v, w, u ∈ R
n
3) Definita positivit`a:
(v, v) ≥ 0 ∀v ∈ R
n
(positivit`a); inoltre (v, v) = 0 se e solo se v = 0.
Dimostrazione.
1) (v, w) =
¸
i=1,...,n
v
i
w
i
=
¸
i=1,...,n
w
i
v
i
= (w, v)
2) λ(v, w) = λ
¸
i=1,...,n
v
i
w
i
(λv, w) =
¸
i=1,...,n
(λv)
i
w
i
=
¸
i=1,...,n
λv
i
w
i
= λ
¸
i=1,...,n
v
i
w
i
(v, λw) =
¸
i=1,...,n
v
i
(λw)
i
=
¸
i=1,...,n
v
i
λw
i
= λ
¸
i=1,...,n
v
i
w
i
(v + w, u) =
¸
i=1,...,n
(v + w)
i
u
i
=
¸
i=1,...,n
(v
i
+ w
i
)u
i
=
¸
i=1,...,n
(v
i
u
i
+ w
i
u
i
) =
¸
i=1,...,n
v
i
u
i
+
¸
i=1,...,n
w
i
u
i
= (v, u) + (w, u)
La linearit`a nel secondo argomento si dimostra in modo analogo oppure la possiamo derivare
dalla linearit`a nel secondo argomento e la simmetria.
3) (v, v) =
¸
i=1,...,n
v
i
v
i
=
¸
i=1,...,n
v
2
i
≥ 0;
inoltre (v, v) = 0 se e solo se
¸
i=1,...,n
(v
i
)
2
= 0 e questo `e vero se e solo se (v
i
)
2
= 0
∀i = 1, ..., n cio`e se e solo se v
i
= 0 ∀i = 1, ..., n.
Q.e.d.
Definizione 26 Sia v ∈ R
n
. Si definisce norma o lunghezza di v il numero reale

(v, v)
cio`e la radice quadrata del prodotto scalare di v con se stesso (che `e positivo per la propriet`a 3
del prodotto scalare, quindi ne posso considerare la radice quadrata), cio`e

¸
i=1,...,n
v
i
v
i
=

¸
i=1,...,n
(v
i
)
2
11
Esempio Sia
v =

¸
¸
¸
−1
3
2
2
¸

Allora |v| =

18.
Proposizione 27 Propriet`a della norma
1) |v| ≥ 0 ∀v ∈ R
n
; inoltre |v| = 0 se e solo se v = 0
2) |λv| = |λ||v| ∀λ, ∀v ∈ R
n
Dimostrazione.
1) Essendo la norma una radice quadrata `e ovviamente maggiore o uguale a 0. Inoltre ovviamente
|0| =

0 · 0 + ..... + 0 · 0 = 0; inoltre se v ∈ R
n
e |v| = 0 allora

¸
i=1,...,n
v
2
i
= 0, quindi
¸
i=1,...,n
v
2
i
= 0, quindi v
2
i
= 0 i = 1, ..., n, quindi v
i
= 0 i = 1, ..., n, cio`e v = 0.
2) |λv| =

(λv, λv) =

¸
i=1,...,n
(λv)
2
i
=

¸
i=1,...,n
(λv
i
)
2
=
=

¸
i=1,...,n
λ
2
v
2
i
=

λ
2
¸
i=1,...,n
v
2
i
= |λ|

¸
i=1,...,n
v
2
i
= |λ||v|
Q.e.d.
3.4 Prodotto di matrici
Definizione 28 Siano m, n, l tre numeri naturali ≥ 1. Sia A ∈ M(m×n, R) e B ∈ M(n×l, R).
Si definisce AB la matrice m×l cos`ı definita:
(AB)
i,j
=
¸
k=1,...,n
A
i,k
B
k,j
∀i = 1, ..., m, ∀j = 1, ...., l, o, equivalentemente,
(AB)
i,j
= (
t
A
(i)
, B
(j)
)
(prodotto scalare standard fra la trasposta della riga i-esima di A e la colonna j-esima di B)
∀i = 1, ..., m, ∀j = 1, ...., l.
Esempio

¸
1 0 3 2
11 2 0 2
−1 1 −1 1
¸

¸
¸
¸
1 0
11 20
0 2
−1 1
¸

=

¸
−1 8
31 42
9 19
¸

Osservazione 29 Il prodotto di matrici non gode della propriet`a commutativa.
Esempio

1 0
−1 2

1 10
3 −1

=

1 10
5 −12

1 10
3 −1

1 0
−1 2

=

−9 20
4 −2

12
Proposizione 30 Propriet`a del prodotto di matrici
1) (AB)C = A(BC) ∀A ∈ M(m×n, R), B ∈ M(n ×p, R), C ∈ M(p ×q, R).
2) A(B + C) = AB + AC ∀A ∈ M(m×n, R), B ∈ M(n ×p, R), C ∈ M(n ×p, R).
3) (A + B)C = AC + BC ∀A ∈ M(m×n, R), B ∈ M(m×n, R), C ∈ M(n ×p, R).
4) λ(AB) = (λA)B = A(λB) ∀A ∈ M(m×n, R), B ∈ M(n ×p, R), λ ∈ R
5) AI
n
= A e I
m
A ∀A ∈ M(m×n, R)
Dimostrazione.
Per dimostrare che due matrici sono uguali, basta ovviamente dimostrare che i coefficienti cor-
rispondenti sono uguali; quindi per provare un’uguaglianza di matrici, basta dimostrare che per
qualsiasi i, j, il coefficiente i, j del primo membro `e uguale al coefficiente i, j del secondo membro.
1) ((AB)C)
i,j
=
¸
k=1,...,p
(AB)
i,k
C
k,j
=
¸
k=1,...,p
[
¸
r=1,...,n
A
i,r
B
r,k
]C
k,j
=
=
¸
k=1,...,p
[
¸
r=1,...,n
A
i,r
B
r,k
C
k,j
] =
¸
k=1,...,p,r=1,...,n
A
i,r
B
r,k
C
k,j
(A(BC))
i,j
=
¸
r=1,...,n
A
i,r
(BC)
r,j
=
¸
r=1,...,n
A
i,r
¸
k=1,...,p
B
r,k
C
k,j
=
=
¸
r=1,...,n
¸
k=1,...,p
A
i,r
B
r,k
C
k,j
=
¸
r=1,...,n,k=1,...,p
A
i,r
B
r,k
C
k,j
2) (A(B + C))
i,j
=
¸
k=1,..,n
A
i,k
(B + C)
k,j
=
=
¸
k=1,..,n
A
i,k
(B
k,j
+ C
k,j
) =
¸
k=1,..,n
(A
i,k
B
k,j
+ A
i,k
C
k,j
) =
=
¸
k=1,..,n
A
i,k
B
k,j
+
¸
k=1,..,n
A
i,k
C
k,j
= (AB)
i,j
+ (AC)
i,j
=
= (AB + AC)
i,j
3) Analoga a 2).
4) (λ(AB))
i,j
= λ(AB)
i,j
= λ
¸
k=1,...,n
A
i,k
B
k,j
=
¸
k=1,...,n
λ(A
i,k
B
k,j
) =
¸
k=1,...,n
(λA
i,k
)B
k,j
=
¸
k=1,...,n
(λA)
i,k
B
k,j
= ((λA)B)
i,j
Analogamente la seconda uguaglianza.
5) (AI
n
)
i,j
=
¸
k=1,...,n
A
i,k
(I
n
)
k,j
=
¸
k=1,...,n
A
i,k
δ
k,j
= A
i,j
1 = A
i,j
dove δ
k,j
`e il cosidetto
simbolo di Kronecker, cos`ı definito
δ
k,j
=

0 se k = j
1 se k = j
Analogamente l’altra uguaglianza.
Q.e.d.
Proposizione 31
t
(AB) =
t
B
t
A ∀A ∈ M(m×k, R), B ∈ M(k ×n, R).
Dimostrazione.
(
t
(AB))
i,j
= (AB)
j,i
=
¸
t=1,...,k
A
j,t
B
t,i
(
t
B
t
A)
i,j
=
¸
t=1,...,k
(
t
B)
i,t
(
t
A)
t,j
=
¸
t=1,...,k
B
t,i
A
j,t
=
¸
t=1,...,k
A
j,t
B
t,i
Q.e.d.
3.5 Matrici invertibili
Definizione 32 Sia n ∈ N, n ≥ 1. Sia A ∈ M(n ×n, R). Si dice che A `e invertibile se esiste
B ∈ M(n ×n, R) tale che
AB = BA = I
n
13
Osservazione 33 (- Definizione.) Sia n ∈ N, n ≥ 1. Sia A ∈ M(n × n, R). Siano B, C ∈
M(n ×n, R) tali che AB = BA = I
n
= AC = CA. Allora B = C.
In altre parole se A `e invertibile esiste una e una sola matrice B tale che AB = BA = I
n
. Tale
matrice si dice l’inversa di A e si denota con A
−1
.
Dimostrazione.
Per ipotesi so che
AB = I
n
Moltiplico a sinistra entrambi i membri dell’uguaglianza per C, ottenendo cos`ı
C(AB) = CI
n
da cui
(CA)B = C
Dato che per ipotesi CA = I
n
, ottengo
I
n
B = C
e quindi
B = C
Q.e.d.
Notazione 34 GL(n, R) = {A ∈ M(n × n, R)| A invertibile}
Esempio. GL(1, R) = {(a)| a ∈ R−{0}}
Osservazione 35 Sia n ∈ N, n ≥ 1.
i) Siano A, B ∈ GL(n, R). Allora AB ∈ GL(n, R) e (AB)
−1
= B
−1
A
−1
ii) Se A ∈ GL(n, R) allora A
−1
∈ GL(n, R) e (A
−1
)
−1
= A
Esercizio.

a b
c d

`e invertibile se e solo se ad−bc = 0 e in tal caso l’inversa `e
1
ad−bc

d −b
−c a

.
NOTA. Tutto quello che `e stato detto nei paragrafi 3.1, 3.2, 3.4 e 3.5 pu` o essere enunciato
sostituendo C a R.
14
4 Sistemi lineari
4.1 Forma matriciale dei sistemi lineari, sistemi lineari omogenei e non
Definizione 36 Un sistema lineare `e un sistema di equazioni lineari cio`e un sistema di equazioni
i cui membri sono polinomi di grado ≤ 1 nelle incognite.
Osservazione 37 Un sistema lineare di m equazioni e n incognite x
1
, ..., x
n
pu` o essere scritto
nella forma
Ax = b
per una certa matrice A ∈ M(m×n, R) e un certo b ∈ R
m
, dove x =

¸
¸
¸
¸
x1
.
.
.
xn
¸

.
(Basta prendere, per ogni i, come coefficienti della i-esima riga di A i coefficienti di x
1
, ..., x
n
nella i-esima equazione del sistema e come b
i
il termine noto della i-esima equazione del sistema).
Definizione 38 La matrice A si dice matrice incompleta del sistema. La matrice m×(n + 1)
ottenuta affiancando (a destra) ad A l’m-upla b si chiama matrice completa del sistema e si
indica con A|b
Esempio Consideriamo il seguente sistema lineare nelle incognite x
1
, x
2
, x
3
, x
4
, x
5
.

2x
1
+ x
3
−6x
4
= 0
x
1
−x
4
−6x
5
= 5
x
2
−x
3
−x
4
= 3
La matrice incompleta A e b saranno
A =

¸
2 0 1 −6 0
1 0 0 −1 −6
0 1 −1 −1 0
¸

b =

¸
0
5
3
¸

La matrice completa A|b sar`a
A|b =

¸
2 0 1 −6 0 0
1 0 0 −1 −6 5
0 1 −1 −1 0 3
¸

Definizione 39 Un sistema lineare Ax = b si dice omogeneo se b = 0.
Vogliamo adesso illustrare un metodo sistematico per risolvere i sistemi lineari. Per fare ci` o
occorre premettere le nozioni di matrici a scalini e operazioni elementari di riga.
4.2 Operazioni elementari di riga, matrici a scalini
Definizione 40 Si definiscono operazioni elementari sulle righe di una matrice le seguenti
operazioni:
operazioni di tipo I: scambiare due righe
operazioni di tipo II: moltiplicare una riga per uno scalare non nullo
operazioni di tipo III: sommare ad una riga un multiplo di un’altra riga.
15
Definizione 41 Una matrice si dice a scalini (per righe) se soddisfa la seguente propriet`a:
se in una riga i primi k elementi sono nulli allora la riga successiva (se esiste) o `e tutta nulla o
almeno i primi k + 1 elementi sono nulli.
Definizione 42 Il primo elemento non nullo di ogni riga non nulla di una matrice a scalini si
dice pivot.
Esempi di matrici a scalini

¸
¸
¸
0 1 0 6 −1
0 0 2 6 −1
0 0 0 −3 4
0 0 0 0 12
¸

¸
¸
¸
¸
¸
3 1 0 9 1
0 1 0 6 −1
0 0 0 −3 4
0 0 0 0 2
0 0 0 0 0
¸

Esempi di matrici non a scalini

¸
¸
¸
0 1 0 6 −1
0 1 2 6 −1
0 2 0 −3 4
0 0 0 0 12
¸

¸
¸
¸
¸
¸
1 1 1 6 1
0 1 2 6 −1
0 2 0 −3 4
0 2 0 0 12
0 0 0 0 0
¸

Proposizione 43 Data una qualsiasi matrice, si pu` o ottenere da essa, con operazioni elementari
di riga di tipo I e III, una matrice a scalini.
Dimostrazione. Per induzione sul numero di righe della matrice.
Sia j l’indice della prima colonna non nulla. Con un scambio opportuno di righe possiamo fare
in modo che il primo elemento della j-esima colonna sia diverso da zero. Con operazioni di tipo
III possiamo fare in modo che tutti gli elementi dal secondo in poi della j-esima colonna siano
nulli. Ripetiamo il procedimento sulla matrice ottenuta togliendo la prima riga.
Q.e.d.
Esempio

¸
¸
¸
0 1 0 6 −1
0 1 2 6 −1
0 2 0 −3 4
0 0 0 10 12
¸

¸
¸
¸
0 1 0 6 −1
0 0 2 0 0
0 0 0 −15 6
0 0 0 10 12
¸

II −I
III −2I
16

¸
¸
¸
0 1 0 6 −1
0 0 2 0 0
0 0 0 −15 6
0 0 0 0 16
¸

IV +
2
3
III
4.3 Metodo per risolvere un sistema lineare quando la sua matrice com-
pleta `e a scalini
Si scrive la matrice completa del sistema e si scrivono le incognite sopra essa. Supponiamo
che non ci siano pivots nell’ultima colonna della matrice completa. Chiamiamo “incognite
corrispondenti ad un pivot” quelle che “stanno sopra un pivot” e “incognite non corrispondenti
ad un pivot” le altre.
Sfruttando le equazioni, partendo dall’ultima, si scrivono le incognite corrispondenti ai pivots in
funzione di quelle non corrispondenti ai pivots.
Esempio. Consideriamo il seguente sistema lineare

x + 2y + z −2w −u = 0
z −w −3u = 1
w + u = 2
Scriviamo la matrice associata e scriviamo le incognite sopra la matrice
x y z w u

¸
1 2 1 −2 −1 0
0 0 1 −1 −3 1
0 0 0 1 1 2
¸

Le variabili che corrispondono ai pivots sono x, z, w, quelle che non corrispondono ai pivots sono
y, u.
Voglio scrivere le variabili che corrispondono ai pivots in funzione delle variabili che non cor-
rispondono ai pivots.
Dall’ultima equazione w + u = 2 ricavo w in funzione di u (e quindi di y, u):
w = 2 −u
Dalla penultima equazione z −w −3u = 1 ricavo
z = w + 3u + 1
e, sostituendo l’espressione gi`a trovata di w in funzione di y, u, ricavo anche z in funzione di
y, u:
z = 2 −u + 3u + 1 = 3 + 2u
Dalla prima equazione ricavo
x = −2y −z + 2w + u
da cui sostituendo l’espressione gi`a trovate di w e z in funzione di y, u, ricavo anche x in funzione
di y, u:
x = −2y −3 −2u + 4 −2u + u = −2y −3u + 1
17
Quindi l’insieme delle soluzioni del sistema lineare `e

¸
¸
¸
¸
¸
−2y −3u + 1
y
3 + 2u
−u + 2
u
¸

| y, u ∈ R

che si pu` o anche scrivere

y

¸
¸
¸
¸
¸
−2
1
0
0
0
¸

+ u

¸
¸
¸
¸
¸
−3
0
2
−1
1
¸

+

¸
¸
¸
¸
¸
1
0
3
2
0
¸

| y, u ∈ R

4.4 Metodo per risolvere un qualsiasi sistema lineare
Osservazione 44 Facendo operazioni elementari di riga sulla matrice completa di un sistema
lineare non si altera l’insieme delle soluzioni.
Dimostrazione. Fare un’operazione elementare di riga di tipo I (scambio di due righe) sulla
matrice associata al sistema significa scambiare due equazioni del sistema e questo ovviamente
non altera l’insieme delle soluzioni.
Fare un’operazione elementare di riga di tipo III (moltiplicare una riga per uno scalre non nullo)
sulla matrice associata al sistema significa moltiplicare entrambi i membri di un’equazione del
sistema per uno scalare non nullo e questo ovviamente non altera l’insieme delle soluzioni.
Infine fare un’operazione elementare di riga di tipo II (sommare ad una riga un multiplo di
un’altra riga) sulla matrice associata al sistema significa sommare ad un’equazione un multiplo
di un’altra equazione (membro a membro) e questo non altera l’insieme delle soluzioni.
Q.e.d.
Vediamo adesso come si risolve un sistema lineare qualsiasi.
Anzi tutto si scrive la matrice completa associata al sistema. Facendo operazioni elementari di
riga, si riduce la matrice completa del sistema in forma a scalini. Si risolve il sistema lineare
associato alla matrice cos`ı ottenuta; l’insieme delle soluzioni `e uguale all’ insieme delle soluzioni
del sistema iniziale per l’Osservazione 44.
Esempio Consideriamo il sistema lineare

y + z −w −u = 1
x + y + z −3w −u = 0
2x + 2y + 3z −5w −u = −1
Scriviamo la matrice associata al sistema

¸
0 1 1 −1 −1 1
1 1 1 −3 −1 0
2 2 3 −5 −1 −1
¸

Riduciamo a scalini, facendo operazioni elementari di riga.

¸
1 1 1 −3 −1 0
0 1 1 −1 −1 1
2 2 3 −5 −1 −1
¸

II
I
18

¸
1 1 1 −3 −1 0
0 1 1 −1 −1 1
0 0 1 1 1 −1
¸

III −2I
Scriviamo le incognite sopra la matrice a scalini cos`ı ottenuta:
x y z w u

¸
1 1 1 −3 −1 0
0 1 1 −1 −1 1
0 0 1 1 1 −1
¸

Ricaviamo adesso le variabili che corrispondono ai pivots, cio`e x, y, z in funzione di quelle che
non corrispondono ai pivots, cio`e w, u. Dall’ultima equazione ricaviamo
z = −w −u −1
Dalla seconda equazione ricaviamo
y = −z + w + u + 1
da cui sostituendo
y = w + u + 1 + w + u + 1 = 2w + 2u + 2
Dalla prima equazione ricaviamo
x = −y −z + 3w + u
da cui sostituendo
x = −2w −2u −2 + w + u + 1 + 3w + u = −1 + 2w
Quindi l’insieme del soluzioni `e

¸
¸
¸
¸
¸
−1 + 2w
2u + 2w + 2
−u −w −1
w
u
¸

| w, u ∈ R

Osservazione 45 Un sistema lineare omogeneo ha sempre una soluzione: quella nulla.
(Infatti un sistema linare omogeneo si pu` o scrivere nella forma Ax = 0 e 0 `e una soluzione infatti
A0 = 0.)
Osservazione 46 Un sistema lineare omogeneo con pi`u incognite che equazioni ha una soluzione
non nulla.
Dimostrazione.
Quando riduco la matrice completa a scalini, il numero dei pivots `e ovviamente minore o uguale
al numero delle righe che `e uguale al numero delle equazioni del sistema, il quale per ipotesi
`e minore del numero dell incognite. Quindi il numero dei pivots `e minore del numero delle
incognite. Pertanto ci sono necessariamente delle variabili non corrispondenti a pivots, quindi
assegnando dei valori non nulli ad esse ottengo una soluzione non nulla.
Q.e.d.
19
Osservazione 47 Un sistema lineare ha soluzione se e solo se, riducendo a scalini con operazioni
elementari di riga la matrice completa, non ci sono pivots nell’ultima colonna.
Dimostrazione. Basta dimostrare che un sistema lineare la cui matrice completa `e a scalini ha
soluzioni se e solo se non ci sono pivots nell’ultima colonna.
Ma questo `e ovvio in quanto se c’`e un pivot nell’ultima colonna (chiamiamolo p) vuol dire che
nel sistema lineare c’`e l’equazione 0x
1
+ .... + 0x
n
= p, che ovviamente non ha soluzioni in
quanto p = 0. Viceversa se non ci sono pivots nell’ultima colonna allora trovo le soluzioni con il
metodo illustrato sopra.
Q.e.d.
Teorema 48 Teorema di struttura delle soluzioni di un sistema lineare
Sia A ∈ M(m×n, R) e sia b ∈ R
m
.
Supponiamo che il sistema Ax = b abbia una soluzione.
Sia x una soluzione del sistema lineare Ax = b.
Allora {x ∈ R
n
| Ax = b} = {x + y| y ∈ R
n
e Ay = 0}
Dimostrazione.
Sia S
1
:= {x ∈ R
n
| Ax = b} e S
2
:= {x + y| y ∈ R
n
e Ay = 0}.
Dimostriamo anzitutto che S
2
⊂ S
1
.
Sia y ∈ R
n
tale che Ay = 0. Voglio dimostrare che x + y ∈ S
1
cio`e che A(x + y) = b. Per la
propriet`a distributiva del prodotto di matrici A(x + y) = Ax + Ay = b + 0 = b.
Dimostriamo adesso che S
1
⊂ S
2
.
Sia x ∈ S
1
. Occorre dimostrare che esiste y ∈ R
n
tale che Ay = 0 e x = x + y. Definisco
y = x − x. Ovviamente Ay = 0, infatti Ay = A(x −x) = Ax −Ax = b −b = 0.
Q.e.d.
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
20
5 Spazi vettoriali
5.1 Definizione e prime propriet`a
Definizione 49 Sia V un insieme dotato di due operazioni, una (detta somma) + : V ×V → V ,
l’altra (detta prodotto per scalari) · : R×V → V .
Si dice che V `e uno spazio vettoriale su R se valgono le seguenti propriet`a:
1) (v + w) + u = v + (w + u) ∀v, w, u ∈ V (propriet`a associativa della somma)
2) v + w = w + v ∀v, w ∈ V (propriet`a commutativa della somma)
3) Esiste un elemento neutro per la somma, cio`e esiste un elemento z di V tale che z+v = v+z =
v ∀v ∈ V . (Si pu` o dimostrare che tale elemento `e necessariamente unico, vedere l’osservazione
immediatamente seguente questa definizione; lo denoteremo quindi 0
V
e lo chiameremo zero di
V .)
4) Per ogni v ∈ V esiste un opposto, cio`e un elemento v

∈ V tale che v + v

= v

+ v = 0
V
5) (λ + µ)v = λv + µv ∀λ, µ ∈ R ∀v ∈ V (propriet`a distributiva rispetto alla somma in R)
6) λ(v + w) = λv + λw ∀λ ∈ R ∀v, w ∈ V (propriet`a distributiva rispetto alla somma in V )
7) (λµ)v = λ(µv) ∀λ, µ ∈ R ∀v ∈ V
8) 1v = v ∀v ∈ V
Osservazione 50 In ogni spazio vettoriale V esiste un solo elemento neutro per la somma.
Dimostrazione.
Siano z e z

due elementi neutri per la somma di V
Si ha che z + z

= z in quanto z

`e elemento neutro per la somma.
Inoltre si ha che z + z

= z

in quanto z `e elemento neutro per la somma.
Quindi z = z

, in quanto sono entrambi uguali a z + z

.
Q.e.d.
Osservazione 51 In ogni spazio vettoriale V si ha che
0
R
v = 0
V
∀v ∈ V
Dimostrazione.
Si ha:
0
R
v = (0
R
+ 0
R
)v = 0
R
v + 0
R
v
(la prima uguaglianza segue dal fatto che 0
R
+ 0
R
= 0
R
, la seconda segue dalla propriet`a 5
degli spazi vettoriali, cio`e la propriet`a distributiva rispetto alla somma in R).
Sia w un opposto di 0
R
v (esite per la propriet`a 4 degli spazi vettoriali). Sommando w al primo
membro e all’ultimo membro della catena di uguaglianze sopra, si ottiene
0
R
v + w = (0
R
v + 0
R
v) + w
e quindi, applicando la definizione di opposto al primo membro e la propriet`a 1 di spazio vettoriale
cio`e la propriet`a associativa della somma al secondo membro, ottengo
0
V
= 0
R
v + (0
R
v + w)
e quindi, per definizione di opposto,
0
V
= 0
R
v + 0
V
21
da cui
0
V
= 0
R
v
Q.e.d.
Osservazione 52 Per qualsiasi v ∈ V l’elemento (−1)v `e un opposto di v.
Dimostrazione.
(−1)v + v = (−1)v + 1v = (−1 + 1)v = 0
R
v = 0
V
(la prima uguaglianza segue dalla propriet`a 8 degli spazi vettoriali, la seconda dalla propriet`a
distributiva rispetto alla somma in R, l’ultima dall’osservazione precedente).
Q.e.d.
Osservazione 53 Per qualsiasi v ∈ V , esiste un solo opposto di v (e quindi per l’osservazione
precedente `e (−1)v).
Dimostrazione.
Siano v

e v
′′
due opposti di v, quindi v

+ v = 0
V
e v
′′
+ v = 0
V
;
in particolare
v

+ v = v
′′
+ v
Sommando ad entrambi i membri un opposto, w, di v , si ottiene
(v

+ v) + w = (v
′′
+ v) + w
e quindi
v

+ (v + w) = v
′′
+ (v + w)
Pertanto
v

+ 0
V
= v
′′
+ 0
V
da cui v

= v
′′
. Q.e.d.
Esempio basilare. Sia n ∈ N, n, ≥ 1; ; l’insieme R
n
con le operazioni di somma e di prodotto
per uno scalare definite nel capitolo 1 `e uno spazio vettoriale.
Esempio basilare. Siano n, m ∈ N, n, m ≥ 1; l’insieme M(m×n, R) con le operazioni di somma
e di prodotto per uno scalare definite nel capitolo 1 `e uno spazio vettoriale.
Definizione 54 Gli elementi di uno spazio vettoriale si dicono vettori.
Definizione 55 Sia V uno spazio vettoriale. Siano v
1
, ..., v
k
∈ V e λ
1
, ..., λ
k
∈ R. Si definisce
combinazione lineare di v
1
, ..., v
k
con coefficienti λ
1
, ..., λ
k
il vettore
λ
1
v
1
+ ... + λ
k
v
k
22
5.2 Sottospazi vettoriali
Definizione 56 Sia V uno spazio vettoriale su R. Un sottospazio di V `e un sottoinsieme non
vuoto S di V tale che
• v + w ∈ S ∀v, w ∈ S (chiusura per la somma)
• λv ∈ S ∀λ ∈ R, ∀v ∈ S (chiusura per la moltiplicazione per scalari).
Esempio. L’insieme delle matrici simmetriche n×n `e un sottospazio vettoriale dell’insieme delle
matrici n × n, infatti la somma di due matrici simmetriche `e simmetrica e il prodotto fra uno
scalare e una matrice simmetrica `e ancora una matrice simmetrica.
Osservazione 57 Un sottospazio vettoriale S di uno spazio vettoriale V contiene 0
V
.
Dimostrazione.
Essendo un sottospazio, S `e non vuoto, quindi contiene un elemento v. Allora, per la propriet`a
di chiusura per la moltiplicazione per scalari, si deve avere che O
R
v ∈ S. Ma, per l’osservazione
51, si ha che O
R
v = 0
V
, quindi 0
V
∈ S.
Q.e.d.
Osservazione 58 Un sottospazio vettoriale S di uno spazio vettoriale V con le operazioni di
somma e di prodotto per scalari ereditate da V `e lui stesso uno spazio vettoriale.
Proposizione 59 Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo. Siano
v
1
, ..., v
k
∈ V . L’insieme delle combinazioni lineari di v
1
, ..., v
k
, cio`e

1
v
1
+ .... + λ
k
v
k
| λ
1
, ..., λ
k
∈ R}
`e un sottospazio vettoriale di V . (In genere `e denotato v
1
, ..., v
k
e si legge “span di v
1
, ...., v
k
”.)
Dimostrazione.
Sia S = {λ
1
v
1
+ .... + λ
k
v
k
| λ
1
, ..., λ
k
∈ R}.
Ovviamente S `e non vuoto.
• S `e chiuso per la somma, infatti sommando due elementi di S, λ
1
v
1
+ .... + λ
k
v
k
e µ
1
v
1
+
.... + µ
k
v
k
, si ottiene

1
v
1
+ .... + λ
k
v
k
) + (µ
1
v
1
+ .... + µ
k
v
k
)
che, per le propriet`a 1),2),5) degli spazi vettoriali, `e uguale a

1
+ µ
1
)v
1
+ .... + (λ
k
+ µ
k
)v
k
che `e un elemento di S.
• S `e chiuso per la moltiplicazione per scalari, infatti, moltiplicando un elemento di S, λ
1
v
1
+
.... + λ
k
v
k
, per uno scalare γ, si ottiene
γ(λ
1
v
1
+ .... + λ
k
v
k
)
che, per le propriet`a 6) e 7) degli spazi vettoriali, `e uguale a
(γλ
1
)v
1
+ .... + (γλ
k
)v
k
che `e un elemento di S.
Q.e.d.
23
Proposizione 60 Sia V uno spazio vettoriale; sia k un qualsiasi numero naturale positivo. Siano
v
1
, ..., v
k
∈ V .
1) v
1
, ..., v
i−1
, v
i
, v
i+1
, ..., v
j−1
, v
j
, v
j+1
, ...., v
k
= v
1
, ..., v
i−1
, v
j
, v
i+1
, ..., v
j−1
, v
i
, v
j+1
, ...., v
k

(cio`e il sottospazio non cambia cambiando l’ordine dei generatori)
2) v
1
, ..., v
i−1
, v
i
, v
i+1
, ..., v
k
= v
1
, ..., v
i−1
, λv
i
, v
i+1
, ...v
k
∀λ ∈ R−{0} (cio`e il sottospazio
non cambia se moltiplico un generatore per uno scalare non nullo)
3) v
1
, ..., v
i−1
, v
i
, v
i+1
, ..., v
j−1
, v
j
, v
j+1
, ...., v
k
= v
1
, ..., v
i−1
, v
i
+λv
j
, v
i+1
, ..., v
j−1
, v
j
, v
j+1
, ...., v
k

∀λ ∈ R (cio`e il sottospazio non cambia se ad un generatore sommo un multiplo di un altro gen-
eratore).
Dimostrazione. Per esercizio.
Proposizione 61 L’insieme delle soluzioni di un sistema lineare in n incognite `e un sottospazio
vettoriale di R
n
se e solo se il sistema lineare `e omogeneo.
Dimostrazione.
Scriviamo il nostro sistema lineare nella forma matriciale Ax = b.
Vogliamo dimostrare che S := {x ∈ R
n
| Ax = b} `e un sottospazio vettoriale se e solo se b = 0.
Se S `e un sottospazio vettoriale allora deve contenere 0 quindi A0 = b quindi b = 0.
Viceversa se b = 0, S = {x ∈ R
n
| Ax = 0} ed `e un sottospazio vettoriale infatti:
• `e non vuoto (infatti contiene 0, perch`e A0 = 0)
• `e chiuso per la somma, infatti se x e x

∈ S, quindi Ax = 0 e Ax

= 0, allora anche x+x

∈ S
perch`e A(x + x

) = Ax + Ax

= 0 + 0 = 0.
• `e chiuso per la moltiplicazione per scalari infatti se x ∈ S, quindi Ax = 0 e λ ∈ R allora anche
λx ∈ S perch`e A(λx) = λAx = λ0 = 0.
Q.e.d.
5.3 Generatori, insiemi di vettori linearmente indipendenti, basi, dimen-
sione
Definizione 62 Sia V uno spazio vettoriale. Si dice che un insieme di vettori v
1
, ..., v
k
`e un
insieme di vettori linearmente dipendenti se esistono λ
1
, ..., λ
k
∈ R non tutti nulli tali che
λ
1
v
1
+ ... + λ
k
v
k
= 0
Definizione 63 Sia V uno spazio vettoriale. Si dice che un insieme di vettori v
1
, ..., v
k
`e un
insieme di vettori linearmente indipendenti se l’unica loro combinazione lineare uguale a 0 `e
quella con tutti i coefficienti uguali a 0.
Definizione 64 Sia V uno spazio vettoriale. Un insieme di vettori di V si dice un insieme di
generatori per V se ogni elemento di V `e una loro combinazione lineare.
Osservazione 65 Un sottoinsieme di un insieme di vettori linearmente indipendenti `e ancora un
insieme di vettori linearmente indipendenti
Dimostrazione. L’affermazione `e ovvia, in quanto se avessi una combinazione lineare con coeffi-
cienti non tutti nulli del sottoinsieme di vettori, potrei facilmente trovare una combinazione con
coefficienti non tutti nulli dell’insieme di vettori (basta prendere gli stessi coefficienti per i vettori
del sottoinsieme e coefficienti nulli per gli altri vettori).
Q.e.d.
24
Osservazione 66 Se {v
1
, ..., v
k
} `e un insieme di vettori dipendenti di V allora esiste i ∈
{1, ..., k} tale che v
i
si pu` o scrivere come combinazione lineare di v
1
, ..., v
i
, v
i+1
, ..., v
k
.
Dimostrazione.
Dato che v
1
, ..., v
k
sono un insieme di vettori linearmenti dipendenti, esistono λ
1
, ..., λ
k
∈ R
non tutti nulli tali che
λ
1
v
1
+ .....λ
k
v
k
= 0
Supponiamo λ
i
= 0. Allora
v
i
= −
λ
1
λ
i
v
1
−........ −
λ
i−1
λ
1
v
i−1

λ
i+1
λ
1
v
i+1
− ........ −
λ
n
λ
i
v
n
Q.e.d.
Definizione 67 Sia V uno spazio vettoriale. Un insieme di vettori di V si dice una base di V
se `e un insieme di vettori linearmente indipendenti che genera V .
Teorema 68 Sia V uno spazio vettoriale.
Sia {v
1
, ..., v
k
} un insieme di vettori indipendenti di V .
Sia {w
1
, ..., w
s
} un insieme di generatori di V .
Allora k ≤ s.
Dimostrazione. Dato che {w
1
, ..., w
s
} `e un insieme di generatori di V , esistono λ
i,j
∈ R tali che
v
i
=
¸
j=1...s
λ
i,j
w
j
per i = 1, ..., k.
Consideriamo la combinazione lineare
¸
i=1,...,k
x
i
v
i
=
¸
i=1,...,k
x
i
¸
j=1,...,s
λ
i,j
w
j
=
¸
i=1,...,k
¸
j=1,...,s
x
i
λ
i,j
w
j
=
=
¸
j=1,...,s
¸
i=1,...,k
x
i
λ
i,j
w
j
=
¸
j=1,...,s
(
¸
i=1,...,k
x
i
λ
i,j
)w
j
Se per assurdo k > s allora il sistema lineare omogeneo nelle incognite x
i
dato dalle j equazioni:
¸
i=1,...,k
x
i
λ
i,j
= 0
per j = 1, ..., s ha una soluzione non nulla (x
1
, ..., x
k
) per l’osservazione 46.
Quindi si ottiene
¸
i=1,...k
x
i
v
i
= 0
contraddicendo l’ipotesi per cui {v
1
, ..., v
k
} `e un insieme di vettori indipendenti di V . Quindi
k ≤ s.
Q.e.d.
Corollario 69 Sia V uno spazio vettoriale.
Siano {v
1
, ..., v
k
} e {w
1
, ..., w
s
} due basi di V .
Allora k = s.
25
Dato che due basi di uno stesso spazio vettoriale hanno la stessa cardinalit`a, per il corollario
appena enunciato, possiamo definire:
Definizione 70 Si dice dimensione di uo spazio vettoriale la cardinalit`a di una sua base.
Teorema 71 Completamento di vettori indipendenti ad una base. Dato un insieme di
vettori linearmente indipendenti {v
1
, ..., v
k
} in uno spazio vettoriale V di dimensione n, allora
k ≤ n, inoltre
se k = n allora {v
1
, ..., v
k
} `e una base di V ,
se invece k < n `e sempre possibile trovare {v
k+1
, ..., v
n
} tali che {v
1
, ..., v
n
} formano una base
di V .
Dimostrazione.
Il fatto che k ≤ n segue dal Teorema 68.
Per dimostrare la restante parte della tesi, premetto la seguente osservazione
Osservazione. Se {v
1
, ..., v
k
} non `e una base di V allora ovviamente v
1
, ..., v
k
= V e scegliendo
v
k+1
non contenuto in v
1
, ..., v
k
si ottiene che {v
1
, ..., v
k
, v
k+1
} sono ancora indipendenti,
infatti:
supponiamo
¸
i=1,...,k+1
λ
i
v
i
= 0 per certi λ
i
∈ R; vogliamo dimostrare λ
i
= 0 per i =
1, ..., k +1; si ha λ
k+1
= 0 (altrimenti v
k+1
sarebbe combinazione lineare dei precedenti) quindi
rimane
¸
i=1,...,k
λ
i
v
i
= 0 e siccome {v
1
, ..., v
k
} sono indipendenti segue λ
i
= 0 per i = 1, ..., k.
Quindi per l’osservazione, se k = n, {v
1
, ..., v
k
} `e una base di V (se non lo fosse otterrei un
insieme di k + 1 vettori indipendenti quindi, per il Teorema 68, si avrebbe k + 1 ≤ n, che `e
assurdo).
Se k < n allora {v
1
, ..., v
k
} non pu` o essere una base e quindi per l’Osservazione posso trovare
un vettore v
k+1
tale che {v
1
, ..., v
k
, v
k+1
} sono ancora indipendenti.
Continuando in questo modo aggiungiamo n −k vettori fino a che non troviamo una base.
Q.e.d.
Teorema 72 Estrazione di una base da vettori generatori Se v
1
, ..., v
k
generano uno spazio
vettoriale V , si pu` o trovare un sottoinsieme di essi che forma una base di V .
Dimostrazione.
Se {v
1
, ..., v
k
} non `e gi`a una base, cio`e non sono indipendenti, per l’Osservazione 66, esiste
un vettore dell’insieme {v
1
, ..., v
k
} che `e combinazione lineare dei rimanenti. Allora i rimanenti
formano ancora un insieme di generatori per V
(infatti supponiamo ad esempio che sia v
k
combinazione lineare di v
1
, .., v
k−1
:
v
k
=
¸
i=1,...,k−1
c
i
v
i
per certi c
i
; sia v ∈ V ; dato che v
1
, ..., v
k
generano V , esistono λ
1
, ..., λ
k
tali che
v =
¸
i=1,...,k
λ
i
v
i
sostituendo a v
k
l’espressione
¸
i=1,...,k−1
c
i
v
i
, si ottiene
v =
¸
i=1,...,k−1
λ
i
v
i
+ λ
k
¸
i=1,...,k−1
c
i
v
i
26
=
¸
i=1,...,k−1

i
+ λ
k
c
i
)v
i
e quindi v `e combinazione lineare di v
1
, .., v
k−1
; quindi v
1
, .., v
k−1
sono generatori per V ).
Ripetendo il procedimento sui rimanenti, alla fine si arriva ad estrarre una base da {v
1
, ..., v
k
}.
Q.e.d.
Teorema 73 Sia S un sottospazio vettoriale di dimensione k di uno spazio vettoriale V di
dimensione n, allora k ≤ n.
Se k = n allora S = V .
Dimostrazione.
Sia {v
1
, ..., v
k
} una base di S. Essendo linearmente indipendenti in S sono anche linearmente
indipendenti in V , quindi, per il Teorema 71, k ≤ n.
Sempre per il Teorema 71, se k = n allora {v
1
, ..., v
k
} `e una base di V ; quindi, se v ∈ V , v pu` o
essere scritto come combinazione lineare di v
1
, ..., v
k
e quindi, dato che v
1
, ..., v
k
sono elementi
di S e una combinazione lineare di elementi di S `e ancora un elemento di S (essendo S un
sottospazio vettoriale), si ha che v appartiene a S.
Q.e.d.
Proposizione 74 Sia V uno spazio vettoriale di dimensione n. Se v
1
, .., v
n
sono vettori gener-
atori di V , allora formano una base.
Dimostrazione
Si pu` o estrarre da {v
1
, .., v
n
} una base. Essa deve essere costituita da n elementi, (dato V ha
dimensione n), quindi coincide con {v
1
, .., v
n
}.
Q.e.d.
5.4 Dimensione di M(m×n, R) e di R
k
[x]
Osservazione 75 La dimensione di M(m×n, R) `e mn.
Dimostrazione. Sia E
i,j
la matrice m×n con il coefficiente i, j uguale a 1 e tutti gli altri nulli.
L’insieme {E
i,j
}
i=1,...,m, j=1,...,n
`e una base di M(m×n, R), infatti se A ∈ M(m×n, R) si ha
A =
¸
i=1,...,m, j=1,...,n
a
i,j
E
i,j
quindi l’insieme {E
i,j
}
i=1,...,m, j=1,...,n
`e un insiem di generatori per M(m×n, R) e si dimostra
anche facilmente che sono indipendenti.
Q.e.d.
Notazione 76 Sia R
k
[x] l’insieme dei polinomi in x a coefficienti in R di grado minore o uguale
a k, cio`e
{a
0
+ a
1
x + .... + a
k
x
k
| a
0
, ..., a
k
∈ R}
E’ uno spazio vettoriale con la usuale somma di polinomi e prodotto per uno scalare.
Osservazione 77 La dimensione di R
k
[x] `e k + 1.
Dimostrazione.
L’insieme {1, x, ..., x
k
} `e una base di R
k
[x].
Q.e.d.
27
5.5 Un esempio fondamentale: lo spazio generato dalle colonne di una
matrice (range) e lo spazio generato dalle righe
Sia A una matrice m×n a coefficienti in R. Ad essa si possono associare due spazi vettoriali:
il sottospazio di R
m
generato dalle colonne di A (che a volte viene chiamto “range di A”)
A
(1)
, ..., A
(n)

e il sottospazio di R
n
generato dalle righe di A
A
(1)
, ..., A
(m)

Ovviamente questi due spazi non sono uguali, ma in seguito dimostreremo che, sorpendente-
mente, la loro dimensione `e la stessa (e chiameremo tale numero rango della matrice).
Esempio. Sia
A =

¸
3 0 3 −3
0 1 2 1
0 2 4 2
¸

Lo spazio generato dalle colonne `e il seguente sottospazio di R
3
:

¸
3
0
0
¸

,

¸
0
1
2
¸

,

¸
3
2
4
¸

,

¸
−3
1
2
¸

¸
=

¸
3
0
0
¸

,

¸
0
1
2
¸

¸
=
=

t

¸
3
0
0
¸

+ s

¸
0
1
2
¸

| t, s ∈ R

Quindi per esempio

¸
3
3
6
¸

appartiene a tale spazio.
Lo spazio generato dalle righe `e il seguente sottospazio di R
4
:

¸
¸
¸
3
0
3
−3
¸

,

¸
¸
¸
0
1
2
1
¸

,

¸
¸
¸
0
2
4
2
¸

¸
=

¸
¸
¸
3
0
3
−3
¸

,

¸
¸
¸
0
1
2
1
¸

¸
=
=

t

¸
¸
¸
3
0
3
−3
¸

+ s

¸
¸
¸
0
1
2
1
¸

| t, s ∈ R

Quindi per esempio

¸
¸
¸
3
−1
1
−4
¸

appartiene a tale spazio.
Osservazione 78 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne.
28
Dimostrazione. Segue immediatamente dalla Proposizione 60.
Q.e.d.
Osservazione 79 Sia A ∈ M(m×n, R) e B ∈ M(n ×k, R).
Allora lo spazio generato dalle colonne di AB `e contenuto nello spazio generato dalle colonne di
A.
Inoltre lo spazio generato dalle righe di AB `e contenuto nello spazio generato dalle righe di B.
Riprenderemo nel capitolo 5 lo studio dello spazio generato dalle colonne di una matrice e dello
spazio generato dalle righe; in particolare studieremo la loro dimensione (detta rango).
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
29
6 Applicazioni lineari
6.1 Applicazioni lineari, nucleo , immagine, relazione fondamentale
Definizione 80 Siano V e W due spazi vettoriali su R. Si dice che f : V → W `e una funzione
lineare se e solo se valgono le seguenti propriet`a:
a) f(v
1
+ v
2
) = f(v
1
) + f(v
2
) ∀v
1
, v
2
∈ V (additivit`a)
b) f(λv) = λf(v) ∀v ∈ V , ∀λ ∈ R (omogeneit`a)
Definizione 81 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Si definisce nucleo (in inglese kernel) di f il seguente sottoinsieme di V :
Ker(f) = {v ∈ V | f(v) = 0}
Si definisce immagine di f il seguente sottoinsieme di W:
Im(f) = {w ∈ W| ∃v ∈ V t.c. f(v) = w} = {f(v)| v ∈ V }
Osservazione 82 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Allora f(0
V
) = 0
W
.
Dimostrazione. f(0
V
) = f(0
R
0
V
) = 0
R
f(0
V
) = 0
W
Q.e.d.
Osservazione 83 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Allora Ker(f) `e un sottospazio vettoriale di V e Im(f) `e un sottospazio vettoriale di W.
Dimostrazione. Siano v
1
e v
2
due elementi di Ker(f), quindi f(v
1
) = 0
V
e f(v
2
) = 0
V
. Voglio
dimostrare che v
1
+ v
2
∈ Ker(f), cio`e che f(v
1
+ v
2
) = 0. Dato che f `e lineare si ha che
f(v
1
+ v
2
) = f(v
1
) + f(v
2
) = 0
V
+ 0
V
= 0
V
.
Sia v ∈ Ker(f), quindi f(v) = 0
V
e λ ∈ R, devo dimostrare che λv ∈ Ker(f), cio`e che
f(λv) = 0. Dato che f `e lineare, f(λv) = λf(v) = λ0
V
= 0
V
.
Q.e.d.
Osservazione 84 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare.
Allora f `e iniettiva se e solo se Ker(f) = {0
V
}.
Dimostrazione. Ricordo che f `e iniettiva se e solo se f(v
1
) = f(v
2
) implica v
1
= v
2
, cio`e se e
solo se l’immagine inversa f
−1
(w) di un qualsiasi elemento w di Im(f) `e costituita solo da un
elemento.
Supponiamo che f sia iniettiva; in particolare f
−1
(0
W
), che contiene sicuramente 0
V
, pu` o
contenere solo 0
V
, quindi f
−1
(0
W
) = {0
V
}, ma f
−1
(0
W
) `e Ker(f), quindi Ker(f) = {0
V
}.
Supponiamo che Ker(f) = {0
V
}. Voglio dimostrare che se v
1
e v
2
sono due elementi di V e
f(v
1
) = f(v
2
) allora v
1
= v
2
. Dato che f(v
1
) = f(v
2
) si ha che f(v
1
) −f(v
2
) = 0
W
e quindi,
dato che f `e lineare, f(v
1
− v
2
) = 0
W
. Quindi v
1
− v
2
∈ Ker(f). Dato che Ker(f) = {0
V
},
si deve avere v
1
−v
2
= 0
V
. Quindi v
1
= v
2
.
Q.e.d.
Teorema 85 . Relazione fondamentale. Siano V e W due spazi vettoriali su R con dim V <
+∞. Sia f : V → W una funzione lineare. Allora
dim Ker(f) + dim Im(f) = dim V
30
Dimostrazione.
Siano k = dim Ker(f), n = dim V . Sia {v
1
, .., v
k
} una base di Ker(f), e completiamola ad
una base di V {v
1
, .., v
n
}. Vogliamo dimostrare che dim Im(f) = n −k. Basta dimostrare che
gli n −k vettori f(v
k+1
), .., f(v
n
) formano una base di Im(f).
• Dimostriamo anzitutto che f(v
k+1
), .., f(v
n
) generano Im(f). Sia w ∈ Im(f); allora esiste
v in V tale che w = f(v). Siccome {v
1
, .., v
n
} `e una base di V , esistono coefficienti reali λ
i
tali
che
v =
¸
i=1,...,n
λ
i
v
i
Pertanto
w = f(v) = f(
¸
i=1,...,n
λ
i
v
i
)
f lineare
=
¸
i=1,...,n
λ
i
f(v
i
)
f(vi)=0 per i=1,...,k
=
¸
i=k+1,...,n
λ
i
f(v
i
)
come volevamo.
• Dimostriamo adesso che f(v
k+1
), .., f(v
n
) sono linearmente indipendenti.
Siano λ
i
∈ R i = k + 1, ..., n tali che
¸
i=k+1,...,n
λ
i
f(v
i
) = 0
Allora, per la linearit`a di f,
f(
¸
i=k+1,...,n
λ
i
v
i
) = 0
e quindi
¸
i=k+1,...,n
λ
i
v
i
appartiene a Ker(f) e quindi si pu` o scrivere come combinazione
lineare di v
1
, .., v
k
. Pertanto esistono coefficienti reali µ
j
j = 1, ..., k tali che
¸
i=k+1,...,n
λ
i
v
i
=
¸
j=1,...,k
µ
j
v
j
da cui
¸
i=k+1,...,n
λ
i
v
i

¸
j=1,...,k
µ
j
v
j
= 0
Dato che v
1
, ...., v
n
sono linearmente indipendenti, otteniamo che tutti i coefficienti della com-
binazione lineare sopra sono nulli, in particolare λ
i
= 0 per i = k + 1, ..., n come volevamo.
Q.e.d.
Proposizione 86 Siano V e W due spazi vettoriali su R e sia {v
1
, .., v
n
} una base di V . Siano
f, g due funzioni lineari. Se f(v
i
) = g(v
i
) i = 1, ..., n, allora f = g.
Dimostrazione.
Sia v un qualsiasi elemento di V . Voglio vedere che f(v) = g(v). Dato che {v
1
, .., v
n
} `e una
base di V , esistono λ
1
, ..., λ
n
∈ R tali che v =
¸
i=1,...,n
λ
i
v
i
. Dato che f `e lineare
f(v) = f(
¸
i=1,...,n
λ
i
v
i
) =
¸
i=1,...,n
λ
i
f(v
i
)
Analogamente
g(v) = g(
¸
i=1,...,n
λ
i
v
i
) =
¸
i=1,...,n
λ
i
g(v
i
)
ma dato che f(v
i
) = g(v
i
) i = 1, ..., n, le due espressioni coincidono. Quindi f(v) = g(v).
Q.e.d.
31
6.2 Applicazioni lineari associate a matrici
Definizione 87 Sia A ∈ M(m×n, R). Definisco l’applicazione lineare associata ad A l’applicazione
f
A
: R
n
→R
m
definita nel modo seguente:
f
A
(x) = Ax
Osservazione 88 f
A
`e lineare.
Dimostrazione.
a) (additivit`a) f
A
(x + y) = A(x + y)
prop. 2 prod. matrici
= Ax + Ay = f
A
(x) + f
A
(y)
b) (omogeneit`a) f
A
(λx) = A(λx)
prop 4 prod. matrici
= λAx = λf
A
(x)
Q.e.d.
Proposizione 89 Sia f : R
n
→R
m
lineare; allora esiste A ∈ M(m×n, R) tale che f = f
A
.
Dimostrazione.
Sia A la matrice che ha come colonne rispettivamente f(e
1
),..., f(e
n
).
Voglio dimostrare che f = f
A
.
Per la Prop. 86 basta dimostrare che f(e
j
) = f
A
(e
j
) j = 1, ..., n.
Ma questo `e ovvio in quanto f
A
(e
j
) `e Ae
j
cio`e la j-esima colonna di A, che, per come si `e
definita A, `e proprio f(e
j
).
Q.e.d.
Osservazione 90 Sia A ∈ M(m× n, R). Allora l’immagine di f
A
`e generata dalle colonne di
A.
Dimostrazione.
Im(f
A
) = {f
A
(x)| x ∈ R
n
} = {Ax| x ∈ R
n
} = {A
(1)
x
1
+ ... + A
(n)
x
n
| x
1
, ..., x
n
∈ R} =
A
(1)
, ..., A
(n)

Q.e.d.
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
32
7 Determinante, spazi generati da righe e colonne, rango,
inversa di una matrice
7.1 Determinante
Definizione 91 Sia A ∈ M(n ×n, R).
Se n = 1 e quindi A = (a) con a ∈ R si definisce il determinante di A nel modo seguente:
det(A) = a
Se n = 2 e quindi A =

a b
c d

con a, b, c, d ∈ R si definisce il determinante di A nel modo
seguente
det(A) = ad −bc
Pi`u in generale per n ≥ 2 si definisce il determinante di A ∈ M(n ×n, R) nel modo seguente:
fissiamo i ∈ {1, ..., n}; definiamo
det(A) =
¸
j=1,...,n
(−1)
i+j
a
i,j
det(A
ˆı,ˆ
)
dove A
ˆı,ˆ
`e la matrice ottenuta da A togliendo la riga i-esima e la colonna j-esima (sviluppo per
l’i-esima riga).
Esempio. det

2 3
4 −1

= −14
det

¸
2 1 0
−3 2 2
1 1 7
¸

= 2 det

2 2
1 7

− 1 det

−3 2
1 7

+ 0 det

−3 2
1 1

= 2 · 12 −
1(−23) + 0(−5) = 24 + 23 = 47
Proposizione 92 Propriet`a del determinante
1) det(A) = det(A

) + det(A
′′
) se A
(i)
= A

(i)
= A
′′
(i)
∀i = k e A
(k)
= A

(k)
+ A
′′
(k)
.
2) Moltplicando una riga di una matrice per uno scalare λ, il determinante `e moltiplicato per λ,
cio`e se
˜
A `e ottenuta da A moltiplicando una riga di A per λ, allora det(
˜
A) = λdet(A).
3) Il determinante di una matrice cambia di segno se si scambiano due righe della matrice, cio`e
det(A) = det(
˜
A) per qualsiasi A ∈ M(n ×n, R), se
˜
A `e ottenuta da A scambiando due righe.
4) Il determinante `e zero sulle matrici con due righe uguali.
5) Sommando ad una riga un multiplo di un’altra riga il determinante non cambia.
6) Il determinante `e zero sulle matrici con una riga nulla.
7) det(A) = det(
t
A) ∀A ∈ M(n ×n, R).
8) Le regole 1,...., 6 valgono anche per le colonne.
9) det(AB) = det(A)det(B) ∀A, B ∈ M(n ×n, R).
10) Il determinante di una matrice triangolare `e il prodotto degli elementi sulla diagonale.
11) det

A B
0 C

= det(A)det(C) ∀A ∈ M(n × n, R) ∀B ∈ M(n × m, R) ∀C ∈ M(m×
m, R).
Dimostrazione omessa.
(Le propriet`a 1 e 2 sono dette in breve “il determinante `e una funzione multilineare delle righe”;
la propriet`a 3 `e detta in breve “il determinante `e una funzione alternante delle righe”.)
33
7.2 Spazi generati da righe e colonne e rango
Definizione 93 Sia A ∈ M(m× n, R). Si definisce rango per righe di A la dimensione del
sottospazio di R
n
generato dalle righe di A
rk
r
(A) = dim(A
(1)
, ..., A
(m)
)
Si definisce rango per colonne di A la dimensione del sottospazio di R
m
generato dalle colonne
di A
rk
c
(A) = dim(A
(1)
, ..., A
(n)
)
Osservazione 94 Sia A ∈ M(m×n, R). Allora
rk
r
(A) ≤ min{m, n}
in quanto rk
r
(A) `e la dimensione di un sottospazio di R
n
, quindi ha dimensione ≤ n, generato
da m elementi (le righe di A), quindi ha dimensione ≤ m. Analogamente
rk
c
(A) ≤ min{m, n}
Osservazione 95 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni
elementari di righe. Quindi il rango per righe non cambia facendo operazioni elementari di righe.
Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di
colonne. Quindi il rango per colonne non cambia facendo operazioni elementari di colonne.
Dimostrazione. Segue immediatamente dalla Proposizione 60.
Q.e.d.
Proposizione 96 Sia A una matrice a scalini allora rk
r
(A) `e uguale al numero degli scalini.
Dimostrazione.
Sia k il numero degli scalini cio`e delle righe non nulle.
Siano j
1
,..., j
k
gli indici delle colonne dove compaiono i pivots.
Per dimostrare la tesi basta dimostrare che le prime k righe sono indipendenti.
Siano λ
1
, ..., λ
k
∈ R tali che
λ
1
A
(1)
+ .... + λ
k
A
(k)
= 0 (1)
Voglio dimostrare che λ
1
= ... = λ
k
= 0.
Considerando i j
1
-esimi coefficienti dell’uguaglianza 1, ricavo
λ
1
A
1,j1
+ .... + λ
k
A
k,j1
= 0
cio`e
λ
1
A
1,j1
= 0
(in quanto A
2,j1
= .... = A
k,j1
= 0) da cui
λ
1
= 0
in quanto A
1,j1
= 0 essendo un pivot.
Considerando i j
2
-esimi coefficienti dell’uguaglianza 1, ricavo
λ
1
A
1,j2
+ λ
2
A
2,j2
+ .... + λ
k
A
k,j2
= 0
34
cio`e
λ
2
A
2,j2
= 0
(in quanto λ
1
= 0 e A
3,j2
= .... = A
k,j2
= 0) da cui
λ
2
= 0
in quanto A
2,j2
= 0 essendo un pivot.
Proseguendo analogamente ricaviamo λ
1
= ... = λ
k
= 0.
Q.e.d.
Proposizione 97 Sia A ∈ M(m×n, R). Allora
dim(Ker(f
A
)) = n −rk
r
(A)
Dimostrazione.
Ovviamente
Ker(f
A
) = {x ∈ R
n
| Ax = 0}
che, se A

`e una matrice a scalini ottenuta da A con operazioni elementari di riga, `e uguale a
{x ∈ R
n
| A

x = 0}
quindi all’insieme delle soluzioni del sistema lineare omogeneo con matrice incompleta A

.
Per trovare tale insieme di soluzioni devo scrivere le variabili che corrispondono ai pivots in
funzione di quelle che non corrispondono ai pivots.
Sia k = rk
r
(A) che `e uguale a rk
r
(A

). Modulo riordinare le variabili, posso supporre che le
variabili che corrispondono ai pivots siano le prime k: x
1
, ...., x
k
.
Sfruttando le equazioni scrivo x
1
, ...., x
k
in funzione di x
k+1
, ...., x
n
:
x
1
= f
1
(x
k+1
, ...., x
n
)
.
.
.
x
k
= f
k
(x
k+1
, ...., x
n
)
Quindi l’insieme delle soluzioni `e

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
f
1
(x
k+1
, ...., xn)
.
.
.
f
k
(x
k+1
, ...., xn)
x
k+1
.
.
.
xn
¸

| x
k+1
, ...., x
n
∈ R

=

x
k+1

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
1
0
.
.
0
¸

+ .... + x
n

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
.
.
.
.
.
0
.
.
0
1
¸

| x
k+1
, ...., x
n
∈ R

quindi ha dimensione n −k
Q.e.d.
Osservazione 98 Sia A ∈ M(m×n, R). Allora dim(Im(f
A
)) = rk
c
(A).
Dimostrazione.
Segue immediatamente dall’Osservazione 90.
Q.e.d.
Teorema 99 Sia A ∈ M(m×n, R). Allora rk
r
(A) = rk
c
(A)
Dimostrazione.
rk
c
(A)
Oss.98
= dim(Im(f
A
))
Relaz.Fondam.
= n −dimKer(f
A
)
Prop.97
= rk
r
(A).
Q.e.d.
35
7.3 Il teorema di Rouch´e-Capelli
Teorema 100 Teorema di Rouch´e-Capelli. Sia A ∈ M(m× n, R) e sia b ∈ R
m
. Il sistema
lineare Ax = b ha soluzione se e solo se rk(A) = rk(A|b).
Dimostrazione.
Il sistema lineare Ax = b ha soluzione se e solo se esistono x
1
, ..., x
n
∈ R tali che
x
1
A
(1)
+ .... + x
n
A
(n)
= b
cio`e se e solo se b `e combinazione lineare di A
(1)
, ...., A
(n)
. Questo equivale a dire che
A
(1)
, ...., A
(n)
= A
(1)
, ...., A
(n)
, b
Dato che si ha sempre A
(1)
, ...., A
(n)
⊂ A
(1)
, ...., A
(n)
, b, dire questi due sottospazi sono
uguali equivale a dire che le loro dimensioni sono uguali.
Q.e.d.
7.4 Relazione fra rango e determinante
Teorema 101 Sia A ∈ M(n ×n, R).
A ∈ GL(n, R) ⇔ rk(A) = n ⇔ det(A) = 0
Dimostrazione omessa.
Teorema 102 (Criterio dei minori orlati). Sia A ∈ M(m × n, R). Allora rk(A) `e k se
e solo se esite una sottomatrice k × k con determinante diverso da 0 e tutte le sottomatrici
(k + 1) ×(k + 1) contenenti tale sottomatrice hanno determinante uguale a 0
Dimostrazione omessa.
Esempio. Sia A =

¸
¸
¸
1 0 2 3 −1
−2 0 −4 −6 2
2 1 2 −6 2
0 1 −2 −12 4
¸

Esiste una sottomatrice 2×2 (per esempio quella formata dalle prime due colonne e la seconda e
terza riga) con determinante diverso da 0 e tutte le sottomatrici 3 ×3 che la contengono hanno
determinante uguale a 0; quindi il rango di A `e 2.
7.5 Metodo per calcolare l’inversa di una matrice
Sia A ∈ GL(n, R).
Un metodo per calcolare l’inversa `e il seguente (omettiamo la dimostrazione):
• affiancare ad A a destra la matrice I
n
, ottenendo cos`ı una matrice n ×2n: (A|I
n
)
• fare operazioni elementari di riga sulla matrice (A|I
n
) fino ad ottenere una matrice la cui prima
parte `e I
n
, cio`e del tipo (I
n
|B).
La matrice B cos`ı trovata `e l’inversa di A.
Esempio. Sia
A =

¸
1 0 2
0 2 1
−1 0 0
¸

36
Affiancando ad A la matrice I
3
ottengo

¸
1 0 2 1 0 0
0 2 1 0 1 0
−1 0 0 0 0 1
¸

Faccio adesso operazioni elementari di riga.

¸
1 0 2 1 0 0
0 2 1 0 1 0
0 0 2 1 0 1
¸

III + I

¸
1 0 0 0 0 −1
0 2 0 −
1
2
1 −
1
2
0 0 2 1 0 1
¸

I −III
II −
1
2
III

¸
1 0 0 0 0 −1
0 1 0 −
1
4
1
2

1
4
0 0 1
1
2
0
1
2
¸

1
2
II
1
2
III
La matrice
B =

¸
0 0 −1

1
4
1
2

1
4
1
2
0
1
2
¸

`e l’inversa di A.
NOTA. Tutto quello che `e stato detto in questo capitolo pu` o essere enunciato sostituendo C a
R.
37
8 Autovettori e autovalori, diagonalizzabilit`a
Definizione 103 Sia V uno spazio vettoriale su R e f : V → V una applicazione lineare. Un
vettore v ∈ V non nullo si dice autovettore di f se esiste λ ∈ R tale che
f(v) = λv
(quindi se f manda v in un suo multiplo). In tal caso si dice che λ `e un autovalore di f
(l’autovalore di f relativo a v).
Autovettori ed autovalori di una matrice quadrata A sono per definizione autovalori ed autovettori
di f
A
. Quindi v ∈ R
n
−{0} `e un autovettore di A con autovalore λ se vale
Av = λv
Esempio. Sia
A =

¸
1 2 0
2 1 1
0 0 1
¸

Il vettore

¸
1
1
0
¸

`e autovettore di A di autovalore 3.
Per semplicit`a tratteremo soprattutto il caso degli autovalori ed autovettori di una matrice.
Definizione 104 Sia A ∈ M(n ×n, R). Il polinomio caratteristico di A `e definito nel modo
seguente:
p
A
(t) := det(A −tI)
dove I la matrice identit`a n ×n.
Esempio. Sia
A =

¸
1 2 0
2 1 1
0 0 1
¸

Allora
p
A
(t) = det

¸
1 −t 2 0
2 1 −t 1
0 0 1 −t
¸

= (1 −t)[(1 −t)(1 −t) −4] = (1 −t)(t
2
−2t −3)
Lemma 105 Un numero reale λ `e un autovalore di A se e solo se `e una radice (reale) del
polinomio caratteristico di A.
Dimostrazione λ `e un autovalore di A ⇔∃v ∈ R
n
−{0} tale che Av = λv ⇔∃v ∈ R
n
−{0} tale
che (A−λI)v = 0 ⇔ Ker(A−λI) = {0} ⇔ A−λI non `e iniettiva
Thm.101
⇔ det(A−λI) = 0
Q.e.d.
Osservazione 106 L’insieme degli autovettori di A con autovalore λ, unito al vettore zero,
coincide con Ker(A−λI) e si dice autospazio di A relativo a λ.
38
Definizione 107 Sia A una matrice quadrata e sia λ un suo autovalore.
La dimensione di Ker(A −λI) si dice molteplicit`a geometrica di λ.
La molteplicit`a di λ come radice del polinomio caratteristico si dice molteplicit`a algebrica di
λ.
Definizione 108 Due matrici A e B si dicono simili se esiste C invertibile tale che
A = C
−1
BC
Lemma 109 Due matrici simili hanno lo stesso polinomio caratteristico.
Dimostrazione. Supponiamo che A e B siano simili, quindi esiste C tale che A = C
−1
BC.
Allora
p
A
(t) = det(A −tI) = det(C
−1
BC − tI) = det(C
−1
(B −tI)C) =
= det(C
−1
)det(B −tI)det(C) = det(B −tI) = p
B
(t)
Q.e.d.
Esercizi.
i) Provare che la similitudine una relazione di equivalenza.
ii) Provare che se A `e una matrice 2 ×2 allora p
A
(t) = t
2
−tr(A)t + det(A)
iii) Provare che gli autovalori di una matrice triangolare sono gli elementi sulla diagonale.
Definizione 110 Una matrice quadrata A si dice diagonalizzabile se `e simile ad una matrice
diagonale.
Teorema 111 Una matrice A diagonalizzabile se e solo se esiste una base di autovettori di A.
Dimostrazione. Se A `e diagonalizzabile allora esiste C invertibile tale che C
−1
AC = D con D
diagonale. Moltiplicando a sinistra per C si ottiene AC = CD.
Tale equazione equivale a AC
(j)
= λ
j
C
(j)
per ogni j = 1, ..., n dove λ
j
`e il j-esimo elemento
della diagonale di D; quindi le colonne di C formano la base richiesta di autovettori.
Viceversa se esiste una base di autovettori per A, definiamo C la matrice ottenuta affiancando
gli elementi di tale base. Allora vale AC
(j)
= λ
j
C
(j)
per ogni j = 1, ..., n; quindi, chiamando D
la matrice che ha λ
1
, ..., λ
n
sulla diagonale, si ha AC = CD, da cui C
−1
AC = D.
Osservazione 112 Se A `e simile ad una matrice D diagonale, allora sulla diagonale di D ap-
paiono gli autovalori di A (infatti A e D hanno lo stesso polinomio caratteristico).
Proposizione 113 Per qualsiasi autovalore si ha che la molteplicit`a geometrica `e minore o uguale
della molteplicit`a algebrica.
Dimostrazione omessa.
Come abbiamo gi`a detto, gran parte dell’algebra lineare che abbiamo enunciato per l’insieme dei
numeri reali R, pu` o essere in modo del tutto analogo enunciato per l’insieme dei numeri complessi
C (spazi vettoriali su C, C
n
, M(m×n, C), applicazioni lineari, determinante, rango.....)
In particolare ben definito il determinante di una matrice quadrata a coefficienti complessi e
una matrice quadrata a coefficienti complessi invertibile se e solo se il suo determinante `e non
nullo.
Con dimostrazione del tutto analoga alla dimostrazione del Lemma 105, si dimostra che λ ∈ C
`e radice del polinomio caratteristico di A se e solo se esiste v ∈ C
n
tale che Av = λv. Un tale
v si dice autovettore (complesso) di A con autovalore (complesso) λ.
39
Teorema 114 Criterio necessario e sufficiente di diagonalizzabilit`a.
Una matrice A `e diagonalizzabile se e solo se tutti le radici complesse del polinomio caratteristico
di A sono numeri reali e per ogni autovalore (reale) di A la molteplicit`a geometrica uguale alla
molteplicit`a algebrica.
Dimostrazione omessa.
Esempi.
1) Sia
A =

¸
1 −2 0
2 1 1
0 0 −1
¸

Allora
p
A
(t) = det

¸
1 −t −2 0
2 1 −t 1
0 0 −1 −t
¸

= (−1 −t)[(1 −t)(1 −t) +4] = (−1 −t)(t
2
−2t +5)
Quindi non tutte le radici complesse del polinomio caratteristico sono reali. Quindi A non `e
diagonalizzabile.
2) Sia
B =

¸
1 2 0
2 1 1
0 0 −1
¸

Allora
p
B
(t) = (−1 −t)[(1 −t)(1 −t) −4] = (−1 −t)(t
2
−2t −3) = −(t −3)(t + 1)
2
Quindi tutte le radici complesse del polinomio caratteristico sono reali. Esse sono t = 3 e t = −1.
Ovviamente la molteplicit`a algebrica di 3 `e 1, quella di −1 `e 2; ovviamente la molteplicit`a
geometrica di 3 `e 1, inoltre si calcola facilmente che la molteplicit`a geometrica di −1 `e 1; quindi
B non `e diagonalizzabile.
3) Sia
C =

¸
3 1 1
2 4 2
3 3 5
¸

Allora
p
C
(t) = −t
3
+ 12t
2
−36t + 32 = (2 −t)
2
(8 −t)
Quindi tutte le radici complesse del polinomio caratteristico sono reali. Esse sono t = 2 e
t = 8. Ovviamente la molteplicit`a algebrica di 2 `e 2, quella di 8 `e 1; ovviamente la molteplicit`a
geometrica di 8 `e 1, inoltre si calcola facilmente che la molteplicit`a geometrica di 2 `e 2; quindi
C `e diagonalizzabile.
40

8 Autovettori e autovalori, diagonalizzabilit` a

38

Ordine di lettura consigliato : 3.1, 3.2, 5.1, 5.2, 3.3, 3.4, etc

2

1

Notazioni fondamentali in matematica

“∀” significa “per qualsiasi”

“∃” significa “esiste”

“⇒” significa “implica”

“⇔” significa “implica e ` implicato”, “se e solo se” e

“∈” significa “appartiene”, “` un elemento di” e

“⊂” significa “` incluso” e

3

2

I numeri complessi

Come ` ben noto non tutte le equazioni polinomiali hanno soluzioni nei reali. Ad esempio e l’equazione x2 = −1 e non ha soluzione nei reali, cio` non esiste un numero reale x il cui quadrato ` −1. e L’insieme dei numeri complessi ` stato introdotto proprio per consentire di trovare soluzione a e tutte le equazione polinomiali, cio` ` stato introdotto come un insieme “pi` grande” dell’insieme ee u dei numeri reali, nel quale ogni equazione polinomiale ha soluzione. In altre parole per ottenere l’insieme dei numeri complessi si aggiunge all’insieme dei numeri reali l’insieme di tutte le soluzioni di equazioni polinomiali. Informalmente si definisce C (insieme dei numeri complessi) nel modo seguente: si definisce i (unit` immaginaria) come un numero che gode della seguente propriet`: a a i2 = −1 e si definisce: C = {a + bi| a, b ∈ R} Quindi un numero complesso ` un numero del tipo e z = a + bi dove a e b sono due numeri reali e i ` l’unit` immaginaria. Si dice che a ` la parte reale del e a e numero complesso a + bi e bi ` la parte immaginaria. In genere si scrive: e Re(z) = a Im(z) = b (coefficiente della parte immaginaria). La somma e il prodotto in C si definiscono nel modo seguente: (a + bi) + (c + di) = a + b + (c + d)i (a + bi) · (c + di) = ac − bd + (ad + bc)i La definizione di prodotto pu` sembrare strana e difficile da memorizzare, ma in realt` si ricava o a facilmente “facendo valere” le propriet` distribuitiva e commutative e ricordando che i2 = −1: a (a+bi)·(c+di) = a·(c+di)+bi·(c+di) = ac+adi+bci+bdi2 = ac+adi+bci−bd = ac−bd+(ad+bc)i Ovviamente si pu` vedere l’insieme dei numeri reali contenuto nell’insieme dei numeri complessi: o a ∈ R si pu` vedere come il numero complesso a + 0i. o Si definisce coniugato di un numero complesso z = a + bi il numero complesso a − bi e si denota z: z = a − bi Si definisce modulo di un numero complesso z = a + bi il numero reale |z|: |z| = a2 + b2 √ a2 + b2 e si denota

Se z ∈ R, allora il modulo coincide con il valore assoluto: infatti in tal caso, se si scrive z = a+bi, √ √ si ha che b = 0 e quindi |z| = a2 + b2 = a2 = |a|. 4

dato un qualsiasi numero complesso z = a + bi. b). vale la propriet` distributiva. esiste un numero complesso che sommato e a z d` 0: esso sar` −a − bi). b) · (c. b) + (c. 0) con (a. b (a. Si pu` o dimostrare facilmente che z · w = (ρλ)[cos(θ + η) + isen(θ + η)] Quindi in pratica moltiplicare per z = ρ(cos θ + isen θ) un numero complesso w significa moltiplicare per ρ la lunghezza del segmento che unisce l’origine col punto del piano che rappresenta w e ruotare tale segmento di θ. c + d) (a. b)| a. d) = (a + b. 0) con (a. esiste un elemento neutro per la somma (0 = 0 + 0i). e a a z Pi` formalmente si pu` definire u o definendo la somma e il prodotto nel modo seguente: C = {(a. 5 . b).b) a Sia θ l’angolo formato dal semiasse positivo delle ascisse e il segmento che congiunge (0. a a esiste l’inverso. allora si ha ovviamente: z = a + bi = ρ(cos θ + isen θ) (forma trigonometrica dei numeri complessi). Il piano identificato con l’insieme dei numeri complessi si chiama piano di Argand-Gauss. b ∈ R} Si dimostrano facilmente le seguenti propriet`: a 1) |z| = |z| 2) |z| = 0 se e solo se z = 0 3) |z · w| = |z||w| 4) z · z = |z|2 5) z + w = z + w 6) z · w = z · w (a. precisamente al numero complesso a + bi si fa corrispondere il punto del piano di coordinate cartesiane (a. d) = (ac − bd. cio` un numero complesso che moltiplicato per z d` 1: esso sar` |z|2 . b) tale che π < θ ≤ π e sia ρ la lunghezza del segmento che congiunge (0. infine per qualsiasi numero complesso z = a + bi diverso da 0. ad + bc) L’insieme dei numeri complessi pu` essere identificato con i punti del piano in cui ` stato fissato o e un sistema di riferimento cartesiano. Supponiamo che z = a + bi = ρ(cos θ + isen θ) w = c + di = λ(cos η + isen η). esiste un elemento neutro per il prodotto (1 = 1 + 0i). esiste l’opposto per la somma a (cio`.Inoltre ` semplice dimostrare che valgono le propriet` associativa e commutativa sia per la somma e a che per il prodotto.

     λ . xn ∈ R R =     . .1 Rn e le matrici Definizione di Rn e di matrici.       . somma e prodotto per uno scalare Definizione 1 Sia n un numero naturale ≥ 1. si definisce λx come l’elemento di Rn tale che (λx)i = λxi e ∀i = 1. .     .   n  .3 3. Si definisce il prodotto fra un elemento di Rn e uno scalare (cio` un numero reale) nel modo seguente: e     x1 λx1  .     . .  =  . nel modo seguente:    x1 y1  ..  xn λxn (cio` se x ∈ Rn e λ ∈ R.. Esempio   3    1 0 −2 −π 7      =     6  3 0 −6 −3π 21           =     .   . y ∈ Rn . . .   ∈ Rn . n).. | x1 . si definisce x + y come l’elemento di Rn tale che (x + y)i = xi + yi e ∀i = 1.. .. xn  i-esima componente di x. xn + yn       Definizione 3 Sia n un numero naturale ≥ 1.   . + .     xn  Notazione 2 Sia x =    x1 . .. L’elemento xi che compare al’i-esimo posto si definisce  Si definisce la somma fra due elementi di Rn   x1 + y1 .   .   . Si definisce     x1     ...   2 3 0 −π + 2 8           =     Definizione 4 Sia n un numero naturale ≥ 1. xn yn Esempio       1 0 −2 −π 7      +      1 3 2 2 1 (cio` se x. n)..

La riga i-esima si denota con A(i) . Esempio       1 0 −2 −π 7   0 2 0 3     1 −1  +    4 5   0 1 1 3 2 2 1 3 2 1 0 0 −1 4 1 √ −6 − 2 7      =      2 3 0 −π + 2 8 3 4 1 3 1 −2 8 6√ −6 1 − 2       .. j = 1. Definizione 9 Siano m e n due numeri naturali ≥ 1. .j + Bi. Si definisce la somma fra due elementi di M (m × n. si definisce A + B come la matrice m × n tale che (A + B)i.j ∀i = 1. Una matrice m × n ` una tabella con m e righe e n colonne.Osservazione 5 Fissando un sistema cartesiano nel piano. R). In tal modo 0 y 2 la somma di due elementi di R pu` essere interpretata geometricamente tramite la cosiddetta o regola del parallelogramma: x’ y’ x y x+x’ y+y’ Definizione 7 Siano m. R) nel modo seguente: siano A. n due numeri naturali ≥ 1. Notazione 8 L’elemento che sta sull’i-esima riga e j-esima colonna di una matrice A si denota con ai. si stabilisce un’ovvia bigezione fra R3 e lo spazio. B ∈ M (m × n.j o Ai.j .. n due numero naturale ≥ 1. Si definisce M (m × n. m. si stabilisce un’ovvia bigezione fra R2 e il piano..j = Ai. Analogamente fissando un sistema cartesiano nello spazio. R) = {A| A matrice m × n a coeff icienti in R} Definizione 10 Siano m. n. Osservazione 6 “Regola del parallelogramma” Per ogni elemento segmento orientato avente x y di R2 consideriamo il 0 x come punto iniziale e come punto finale.. Si dice a coefficienti in R se tutti gli elementi sulla tabella sono numeri reali... . La colonna j-esima si denota con A(j) .

. µ ∈ R ∀A ∈ M (m × n. e 4) Per ogni A ∈ M (m × n. le matrici a coefficienti in R e le operazioni e di somma e moltiplicazione per scalari. j = 1.. B ∈ M (m × n. .1 .2 Vari tipi di matrici. R). e In modo del tutto analogo a come si ` definito Rn .Definizione 11 Siano m. traccia Definizione 13 Sia n ∈ N n ≥ 1. R). Dimostrazione. e 8 .. Definizione 14 Sia n ∈ N n ≥ 1. Si dice che A ` diagonale se e ai. R) (propriet` associativa della somma) a 2) A + B = B + A ∀A. R)) 7) (λµ)A = λ(µA) ∀λ. Sia A ∈ M (n × n.j ∀i = 1. Si definisce diagonale (principale) di A l’n-upla (a1. n. R).. C ∈ M (m × n..j = 0 per i = j (cio` se tutti gli elementi al di fuori della diagonale principale sono nulli). Valgono per essi propriet` del tutto anaologhe a a quelle enunciate per R. R) e uno scalare nel modo seguente: sia A ∈ M (m × n. R) (propriet` distributiva rispetto alla a somma in R) 6) λ(A + B) = λA + λB ∀λ ∈ R ∀A. Sia A ∈ M (n × n. le matrici a coefficienti in C e le operazioni di somma e moltiplicazione per scalari... R). Si definisce il prodotto fra un elemento di M (m × n. B ∈ M (m × n. µ ∈ R ∀A ∈ M (m × n.j = λAi. e cio` A + (−1)A = (−1)A + A = 0m×n e 5) (λ + µ)A = λA + µA ∀λ.. si definisce λA come la matrice m × n tale che (λA)i. B.. m. R) (propriet` commutativa della somma) a 3) La matrice m × n con tutti i coefficienti nulli ` un elemento neutro per la somma in M (m × e n. . R). R). R) 8) 1A = A ∀A ∈ M (m × n. si possono definire Cn . Esempio   3    1 0 −2 −π 7   0 2 3 0 3   0   1 −1  =  −6   4 5   −3π 0 1 21  0 6 0 9   3 −3   12 15  0 3 Proposizione 12 Valgono le seguenti propriet`: a 1) (A + B) + C = A + (B + C) ∀A. trasposta. n due numero naturale ≥ 1. 3. R) l’elemento (−1)A ` opposto di A per la somma in M (m × n.. R) (propriet` distributiva rispetto alla a somma in M (m × n. Per esercizio. Nel capitolo 3 vedremo che la proposizione sopra si pu` enunciare brevemente dicendo che o M (m × n. R) ` uno spazio vettoriale su R. .n ). R) e λ ∈ R. an. cio` 0m×n + A = A + 0m×n = A ∀A ∈ M (m × n.

Si dice che A ` triangolare inferiore e se ai. Si dice che A ` triangolare superiore e se ai. Sia A ∈ M (n × n. j (cio` se gli elementi simmetrici rispetto alla diagonale principale sono uguali). Si dice che A ` simmetrica se e ai. R).i ∀i.j = 0 per i < j (cio` se tutti gli elementi al di sopra della diagonale principale sono nulli).Esempio  3  0   0 0 0 1 0 0 0 0 −3 0  0 0   0  2 a Esempio (fondamentale) Si dice matrice identit` n × n (e si denota con In ) la matrice n × n con tutti 1 sulla diagonale e 0 altrove.j = 0 per i > j (cio` se tutti gli elementi al di sotto della diagonale principale sono nulli).j = aj. e Esempio  4  1   0 7 1 0 2 6  0 7 2 6   9 −3  −3 8 9 . Sia A ∈ M (n×n. e Esempio       1 0 0 0 0 1 1 0 0 0 1 2 0 0 0  6 1 6 −1   −3 4   −3 2  0 23 1 0 I3 =  0 1 0 0 Definizione 16 Sia n ∈ N n ≥ 1. Per esempio I1 = (1) I2 =  1 0 0 1  0 0  1 Definizione 15 Sia n ∈ N n ≥ 1. R). Sia A ∈ M (n × n. e Esempio       3 0 π 0 0 0 1 1 2 4 0 0 2 2 0 0 0 0 2 3 0 0 0 0 0       Definizione 17 Sia n ∈ N n ≥ 1. R).

m} e per ogni j ∈ {1.. Sia A ∈ M (n × n. n} (cio` se gli elementi simmetrici rispetto alla diagonale principale sono opposti).i + Bj.j = (tA)i. Sia A ∈ M (m × n..i = 0 e quindi ai.) Definizione 20 Siano m e n due numeri naturali ≥ 1. Proposizione 21 Propriet` della trasposta a 1) t (tA) = A ∀A ∈ M (m × n. 1) Per ogni i ∈ {1.. ...j = (A + B)j. Si dice che A ` antisimmetrica se e ai. 2) t (A + B) = tA + tB ∀A. n. j ∈ 1.. m..i ∀i ∈ {1.. Si definisce trasposta di A (che si indica con tA) la matrice n × m cos` definita: ı (tA)i. R).j = (λA)j. 3) t (λA) = λtA ∀λ ∈ R ∀A ∈ M (m × n.. . ..j 2) Per ogni i ∈ {1. pertanto 2ai. R). n} si ha (t (tA))i.i (tA + tB)i.j = Aj. m} si ha (t (A + B))i. m} si ha (t (λA))i. Dimostrazione. B ∈ M (m × n. n} e per ogni j ∈ {1.. . .e..i = λAj. Sia A ∈ M (n × n..i + Bj. (Infatti ai..j = Aj.i = −ai...i = Ai..d. Osservazione 22 Sia n ∈ N n ≥ 1. .i = 0. e Esempio  0 1  −1 0   0 −2 7 −6  0 −7 2 6   0 −3  3 0 Osservazione 19 Gli elementi sulla diagonale principale di una matrice antisimmetrica sono nulli..j = (tA)j. R).j Q. R). . 10 .i 3) Per ogni i ∈ {1.i = Aj.. .i ∀i. R). .. .. R). j ∈ {1.j + (tB)i. 1) A ` simmetrica se e solo se A = tA e 2) A ` antisimmetrica se e solo se A = −tA e Definizione 23 Si definisce traccia di una matrice quadrata la somma degli elementi della sua diagonale..j = −aj.....i ∀i ∈ 1.. n}.Definizione 18 Sia n ∈ N n ≥ 1. n} e per ogni j ∈ {1..i = λ(tA)i..

.. u ∈ Rn 3) Definita positivit`: a (v. u) i=1.... v) ≥ 0 ∀v ∈ Rn (positivit`).. v) = 0 se e solo se i=1. λw) = λ(v. u) = i=1...n vi wi = i=1. u ∈ Rn linearit` nel secondo argomento: a (v..n (vi ui + wi ui ) = i=1....n vi (λw)i = i=1... n.... n cio` se e solo se vi = 0 ∀i = 1. w + u) = (v. w) = (w. w ∈ Rn (v + w. λw) = i=1.. w) ∀λ ∈ R ∀v.....e...... Si definisce prodotto scalare standard fra due elementi v e w di Rn il numero reale vi wi i=1..n (vi ) = 0 e questo ` vero se e solo se (vi ) = 0 ∀i = 1....n La linearit` nel secondo argomento si dimostra in modo analogo oppure la possiamo derivare a dalla linearit` nel secondo argomento e la simmetria.... v) = 0 se e solo se v = 0. inoltre (v.. a 2 3) (v. v) 2) λ(v. w) + (v.. u) + (w.n vi vi = i=1...n (vi + wi )ui = i=1. cio` e vi vi = i=1. w) Esempio Siano  −1  31   v=  2  9   1  0   w=  1  −1  Allora (v..n vi wi (v + w... 2 2 e inoltre (v. Proposizione 25 Propriet` del prodotto scalare standard a 1) Simmetria: (v... u) ∀v. e Q.. w) = λ i=1...n 11 ..n vi wi (λv.. w) = i=1.3. w ∈ Rn (v. v) cio` la radice quadrata del prodotto scalare di v con se stesso (che ` positivo per la propriet` 3 e e a del prodotto scalare. w.. ....n vi ≥ 0....n (λv)i wi = i=1. v) ∀v. u) = (v. w...n λvi wi = λ i=1. quindi ne posso considerare la radice quadrata).... w) = i=1..d.... w) = λ(v..n wi vi = (w. Definizione 26 Sia v ∈ Rn ..n vi λwi = λ i=1....... v) = i=1. u) ∀v.. w) = −1 · 1 + 31 · 0 + 2 · 1 + 9 · (−1) = −8... Si definisce norma o lunghezza di v il numero reale (v. .. w ∈ Rn 2) Bilinearit`: a linearit` nel primo argomento: a (λv..n Esso si indica con (v.......3 Prodotto scalare standard e norma Definizione 24 Sia n un numero naturale ≥ 1.n wi ui = (v. 1) (v.n (vi )2 i=1. a Dimostrazione.n (v + w)i ui = vi ui + i=1.n vi wi (v. w) ∀λ ∈ R ∀v.. u) + (w...

Esempio 1 0 −1 2 1 3 10 −1 1 3 10 −1 = = 1 10 5 −12 −9 20 4 −2 1 0 −1 2 12 ..Esempio Sia  −1  3   v=  2  2  Allora |v| = √ 18.. m. ....k Bk. . m.. e 2 i=1.... ... cio` v = 0.. o. quindi vi = 0 i = 1. 1) Essendo la norma una radice quadrata ` ovviamente maggiore o uguale a 0..... quindi vi = 0 i = 1.. equivalentemente. Esempio  1 0  11 2 −1 1   1 0 3 2 −1  11 20   =  31 0 2   0 2  −1 1 9 −1 1    8 42  19 a Osservazione 29 Il prodotto di matrici non gode della propriet` commutativa... Si definisce AB la matrice m × l cos` definita: ı (AB)i.. n.. R) e B ∈ M (n×l.. l.n vi = 0. l. .n vi 2 = 0... n. ∀j = 1. 2 2 i=1.n vi = Q. Sia A ∈ M (m×n.... Proposizione 27 Propriet` della norma a 1) |v| ≥ 0 ∀v ∈ Rn ....n (λv)i 2) |λv| = = (λv. inoltre |v| = 0 se e solo se v = 0 2) |λv| = |λ||v| ∀λ..j ∀i = 1. .. n. inoltre se v ∈ Rn e |v| = 0 allora i=1... B(j) ) (prodotto scalare standard fra la trasposta della riga i-esima di A e la colonna j-esima di B) ∀i = 1..e. Inoltre ovviamente e √ 2 |0| = 0 · 0 + .. ∀v ∈ Rn Dimostrazione..n vi = |λ| = |λ||v| 3. λv) = = λ2 = 2 i=1. ∀j = 1. .... R). + 0 · 0 = 0.j = (t A(i) .....d.... l tre numeri naturali ≥ 1. (AB)i.n λ vi 2 i=1.4 Prodotto di matrici Definizione 28 Siano m.. quindi 2 i=1..j = k=1......n (λvi ) 2 i=1...n Ai.

B ∈ M (n × p.n Ai. C ∈ M (n × p. 4) λ(AB) = (λA)B = A(λB) ∀A ∈ M (m × n. Per dimostrare che due matrici sono uguali..j = Analogamente l’altra uguaglianza.n (Ai. j.k Ck. il coefficiente i.k Bt....n Ai..i = t=1.k=1.k (tB)i..j = λ k=1.k δk.r Br......t (tA)t.r Br..k Ck... R).d.k Bk..j = = r=1.p Ai..n Ai..... quindi per provare un’uguaglianza di matrici. B ∈ M (m × n. e 1) ((AB)C)i......Proposizione 30 Propriet` del prodotto di matrici a 1) (AB)C = A(BC) ∀A ∈ M (m × n.j = = (AB + AC)i.. (t (AB))i..j = λ(AB)i..j = = k=1.. R).j ) = = k=1.j = Analogamente la seconda uguaglianza.. basta ovviamente dimostrare che i coefficienti corrispondenti sono uguali..p [ r=1....j = simbolo di Kronecker..j = ((λA)B)i.j (A(BC))i.k Ck..n Ai. j del secondo membro..j ` il cosidetto e δk. Sia A ∈ M (n × n... λ ∈ R 5) AIn = A e Im A ∀A ∈ M (m × n.j = k=1.i Q.. basta dimostrare che per qualsiasi i. B ∈ M (n × p. R)... Dimostrazione.n r=1.k Ck. R).j 3) Analoga a 2)..n Ai.. R).e.j = k=1.n (λAi.n (λA)i....j = k=1.r Br..n Ai..j k=1.p [ r=1. R).. 4) (λ(AB))i..n Ai.. 0 se k = j 1 se k = j Q...n Ai.p r=1. R).r 2) (A(B + C))i.d....n λ(Ai.j = Ai...p. n ≥ 1.... C ∈ M (p × q.j + Ck.n Ai. R) tale che AB = BA = In 13 . C ∈ M (n × p.k Bk.k )Bk.... B ∈ M (k × n.j 1 = Ai.t Bt.p (AB)i..j + Ai... R)..k Bk..j = k=1..j r=1.j = k=1..k Ck.e.k Bk.j ) = k=1.t = t=1....j = t=1.... R)..n Ai.. 3.k (B + C)k. 5) (AIn )i.j + k=1.k Aj...j dove δk.j = k=1.r=1..r Br. R)..n. 2) A(B + C) = AB + AC ∀A ∈ M (m × n. R) Dimostrazione.j + (AC)i..j = t=1. j del primo membro ` uguale al coefficiente i.i (tB tA)i. R)..j ] = k=1..k Ck. R). cos` definito ı k=1..j = (AB)i.k ]Ck.r (BC)r.k (In )k...j ) = k=1.5 Matrici invertibili Definizione 32 Sia n ∈ N. Proposizione 31 t (AB) = tB tA ∀A ∈ M (m × k. Si dice che A ` invertibile se esiste e B ∈ M (n × n. 3) (A + B)C = AC + BC ∀A ∈ M (m × n...k Ck.j = (AB)j..i Aj. R)....k Aj. R)...t Bt.j = Ai. B ∈ M (n × p..k Bk..p Br........j = k=1.k Ck.r Br..k (Bk.n Ai.j = = k=1.n Ai....

4 e 3. C ∈ M (n × n. In altre parole se A ` invertibile esiste una e una sola matrice B tale che AB = BA = In .) Sia n ∈ N. a b c d ` invertibile se e solo se ad−bc = 0 e in tal caso l’inversa ` e e 1 ad−bc d −c −b a .Definizione.e. n ≥ 1. Sia A ∈ M (n × n. Allora B = C. R). Dimostrazione. i) Siano A.Osservazione 33 (.d. R) e (A−1 )−1 = A Esercizio. NOTA. B ∈ GL(n. n ≥ 1. R) tali che AB = BA = In = AC = CA. R)| A invertibile} Esempio. Tale e matrice si dice l’inversa di A e si denota con A−1 . 14 . 3. ottenendo cos` ı C(AB) = CIn da cui (CA)B = C Dato che per ipotesi CA = In . R) e (AB)−1 = B −1 A−1 ii) Se A ∈ GL(n. GL(1. R) = {A ∈ M (n × n. 3. R). ottengo In B = C e quindi B=C Q. R) allora A−1 ∈ GL(n. Allora AB ∈ GL(n. Notazione 34 GL(n.2. Per ipotesi so che AB = In Moltiplico a sinistra entrambi i membri dell’uguaglianza per C. Siano B.1.5 pu` essere enunciato e o sostituendo C a R. R) = {(a)| a ∈ R − {0}} Osservazione 35 Sia n ∈ N. Tutto quello che ` stato detto nei paragrafi 3.

dove x =  . Osservazione 37 Un sistema lineare di m equazioni e n incognite x1 . R) e un certo b ∈ Rm . La matrice m × (n + 1) ottenuta affiancando (a destra) ad A l’m-upla b si chiama matrice completa del sistema e si indica con A|b Esempio Consideriamo il seguente sistema lineare nelle incognite x1 . sistemi lineari omogenei e non Definizione 36 Un sistema lineare ` un sistema di equazioni lineari cio` un sistema di equazioni e e i cui membri sono polinomi di grado ≤ 1 nelle incognite... Per fare ci` o occorre premettere le nozioni di matrici a scalini e operazioni elementari di riga. Vogliamo adesso illustrare un metodo sistematico per risolvere i sistemi lineari. 15 .. x2 . .1 Sistemi lineari Forma matriciale dei sistemi lineari. . x3 . xn nella i-esima equazione del sistema e come bi il termine noto della i-esima equazione del sistema). x4 . per ogni i. matrici a scalini Definizione 40 Si definiscono operazioni elementari sulle righe di una matrice le seguenti operazioni: operazioni di tipo I: scambiare due righe operazioni di tipo II: moltiplicare una riga per uno scalare non nullo operazioni di tipo III: sommare ad una riga un multiplo di un’altra riga.    per una certa matrice A ∈ M (m × n. come coefficienti della i-esima riga di A i coefficienti di x1 . xn pu` essere scritto o nella forma Ax = b   x1 xn  .  1 −6 0 0 0 −1 −6 5  −1 −1 0 3 4.  (Basta prendere.   2x1 + x3 − 6x4 = 0 x1 − x4 − 6x5 = 5  x2 − x3 − x4 = 3 La matrice incompleta A e b saranno   2 0 1 −6 0 A =  1 0 0 −1 −6  0 1 −1 −1 0 La matrice completa A|b sar` a 2 0 A|b =  1 0 0 1   0 b= 5  3  Definizione 39 Un sistema lineare Ax = b si dice omogeneo se b = 0. x5 .. Definizione 38 La matrice A si dice matrice incompleta del sistema.  .4 4.. .2 Operazioni elementari di riga..

Definizione 41 Una matrice si dice a scalini (per righe) se soddisfa la seguente propriet`: a se in una riga i primi k elementi sono nulli allora la riga successiva (se esiste) o ` tutta nulla o e almeno i primi k + 1 elementi sono nulli. Per induzione sul numero di righe della matrice.d. Ripetiamo il procedimento sulla matrice ottenuta togliendo la prima riga. Definizione 42 Il primo elemento non nullo di ogni riga non nulla di una matrice a scalini si dice pivot. una matrice a scalini. Q. Sia j l’indice della prima colonna non nulla. si pu` ottenere da essa. Dimostrazione.e. Esempi di matrici a scalini  0  0   0 0  3  0   0   0 0  0  0   0 0  1  0   0   0 0 1 0 0 0 1 1 0 0 0 0 2 0 0 0 0 0 0 0  6 −1 6 −1   −3 4  0 12  9 1 6 −1   −3 4   0 2  0 0  6 −1 6 −1   −3 4  0 12  6 1 6 −1   −3 4   0 12  0 0 Esempi di matrici non a scalini 1 1 2 0 1 1 2 2 0 0 2 0 0 1 2 0 0 0 Proposizione 43 Data una qualsiasi matrice. Esempio   0  0   0 0  6 −1 6 −1   −3 4  10 12  0 6 −1 2 0 0  II − I  0 −15 6  III − 2I 0 10 12 1 1 2 0 0 2 0 0 16 0 1  0 0   0 0 0 0 . Con operazioni di tipo III possiamo fare in modo che tutti gli elementi dal secondo in poi della j-esima colonna siano nulli. Con un scambio opportuno di righe possiamo fare in modo che il primo elemento della j-esima colonna sia diverso da zero. con operazioni elementari o di riga di tipo I e III.

Supponiamo che non ci siano pivots nell’ultima colonna della matrice completa.3 Metodo per risolvere un sistema lineare quando la sua matrice completa ` a scalini e Si scrive la matrice completa del sistema e si scrivono le incognite sopra essa. Voglio scrivere le variabili che corrispondono ai pivots in funzione delle variabili che non corrispondono ai pivots. u): w =2−u Dalla penultima equazione z − w − 3u = 1 ricavo z = w + 3u + 1 e. Esempio. ricavo anche z in funzione di a y. u. w. sostituendo l’espressione gi` trovata di w in funzione di y. Dall’ultima equazione w + u = 2 ricavo w in funzione di u (e quindi di y. u. Sfruttando le equazioni. u. u: x = −2y − 3 − 2u + 4 − 2u + u = −2y − 3u + 1 17 . Consideriamo il seguente sistema lineare   x + 2y + z − 2w − u = 0 z − w − 3u = 1  w+u=2 x y 1 2  0 0 0 0  z 1 1 0 Scriviamo la matrice associata e scriviamo le incognite sopra la matrice w u  −2 −1 0 −1 −3 1  1 1 2 Le variabili che corrispondono ai pivots sono x. u: z = 2 − u + 3u + 1 = 3 + 2u Dalla prima equazione ricavo x = −2y − z + 2w + u da cui sostituendo l’espressione gi` trovate di w e z in funzione di y. ricavo anche x in funzione a di y. partendo dall’ultima. 0  0   0 0 1 0 0 0  0 6 −1 2 0 0   0 −15 6  2 IV + 3 III 0 0 16 4. si scrivono le incognite corrispondenti ai pivots in funzione di quelle non corrispondenti ai pivots. z. Chiamiamo “incognite corrispondenti ad un pivot” quelle che “stanno sopra un pivot” e “incognite non corrispondenti ad un pivot” le altre. quelle che non corrispondono ai pivots sono y.

Si risolve il sistema lineare associato alla matrice cos` ottenuta. si riduce la matrice completa del sistema in forma a scalini. Anzi tutto si scrive la matrice completa associata al sistema. facendo operazioni elementari di  1 1 1 −3 −1  0 1 1 −1 −1 2 2 3 −5 −1 18 Scriviamo la matrice associata al sistema  0 1 1 −1  1 1 1 −3 2 2 3 −5 . Dimostrazione. u ∈ R         1 0 3 2 0     | y. l’insieme delle soluzioni ` uguale all’ insieme delle soluzioni ı e del sistema iniziale per l’Osservazione 44. Facendo operazioni elementari di riga. Fare un’operazione elementare di riga di tipo III (moltiplicare una riga per uno scalre non nullo) sulla matrice associata al sistema significa moltiplicare entrambi i membri di un’equazione del sistema per uno scalare non nullo e questo ovviamente non altera l’insieme delle soluzioni. Esempio Consideriamo il sistema lineare  y+z−w−u=1  x + y + z − 3w − u = 0  2x + 2y + 3z − 5w − u = −1  −1 1 −1 0  −1 −1 riga. Q.e.  0 II 1  I −1 Riduciamo a scalini. Fare un’operazione elementare di riga di tipo I (scambio di due righe) sulla matrice associata al sistema significa scambiare due equazioni del sistema e questo ovviamente non altera l’insieme delle soluzioni.4. Infine fare un’operazione elementare di riga di tipo II (sommare ad una riga un multiplo di un’altra riga) sulla matrice associata al sistema significa sommare ad un’equazione un multiplo di un’altra equazione (membro a membro) e questo non altera l’insieme delle soluzioni.4 che si pu` anche scrivere o          y        Quindi l’insieme delle soluzioni del sistema lineare   −2y − 3u + 1    y   3 + 2u   −u + 2    u −2 1 0 0 0      +u      −3 0 2 −1 1  ` e     | y. u ∈ R                        +     Metodo per risolvere un qualsiasi sistema lineare Osservazione 44 Facendo operazioni elementari di riga sulla matrice completa di un sistema lineare non si altera l’insieme delle soluzioni. Vediamo adesso come si risolve un sistema lineare qualsiasi.d.

z in funzione di quelle che e non corrispondono ai pivots.d. il quale per ipotesi e ` minore del numero dell incognite. u ∈ R        Osservazione 45 Un sistema lineare omogeneo ha sempre una soluzione: quella nulla. quindi assegnando dei valori non nulli ad esse ottengo una soluzione non nulla.) Osservazione 46 Un sistema lineare omogeneo con pi` incognite che equazioni ha una soluzione u non nulla. 19 . il numero dei pivots ` ovviamente minore o uguale e al numero delle righe che ` uguale al numero delle equazioni del sistema. Quando riduco la matrice completa a scalini. Dall’ultima equazione ricaviamo e z = −w − u − 1 Dalla seconda equazione ricaviamo y = −z + w + u + 1 da cui sostituendo y = w + u + 1 + w + u + 1 = 2w + 2u + 2 Dalla prima equazione ricaviamo x = −y − z + 3w + u da cui sostituendo x = −2w − 2u − 2 + w + u + 1 + 3w + u = −1 + 2w Quindi l’insieme del soluzioni ` e  −1 + 2w     2u + 2w + 2   −u − w − 1   w    u           | w. cio` w. Scriviamo le incognite sopra la matrice a scalini cos` ottenuta: ı  x 1  0 0 y z w 1 1 −3 1 1 −1 0 1 1 1 1  0 1 0 0 1 −3 1 −1 1 1  −1 0 −1 1  1 −1 III − 2I u  −1 0 −1 1  1 −1 Ricaviamo adesso le variabili che corrispondono ai pivots. u. Quindi il numero dei pivots ` minore del numero delle e e incognite. cio` x. (Infatti un sistema linare omogeneo si pu` scrivere nella forma Ax = 0 e 0 ` una soluzione infatti o e A0 = 0.e. Pertanto ci sono necessariamente delle variabili non corrispondenti a pivots. y. Q. Dimostrazione.

Ma questo ` ovvio in quanto se c’` un pivot nell’ultima colonna (chiamiamolo p) vuol dire che e e nel sistema lineare c’` l’equazione 0x1 + .e.. + 0xn = p. Sia x una soluzione del sistema lineare Ax = b. non ci sono pivots nell’ultima colonna. Sia S1 := {x ∈ Rn | Ax = b} e S2 := {x + y| y ∈ Rn e Ay = 0}. Sia x ∈ S1 . NOTA. Q. Per la e propriet` distributiva del prodotto di matrici A(x + y) = Ax + Ay = b + 0 = b. Basta dimostrare che un sistema lineare la cui matrice completa ` a scalini ha soluzioni se e solo se non ci sono pivots nell’ultima colonna.. che ovviamente non ha soluzioni in e quanto p = 0. Teorema 48 Teorema di struttura delle soluzioni di un sistema lineare Sia A ∈ M (m × n. Definisco y = x − x.d. Occorre dimostrare che esiste y ∈ Rn tale che Ay = 0 e x = x + y. Voglio dimostrare che x + y ∈ S1 cio` che A(x + y) = b. Sia y ∈ Rn tale che Ay = 0. Viceversa se non ci sono pivots nell’ultima colonna allora trovo le soluzioni con il metodo illustrato sopra. Ovviamente Ay = 0. Q. riducendo a scalini con operazioni elementari di riga la matrice completa. 20 . Allora {x ∈ Rn | Ax = b} = {x + y| y ∈ Rn e Ay = 0} Dimostrazione. infatti Ay = A(x − x) = Ax − Ax = b − b = 0.e. a Dimostriamo adesso che S1 ⊂ S2 . Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R.. Dimostriamo anzitutto che S2 ⊂ S1 . Supponiamo che il sistema Ax = b abbia una soluzione.Osservazione 47 Un sistema lineare ha soluzione se e solo se.d. R) e sia b ∈ Rm . e Dimostrazione.

5 5. w ∈ V (propriet` commutativa della somma) a 3) Esiste un elemento neutro per la somma. Si dice che V ` uno spazio vettoriale su R se valgono le seguenti propriet`: e a 1) (v + w) + u = v + (w + u) ∀v.e. ottengo e a 0V = 0R v + (0R v + w) e quindi. Q. l’altra (detta prodotto per scalari) · : R × V → V . µ ∈ R ∀v ∈ V 8) 1v = v ∀v ∈ V Osservazione 50 In ogni spazio vettoriale V esiste un solo elemento neutro per la somma. (Si pu` dimostrare che tale elemento ` necessariamente unico. Si ha: 0R v = (0R + 0R )v = 0R v + 0R v (la prima uguaglianza segue dal fatto che 0R + 0R = 0R . Siano z e z ′ due elementi neutri per la somma di V Si ha che z + z ′ = z in quanto z ′ ` elemento neutro per la somma. w. per definizione di opposto. e Inoltre si ha che z + z ′ = z ′ in quanto z ` elemento neutro per la somma. u ∈ V (propriet` associativa della somma) a 2) v + w = w + v ∀v. si ottiene 0R v + w = (0R v + 0R v) + w e quindi. cio` la propriet` distributiva rispetto alla somma in R). vedere l’osservazione o e immediatamente seguente questa definizione.1 Spazi vettoriali Definizione e prime propriet` a Definizione 49 Sia V un insieme dotato di due operazioni. cio` esiste un elemento z di V tale che z+v = v+z = e v ∀v ∈ V . w ∈ V (propriet` distributiva rispetto alla somma in V ) a 7) (λµ)v = λ(µv) ∀λ. una (detta somma) + : V ×V → V .d. lo denoteremo quindi 0V e lo chiameremo zero di V . Osservazione 51 In ogni spazio vettoriale V si ha che 0R v = 0V ∀v ∈ V Dimostrazione.) 4) Per ogni v ∈ V esiste un opposto. e a Sia w un opposto di 0R v (esite per la propriet` 4 degli spazi vettoriali). 0V = 0R v + 0V 21 . cio` un elemento v ′ ∈ V tale che v + v ′ = v ′ + v = 0V e 5) (λ + µ)v = λv + µv ∀λ. la seconda segue dalla propriet` 5 a degli spazi vettoriali. applicando la definizione di opposto al primo membro e la propriet` 1 di spazio vettoriale a cio` la propriet` associativa della somma al secondo membro. e Quindi z = z ′ . Sommando w al primo a membro e all’ultimo membro della catena di uguaglianze sopra. Dimostrazione. in quanto sono entrambi uguali a z + z ′ . µ ∈ R ∀v ∈ V (propriet` distributiva rispetto alla somma in R) a 6) λ(v + w) = λv + λw ∀λ ∈ R ∀v.

Osservazione 52 Per qualsiasi v ∈ V l’elemento (−1)v ` un opposto di v. Osservazione 53 Per qualsiasi v ∈ V . m ≥ 1. e Definizione 54 Gli elementi di uno spazio vettoriale si dicono vettori. + λk vk 22 ..d. e Dimostrazione. λk il vettore λ1 v1 + . .. Siano v ′ e v ′′ due opposti di v. ..e. si ottiene (v ′ + v) + w = (v ′′ + v) + w e quindi v ′ + (v + w) = v ′′ + (v + w) Pertanto v ′ + 0V = v ′′ + 0V da cui v ′ = v ′′ . l’insieme M (m×n. (−1)v + v = (−1)v + 1v = (−1 + 1)v = 0R v = 0V (la prima uguaglianza segue dalla propriet` 8 degli spazi vettoriali.. n. la seconda dalla propriet` a a distributiva rispetto alla somma in R. . R) con le operazioni di somma e di prodotto per uno scalare definite nel capitolo 1 ` uno spazio vettoriale.e. m ∈ N... . l’insieme Rn con le operazioni di somma e di prodotto per uno scalare definite nel capitolo 1 ` uno spazio vettoriale. Siano n. vk ∈ V e λ1 ... quindi v ′ + v = 0V e v ′′ + v = 0V . Siano v1 . di v .. Definizione 55 Sia V uno spazio vettoriale. Esempio basilare. n. Si definisce combinazione lineare di v1 . in particolare v ′ + v = v ′′ + v Sommando ad entrambi i membri un opposto.. . λk ∈ R. w. Q.d. vk con coefficienti λ1 . l’ultima dall’osservazione precedente). esiste un solo opposto di v (e quindi per l’osservazione precedente ` (−1)v).. ≥ 1.. e Esempio basilare.. Sia n ∈ N.d.da cui 0V = 0R v Q. e Dimostrazione.e. Q..

∀v ∈ S (chiusura per la moltiplicazione per scalari). infatti la somma di due matrici simmetriche ` simmetrica e il prodotto fra uno e scalare e una matrice simmetrica ` ancora una matrice simmetrica... vk ∈ V .. vk e si legge “span di v1 .. Ma.d. infatti sommando due elementi di S. .. L’insieme delle matrici simmetriche n × n ` un sottospazio vettoriale dell’insieme delle e matrici n × n. e • S ` chiuso per la moltiplicazione per scalari.5. . 23 . si deve avere che OR v ∈ S..... ` uguale a a e (γλ1 )v1 + .5) degli spazi vettoriali. Osservazione 58 Un sottospazio vettoriale S di uno spazio vettoriale V con le operazioni di somma e di prodotto per scalari ereditate da V ` lui stesso uno spazio vettoriale.... sia k un qualsiasi numero naturale positivo... quindi 0V ∈ S.. infatti.. quindi contiene un elemento v. Sia S = {λ1 v1 + . + λk vk ) + (µ1 v1 + .d. w ∈ S (chiusura per la somma) • λv ∈ S ∀λ ∈ R. cio` e {λ1 v1 + . λk ∈ R}. per le propriet` 6) e 7) degli spazi vettoriali. Esempio.... Allora. + µk vk ) che...) e e Dimostrazione.. e Q. e Proposizione 59 Sia V uno spazio vettoriale...2 Sottospazi vettoriali Definizione 56 Sia V uno spazio vettoriale su R. si ottiene γ(λ1 v1 + ... . moltiplicando un elemento di S... + (λk + µk )vk che ` un elemento di S.. per uno scalare γ.. ` uguale a a e (λ1 + µ1 )v1 + . ..2). per le propriet` 1).. λ1 v1 + e . + µk vk . Un sottospazio di V ` un sottoinsieme non e vuoto S di V tale che • v + w ∈ S ∀v.. Siano v1 .e. .... + λk vk . + λk vk e µ1 v1 + e . per l’osservazione 51. ... L’insieme delle combinazioni lineari di v1 . e Osservazione 57 Un sottospazio vettoriale S di uno spazio vettoriale V contiene 0V . Ovviamente S ` non vuoto. Essendo un sottospazio. vk ”.. (In genere ` denotato v1 ... vk . λk ∈ R} ` un sottospazio vettoriale di V . + (γλk )vk che ` un elemento di S...e.. Dimostrazione. S ` non vuoto. per la propriet` e a di chiusura per la moltiplicazione per scalari. + λk vk | λ1 . si ha che OR v = 0V .... si ottiene (λ1 v1 + . + λk vk ) che. Q. λ1 v1 + .. e • S ` chiuso per la somma.. + λk vk | λ1 .

.. in quanto se avessi una combinazione lineare con coeffie cienti non tutti nulli del sottoinsieme di vettori. Si dice che un insieme di vettori v1 . Scriviamo il nostro sistema lineare nella forma matriciale Ax = b.... vi+1 . .. vi−1 . . . vj+1 .. + λk vk = 0 Definizione 63 Sia V uno spazio vettoriale.. Q. vk ` un e insieme di vettori linearmente indipendenti se l’unica loro combinazione lineare uguale a 0 ` e quella con tutti i coefficienti uguali a 0..... vj−1 . vi . .. Siano v1 .. .. vj−1 . . vj+1 .. . quindi Ax = 0 e Ax′ = 0... vi .... 24 .... e Dimostrazione. vi−1 .. S = {x ∈ Rn | Ax = 0} ed ` un sottospazio vettoriale infatti: e • ` non vuoto (infatti contiene 0... 1) v1 . Proposizione 61 L’insieme delle soluzioni di un sistema lineare in n incognite ` un sottospazio e vettoriale di Rn se e solo se il sistema lineare ` omogeneo. vj+1 .. vi+1 ..e. allora anche x + x′ ∈ S perch` A(x + x′ ) = Ax + Ax′ = 0 + 0 = 0. λk ∈ R non tutti nulli tali che λ1 v1 + . . vi . vk = v1 .. vi+1 . Dimostrazione. vj+1 . vi−1 . e Q. insiemi di vettori linearmente indipendenti. vi+1 . quindi Ax = 0 e λ ∈ R allora anche e λx ∈ S perch` A(λx) = λAx = λ0 = 0.. vi +λvj .. sia k un qualsiasi numero naturale positivo. 5.3 Generatori. . vk ∈ V ... e Osservazione 65 Un sottoinsieme di un insieme di vettori linearmente indipendenti ` ancora un e insieme di vettori linearmente indipendenti Dimostrazione. e Viceversa se b = 0.. Per esercizio. e • ` chiuso per la moltiplicazione per scalari infatti se x ∈ S.. vk = v1 .. .. vi .d.. . Vogliamo dimostrare che S := {x ∈ Rn | Ax = b} ` un sottospazio vettoriale se e solo se b = 0. .. vj−1 .. vi−1 .Proposizione 60 Sia V uno spazio vettoriale. . vi+1 . basi. e Se S ` un sottospazio vettoriale allora deve contenere 0 quindi A0 = b quindi b = 0. vj . potrei facilmente trovare una combinazione con coefficienti non tutti nulli dell’insieme di vettori (basta prendere gli stessi coefficienti per i vettori del sottoinsieme e coefficienti nulli per gli altri vettori). . λvi ..d.. vi−1 . vk ∀λ ∈ R (cio` il sottospazio non cambia se ad un generatore sommo un multiplo di un altro gene eratore)........ Si dice che un insieme di vettori v1 .. perch` A0 = 0) e e e • ` chiuso per la somma. vj−1 ..e. L’affermazione ` ovvia. vk (cio` il sottospazio non cambia cambiando l’ordine dei generatori) e 2) v1 .. vk = v1 . .. vk ` un e insieme di vettori linearmente dipendenti se esistono λ1 .. . vj . . .. Definizione 64 Sia V uno spazio vettoriale. Un insieme di vettori di V si dice un insieme di generatori per V se ogni elemento di V ` una loro combinazione lineare. vi−1 .. vj .... vi+1 ... .vk ∀λ ∈ R − {0} (cio` il sottospazio e non cambia se moltiplico un generatore per uno scalare non nullo) 3) v1 .. infatti se x e x′ ∈ S... vj . . dimensione Definizione 62 Sia V uno spazio vettoriale.

k i=1. Un insieme di vettori di V si dice una base di V se ` un insieme di vettori linearmente indipendenti che genera V .k per j = 1. 25 . k} tale che vi si pu` scrivere come combinazione lineare di v1 .λk vk = 0 Supponiamo λi = 0.. Corollario 69 Sia V uno spazio vettoriale. .. .. . Definizione 67 Sia V uno spazio vettoriale........k contraddicendo l’ipotesi per cui {v1 ... s ha una soluzione non nulla (x1 . ws } due basi di V . Consideriamo la combinazione lineare xi vi = i=1. vk } un insieme di vettori indipendenti di V .. . Sia {w1 . Sia {v1 . esistono λi.. ws } ` un insieme di generatori di V .s i=1... Dato che v1 .. esistono λ1 .e..... vk sono un insieme di vettori linearmenti dipendenti.Osservazione 66 Se {v1 . o Dimostrazione.d. Allora k ≤ s. Quindi e k ≤ s... ws } un insieme di generatori di V . ........j wj = i=1........... λk ∈ R non tutti nulli tali che λ1 v1 + .. k..s xi λi..k xi λi....j ∈ R tali che vi = j=1. .s λi. vi+1 ........ ..s λi...... .j wj = = j=1....k xi λi...... Allora k = s. Siano {v1 .j wj per i = 1.s i=1.j )wj Se per assurdo k > s allora il sistema lineare omogeneo nelle incognite xi dato dalle j equazioni: xi λi. e Teorema 68 Sia V uno spazio vettoriale. vk } ` un insieme di vettori dipendenti di V allora esiste i ∈ e {1... vk } e {w1 . xk ) per l’osservazione 46.. vi ...k j=1. vk } ` un insieme di vettori indipendenti di V . .... − vi−1 − vi+1 − ....d.. .. ..... Allora vi = − λ1 λi−1 λi+1 λn v1 − . Dato che {w1 .j wj = ( j=1..j = 0 i=1..... Quindi si ottiene xi vi = 0 i=1. − vn λi λ1 λ1 λi Q. .........e... .. vk ..... Q.. e Dimostrazione.k xi j=1. . ....

per il Teorema 68.. . . vk−1 : vk = i=1. vk si ottiene che {v1 ........ vn } tali che {v1 .... vogliamo dimostrare λi = 0 per i = 1.. cio` non sono indipendenti.. . {v1 . k + 1. vk } che ` combinazione lineare dei rimanenti..... vk } sono indipendenti segue λi = 0 per i = 1.. Se k < n allora {v1 . che ` e assurdo).. ....Dato che due basi di uno stesso spazio vettoriale hanno la stessa cardinalit`. λk tali che v= i=1.. possiamo definire: a Definizione 70 Si dice dimensione di uo spazio vettoriale la cardinalit` di una sua base. vk+1 } sono ancora indipendenti.k−1 ci vi per certi ci .... vk } non ` gi` una base.. Continuando in questo modo aggiungiamo n − k vettori fino a che non troviamo una base....... si ha λk+1 = 0 (altrimenti vk+1 sarebbe combinazione lineare dei precedenti) quindi rimane i=1. k..... Dimostrazione. Se {v1 . . Dato un insieme di vettori linearmente indipendenti {v1 . Per dimostrare la restante parte della tesi.. vk } in uno spazio vettoriale V di dimensione n. dato che v1 .. . ... vn } formano una base e di V . vk+1 } sono ancora indipendenti. vk } ` una base di V (se non lo fosse otterrei un e insieme di k + 1 vettori indipendenti quindi. si pu` trovare un sottoinsieme di essi che forma una base di V .. vk } ` una base di V .. . allora k ≤ n.d. Teorema 71 Completamento di vettori indipendenti ad una base..... per l’Osservazione 66.. ........ Teorema 72 Estrazione di una base da vettori generatori Se v1 . vk ... si avrebbe k + 1 ≤ n. .... Il fatto che k ≤ n segue dal Teorema 68... inoltre se k = n allora {v1 .. vk generano V . . vk } non ` una base di V allora ovviamente v1 . per il corollario a appena enunciato.. λi vi + λk i=1... vk } non pu` essere una base e quindi per l’Osservazione posso trovare o un vettore vk+1 tale che {v1 .. premetto la seguente osservazione Osservazione.k+1 λi vi = 0 per certi λi ∈ R... esiste e a e un vettore dell’insieme {v1 . .. vk . se k = n..k λi vi = 0 e siccome {v1 . Q.k−1 sostituendo a vk l’espressione v= i=1. ... vk generano uno spazio vettoriale V . . e se invece k < n ` sempre possibile trovare {vk+1 .. Allora i rimanenti e formano ancora un insieme di generatori per V (infatti supponiamo ad esempio che sia vk combinazione lineare di v1 . o Dimostrazione.. . .. . .. sia v ∈ V .. esistono λ1 .k λi vi si ottiene ci vi i=1. infatti: supponiamo i=1.....k−1 ci vi .... . Se {v1 .. Quindi per l’osservazione.. vk = V e scegliendo e vk+1 non contenuto in v1 .k−1 26 . .e.

m. .j Ei. vn } una base.. . dato che v1 .. cio` e {a0 + a1 x + .. xk } ` una base di Rk [x].j }i=1.. vn sono vettori generatori di V . Sempre per il Teorema 71..... R) ` mn.4 Osservazione 75 La dimensione di M (m × n.e. e Dimostrazione. vk }. quindi. R) e di Rk [x] ai. Teorema 73 Sia S un sottospazio vettoriale di dimensione k di uno spazio vettoriale V di dimensione n. . Essendo linearmente indipendenti in S sono anche linearmente indipendenti in V .e. Q.n Dimensione di M(m × n. .d. se v ∈ V . ..e....e... Se v1 ..m. L’insieme {1. quindi v1 . . Q. ... Q.... vk } una base di S.. 5. vk sono elementi di S e una combinazione lineare di elementi di S ` ancora un elemento di S (essendo S un e sottospazio vettoriale).. e 27 Q.... Proposizione 74 Sia V uno spazio vettoriale di dimensione n... k ≤ n. quindi coincide con {v1 . Sia {v1 . j=1... si ha che v appartiene a S. x. Notazione 76 Sia Rk [x] l’insieme dei polinomi in x a coefficienti in R di grado minore o uguale a k... per il Teorema 71.. + ak xk | a0 . R). Sia Ei.. Essa deve essere costituita da n elementi..j quindi l’insieme {Ei.. .. . e Ripetendo il procedimento sui rimanenti. (dato V ha o dimensione n)..d.. e Dimostrazione. vk } ` una base di V .. allora k ≤ n..... quindi.. alla fine si arriva ad estrarre una base da {v1 . allora formano una base. Q. v pu` e o essere scritto come combinazione lineare di v1 .. vk−1 sono generatori per V ).. j=1. vk e quindi.n ` un insiem di generatori per M (m × n.d.j }i=1.j la matrice m × n con il coefficiente i.d. R) si ha e A= i=1...e.. j uguale a 1 e tutti gli altri nulli. Osservazione 77 La dimensione di Rk [x] ` k + 1.. ak ∈ R} E’ uno spazio vettoriale con la usuale somma di polinomi e prodotto per uno scalare..... j=1. vn }.d. . . . vk−1 .= (λi + λk ci )vi i=1... R) e si dimostra e anche facilmente che sono indipendenti.. Dimostrazione Si pu` estrarre da {v1 .n ` una base di M (m × n. Se k = n allora S = V .k−1 e quindi v ` combinazione lineare di v1 .. infatti se A ∈ M (m × n.. .. se k = n allora {v1 .. Dimostrazione.m. L’insieme {Ei..

5 Un esempio fondamentale: lo spazio generato dalle colonne di una matrice (range) e lo spazio generato dalle righe Sia A una matrice m × n a coefficienti in R.. s ∈ R   0 2   3 Quindi per esempio  3  appartiene a tale spazio.. 2 . . Sia 3 A= 0 0  0 3 1 2 2 4  −3 1  2 Lo spazio generato dalle colonne ` il seguente sottospazio di R3 : e             3 0 3 −3 3 0  0 . Ad essa si possono associare due spazi vettoriali: il sottospazio di Rm generato dalle colonne di A (che a volte viene chiamto “range di A”) A(1) . 4  =  3 . A(m) Ovviamente questi due spazi non sono uguali. 28 . A(n) e il sottospazio di Rn generato dalle righe di A A(1) .. e Esempio. 2  = 1 −3 2 1 −3       3 0         1  0    + s   | t. ma in seguito dimostreremo che. Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di colonne. s ∈ R = t  2  3        −3 1   3  −1   Quindi per esempio   1  appartiene a tale spazio.. 1  = 0 2 4 2 0 2       3 0   = t  0  + s  1  | t.. −4 Osservazione 78 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni elementari di righe.. 1  =  0 . sorpendentemente.5. 2 . 1 . 6 Lo spazio generato dalle righe ` il seguente sottospazio di R4 : e           0 3 0 0 3  0   1   0   1   2             3 . . la loro dimensione ` la stessa (e chiameremo tale numero rango della matrice).

R). in particolare studieremo la loro dimensione (detta rango). Inoltre lo spazio generato dalle righe di AB ` contenuto nello spazio generato dalle righe di B. Q.e. Osservazione 79 Sia A ∈ M (m × n.d. NOTA.Dimostrazione. Allora lo spazio generato dalle colonne di AB ` contenuto nello spazio generato dalle colonne di e A. Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R. Segue immediatamente dalla Proposizione 60. e Riprenderemo nel capitolo 5 lo studio dello spazio generato dalle colonne di una matrice e dello spazio generato dalle righe. 29 . R) e B ∈ M (n × k.

ma f −1 (0W ) ` Ker(f ).d. Voglio dimostrare che v1 + v2 ∈ Ker(f ). Voglio dimostrare che se v1 e v2 sono due elementi di V e f (v1 ) = f (v2 ) allora v1 = v2 .1 Applicazioni lineari Applicazioni lineari. Sia v ∈ Ker(f ). che contiene sicuramente 0V . Quindi v1 − v2 ∈ Ker(f ). cio` se e e e solo se l’immagine inversa f −1 (w) di un qualsiasi elemento w di Im(f ) ` costituita solo da un e elemento. Dato che f (v1 ) = f (v2 ) si ha che f (v1 ) − f (v2 ) = 0W e quindi. cio` che e f (λv) = 0. e Supponiamo che Ker(f ) = {0V }.6 6. Osservazione 83 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. Allora dim Ker(f ) + dim Im(f ) = dim V 30 . Ricordo che f ` iniettiva se e solo se f (v1 ) = f (v2 ) implica v1 = v2 . pu` o contenere solo 0V . e Q. f (λv) = λf (v) = λ0V = 0V . Siano v1 e v2 due elementi di Ker(f ). Allora Ker(f ) ` un sottospazio vettoriale di V e Im(f ) ` un sottospazio vettoriale di W .c. Dato che f ` lineare. Q. e Dimostrazione. Supponiamo che f sia iniettiva. immagine. dato che f ` lineare. relazione fondamentale Definizione 80 Siano V e W due spazi vettoriali su R. Dimostrazione. Siano V e W due spazi vettoriali su R con dim V < +∞. Teorema 85 .e. quindi f (v) = 0V e λ ∈ R.e. f (v1 − v2 ) = 0W . e e Dimostrazione. ∀λ ∈ R (omogeneit`) a Definizione 81 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. quindi Ker(f ) = {0V }. f (0V ) = f (0R 0V ) = 0R f (0V ) = 0W Q. v2 ∈ V (additivit`) a b) f (λv) = λf (v) ∀v ∈ V .d. Si definisce nucleo (in inglese kernel) di f il seguente sottoinsieme di V : Ker(f ) = {v ∈ V | f (v) = 0} Si definisce immagine di f il seguente sottoinsieme di W : Im(f ) = {w ∈ W | ∃v ∈ V t.e. nucleo . Quindi v1 = v2 . cio` che f (v1 + v2 ) = 0. devo dimostrare che λv ∈ Ker(f ). e si deve avere v1 − v2 = 0V . Dato che f ` lineare si ha che e e f (v1 + v2 ) = f (v1 ) + f (v2 ) = 0V + 0V = 0V . Relazione fondamentale. quindi f −1 (0W ) = {0V }. in particolare f −1 (0W ). Si dice che f : V → W ` una funzione e lineare se e solo se valgono le seguenti propriet`: a a) f (v1 + v2 ) = f (v1 ) + f (v2 ) ∀v1 .d. f (v) = w} = {f (v)| v ∈ V } Osservazione 82 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. Sia f : V → W una funzione lineare. Allora f (0V ) = 0W . Dato che Ker(f ) = {0V }. Osservazione 84 Siano V e W due spazi vettoriali su R e sia f : V → W una funzione lineare. Allora f ` iniettiva se e solo se Ker(f ) = {0V }. quindi f (v1 ) = 0V e f (v2 ) = 0V .

. n = dim V ..n λi vi − µj vj = 0 j=1.. otteniamo che tutti i coefficienti della combinazione lineare sopra sono nulli...n λi g(vi ) ma dato che f (vi ) = g(vi ) i = 1. . vn } ` una e base di V ...e. vn } una base di V . esistono coefficienti reali λi tali e che λi vi v= i=1... .... n.... Sia v un qualsiasi elemento di V . Basta dimostrare che gli n − k vettori f (vk+1 ). le due espressioni coincidono. Dato che f ` lineare e f (v) = f ( i=1. in particolare λi = 0 per i = k + 1.n f (vi )=0 per i=1.. . Siccome {v1 . . . Proposizione 86 Siano V e W due spazi vettoriali su R e sia {v1 ... n tali che λi f (vi ) = 0 i=k+1. esistono λ1 ...d. vn sono linearmente indipendenti..n λi vi .....n λi f (vi ) Analogamente g(v) = g( i=1.. Quindi f (v) = g(v).... f (vn ) generano Im(f ). Sia {v1 ... Dimostrazione.. e completiamola ad una base di V {v1 . Q. .n λi vi ) f lineare = λi f (vi ) i=1. • Dimostriamo anzitutto che f (vk+1 ). vk ..... ..... f (vn ) formano una base di Im(f )...n λi vi appartiene a Ker(f ) e quindi si pu` scrivere come combinazione lineare di v1 ... Se f (vi ) = g(vi ) i = 1... ..k Dato che v1 . • Dimostriamo adesso che f (vk+1 ). ..... .. allora f = g..k = λi f (vi ) i=k+1.. Siano k = dim Ker(f )...n λi vi ) = i=1.... .. 31 .n Allora.n λi vi ) = 0 o e quindi i=k+1... n. Voglio vedere che f (v) = g(v)... per la linearit` di f ..n come volevamo.. . Siano λi ∈ R i = k + 1. Vogliamo dimostrare che dim Im(f ) = n − k.k µj vj da cui i=k+1.... a f( i=k+1. ..n λi vi ) = i=1.Dimostrazione.. Dato che {v1 . vn } ` una base di V ...e...n Pertanto w = f (v) = f ( i=1..n j=1..d. Q... vk } una base di Ker(f ). g due funzioni lineari. Sia w ∈ Im(f ). f (vn ) sono linearmente indipendenti.. Pertanto esistono coefficienti reali µj j = 1... vn }......... ... n come volevamo...... ......... allora esiste v in V tale che w = f (v).... k tali che λi vi = i=k+1. λn ∈ R tali che v = i=1. Siano f..

e Dimostrazione. Dimostrazione. .. .. Sia A la matrice che ha come colonne rispettivamente f (e1 ).2 Applicazioni lineari associate a matrici fA : Rn → Rm Definizione 87 Sia A ∈ M (m×n. R) tale che f = fA .d. ` proprio f (ej ). Dimostrazione. xn ∈ R} = A(1) . R). Im(fA ) = {fA (x)| x ∈ Rn } = {Ax| x ∈ Rn } = {A(1) x1 + . n. 86 basta dimostrare che f (ej ) = fA (ej ) j = 1. NOTA.. Per la Prop. R).d.. Definisco l’applicazione lineare associata ad A l’applicazione definita nel modo seguente: fA (x) = Ax Osservazione 88 fA ` lineare.e. A(n) Q. f (en ).. matrici = λAx = λfA (x) Q.6. che.. per come si ` e e e e definita A. Proposizione 89 Sia f : Rn → Rm lineare. Osservazione 90 Sia A ∈ M (m × n. Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R. + A(n) xn | x1 ..e..d. e Q. prop.e... Allora l’immagine di fA ` generata dalle colonne di e A.. . allora esiste A ∈ M (m × n. 32 ..... matrici a) (additivit`) fA (x + y) = A(x + y) a = Ax + Ay = fA (x) + fA (y) b) (omogeneit`) fA (λx) = A(λx) a prop 4 prod. 2 prod. Ma questo ` ovvio in quanto fA (ej ) ` Aej cio` la j-esima colonna di A. Voglio dimostrare che f = fA .

. R) nel modo seguente: u fissiamo i ∈ {1. B ∈ M (n × n. spazi generati da righe e colonne. il determinante ` moltiplicato per λ. R) ∀C ∈ M (m × 0 C m. Dimostrazione omessa.j det(Aˆ  ) ı..n (−1)i+j ai. 9) det(AB) = det(A)det(B) ∀A. cio` e ˜ ˜e det(A) = det(A) per qualsiasi A ∈ M (n × n. (Le propriet` 1 e 2 sono dette in breve “il determinante ` una funzione multilineare delle righe”. n}. e ˜e ˜ cio` se A ` ottenuta da A moltiplicando una riga di A per λ. (k) (k) (i) (i) 2) Moltplicando una riga di una matrice per uno scalare λ.. e 5) Sommando ad una riga un multiplo di un’altra riga il determinante non cambia. b. a e la propriet` 3 ` detta in breve “il determinante ` una funzione alternante delle righe”.1 Determinante. R). 4) Il determinante ` zero sulle matrici con due righe uguali.. e A B 11) det = det(A)det(C) ∀A ∈ M (n × n... 8) Le regole 1. definiamo det(A) = j=1. allora det(A) = λdet(A). c. inversa di una matrice Determinante Definizione 91 Sia A ∈ M (n × n. d ∈ R si definisce il determinante di A nel modo det(A) = ad − bc Pi` in generale per n ≥ 2 si definisce il determinante di A ∈ M (n × n.7 7. 6 valgono anche per le colonne. 2 3 Esempio.. R).) a e e 33 . R) ∀B ∈ M (n × m. R).ˆ e l’i-esima riga). 6) Il determinante ` zero sulle matrici con una riga nulla.. . det = −14 4 −1  2 1 0 2 det  −3 2 2  = 2 det 1 1 1 7 1(−23) + 0(−5) = 24 + 23 = 47 2 7 − 1 det −3 2 1 7 + 0 det −3 2 1 1 = 2 · 12 − Proposizione 92 Propriet` del determinante a 1) det(A) = det(A′ ) + det(A′′ ) se A(i) = A′ = A′′ ∀i = k e A(k) = A′ + A′′ . 10) Il determinante di una matrice triangolare ` il prodotto degli elementi sulla diagonale... R). Se n = 1 e quindi A = (a) con a ∈ R si definisce il determinante di A nel modo seguente: det(A) = a Se n = 2 e quindi A = seguente a c b d con a. se A ` ottenuta da A scambiando due righe.. e 3) Il determinante di una matrice cambia di segno se si scambiano due righe della matrice. e 7) det(A) = det(tA) ∀A ∈ M (n × n.ˆ dove Aˆ  ` la matrice ottenuta da A togliendo la riga i-esima e la colonna j-esima (sviluppo per ı. R).. rango.

...j1 = 0 (in quanto A2.. quindi ha dimensione ≤ m. . quindi ha dimensione ≤ n. generato e da m elementi (le righe di A).j1 + . = Ak.. Sia k il numero degli scalini cio` delle righe non nulle. Proposizione 96 Sia A una matrice a scalini allora rkr (A) ` uguale al numero degli scalini..j1 = 0 cio` e λ1 A1.. .j1 = 0 essendo un pivot.. Si definisce rango per righe di A la dimensione del sottospazio di Rn generato dalle righe di A rkr (A) = dim( A(1) . n} Osservazione 95 Lo spazio generato dalle righe di una matrice non cambia facendo operazioni elementari di righe. . + λk A(k) = 0 Voglio dimostrare che λ1 = . jk gli indici delle colonne dove compaiono i pivots.. ricavo λ1 A1. R).j1 = . Siano λ1 .. Per dimostrare la tesi basta dimostrare che le prime k righe sono indipendenti. Considerando i j1 -esimi coefficienti dell’uguaglianza 1.. ricavo λ1 A1... Q..2 Spazi generati da righe e colonne e rango Definizione 93 Sia A ∈ M (m × n.... Segue immediatamente dalla Proposizione 60..j2 + λ2 A2. Allora rkr (A) ≤ min{m.. e Dimostrazione.. = λk = 0. Quindi il rango per righe non cambia facendo operazioni elementari di righe.. Considerando i j2 -esimi coefficienti dell’uguaglianza 1.. + λk Ak.. R).j1 = 0) da cui λ1 = 0 in quanto A1. Quindi il rango per colonne non cambia facendo operazioni elementari di colonne.. e Siano j1 . A(m) ) Si definisce rango per colonne di A la dimensione del sottospazio di Rm generato dalle colonne di A rkc (A) = dim( A(1) . Dimostrazione.7.e. A(n) ) Osservazione 94 Sia A ∈ M (m × n. Lo spazio generato dalle colonne di una matrice non cambia facendo operazioni elementari di colonne. λk ∈ R tali che λ1 A(1) + .. + λk Ak. Analogamente rkc (A) ≤ min{m.d..j2 + .j2 = 0 (1) 34 .. n} in quanto rkr (A) ` la dimensione di un sottospazio di Rn .

.. Per trovare tale insieme di soluzioni devo scrivere le variabili che corrispondono ai pivots in funzione di quelle che non corrispondono ai pivots.d.      .. . .e. x )     . = λk = 0.   ... ... P rop.. = Ak. xn )   | xk+1 .. .. . . Q.. xn ) .. ..     xn 0 1 ′ Ker(fA ) = {x ∈ Rn | Ax = 0} {x ∈ Rn | A′ x = 0} quindi ha dimensione n − k Q.. ` uguale a e e quindi all’insieme delle soluzioni del sistema lineare omogeneo con matrice incompleta A′ .j2 = 0) da cui λ2 = 0 in quanto A2. Allora dim(Im(fA )) = rkc (A).. + xn  0 | xk+1 .d.. R). Osservazione 98 Sia A ∈ M (m × n. xn : x1 = f1 (xk+1 . posso supporre che le e variabili che corrispondono ai pivots siano le prime k: x1 .               . Modulo riordinare le variabili.e.          .j2 = 0 (in quanto λ1 = 0 e A3. R).   .. xk in funzione di xk+1 . Sia k = rkr (A) che ` uguale a rkr (A′ ).e.   fk (xk+1 .... .d.            ..F ondam. Dimostrazione. Teorema 99 Sia A ∈ M (m × n. Q.... .97 Oss. Proposizione 97 Sia A ∈ M (m × n.. .       .   .   ..       ..  n 1 k+1         . xk = fk (xk+1 .j2 = 0 essendo un pivot.. R).. . . xn ∈ R xk+1                .98 Relaz.   . xk ....... Ovviamente che. xn ) Quindi l’insieme delle soluzioni ` e   f (x .   ... . = rkc (A) = dim(Im(fA )) n − dimKer(fA ) = rkr (A). se A ` una matrice a scalini ottenuta da A con operazioni elementari di riga. xn ∈ R = xk+1  1  + .cio` e λ2 A2.j2 = . Sfruttando le equazioni scrivo x1 ..                  0 .   . Allora rkr (A) = rkc (A) Dimostrazione. Allora dim(Ker(fA )) = n − rkr (A) Dimostrazione... Proseguendo analogamente ricaviamo λ1 = . 35 Q..e. Segue immediatamente dall’Osservazione 90..          .   0      .d...

. .   1 0 2 3 −1  −2 0 −4 −6 2   Esempio. R) e sia b ∈ Rm . . .. Sia A ∈ M (m × n. R).5 Metodo per calcolare l’inversa di una matrice Sia A ∈ GL(n. 7.. R). Dimostrazione omessa.. Allora rk(A) ` k se e e solo se esite una sottomatrice k × k con determinante diverso da 0 e tutte le sottomatrici (k + 1) × (k + 1) contenenti tale sottomatrice hanno determinante uguale a 0 Dimostrazione omessa. A(n) = A(1) .3 Il teorema di Rouch´-Capelli e Teorema 100 Teorema di Rouch´-Capelli....7. Dimostrazione. A(n) ⊂ A(1) .. R). Il sistema lineare Ax = b ha soluzione se e solo se esistono x1 . xn ∈ R tali che x1 A(1) + .. Un metodo per calcolare l’inversa ` il seguente (omettiamo la dimostrazione): e • affiancare ad A a destra la matrice In . ottenendo cos` una matrice n × 2n: (A|In ) ı • fare operazioni elementari di riga sulla matrice (A|In ) fino ad ottenere una matrice la cui prima parte ` In .....e. A(n) .. .. Il sistema e lineare Ax = b ha soluzione se e solo se rk(A) = rk(A|b). . dire questi due sottospazi sono uguali equivale a dire che le loro dimensioni sono uguali... ..d. Sia  1 0 2 A= 0 2 1  −1 0 0 36  ... A(n) .. R) ⇔ rk(A) = n ⇔ det(A) = 0 Teorema 101 Sia A ∈ M (n × n.4 Relazione fra rango e determinante A ∈ GL(n. e 7. A(n) . Q. Sia A =   2 1 2 −6 2  0 1 −2 −12 4 Esiste una sottomatrice 2 × 2 (per esempio quella formata dalle prime due colonne e la seconda e terza riga) con determinante diverso da 0 e tutte le sottomatrici 3 × 3 che la contengono hanno determinante uguale a 0.. ı e Esempio. e e La matrice B cos` trovata ` l’inversa di A. b .. Sia A ∈ M (m × n. quindi il rango di A ` 2... b Dato che si ha sempre A(1) . cio` del tipo (In |B).. Teorema 102 (Criterio dei minori orlati). Questo equivale a dire che e e A(1) . + xn A(n) = b cio` se e solo se b ` combinazione lineare di A(1) .

e  −1 1 −4  1 2 NOTA.   1 0 2 1 0 0  0 2 1 0 1 0  0 0 2 1 0 1   1 0 0 0 0 −1  0 2 0 −1 1 −1  2 2 0 0 2 1 0 1  1 0 0 0 0 −1  0 1 0 −1 1 −1 4 2 4 1 1 0 0 1 0 2 2 0 1 B =  −4 1 2  0 0  1 III + I I − III 1 II − 2 III   1 2 II 1 2 III  0 0 1 2 ` l’inversa di A.Affiancando ad A la matrice I3 ottengo  1 0  0 2 −1 0 2 1 0 1 0 0 1 0 0 La matrice Faccio adesso operazioni elementari di riga. 37 . Tutto quello che ` stato detto in questo capitolo pu` essere enunciato sostituendo C a e o R.

8 Autovettori e autovalori. unito al vettore zero. Quindi v ∈ Rn − {0} ` un autovettore di A con autovalore λ se vale e Av = λv Esempio.101  0 1  = (1 − t)[(1 − t)(1 − t) − 4] = (1 − t)(t2 − 2t − 3) 1−t che (A − λI)v = 0 ⇔ Ker(A − λI) = {0} ⇔ A − λI non ` iniettiva e ⇔ det(A − λI) = 0 Q. In tal caso si dice che λ ` un autovalore di f e (l’autovalore di f relativo a v). Sia 1 2 A= 2 1 0 0   0 1  1  1 Il vettore  1  ` autovettore di A di autovalore 3. e 0  Per semplicit` tratteremo soprattutto il caso degli autovalori ed autovettori di una matrice.e. 38 . Autovettori ed autovalori di una matrice quadrata A sono per definizione autovalori ed autovettori di fA . a Esempio. diagonalizzabilit` a Definizione 103 Sia V uno spazio vettoriale su R e f : V → V una applicazione lineare. Il polinomio caratteristico di A ` definito nel modo e seguente: pA (t) := det(A − tI) dove I la matrice identit` n × n. Osservazione 106 L’insieme degli autovettori di A con autovalore λ. Sia 1 2 A= 2 1 0 0  2 1−t 0   0 1  1 Allora 1−t pA (t) = det  2 0 Lemma 105 Un numero reale λ ` un autovalore di A se e solo se ` una radice (reale) del e e polinomio caratteristico di A. Un vettore v ∈ V non nullo si dice autovettore di f se esiste λ ∈ R tale che f (v) = λv (quindi se f manda v in un suo multiplo). a Definizione 104 Sia A ∈ M (n × n. R). Dimostrazione λ ` un autovalore di A ⇔ ∃v ∈ Rn −{0} tale che Av = λv ⇔ ∃v ∈ Rn −{0} tale e T hm. coincide con Ker(A − λI) e si dice autospazio di A relativo a λ.d.

. da cui C −1 AC = D. quindi le colonne di C formano la base richiesta di autovettori. determinante. Viceversa se esiste una base di autovettori per A. Con dimostrazione del tutto analoga alla dimostrazione del Lemma 105. pu` essere in modo del tutto analogo enunciato per l’insieme dei numeri complessi o C (spazi vettoriali su C. λn sulla diagonale..Definizione 107 Sia A una matrice quadrata e sia λ un suo autovalore. Definizione 110 Una matrice quadrata A si dice diagonalizzabile se ` simile ad una matrice e diagonale. Teorema 111 Una matrice A diagonalizzabile se e solo se esiste una base di autovettori di A. Allora pA (t) = det(A − tI) = det(C −1 BC − tI) = det(C −1 (B − tI)C) = = det(C −1 )det(B − tI)det(C) = det(B − tI) = pB (t) Q. Cn . M (m × n. quindi. . n.. Moltiplicando a sinistra per C si ottiene AC = CD... n dove λj ` il j-esimo elemento e della diagonale di D. definiamo C la matrice ottenuta affiancando gli elementi di tale base.. Un tale e v si dice autovettore (complesso) di A con autovalore (complesso) λ. La dimensione di Ker(A − λI) si dice molteplicit` geometrica di λ. Proposizione 113 Per qualsiasi autovalore si ha che la molteplicit` geometrica ` minore o uguale a e della molteplicit` algebrica. si dimostra che λ ∈ C ` radice del polinomio caratteristico di A se e solo se esiste v ∈ Cn tale che Av = λv. ii) Provare che se A ` una matrice 2 × 2 allora pA (t) = t2 − tr(A)t + det(A) e iii) Provare che gli autovalori di una matrice triangolare sono gli elementi sulla diagonale. Esercizi. a La molteplicit` di λ come radice del polinomio caratteristico si dice molteplicit` algebrica di a a λ..e. Supponiamo che A e B siano simili.. Osservazione 112 Se A ` simile ad una matrice D diagonale. si ha AC = CD. rango. i) Provare che la similitudine una relazione di equivalenza. Dimostrazione. Dimostrazione. . allora sulla diagonale di D ape paiono gli autovalori di A (infatti A e D hanno lo stesso polinomio caratteristico). Definizione 108 Due matrici A e B si dicono simili se esiste C invertibile tale che A = C −1 BC Lemma 109 Due matrici simili hanno lo stesso polinomio caratteristico.. applicazioni lineari. Allora vale AC (j) = λj C (j) per ogni j = 1. Se A ` diagonalizzabile allora esiste C invertibile tale che C −1 AC = D con D e diagonale.) In particolare ben definito il determinante di una matrice quadrata a coefficienti complessi e una matrice quadrata a coefficienti complessi invertibile se e solo se il suo determinante ` non e nullo.. 39 . gran parte dell’algebra lineare che abbiamo enunciato per l’insieme dei a numeri reali R. chiamando D la matrice che ha λ1 . quindi esiste C tale che A = C −1 BC..d. a Dimostrazione omessa.. Tale equazione equivale a AC (j) = λj C (j) per ogni j = 1. C).. Come abbiamo gi` detto..

Quindi A non ` e diagonalizzabile. quindi e a e B non ` diagonalizzabile. Esempi. e 3) Sia 3 C = 2 3  1 4 3  1 2  5 Allora pC (t) = −t3 + 12t2 − 36t + 32 = (2 − t)2 (8 − t) Quindi tutte le radici complesse del polinomio caratteristico sono reali.Teorema 114 Criterio necessario e sufficiente di diagonalizzabilit`. Esse sono t = 2 e t = 8. inoltre si calcola facilmente che la molteplicit` geometrica di 2 ` 2. Ovviamente la molteplicit` algebrica di 3 ` 1. inoltre si calcola facilmente che la molteplicit` geometrica di −1 ` 1. ovviamente la molteplicit` a e e a geometrica di 8 ` 1. Ovviamente la molteplicit` algebrica di 2 ` 2. a Una matrice A ` diagonalizzabile se e solo se tutti le radici complesse del polinomio caratteristico e di A sono numeri reali e per ogni autovalore (reale) di A la molteplicit` geometrica uguale alla a molteplicit` algebrica. Esse sono t = 3 e t = −1. quella di −1 ` 2. quindi e a e C ` diagonalizzabile. 1) Sia 1 A= 2 0  −2 1−t 0   −2 0 1 1  0 −1 Allora 1−t pA (t) = det  2 0 Quindi non tutte le radici complesse del polinomio caratteristico sono reali. 2) Sia 1 B= 2 0   2 0 1 1  0 −1  0  = (−1 − t)[(1 − t)(1 − t) + 4] = (−1 − t)(t2 − 2t + 5) 1 −1 − t Allora pB (t) = (−1 − t)[(1 − t)(1 − t) − 4] = (−1 − t)(t2 − 2t − 3) = −(t − 3)(t + 1)2 Quindi tutte le radici complesse del polinomio caratteristico sono reali. a Dimostrazione omessa. quella di 8 ` 1. ovviamente la molteplicit` a e e a geometrica di 3 ` 1. e 40 .

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->