Sei sulla pagina 1di 29

Sistemi lineari

Sistemi lineari: definizioni


I Unequazione nelle n incognite x1 , . . . , xn della forma

c1 x1 + + cn xn = b

ove c1 , . . . , cn sono elementi nel campo K (detti coefficienti) e b e un elemento di K (detto termine
noto) si chiama equazione lineare in x1 , . . . , xn a coefficienti in K.
I Un sistema lineare di m equazioni nelle n incognite x1 , . . . , xn e un sistema formato da m
equazioni lineari in x1 , . . . , xn , ossia:
8
>
> a11 x1 + a12 x2 + .. + a1n xn = b1
<
a21 x1 + a22 x2 + .. + a2n xn = b2
(*)
>
> : : :
:
am1 x1 + am2 x2 + .. + amn xn = bm

I Una soluzione di () e una n-pla di elementi di K, (e en ), che sostituita alle incognite


x1 , . . . , x
soddisfa simultaneamente tutte le equazioni del sistema.
I La matrice di tipo (m, n) : A = (aij )j=1...n
i=1...m si chiama matrice dei coefficienti del sistema.

Il vettore colonna di tipo (m, 1) : b = (bi )m


i=1 si chiama vettore dei termini noti.
La matrice di tipo (m, n + 1) : (A|b) ottenuta accostando alle colonne della matrice A dei coefficienti
il vettore (colonna) b dei termini noti si chiama matrice completa del sistema.

Esempio 1.1 Dato il sistema di due equazioni in tre incognite a coefficienti reali

2x + 3y z = 0
,
4x + 6y 2z = 3

la matrice del sistema, il vettore dei termini noti e la matrice completa sono, rispettivamente:

2 3 1 0 2 3 1 0
A= , b= , (A|b) = .
4 6 2 3 4 6 2 3

I Detto x = (xj )nj=1 il vettore colonna di tipo (n, 1) delle incognite il sistema () si puo trascrivere
in forma matriciale

Ax = b

xj )nj=1 di numeri reali che soddisfa


e = (e
Una sua soluzione e quindi un vettore colonna di tipo (n, 1) x
la relazione matriciale Ae
x = b.
I Un sistema si dice possibile (o risolubile) se ammette almeno una soluzione. In tal caso le
equazioni si dicono compatibili.
I Un sistema si dice impossibile se non ammette alcuna soluzione. In tal caso le equazioni si
dicono incompatibili.
NOTA Un sistema possibile puo avere una sola soluzione (sistema determinato) oppure infinite
soluzioni (sistema indeterminato), ma mai un numero finito 2 di soluzioni.

1
I Due sistemi si dicono equivalenti quando ammettono le stesse soluzioni.
I Trasformazioni elementari. Le seguenti trasformazioni, applicate ad un dato sistema, portano
a un sistema equivalente:
I) scambiare due equazioni tra loro;
II) moltiplicare i due membri di unequazione per lo stesso numero k (6= 0);
III) sommare ad unequazione unaltra equazione moltiplicata per k.

Esempio 1.2 Il sistema dellEsempio 1.1 e impossibile.


Infatti, sommando alla seconda equazione la prima moltiplicata per 2, si ottiene il sistema, equi-
valente a quello iniziale,

2x + 3y z = 0
0= 3

ma la seconda equazione e impossibile.


8
< x+y =1
Esempio 1.3 Dato il sistema 2x 3y = 2
:
2x + y = 2
la matrice del sistema, il vettore dei termini noti e la matrice completa sono:
0 1 0 1 0 1
1 1 1 1 1 1
A= @ 2 A
3 , @
b= 2 , A (A|b) = @ 2 3 2 A.
2 1 2 2 1 2

Il sistema ha una sola soluzione. Infatti, sottraendo alla terza equazione la seconda si ottiene il
sistema, equivalente a quello dato:
8
< x+y =1
2x 3y = 2
:
4y = 0

che ha come unica soluzione il vettore (x, y) = (1, 0) . (Verificarlo.)



2 1 1
Esempio 1.4 Dati A = , e b= ,
6 3 3
il sistema Ax = b e il sistema di due equazioni a coefficienti reali in due incognite

2x y = 1
.
6x + 3y = 3

Sommando alla seconda equazione la prima moltiplicata per 3 si ottiene il sistema equivalente:

2x y = 1
.
0=0

Il sistema ammette quindi le infinite soluzioni della forma (t, 2t 1) , al variare del numero reale t.

2
Soluzione dei sistemi lineari: il metodo di eliminazione di
Gauss
Questo metodo si basa sulle ripetute applicazioni delle trasformazioni che permettono di passare
a sistemi equivalenti. Si opera in modo da ricondursi ad un sistema equivalente a quello dato, di
cui pero e immediato vedere la eventuale risolubilita e, in tal caso, procedere in modo standard
per determinare le soluzioni. Questo sistema equivalente ha una matrice dei coefficienti che e della
forma a scalini.
I Metodo di eliminazione di Gauss
Consideriamo il sistema:
8
>
> a11 x1 + a12 x2 + .. + a1n xn = b1
<
a21 x1 + a22 x2 + .. + a2n xn = b2
>
> : : :
:
am1 x1 + am2 x2 + .. + amn xn = bm
Possiamo supporre che a11 6= 0 (in caso contrario scambiamo la 1a equazione con unaltra in cui il
coefficiente di x1 sia 6= 0). Dividendo la prima equazione per a11 , otteniamo:
8
>
> x1 + aa12 x2 + .. + aa1n xn = ab111
< 11 11
a21 x1 + a22 x2 + .. + a2n xn = b2
>
> : : :
:
am1 x1 + am2 x2 + + amn xn = bm
Sottraiamo poi dalla seconda equazione la prima moltiplicata per a21 , dalla terza la prima moltipli-
cata per a31 e cos via. Otteniamo:
8
>
> x1 + a012 x2 + .. + a01n xn = b01
<
0 a022 x2 + .. + a02n xn = b02
>
> 0 : :
:
0 a0m2 x2 + + a0mn xn = b0m
Tale sistema contiene un sottosistema di m 1 equazioni e n 1 incognite (basta escludere la prima
equazione). Allora possiamo procedere in modo iterativo: ripetiamo quanto fatto precedentemente
a questo sistema. Se a022 = 0, scambiamo la 2a equazione con unaltra in cui il coefficiente di x2 sia
6= 0 (se ce). (Se in tutte le equazioni il coefficiente di x2 e nullo tranne che nella prima, vuol dire che
x2 non compare come variabile eettiva nel sottosistema ottenuto dopo il primo passo. Possiamo
quindi cambiare nome alla variabile x2 e spostarla in fondo). A questo punto possiamo dividere
la seconda equazione per il coefficiente di x2 e procedere come prima. In questo modo x2 comparira
con coefficiente 1 nella 2a equazione e 0 nelle successive.
Iterando alle equazioni successive otterremo un sistema in forma a scalini:
8
>
> x1 + c12 x2 + .. + c1k xk + .. + c1n xn = d1
>
>
>
> x2 + + c2k xk + .. + c2n xn = d2
>
>
< ...
xk + .. + ckn xn = dk
>
>
>
> .... = dk+1
>
>
>
> .......
:
.... = dm

Si possono presentare i seguenti due casi:

3
a) Si ha un sistema a scalini del tipo:

8 3
>
> x1 + c12 x2 + .. + c1k xk + .. + c1n xn = d1
>
> 7
>
> x2 + + c2k xk + .. + c2n xn = d2 7
>
> 5 k equazioni
>
> ...
<
xk + .. + ckn xn = dk
>
> 3
>
>
>
> 0 = 0
>
>
>
> ....... 5 (m k) equazioni
:
0=0
(dove, se m = k, le ultime m k equazioni non compaiono).
In questo caso siamo nellambito dei sistemi risolubili, in cui abbiamo k equazioni eettive ed n
incognite, con k n. Si possono ricavare le incognite a cascata, partendo da xk , fino ad x1 .
Se k = n, il sistema ha una sola soluzione.
Se k < n, le soluzioni saranno infinite ed espresse in funzione delle variabili xk+1 , ...., xn , che sono
quindi dette variabili libere.

b) Nel sistema a scalini ce almeno una equazione nella quale si annulla il primo membro, ma il
secondo e 6= 0. In questo caso il sistema e ovviamente impossibile.

I In conclusione, quando il sistema e risolubile, per sapere quante soluzioni ha, dobbiamo con-
frontare il numero k delle equazioni eettive con il numero n delle incognite:
Se k = n il sistema e determinato ossia ha una sola soluzione.
Se k < n il sistema e indeterminato ossia ha infinite soluzioni che dipendono da n k variabili
libere (si dice che il sistema ha 1n k soluzioni).

I Per applicare questo metodo, conviene rileggere le trasformazioni elementari sulle equazioni come
corrispondenti trasformazioni elementari sulle righe della matrice completa (A|b), che richiamiamo:

Trasformazioni elementari sulle righe di (A|b)


I) Rij : scambio della riga ri con la riga rj ;
II) k Ri : prodotto della riga ri per il numero k (6= 0) ;
III) Ri + kRj : somma della riga ri con la riga rj moltiplicata per k .

Esempio 1.5 Con trasformazioni elementari sulle equazioni del sistema si ha:
8 8 8
< 2x + 4y = 2 < x + 2y = 1 < x + 2y = 1
1 R2 3R1 1
3x + y = 0 R
2 1
, 3x + y = 0 , 5y = 3 R
5 2
,
: : R3 + R1 :
x + 3y = 2 x + 3y = 2 5y = 3
8 8
< x + 2y = 1 < x + 2y = 1
3 3 x + 2 35 = 1 x= 1
y=5 R3 5R2 , y=5 , 3 , 5
: : y=5 y = 35
5y = 3 0=0
Sistema con 2 equazioni eettive e 2 incognite: quindi determinato, ossia con una sola soluzione.

Analogamente, con le stesse trasformazioni elementari sulle righe di (A|b) si ha:

4
0 1 0 1 0 1
2 4 2 1 2 1 1 2 1
@ 3 1 R2 3R1
0 A 1
R
2 1
, @ 3 1 0 A , @ 0 5 3 A
R3 + R1
1 3 2 1 3 2 0 5 3
0 1 0 1
1 2 1 1 2 1
1
R , @ 0 1 3 A R3 5R2 , @ 0 1 3 A.
5 2 5 5
0 5 3 0 0 0

8
< x 2y + 4z = 2
Esempio 1.6 Dato il sistema 3x + y + 5z = 1 , con trasformazioni elementari sulle righe
:
2x + y + 3z = 2
di (A|b) si ha:
0 1 0 1
1 2 4 2 1 2 4 2
@ 3 R2 3R1
1 5 1 A , @ 0 7 7 7 A 17 R2 ,
R3 2R1
2 1 3 2 0 5 5 6
0 1 0 1 8
1 2 4 2 1 2 4 2 < x 2y + 4z = 2
@ 0 1 1 1 A R3 5R2 , @ 0 1 1 1 A , y z= 1
:
0 5 5 6 0 0 0 1 0= 1
Quindi il sistema e impossibile.

8
< x+y+z =1
Esempio 1.7 Dato il sistema 2x + z = 0 , con trasformazioni elementari sulle righe di
:
6x + 2y = 2
(A|b) si ha:

0 1 0 1
1 1 1 1 1 1 1 1
@ 2 0 1 R2 + 2R1
0 A , @ 0 2 3 2 A 1
R
2 2
,
R3 6R1
6 2 0 2 0 4 6 4
0 1 0 1
1 1 1 1 1 1 1 1
@ 0 x+y+z =1
1 3
1 A R3 + 4R2 , @ 0 1 32 1 A ,
2 y + 32 z = 1
0 4 6 4 0 0 0 0

Il sistema ha 2 equazioni eettive in 3 incognite: quindi il sistema e indeterminato (11 soluzioni).


Inoltre:

x+y+z =1 x + (1 32 z) + z = 1 x = 12 z
, ,
y + 32 z = 1 y = 1 32 z y = 1 32 z

Le soluzioni sono quindi: ( 12 z, 1 3


2
z, z).

5
Esempio 1.8 Discutere la risolubita al variare del parametro reale k, e trovare le eventuali soluzioni
del sistema
8
>
> x + 2y z = 1
<
x + y + 2z = 0
.
>
> 2x y=0
:
x y z=k

Con trasformazioni elementari sulle righe di (A|b) si ha:

0 1 0 1
1 2 1 1 1 2 1 1
B R2 + R1
B 1 1 2 0 C
C
B 0 3 1 1 C
@ R3 2R1 , B C 1
R ,
2 1 0 0 A @ 0 5 2 2 A 3 2
R4 R1
1 1 1 k 0 3 0 k 1
0 1 0 1
1 2 1 1 1 2 1 1
B 0 1 1 C B 0 1 1 1 C
B 1 C R3 + 5R2 B 3 3 C 3
@ 0
3 3 , B C R ,
5 2 2 A R4 + 3R2 @ 0 0 11
3
1
3 A 11 3

0 3 0 k 1 0 0 1 k
0 1 0 1 8
1 2 1 1 1 2 1 1 >
> x + 2y z = 1
1 1 B 1 1 C >
< y + 1z = 1
B 0 1 C B 0 1 C
B 3 3 C R4 R3 , B
3 3
C ,
3 3
.
@ 0 1 A 0 0 1 1 1
0 1 11
@ 11 A > z = 11
>
>
0 0 1 k 1 : 1
0 0 0 k+ 11
0 = k + 11
1
Quando k + 11 6= 0 il sistema e impossibile.
1
Se invece k = 11 , si tratta di un sistema di 3 equazioni eettive in 3 incognite, quindi determinato.
Per calcolarne lunica soluzione si risolve il sistema
8
< x + 2y z = 1
y + 13 z = 13 ,
: 1
z = 11
2 4 1
e si trova la soluzione , ,
11 11 11
.

Esempio 1.9 Discutere la risolubita e trovare le eventuali soluzioni del sistema:


8
>
> x + 2y + z w = 2
<
2x + 3y z = 2
,
>
> 2y + 4z w = 9
:
x+z+w =6

Con trasformazioni elementari sulle righe di (A|b) si ha:

0 1 0 1
1 2 1 1 2 1 2 1 1 2
B 0 1 3 2 6 C R3 + 2R2 B 0 1 3 2 6 C
B C , B C R4 + 3R3 ,
@ 0 2 4 1 9 A R4 2R2 @ 0 0 2 3 3 A
0 2 0 2 4 0 0 6 2 16

6
0 1 8
1 2 1 1 2 >
> x + 2y + z w = 2
B 0 C <
B 1 3 2 6 C y 3z + 2w = 6
@ 0 A , .
0 2 3 3 >
> 2z + 3w = 3
:
0 0 0 7 7 7w = 7

Il sistema e quindi determinato e si trova la soluzione (2, 1, 3, 1) .

Esempio 1.10 Discutere la risolubita al variare del parametro reale k, e trovare le eventuali
soluzioni del sistema
8
< x 3y w = 1
5x 5y + z + kw = 0 .
:
2x + 4y + z = 0

Con trasformazioni elementari sulle righe di (A|b) si ha:

Text
0 1 0 1
1 3 0 1 1 R2 5R1 1 3 0 1 1
@ 5 5 1 k 0 A R3 2R1 , @ 0 10 1 2 2 A R3 R2 ,
2 4 1 0 0 R23 0 10 1 k + 5 5
0 1 8
1 3 0 1 1 < x 3y w = 1
@ 0 10 1 2 2 A , 10y + z + 2w = 2 .
:
0 0 0 k+3 3 (k + 3)w = 3

Quindi per k = 3 il sistema e impossibile, mentre per k 6= 3, ponendo y = t a parametro, linsieme


delle soluzioni e:
3 3 3
{( 1 + 3t + k+3
, t, 2 10t 2 k+3 , k+3 ) | t 2 R}.

7
Teorema di estrazione di base. Sia V un K spazio vettoriale non banale. Supponiamo che ammetta
un insieme finito di generatori A := {v1 , . . . , vn }. Esiste allora un sottoinsieme di A che costituisce
una base di V .

Dimostrazione. Poiche V 6= {0}, i vi non sono tutti nulli. Mostriamo per induzione sul numero n di
generatori che, a meno di riordinare i vettori {v1 , . . . , vn }, esiste 1 r n tale che {v1 , . . . , vr } e una
base dello spazio hv1 , . . . , vn i.
Se n = 1, allora V := hv1 i con v1 6= 0 e quindi {v1 } e una base. Supponiamo che laffermazione valga
per linsieme {v1 , . . . , vn1 }. Per ipotesi induttiva, cioe, a meno di riordinare tali vettori, possiamo
supporre che {v1 , . . . , vr } per un qualche r n 1 sia una base di hv1 , . . . , vn1 i. Osserviamo
che quindi hv1 , . . . , vr , vn i = hv1 , . . . , vn i = V . In particolare, se v1 , . . . , vr , vn sono linearmente
indipendenti, allora formano una base di V ed abbiamo concluso. Altrimenti, v1 , . . . , vr , vn sono
linearmente dipendenti. Esistono allora 1 , . . . , r , K non tutti nulli tali che 1 v1P + r vr +vn =
0. Poiche v1 , . . . , vr sono linearmente indipendenti, deve essere 6= 0. Quindi vn = ri=1 (i 1 )vi e
allora hv1 , . . . , vr i = hv1 , . . . , vn i = V . Pertanto, {v1 , . . . , vr } formano una base di V e la conclusione
segue.

1
DETERMINANTI (PRIMA PARTE). NOTE DI ALGEBRA LINEARE 2010-11

MARCO MANETTI: 10 DICEMBRE 2010

1. Una formula per il determinante


Iniziamo con il definire, per ogni n 0 e per ogni matrice A Mn,n (K) un scalare |A| K
detto determinante di A; scriveremo talvolta det(A) per indicare |A|.
Se n = 0 e A M0,0 (K) e la matrice vuota poniamo per convenzione |A| = 1. Se n = 1 ed
A = (a), con a K poniamo |A| = a. Se n > 1 definiamo |A| in maniera ricorsiva, come una
funzione polinomiale dei coefficienti di A e dei determinanti di oppurtune sottomatrici di A di
ordine minore di n. Data una matrice A = (aij ) Mn,n (K) indichiamo con Aij Mn1,n1 (K)
la sottomatrice ottenuta cancellando la riga i e la colonna j; definiamo poi
n
X
(1.1) |A| = a11 |A11 | a12 |A12 | + a13 |A13 | = (1)j+1 a1j |A1j |.
j=1

Esempio 1.1. Per n = 2 si ha



a11 a12

a21 = a11 a22 a12 a21 .
a22
Esempio 1.2.

1 2 3
5 6 4 6 4 5
4 5 6 = 2 + 3 = (45 48) 2(36 42) + 3(32 35) = 0.

7 8 9 7 9 7 8
8 9
Definizione 1.3. Sia V uno spazio vettoriale sul campo K, unapplicazione
: V V K
| {z }
n fattori
si dice multilineare, o anche separatamente lineare, se e lineare in ognuna delle n variabili,
quando le rimanenti n 1 sono lasciate fisse.
In altri termini, e multilineare se per ogni indice i vale
(v1 , . . . , vi , . . . , vn ) = (v1 , . . . , vi , . . . , vn ),
(v1 , . . . , vi + wi , . . . , vn ) = (v1 , . . . , vi , . . . , vn ) + (v1 , . . . , wi , . . . , vn ).
Esempio 1.4. Se f, g : V K sono due applicazioni lineari, allora
: V V K, (v, w) = f (v)g(w),
e multilineare. Infatti
(v, w) = f (v)g(w) = f (v)g(w) = (v, w), (v, w) = f (v)g(w) = f (v)g(w) = (v, w),
(u + v, w) = f (u + v)g(w) = (f (u) + f (v))g(w) = f (u)g(w) + f (v)g(w) = (u, w) + (v, w),
(v, w + z) = f (v)g(w + z) = f (v)(g(w) + g(z)) = f (v)g(w) + f (v)g(z) = (v, w) + (v, z).

Teorema 1.5. Lapplicazione A 7 |A| definita in (1.1) ha le seguenti proprieta:


(1) Lapplicazione A 7 |A| e multilineare sulle colonne.
(2) Se la matrice A ha due colonne adiacenti uguali, allora |A| = 0.
(3) |I| = 1, dove I e la matrice identita.
1
2 MARCO MANETTI: 10 DICEMBRE 2010

Per essere precisi, la condizione (1) equivale a dire che lapplicazione


Kn Kn K, (A1 , . . . , An ) 7 |A1 , . . . , An |,
| {z }
n fattori

e multilineare, dove ogni Ai e un vettore colonna e |A1 , . . . , An | e il determinante della matrice


che ha come colonne A1 , . . . , An .
Dimostrazione. Dimostriamo la multilinearita per induzione sullordine delle matrici. Per sempli-
cita espositiva mostriamo che il determinante e lineare rispetto alla prima colonna: la linearita ri-
spetto alle altre colonne e del tutto simile. Consideriamo quindi una matrice A = (A1 , . . . , An ) =
(aij ), uno scalare K ed un vettore colonna B 1 = (b11 , . . . , bn1 )T . Considerando le matrici
C = (A1 , A2 , . . . , An ), D = (B 1 , A2 , . . . , An ), E = (A1 + B 1 , A2 , . . . , An ),
occorre dimostrare che
|C| = |A|, |E| = |A| + |D|.
Si ha C11 = A11 , mentre per ogni j > 1 la matrice C1j e ottenura da A1j moltiplicando la prima
riga per ; per lipotesi induttiva |C1j | = |A1j | per ogni j > 1 e quindi per la formula (1.1) si
ha
|C| = a11 |C11 | a12 |C12 | + = a11 |A11 | a12 |A12 | + = |A|.
Similmente si ha E11 = A11 = D11 e per induzione |E1j | = |A1j | + |D1j | per ogni j > 1. Quindi
|E| = (a11 + b11 )|E11 | a12 |E12 | +
= (a11 |A11 | a12 |A12 | + ) + (b11 |D11 | a12 |D12 | + ) = |A| + |D|.
Supponiamo adesso che la matrice A = (A1 , . . . , An ) abbia due colonne adiacenti uguali, diciamo
Ai = Ai+1 . Allora per ogni j 6= i, i + 1 la matrice A1j ha due colonne adiacenti uguali. Per
induzione |A1j | = 0 per ogni j 6= i, i + 1 e quindi la formula (1.1) si riduce a
|A| = (1)i+1 a1,i |A1,i | + (1)i+2 a1,i+1 |A1,i+1 |
e basta osservare che a1,i = a1,i+1 e A1,i = A1,i+1 per avere |A| = 0. Il determinante della
matrice identita si calcola facilemnet per induzione. Infatti |I| = |I11 | e la sottomatrice I11 e
ancora una matrice identita. 
Osservazione 1.6. Per calcolare il determinante di una matrice abbiamo usato solo le opera-
zioni di somma e prodotto: non abbiamo mai dovuto dividere per alcun coefficiente. Se A =
(aij (x)) e una matrice i cui coefficienti sono polinomi aij (x) K[x] possiamo ancora calcolare il
determinante, che continuera ad essere un polinomio. Ad esempio

x 2 2 2
x x x + 1 = x(x + 1) 2(x x) = x + 3x K[x].
2

Inoltre per ogni K il valore del determinante di A calcolato per x = coincide con il
determinante della matrice (aij ()) Mn,n (K).
Esercizi.
1.1. Calcolare i determinanti:

1 0 1 0
1 1 2 2 0 2 0 1 1
0 1 0 1
0 1 2 , 0 1 2 , 1 0 1 , .

3
1 0 1 0
0 1 0 0 1 2 1 1
0 1 0 1
1.2. Dimostrare per induzione su n che il determinante di una matrice diagonale n n e uguale
al prodotto degli elementi sulla diagonale.
1.3. Dimostrare che il determinante di una matrice triangolare inferiore e uguale al prodotto
degli elementi sulla diagonale.
DETERMINANTI (PRIMA PARTE). NOTE DI ALGEBRA LINEARE 2010-11 3

1.4. Dimostrare per induzione su n che il determinante di una matrice n n con una colonna
nulla e uguale a 0. Provare anche che lo stessa conclusione vale se la matrice ha una riga nulla.
1.5. Sia
x x2 2x 3x

1 x2 4 x3
p(x) = 3 K[x].
1 x4 4x 5
1 x 16 x9
Calcolare p(0), p(1) e p(2).
1.6. Calcolare il determinante
1 a
a2 a3
0 1
a a2
b 0 1 a

c d 0 1
dove a = gli anni del rettore, b = le sorelle di Antani, c = il peso atomico del Cirillio e d = il
numero di emeriti.

2. Permutazioni, segnatura ed unicita del determinante


Definizione 2.1. Diremo che unapplicazione d : Mn,n (K) K e multilineare alternante
sulle colonne se soddisfa le seguenti due condizioni:
D1: Lapplicazione d e multilineare sulle colonne.
D2: Se la matrice A ha due colonne adiacenti uguali, allora d(A) = 0.
Esempio 2.2. Per il Teorema 1.5 il determinante e multilineare alternante sulle colonne. Lo
stesso vale per lapplicazione d(A) = |A|, dove K e uno scalare qualsiasi.
Esempio 2.3. Fissata una matrice B Mn,n (K) lapplicazione
d : Mn,n (K) K, d(A) = |BA|,
e multilineare alternante sulle colonne. Questo segue facilmente dal fatto che la i-esima colonna
di BA e uguale a BAi , dove Ai e la i-esima colonna di A.
Lemma 2.4. Sia d : Mn,n (K) K multilineare alternante sulle colonne. Allora si ha:
D3: Se una matrice B e ottenuta da A scambiando tra loro le posizioni di due colonne vale
d(B) = d(A).
D4: Se la matrice A ha due colonne uguali, allora d(A) = 0.
D5: Se A contiene una colonna nulla allora d(A) = 0.
D6: Se le colonne di A sono linearmente dipendenti allora d(A) = 0.
Dimostrazione. Sia B la matrice ottenuta da A scambiando tra di loro due colonne adiacenti,
diciamo
A = (. . . , Ai , Ai+1 , . . .), B = (. . . , Ai+1 , Ai , . . .).
Per la proprieta D1 si ha luguaglianza
d(. . . , Ai + Ai+1 , Ai + Ai+1 , . . .) = d(. . . , Ai , Ai + Ai+1 , . . .) + d(. . . , Ai+1 , Ai + Ai+1 , . . .) =
= d(. . . , Ai , Ai , . . .) + d(. . . , Ai , Ai+1 , . . .) + d(. . . , Ai+1 , Ai , . . .) + d(. . . , Ai+1 , Ai+1 , . . .).
che per la proprieta D2 si riduce a
0 = d(. . . , Ai , Ai+1 , . . .) + d(. . . , Ai+1 , Ai , . . .),
e cioe d(B) = d(A).
Se adesso la matrice A ha due colonne uguali, diciamo Ai ed Aj con i < j possiamo scambiare
la colonna i con la colonna i + 1, poi la colonna i + 1 con la i + 2 e si prosegue fino a quando
la colonna i si trova nella posizione j 1. Si ha quindi d(A) = (1)ji1 d(B) dove B e una
matrice con le colonne j 1 e j uguali. Dunque d(B) = 0, d(A) = 0 e questo prova D4.
4 MARCO MANETTI: 10 DICEMBRE 2010

Chiamiano scambio elementare lo scambio di due colonne adiacenti; per provare D3 e suf-
ficiente dimostrare che ogni scambio di due colonne si puo ottenere come composizione di un
numero dispari di scambi elementari. Indichiamo con
i : Mn,n (K) Mn,n (K)
lapplicazione che scambia la colonna i con la colonna i + 1. Se i < j si vede facilmente che la
composizione di 2(j i) 1 scambi elementari
i i+1 j2 j1 j2 j3 i
| {z } | {z }
indici crescenti indici decrescenti
scambia le colonne i, j e lascia le altre al loro posto.
Sia adesso A = (A1 , . . . , An ) una matrice con una colonna nulla, che per semplicita notazionale
supporremo essere la prima. Allora 0 = A1 = 0A1 e quindi
d(A) = d(A1 , . . . , An ) = d(0A1 , . . . , An ) = 0d(A1 , . . . , An ) = 0.
Resta da dimostrare la proprieta D6: supponiamo che le colonne A1 , . . . , An siano linearmente
dipendenti e, per fissare le idee che lultima colonna sia combinazione lineare delle precedenti:
An = a1 A1 + + an1 An1 . Allora si ha
n1
! n1
X X
1 n 1 n1 i
d(A , . . . , A ) = d A , . . . , A , ai A = ai d(A1 , . . . , An1 , Ai ) = 0.
i=1 i=1

Esempio 2.5. Consideriamo una matrice A Mn,n (K) che sia della forma
 
B C
A=
0 D
con B Mr,s (K), C Mr,ns (K) e D Mnr,ns (K). Se r < s allora |A| = 0 in quanto le
prime s colonne di A sono linearmente dipendenti.
Indichiamo con n linsieme di tutte le permutazioni di {1, . . . , n}, ossia linsieme di tutte
le applicazioni bigettive : {1, . . . , n} {1, . . . , n}. Una trasposizione e una permutazione
che scembia due elementi e lascia fissi i rimanenti: e facile vedere, oltre che intuitivo, che ogni
permutazione si puo scrivere come composizione di trasposizioni. Va osservato che non ce un
modo unico di scrivere una permutazione come composizione di trasposizioni: ad esempio se ,
sono due trasposizioni allora =
Data una matrice A Mn,n (K) ed una permutazione n denotiamo con A la matrice
ottenuta da A permutando le colonne secondo quanto dettato da : piu precisamente se A =
(A1 , . . . , An ) si definisce A = (A(1) , . . . , A(n) ). Si noti che se , sono due permutazioni,
allora vale la formula A = (A ) .1
Definizione 2.6. La segnatura (1) di una permutazione n e definita tramite la formula
(1) = |I |,
dove I Mn,n (Q) e la matrice identita.
Se la permutazione e ottenuta come composizione di k trasposizioni, allora la matrice I e
ottenuta dallidentita con k scambi di colonne e quindi
(1) = |I | = (1)k |I| = (1)k .
Ne consegue in particolare che se una permutazione e scritta come composizione di k trasposi-
zioni, allora (1)k dipende solo da e non dalla scelta delle trasposizioni. Una permutazione si
dice pari se ha segnatura 1, o equivalentemente se puo essere scritta come composizione di un
numero pari di trasposizioni. Si dice dispari se ha segnatura 1.
1Se pensiamo una matrice A = (A1 , . . . , An ) come lapplicazione A : {1, . . . , n} Kn , i 7 Ai , allora A
equivale alla composizione A e quindi A = A ( ) = (A ) = (A ) ).
DETERMINANTI (PRIMA PARTE). NOTE DI ALGEBRA LINEARE 2010-11 5

Lemma 2.7. Sia d : Mn,n (K) K multilineare alternante sulle colonne. Allora si ha:
D7: Per ogni matrice A ed ogni permutazione vale d(A ) = (1) d(A).
Dimostrazione. Scriviamo come composizione di k trasposizioni. Per D3 ogni trasposizione fa
cambiare segno e quindi d(A ) = (1)k d(A) = (1) d(A). 

Siamo adesso in grado di dimostrare il teorema di unicita del determinante.


Teorema 2.8. Sia d : Mn,n (K) K multilineare alternante sulle colonne. Allora per ogni
matrice A si ha
d(A) = |A|d(I).
In particolare se d(I) = 1 allora d e uguale al determinante.
Pn
Dimostrazione. Se A = (A1 , . . . , An ) = (aij ) allora per ogni i vale Ai = j=1 aji ej , dove
e1 , . . . , en e la base canonica di Kn . Per linearita rispetto alla prima colonna si ha
Xn n
X
d(A) = d( aj1 ej , A2 , . . . , An ) = aj1 d(ej , A2 , . . . , An ).
j=1 j=1

Ripetendo la procedura per la seconda colonna


n
X n
X n X
X n
3 n
d(A) = aj1 d(ej , ak2 ej , A , . . . , A ) = aj1 ak2 d(ej , ej , A3 , . . . , An )
j=1 k=1 j=1 k=1

e procedendo fino alla n-esima si ottiene


n
X n
X
d(A) = aj1 1 ajn n d(ej1 , . . . , ejn ).
j1 =1 jn =1

Siccome d(ej1 , . . . , ejn ) = 0 quando due indici jh coincidono la precedente formula si riduce a
X
d(A) = a(1),1 a(n),n d(e(1) , . . . , e(n) ).
n

e tenendo presente che


d(e(1) , . . . , e(n) ) = d(I ) = (1) d(I)
arriviamo alla formula
X
(2.1) d(A) = (1) a(1),1 a(n),n d(I),
n

che per d uguale al determinante diventa


X
(2.2) |A| = (1) a(1),1 a(n),n .
n

dal confronto delle equazioni (2.1) e (2.2) si arriva alla conclusione. 

Teorema 2.9 (Binet). Date due matrici A, B Mn,n (K) si ha


|AB| = |BA| = |A||B|.
Dimostrazione. Abbiamo gia osservato che lapplicazione
d : Mn,n (K) K, d(A) = |BA|,
e multilineare alternante sulle colonne e quindi vale
|BA| = d(A) = |A|d(I) = |A||BI| = |A||B|.
Per simmetria |AB| = |B||A| = |A||B| = |BA|. 
6 MARCO MANETTI: 10 DICEMBRE 2010

Esercizi.
2.1. Provare che
1 2 3 4 5

2 3 4 5 6

1 0 0 0 5 = 0.

2 0 0 0 5

1 0 0 0 2
2.2. Siano f1 , . . . , fn : Kn K applicazioni lineari. Provare che lapplicazione
X
d : Mn,n (K) K, d(A1 , . . . , An ) = (1) f(1) (A1 )f(2) (A2 ) f(n) (An ),
n

e multilineare alternante sulle colonne.

3. Permutazioni ed incroci
Un modo conveniente di rappresentare una permutazione di {1, . . . , n} elementi e mediante
una matrice 2 n in cui la prima riga contiene i numeri da 1 a n e la seconda riga le rispettive
immagini, ossia  
1 2 n
.
(1) (2) (n)
Ricordiamo che le trasposizioni sono permutazioni che scambiano di posizione due elementi e
lasciano invariati i rimanenti. Ad esempio, la permutazione
 
1 2 3 4
3 2 1 4
e una trasposizione. Per ogni i < n, denotiamo con i n la trasposizione che scambia i con
i + 1:
i (i) = i + 1, i (i + 1) = i, i (a) = a a 6= i, i + 1.
Definizione 3.1. Diremo che un sottoinsieme A {1, . . . , n} di due elementi e un incrocio
della permutazione se la restrizione di ad A e decrescente; in altri termini, un sottoinsieme
A = {i, j}, con i < j,
e un incrocio di se (i) > (j).
Indichiamo con () il numero di incroci di . Ad esempio, lidentita ha zero incroci, le
trasposizioni i hanno un solo incrocio, mentre la permutazione
(i) = n + 1 i
ha n(n 1)/2 incroci. In un certo senso, il numero di incroci e una misura della complessita della
permutazione.
Osservazione 3.2. Una maniera di contare il numero di incroci di e la seguente. Per ogni
i = 1, . . . , n si disegna nel piano il segmento che unisce il punto di coordinate (i, 0) con il
punto di coordinate ((i), 1) e poi si conta il numero di punti di intersezione dei vari segmenti.
Bisogna pero fare attenzione al fatto che, se per un punto passano h segmenti, con h > 2, allora
ci troviamo di fronte ad una intersezione multipla ed a tale punto corrispondono h(h 1)/2
incroci. Ad esempio, le due permutazioni
WWWWWW   
 WWWWWWWWW 
 
1 2 3 4 5
 
2 3 4 5 1    WWWWWWWW
  
OOO oo ?? 
OOO ooo ??
 
1 2 3 4 5 Oo
ooo OOOOO ?
3 2 1 5 4 oo  ??
o
hanno entrambe 4 incroci.
DETERMINANTI (PRIMA PARTE). NOTE DI ALGEBRA LINEARE 2010-11 7

Esempio 3.3. Siano i < j e sia la trasposizione che scambia i e j. Un sottoinsieme


A = {a, b}, con a < b,
e un incrocio se e solo se a = i e b j, oppure se a i e b = j; quindi () = 2(j i) 1.
Ne consegue che ogni trasposizione ha segnatura uguale a 1.
Le permutazioni, in quanto applicazioni di un insieme in se, possono essere composte tra loro.
Se , n definiamo il prodotto n come
(i) = ((i)), i = 1, . . . , n.
Ad esempio     
1 2 3 4 1 2 3 4 1 2 3 4
= .
3 2 1 4 2 3 4 1 2 1 4 3
Notiamo che il prodotto di ogni trasposizione con se stessa e uguale allidentita; in particolare
i i = identita per ogni i.
Teorema 3.4. Date due permutazioni , n , indichiamo con a il numero di sottoinsiemi
A {1, . . . , n} di due elementi che soddisfano le due condizioni:
(1) A e un incrocio di .
(2) (A) e un incrocio di .
Allora vale la formula
() = () + () 2a
Dimostrazione. Per ogni insieme finito X indichiamo con |X| la sua cardinalita, ossia il numero
di elementi che contiene. Indichiamo con P la collezione di tutti i sottoinsiemi di {1, . . . , n} di
cardinalita 2.
Notiamo che A P e un incrocio di se e soltanto se vale una delle seguenti due condizioni:
(1) A e un incrocio di e (A) non e un incrocio di .
(2) A non e un incrocio di e (A) e un incrocio di .
Indichiamo adesso con
C = {A P : A e incrocio di }.
D = {A P : (A) e incrocio di }.
Chiaramente |C| = () e, siccome : P P e bigettiva, vale anche |D| = ().
Per definizione a e il numero di elementi di C D. Denotiamo con c il numero di elementi di C
che non appartengono a D e con d il numero di elementi di D che non appartengono a C.
Abbiamo visto che valgono le uguaglianze
a + c = (), a + d = (), c + d = ().
Da tali uguaglianze segue che
() = () + () 2a.

Definiamo lapplicazione : n {1} mediante la formula
() = (1)() .
Corollario 3.5. Per ogni , n vale
() = ()().
In particolare () = ( 1 ).
Dimostrazione. La prima uguaglianza segue immediatamente dal Teorema 3.4. Per la seconda
basta osservare che
()( 1 ) = ( 1 ) = (identita) = 1.

8 MARCO MANETTI: 10 DICEMBRE 2010

Corollario 3.6. Se una permutazione e uguale al prodotto di k trasposizioni, allora () =


(1)k e quindi () e uguale alla segnatura (1) .
Dimostrazione. Ogni trasposizione ha segnatura 1. 
Corollario 3.7. Ogni permutazione si puo scrivere come prodotto di () trasposizioni i .
Dimostrazione. Induzione su (). Se non ha incroci, allora e lidentita. Se invece e diversa
dallidentita, allora lapplicazione bigettiva
: {1, . . . , n} {1, . . . , n}
non puo essere crescente e dunque esiste almeno un indice h < n tale che (h) > (h + 1).
Dimostriamo adesso che
(h ) = () 1.
Infatti la trasposizione h ha un unico incrocio {h, h + 1} che, per come abbiamo scelto h, e
anche un incrocio di . Quindi per il Teorema 3.4
(h ) = () + (h ) 2 = () 1.
Per lipotesi induttiva la permutazione h e prodotto di () 1 trasposizioni i e quindi
= (h h ) = (h )h
e prodotto di () trasposizioni i . 
Supponiamo adesso di avere un insieme finito X e di considerare una permutazione di X, ossia
unapplicazione bigettiva f : X X. In questo caso non possiamo definire il numero di incroci
(per fare cio bisognerebbe che X fosse ordinato) ma possiamo ugualmente definire la segnatura
nel modo seguente:

Supponiamo che X abbia esattamente n elementi e scegliamo unapplicazione bigettiva


h : {1, . . . , n} X.
Allora lapplicazione
h1 f h : {1, . . . , n} {1, . . . , n}
e bigettiva e possiamo definire la segnatura come
(f ) = (h1 f h).
Bisogna dimostrare che si tratta di una buona definizione, ossia che (f ) non dipende dalla
scelta di h. Se prendiamo unaltra applicazione bigettiva
k : {1, . . . , n} X,
1
allora = k h e una permutazione di {1, . . . , n} con inversa 1 = h1 k e quindi
(h1 f h) = ( 1 k 1 f k) = ( 1 )(k 1 f k)() = (k 1 f k).

Esercizi.
3.1. Siano r < n e n la permutazione
(
i+r se i n r
(i) =
i (n r) se i > n r
Calcolare la segnatura di .
DETERMINANTI (SECONDA PARTE). NOTE DI ALGEBRA LINEARE
2010-11

MARCO MANETTI: 21 DICEMBRE 2010

1. Sviluppi di Laplace
Proposizione 1.1. Sia A Mn,n (K), allora per ogni indice i = 1, . . . , n fissato vale lo sviluppo
di Laplace rispetto alla riga i:
Xn
|A| = (1)i+j aij |Aij |.
j=1

Dimostrazione. Per i = 1 la formula e vera per definizione. Definiamo per ogni i lapplicazione
Xn
di : Mn,n (K) K, di (A) = (1)j+1 aij |Aij |;
j=1
i1
e dimostriamo per induzione su i che di (A) = (1) |A| per ogni matrice A. Sia i la traspo-
sizione semplice che scambia gli indici i, i + 1 e sia B la matrice ottenuta da A scambiando tra
loro le righe i e i + 1. Valgono allora le formule
di+1 (A) = di (B), B = I i A.
Per il teorema di Binet e per lipotesi induttiva si ha:
di+1 (A) = di (B) = (1)i1 |B| = (1)i1 |I i ||A| = (1)i |A|.

Esempio 1.2. Calcoliamo il determinante della matrice

1 3 5
6 7 0
2 0 0
Dallo sviluppo di Laplace rispetto allultima riga segue

1 3 5
6 7 0 = 2 3 5 = 70.

7 0
2 0 0

Lemma 1.3 (determinante della trasposta). Per ogni matrice A Mn,n (K) vale |AT | = |A|.
Dimostrazione. Siccome |I T | = 1 basta dimostrare che lapplicazione
d : Mn,n (K) K, d(A) = |AT |,
e multilineare alternante sulle colonne.
Indicati con aij e coefficienti di A, fissato un indice i, per lo sviluppo di Laplace rispetto alla
riga i si ha:
X n
d(A) = |AT | = aji (1)i+j |(AT )ij |
j=1
e da tale formula segue immediatamente che d(A) e lineare rispetto alla colonna i. Infine se
A ha le colonne i, i + 1 uguali allora ogni vettore colonna di AT e contenuto nel sottospazio
vettoriele di equazione xi xi+1 = 0; dunque le colonne di AT sono linearmente dipendenti e
quindi |AT | = 0. 
1
2 MARCO MANETTI: 21 DICEMBRE 2010

Corollario 1.4. Sia A = (aij ) Mn,n (K), allora per ogni indice i = 1, . . . , n fissato vale lo
Sviluppo di Laplace rispetto alla colonna i:
n
X
|A| = (1)i+j aij |Aij |.
i=1

Dimostrazione. Prendendo lo sviluppo di Laplace rispetto alla riga i della matrice trasposta si
ha
n
X
|AT | = aji (1)i+j |ATij |.
j=1

Siccome (AT )ij = (Aji )T ed il determinante di una matrice e uguale al determinante della
propria trasposta si ha
n
X n
X
|A| = |AT | = aji (1)i+j |(AT )ij | = aji (1)i+j |Aji |.
j=1 j=1

Dal fatto che il detreminante di una matrice e uguale al determinante della trasposta, segue
che il determinante e multilineare alternante sulle righe. In particolare:
(1) Scambiando due righe il determinante cambia di segno.
(2) Moltiplicando una riga per uno scalare , anche il determinante viene moltiplicato per
.
(3) Aggiungendo ad una riga una combinazione lineare delle altre, il determinante non
cambia.
(4) Se le righe sono linearmente dipendenti il determinante si annulla.

Esempio 1.5. Le precedenti regole permettodo di calcolare il determinante con un misto


di eliminazione di Gauss e sviluppo di Laplace. Supponiamo ad esempio di voler calcolare il
determinante

10 20 32

= 4 2 25
3 0 9

Togliamo alla terza colonna il doppio della prima; il determinante non cambia:

10 20 12
20 12
= 4 2 17 = 3 2 17 = 3(340 24) = 632.

3 0 0

Esempio 1.6. Calcoliamo il determinante della matrice di Vandermonde; piu precisamente


proviamo che

1
1 1
x0
x1 xn
.. .. .. .. = Y(x x )
.
n1 . . . i j
n1 n1 i>j
x
0 x1 x n
xn xn1 xnn
0

Ragioniamo per induzione su n, considerando il polinomio


n1
Y n1
X
n
p(t) = (t xj ) = t + ai ti .
j=0 i=0
DETERMINANTI (SECONDA PARTE). NOTE DI ALGEBRA LINEARE 2010-11 3

Sommando allultima riga della matrice di Vandermonde la combinazione lineare a coefficienti


ai delle rimanenti righe si ottiene

1
1 1 1 1 1
x0
x1 xn x0 x1 xn
.. .. . .. .
.. =
.
.. .
.. . .. ..
. . .
n1 n1
n1 n1

n1 n1
x
0 x1 xn x0
x1 xn
xn xn1 xnn p(x0 ) p(x1 ) . . . p(xn )
0
Q
Dato che p(xi ) = 0 per ogni i < n e p(xn ) = n>j (xn xj ) si ha

1
1 1 1 1 1
x0
x1 xn x0 x1 xn
.. .. .. .
.. = .. . .
.. .. ..
=

.
n1 . . . .
n1 n1 xn1 xn1 xn1
x
0 x 1 x n 0 1 n
xn xn xn 0 0 p(xn )
0 1 n


1
1 1

x0 x1 xn1 Y Y
= p(xn ) . = (xn xj ) (xi xj ).

.. ..

.. ..
n1 . . .
n>j n>i>j
x
0 xn1
1 xn1
n1

Abbiamo quindi ridimostrato che la matrice di Vandermonde



1 1 1
x0
x1 xn
.. . ..

(1.1) . .. . ..
n1 .

n1 n1
x
0 x1 xn
xn0 xn1 xnn
e invertibile se e soltanto se xi 6= xj per ogni i 6= j.
Esercizi.
1.1. Provare che il determinante di una matrice triangolare e uguale al prodotto degli elementi
della diagonale.
1.2. Dati due interi positivi n, p si consideri la matrice A = (aij ), dove
aij = (ni + j)p + 1, i, j = 1, . . . , n.
Per quali valori di n, p il determinante di A e uguale a 1250?
1.3. Dimostrare che il determinante di una matrice antisimmetrica di ordine 351 si annulla.
1.4. Dimostrare, usando leliminazione di Gauss, che il determinante della matrice

4 2 2 2 8 6 6
1 1 1 3 0 2 4

2 1
1 3 5 7 1
2 1
6 0 3 8 3
2 1
1 0 2 7 3
2 1 1 0 0 7 3
2 1 1 0 2 7 3
e uguale a 0.
4 MARCO MANETTI: 21 DICEMBRE 2010

1.5. Siano A Mn,n (K), B Mm,m (K) e C Mn,m (K). Utilizzare lo sviluppo di Laplace e le
proprieta del determinante per dimostrare che

A C 0 B nm
= |A||B|,
A C = (1) |A||B|.

0 B

1.6. Sia A una matrice 10 10 Calcolare, in funzione di |A|, il determinante della seguente
matrice 20 20  
6A 5A
A 2A
1.7. Indichiamo con dk , k 1, il determinante della matrice k k

6 1 0 0 0 ... 0
1 6 1 0 0 . . . 0

0 1 6 1 0 . . . 0

0 0 1 6 1 ...

...
0 0 0 0 0 ... 6
(d1 = 6, d2 = 35 eccetera). Dimostrare che per ogni k 3 vale dk = 6dk1 dk2 .
Siano x, y le radici del polinomio t2 6t + 1. Dimostrare che per ogni k 3 vale
xk = 6xk1 xk2 , y k = 6y k1 y k2 .
Determinare due numeri reali a, b tali che
dk = axk + by k
per ogni k 1.

2. La matrice dei cofattori


Definizione 2.1. Data una matrice quadrata A Mn,n (K) la matrice dei cofattori1 A
e e
definita mediante la formula:
A
e = (aij ), aij = (1)i+j |Aji |.
   
1 2 4 2
Esempio 2.2. La matrice dei cofattori di e uguale a .
3 4 3 1
Teorema 2.3. Per ogni matrice quadrata A vale
AA e = |A|I.
e = AA

Dimostrazione. Se A = (aij ), tenendo presente la definizione di A e e del prodotto di matrici, la


formula AA = |A|I equivale alle relazioni
e
n
(
X
k+j |A| se i = j
(2.1) (1) aik |Ajk | =
k=1
0 se i 6= j
Per i = j la formula (2.1) coincide con lo sviluppo di Laplace rispetto alla riga i. Se invece i 6= j
indichiamo con B la matrice ottenuta da A in cui la riga j e sostituita con la riga i; la matrice
B ha dunque due righe uguali e vale aik = bik = bjk , Ajk = Bjk per ogni k. Ne segue che
n
X n
X
0 = |B| = (1)k+j bjk |Bjk | = (1)k+j aik |Ajk |.
k=1 k=1

La formula AA e = |A|I si dimostra allo stesso modo utilizzando gli sviluppi di Laplace rispetto
alle colonne. 
1In alcuni testi la matrice dei cofattori viene chiamata matrice aggiunta.
DETERMINANTI (SECONDA PARTE). NOTE DI ALGEBRA LINEARE 2010-11 5

Corollario 2.4. Una matrice quadrata A e invertibile se e solo se |A| =6 0; in tal caso linversa
A
e
e uguale a A1 = ed il suo determinante e uguale a |A1 | = |A|1 .
|A|
Dimostrazione. Se A e invertibile allora AA1 = I e per il teorema di Binet |A||A1 | = |I| = 1
da cui segue |A| =
6 0. Viceversa se |A| =
6 0 segue dal Teorema 2.3 che A e invertibile con inversa
A
e
. 
|A|
Corollario 2.5. Il rango di una matrice A e uguale al piu grande intero r per cui A contiene
una sottomatrice quadrata di ordine r con determinante diverso da 0.
Dimostrazione. Abbiamo gia dimostrato che il rango di una matrice A e uguale al piu grande
intero r per cui A contiene una sottomatrice quadrata e invertibile di ordine r. 
Esercizi.
2.1. Calcolare le inverse delle seguenti matrici

1 0 1 2 1 0 0 0
1 0 1 1 2 1 0
0 1 1 0 1 1 1 1 0
0
0 1 0.
0 0 1 3 0 0 0 1
1 1 1 1 1 2
0 0 0 1 0 1 0 0
2.2. Vero o falso? Ogni matrice 2 4 nella quale i determinanti dei minori 2 2 formati da due
colonne adiacenti si annullano ha rango minore di 2.
2.3. Sia A Mn,n (K). Provare che il rango della matrice dei cofattori A e e uguale a: n se A e
invertibile, 1 se il rango di A e uguale a n 1, 0 se il rango di A e minore di n 1.
e = |A|n1 e (A)
2.4. Provare che |A| e T = (A
] T ).

3. Matrici coniugate
Definizione 3.1. Il gruppo lineare GLn (K) e linsieme delle matrici A Mn,n (K) che sono
invertibili.
Abbiamo visto che se A, B GLn (K) allora anche A1 , AT , AB GLn (K). Si noti che
GLn (K) non e un sottospaio vettoriale.
Definizione 3.2. Date due matrici A, B Mn,n (K) diremo che A e coniugata a B, e scriveremo
A B, se esiste C GLn (K) tale che A = CBC 1 .
La relazione di coniugio gode delle seguenti proprieta:
: Proprieta riflessiva A A per ogni A Mn,n (K).
: Proprieta simmetrica Se A B allora B A.
: Proprieta transitiva Se A B e B H, allora A H.
La verifica di tali proprieta e immediata: infatti A = IAI 1 ; se A = CBC 1 allora B =
C A(C 1 )1 ; se A = CBC 1 e B = DHD1 allora A = (CD)H(CD)1 .
1

Teorema 3.3. Due matrici coniugate hanno la stessa traccia e lo stesso determinante.
Dimostrazione. Esercizio. 
Se A B, allora Ah B h per ogni h > 0. Infatti se A = CBC 1 si ha
A2 = (CBC 1 )(CBC 1 ) = CB 2 C 1
e per induzione su h
Ah+1 = AAh = (CBC 1 )(CB h C 1 ) = CB h+1 C 1 .
Ne segue che se A B allora la traccia di Ah e uguale alla traccia di B h per ogni h > 0.
6 MARCO MANETTI: 21 DICEMBRE 2010

Esempio 3.4. Le due matrici diagonali



a 0 0 b 0 0
A = 0 b 0 , B = 0 a 0 ,
0 0 c 0 0 c
sono coniugate: infatti A = CBC 1 dove

0 1 0
C = A = 1 0 0 .
0 0 1
Piu in generale due matrici diagonali ottenute luna dallaltra mediate una permutazione degli
elementi sulla diagonale sono coniugate.
Esercizi.
3.1. Mostrare che le matrici

1 0 0 1 0 1
A = 0 1 0 , B = 0 1 0 ,
0 0 1 0 0 1
non sono coniugate pur avendo lo stesso determinante e pur avendo Ah e B h la stessa traccia
per ogni h > 0.
3.2. Calcolare     1 
t 0 a b t 0
0 1 c d 0 1
e dedurre che per ogni a K, a 6= 0, le matrici
   
1 1 1 a
,
0 1 0 1
sono coniugate.
3.3. Mostrare che per ogni a K, a 6= 0, le matrici
a2

1 1 1 1 a
0 1 1 , 0 1 a
0 0 1 0 0 1
sono coniugate.

4. Indipendenza del conuigio dal campo base


Come al solito indichiamo con K un sottocampo di C.
Lemma 4.1. Siano A, B Mn,n (K) e C Mn,n (C) tre matrici. Si assuma che esista un
numero complesso C tale che la matrice
A + B + C
e invertibile. Allora esiste K tale che la matrice
A + B + C
e ancora invertibile.
Dimostrazione. Sia t una indeterminata e si condideri il polinomio
p(t) = |A + tB + C| C[t].
Il polinomio p(t) ha grado n e non e nullo poiche p() 6= 0. Dunque p possiede un numero
finito di radici e basta prendere K una non radice di p. 
DETERMINANTI (SECONDA PARTE). NOTE DI ALGEBRA LINEARE 2010-11 7

Lemma 4.2. Siano 1 , . . . , r C linearmente indipendenti su K e siano A1 , . . . , Ar Mn,n (K)


tali che
1 A1 + + r Ar = 0.
Allora A1 = = Ar = 0.
Dimostrazione. Basta osservare che ogni coefficiente della matrice 1 A1 + + r Ar e una
combinazione lineare su K dei numeri 1 , . . . , r . 
Teorema 4.3. Siano A, B Mn,n (K). Se esiste una matrice C Mn,n (C) invertibile tale che
AC = CB, allora esiste una matrice D Mn,n (K) invertibile tale che AD = DB.
Dimostrazione. Consideriamo C come spazio vettoriale su K e sia V C il sottospazio vettoriale
generato dai coefficienti di C; chiaramente V ha dimensione finita e minore od uguale a n2 . Sia
1 , . . . , r una base di V , allora possiamo scrivere
C = 1 C1 + + r Cr
con Ci Mn,n (K) per ogni i. Dunque
0 = AC CB = 1 (AC1 C1 B) + + r (ACr Cr B)
e quindi ACi = Ci B per ogni i. Se Ci e invertibile per qualche i abbiamo finito. Altrimenti possia-
mo usare ripetutamente il Lemma 4.1 per dimostrare induttivamente che esistono 1 , . . . , r K
tali che per ogni i la matrice
1 C1 + + i Ci + i+1 Ci+1 + + r Cr
e invertibile. Alla fine possiamo prendere
D = 1 C1 + + r Cr .

Corollario 4.4. Due matrici A, B Mn,n (K) sono coniugate in Mn,n (K) se e solo se sono
coniugate in Mn,n (C).
Dimostrazione. Ovvia conseguenza del teorema precedente. 
Teorema di di Cramer. Sia A Mnn (K) con rkA = n e sia ~b Kn un vettore colonna. Allora
lunica soluzione di A~x = ~b e il vettore ~x = t (x1 , . . . , xn ) Kn le cui componenti possono essere
calcolate con la seguente formula:
det(A1 , . . . , Aj1 , ~b, Aj+1 , . . . , An )
xj = .
det(A)

Dimostrazione. Osserviamo prima di tutto che lunicita della soluzione e assicurata dal Teorema di
Rouche Capelli . Sia ora ~b = ni=1 xi Ai . Allora, per le proprieta del determinante abbiamo che
P

n
X
det(A1 , . . . , Aj1 , ~b, Aj+1 , . . . , An ) = det(A1 , . . . , Aj1 , xi Ai , Aj+1 , . . . , An )
i=1
n
X
= xi det(Bi )
i=1

dove Bi = (A1 , . . . , Aj1 , Ai , Aj+1 , . . . , An ).


Distinguiamo due casi:
i 6= j: in questo caso Bi ha due colonne uguali (non necessariamente contigue) e dunque detB i =
0;
i = j: in questo caso Bi = A.
Concludendo, abbiamo che det(A1 , . . . , Aj1 , ~b, Aj+1 , . . . , An ) = xj det A. Poiche rkA = n, risulta
det A 6= 0. Ricavando xj , otteniamo la tesi.

Teorema [Calcolo dellinversa di una matrice]. Sia A M nn (K) con detA 6= 0. Allora
  
1
A1 = (1)i+j det Aji = (bij ).
det A i,j

Dimostrazione. Innanzi tutto notiamo che A A 1 = In se e solo se



b1j
..
A . = Inj = ej .
bnj
Trovare la matrice inversa consiste quindi nel risolvere n sistemi lineari definiti dalla relazione qui sopra
(oppure dalla condizione A A1 = In ). Dal teorema di Cramer otteniamo che
1
bij = det(A1 , . . . , Ai1 , ej , Ai+1 , . . . , An ) .
detA
Sviluppando il determinante rispetto alla i-esima colonna otteniamo la tesi.

1
2

1. Teoria di Kronecker

Proposizione. Siano A1 , . . . , Ah Kn e sia A = (A1 , . . . , Ah ) Mnh (K). Allora {A1 , . . . , Ah } sono


linearmente indipendenti (cioe rkA = h) se e solo se esistono h indici j 1 , . . . , jh n tali che la matrice
B Mhh (K) ottenuta da A considerando solo le righe j 1 , . . . , jh soddisfa det B 6= 0.

Dimostrazione. Dimostriamo limplicazione inversa. Se {A 1 , . . . , Ah } allora A ha rango minore di h e


quindi ha al piu h 1 righe linearmente indipendenti. In particolare, ogni matrice B ottenuta da A
cancellando (n h) righe ha al piu h 1 righe linearmente indipendenti e quindi ha rango minore di
h. Quindi det B = 0.
Dimostriamo limplicazione diretta. Supponiamo che A 1 , . . . , Ah siano linearmente indipendenti.
Consideriamo t A Mhn (K) le cui righe sono le trasposte (t A1 , . . . , t Ah ), ancora linearmente indipen-
denti. La matrice t A ha rango h e quindi esistono h sue colonne linearmente indipendenti. La trasposta
della sottomatrice di t A ottenuta tenendo tali colonne e una sottomatrice quadrata B di A di ordine h
con h righe linearmente indipendenti e quindi soddisfa det B 6= 0.

Definizione. Sia A Mnh (K) e sia 1 r min{n, h}. Un minore di ordine r di A e il determinante
di una matrice Mrr (K) ottenuta da A considerando r righe e r colonne e cancellando le altre n r
righe e le altre h r colonne.

Teorema di Kronecker. Sia A Mnh (K). Le seguenti affermazioni sono equivalenti:


(1) rkA = r;
(2) esiste un minore non nullo di ordine r e ogni minore di ordine r + 1 e nullo;
(3) esiste un minore non nullo di ordine r definito dalla righe j 1 , . . . , jr e dalle colonne t1 , . . . , tr
di A e ogni minore di ordine r + 1 ottenuto considerando le righe j 1 , . . . , jr , j e le colonne
t1 , . . . , tr , t e nullo.

Osservazione. La terza affermazione equivalente garantisce che, per mostrare che il rango di una
matrice e r, non serve provare che tutti i minori di ordine r + 1 sono nulli. Trovato un minore di ordine
r non nullo e sufficiente verificare che sono nulli solo i minori ottenuti orlando la sottomatrice quadrata
di cui esso e il determinante, aggiungendo cio e unaltra riga e unaltra colonna.
Appunti di Geometria affine
a.a. 2012-2013
Un insieme S, i cui elementi verranno detti punti, si chiama spazio
affine su un K-spazio vettoriale V se esiste unazione di V su S, cioe
unapplicazione
SV S
(P, v) Q = P + v
tale che siano soddisfatte le seguenti condizioni:
(1) per ogni P, Q in S esiste un unico v tale che Q = P + v.;
(2) se Q = P + v e R = Q + w per P, Q, R S e v, w V , allora
R = P + (v + w).
Osservazione: se V ha dimensione n, linsieme S e detto spazio affine
di dimensione n, e sara indicato con AnK .

Esempio 1. Sia Ax = b un sistema lineare non omogeneo e sia a una


soluzione particolare. Allora si ha che
Sol(Ax = b) = a + Sol(Ax = 0).
Pertanto linsieme delle soluzioni di un sistema lineare non omogeneo e
uno spazio affine di dimensione n r, dove n e il numero delle incognite ed
r e il rango della matrice A.

Un sistema di riferimento R = R(O, v1 , . . . , vn ) per uno spazio affine di


dimensione n e dato da un punto O e da una base {v1 , . . . , vn } di V .
Un sistema di riferimento induce una bigezione tra AnK e K n : al punto
P viene associata la n-pla (x1 , . . . , xn ) tale che
n
X
P =O+ x i vi .
i=1

Gli scalari xi per 1 i n vengono dette le coordinate del punto P .

Un sottoinsieme L di AnK e un sottospazio affine se esistono un punto P0


e un sottospazio U di V tale che ogni punto P di L si scrive nella forma P =
P0 + u con u U . Il sottospazio U e detto sottospazio direzione o giacitura
del sottospazio affine L, e viene indicato con Dir(L). La dimensione di L e
definita come la dimensione del sottospazio direzione.
Se la giacitura ha dimensione 1, il sottospazio L si chiama retta; se la
giacitura ha dimensione 2, il sottospazio L si chiama piano e se la giacitura
ha dimensione n 1, si parla di un iperpiano.

1
Un sottospazio affine puo essere rappresentato in due modi diversi.
Rappresentazione parametrica di L. Fissiamo un sistema di riferimento
R e sia P un punto in L di coordinate (x1 , . . . , xn ). Siano (y1 , . . . , yn ) le
coordinate di P0 e fissiamo una base {u1 , . . . , um } di U . Chiaramente P P0
appartiene a U ; in coordinate si ha:
m
X m
X
P P0 = (xi yi )vi = i ui .
i=1 i=1
Pn
Scrivendo ui = j=1 uij vj , si ottiene
X
xi = yi + uij j ,
j=1

per 1 i n. Al variare dei parametri j si ottengono i punti di L;


tali equazioni vengono percio dette equazioni parametriche di L. Possiamo
scrivere
m
X
x=y+ i ui . (1)
i=1

Esempio 2. Consideriamo la seguente retta r in A3K passante per il


punto P0 = (1, 0, 1) e con giacitura lo spazio vettoriale generato dal vettore
di componenti tutte uguali a 1. Le equazioni parametriche di tale retta sono
date da
x1 1 1
x2 = 0 + t 1 .
x3 1 1

Si puo interpretare la (1) dicendo che i vettori x y, u1 , . . . , um sono


linearmente dipendenti. In altri termini, il rango della matrice che ha tali
vettori come colonne e m. Si hanno cos delle condizioni che forniscono
una descrizione di L in forma cartesiana. Viceversa, risolvendo un sistema
lineare omogeneo si ottiene una descrizione parametrica del sottospazio affine
i cui punti hanno coordinate che soddisfano il sistema.
Esempio 3. Nel caso della retta r dellesempio precedente, si passa
facilmente dalla rappresentazione parametrica a quella cartesiana risolvendo
rispetto a t. In altri termini, sostituiamo x2 nelle altre due relazioni otte-
nendo le due equazioni x1 x2 = 1 e x3 x2 = 1.
In generale, per ricavare le equazioni cartesiane da quelle parametriche
occorre applicare il Teorema di Rouche-Capelli, utilizzando, ad esempio, la
teoria di Kronecker.

2
Dati due sottospazi affini L0 e L1 di giaciture rispettivamente U0 e U1 ,
diremo che L0 e parallelo a L1 se U0 U1 . Tale relazione e riflessiva e
transitiva, ma non simmetrica a meno che non ci restringiamo a sottospazi
della stessa dimensione.
Diremo che due sottospazi sono sghembi se i) L0 non e parallelo a L1 e
L1 non e parallelo a L0 , e ii) L0 e L1 non si intersecano.

Esempio 4. Si consideri la retta r0 nello spazio affine tridimensionale di


equazioni parametriche

x1 = 1, x2 = t, x3 = t,

e il piano di equazioni

x1 = 2u + 2v, x2 = 2 + u, x3 = 2u + v.

La retta ha per giacitura il sottospazio generato, ad esempio, dal vettore di


coordinate w = (0, 1, 1); il piano ha per giacitura il sottospazio generato dai
vettori u1 = (2, 1, 2) e u2 = (2, 0, 1). Dato che w = u1 u2 , la giacitura di
r0 e contenuta in quella di , cioe r0 e parallela a .

Dato uno spazio affine AnK , una affinita e una biezione f di AnK in se per
cui esiste un isomorfismo : V V tale che

f (P1 ) = f (P0 ) + (P1 P0 ),

per ogni coppia di punti P0 , P1 in di AnK .


Fissiamo, ora, un sistema di riferimento R di AnK , e indichiamo con c
le coordinate di f (O) rispetto a R, con x0 le coordinate di f (P ) e con x le
coordinate di P . Quindi abbiamo che

x0 = (x) + c.

Allisomorfismo e associata la matrice rappresentativa M rispetto alla


base fissata con il sistema di riferimento R. Tale matrice e invertibile in
quanto e un isomorfismo. In conclusione, fissato un sistema di riferimento
si ha che unaffinita f in coordinate si esprime nel modo seguente:

x0 = M x + c, M GLn (K), (2)

dove GLn (K) e il gruppo delle matrici n n invertibili a coefficienti in K.

3
Si puo scrivere tutto in forma piu compatta usando matrici (n + 1)
(n + 1), cioe:  0    
x M c x
= .
1 0 1 1
Se M = I, laffinita prende il nome di traslazione.
Consideriamo linsieme di tutte le affinita di AnK , e indichiamolo con
Af f (AnK ) o con GAn . Dimostriamo che e un gruppo rispetto alla compo-
sizione di applicazioni.
Visto che la scrittura dellaffinita e univocamente determinata dalla scelta
del sistema di riferimento, possiamo usare lespressione in coordinate (2).
Siano f e g due affinita date rispettivamente da

x0 = M x + c, x0 = N x + d.

Allora g f e data da x0 = N M x + N c + d. Poiche N M GLn (K), la


composizione g f GAn .
Lidentita del gruppo e chiaramente quella che corrisponde a M = I e
c = 0. Linversa di f e
x0 = M 1 x M 1 c.

Se f GAn , allora f manda un sottospazio affine L passante per P0 e


di giacitura U nel sottospazio affine passante per f (P0 ) e di giacitura (U )
- verificare.

Se L0 e parallelo a L1 , allora f (L0 ) e parallelo a f (L1 ). Infatti, lisomorfismo


conserva le inclusioni, da cui se U0 U1 , si ha che (U0 ) (U1 ).

Siano A, B, C tre punti allineati in AnK . Si definisce rapporto semplice


(ABC) = t K lo scalare t tale che

C A = t(C B).

Siano A0 , B 0 , C 0 i trasformati di A, B, C tramite f . Anchessi sono allineati


(perche?) e si ha

C 0 A0 = (C A) = (t(C B)) = t(C B) = t(C 0 B 0 ).

Cio significa che (A0 B 0 C 0 ) = (ABC).


Abbiamo appena fatto vedere che le affinita mandano sottospazi in sot-
tospazi, preservando il parallelismo e il rapporto semplice.