Sei sulla pagina 1di 20

CAPITOLO 4

CALCOLO DELLE MATRICI

May 4, 2000

1. Gruppo delle permutazioni.

Con questo paragrafo, iniziamo lo studio di alcune importanti proprietà dello


spazio delle matrici quadrate M (n), con n righe ed n colonne. In particolare, ci
interessa dimostrare che ad ogni matrice A ∈ M (n) è possibile associare un ben
preciso numero reale, detto determinante di A, tale che:
1. se A è la matrice MBB (T ) associata ad un’endomorfismo T : V → V rispetto
ad una base B, allora il ”determinante” di A è uguale a quello di ogni altra matrice
A′ = MB′ B′ (T ), in qualunque altra base B ′ ;
2. se A = MBB (T ) e B = MBB (S) sono due matrici associate a due endo-
morfismi S e T dello stesso spazio vettoriale, allora il determinante della matrice
MBB (S ◦ T ) è pari al prodotto del determinante di A e del determinante di B;
3. il determinante di A è nullo se e solo se A non è una matrice quadrata di
rango massimo.
Quando avremo compiutamente definito il determinante di una matrice vedremo
che esso soddisfa a tante altre proprietà, ma in un certo senso le tre che abbiamo
anticipato sono quelle che permettono la maggior parte delle applicazioni, sia in
Geometria Analitica che nella teoria dei sistemi di equazioni lineari.
La definizione del determinante di una matrice, per quanto non eccessivamente
complicata, richiede alcuni concetti preparatori che permetteranno poi di dipanare
dalla semplice definizione moltissime conseguenze. Questo paragrafo serve ad in-
trodurre alcuni di questi concetti.

Prendiamo l’insieme In dei primi n numeri interi:


In = {1, 2, . . . , n}
Si dice permutazione dell’insieme In (o permutazione di un insieme di n elementi)
una qualunque applicazione σ biunivoca dell’insieme In in sè. Si osservi, che se
si considera In come un insieme ordinato, ogni permutazione σ di In permette
di definire un nuovo ordine fra gli stessi elementi di In e, viceversa, ogni ordine
degli elementi di In corrisponde ad una permutazione σ. Per chiarirci le idee,
consideriamo l’applicazione
σ : {1, 2, 3} → {1, 2, 3} ,
Typeset by AMS-TEX
1
2 CAPITOLO IV

σ(1) = 3 , σ(2) = 1 , σ(3) = 2 .


σ è chiaramente una permutazione di I3 . D’altra parte, con essa possiamo ”or-
dinare” gli elementi di I3 dicendo che σ(i) deve essere considerato al posto i-esimo
per ogni i ∈ In . Perciò σ determina un ordine in cui 3 è il primo elemento, 1 è il
secondo elemento mentre 2 è il terzo elemento.
Nel seguito, useremo il simbolo Pn per indicare l’insieme di tutte le possibili
permutazioni dell’insieme In = {1, 2, . . . , n}.
Utilizzeremo poi anche il seguente tipo di notazione. Se vogliamo indicare breve-
mente la permutazione σ ∈ P4 tale che

σ(1) = 2 , σ(2) = 4 , σ(3) = 1 , σ(4) = 3 ,

scriveremo la seguente sequnza di interi:

σ = (2 4 1 3)

intendendo cioè che 2 è l’immagine di 1, 4 è l’immagine di 2 e cosı̀ via.


Cominciamo ora a studiare alcune proprietà dell’insieme Pn . Per prima cosa,
si osservi che se σ e τ sono due elementi di Pn , l’applicazione σ ◦ τ è ancora una
applicazione biunivoca di In in sè stesso ed è quindi un elemento di Pn . Ora, se
consideriamo la corrispondenza che ad ogni coppia σ e τ di permutazioni associa la
permutazione σ ◦ τ come una ”operazione” fra gli elementi di Pn , possimo dire che
tale operazione verifica le seguenti tre proprietà:
a) vale la legge associativa: se σ, τ e γ sono tre permutazioni di Pn allora

(σ ◦ τ ) ◦ γ = σ ◦ (τ ◦ γ)

(infatti
(σ ◦ τ ) ◦ γ(i) = σ(τ (γ(i))) = σ ◦ (τ ◦ γ)(i)
per ogni i ∈ In );
b) esiste un elemento neutro e tale che

σ◦e=e◦σ =σ

per ogni σ ∈ Pn (questo elemento non è altro che l’applicazione identità di In );


c) ogni permutazione σ ammette un elemento inverso (ovvero l’applicazione in-
versa σ −1 ) tale che
σ ◦ σ −1 = σ −1 ◦ σ = e
Detto per inciso, ogni insieme, su cui sia definita una operazione che verifica
queste tre proprietà, è detto gruppo rispetto a questa operazione.

(Per approfondire il concetto di gruppo, suggeriamo al lettore di cercare di rispon-


dere alle seguenti domande: uno spazio vettoriale è un gruppo rispetto all’ope-
razione +? L’insieme dei vettori liberi V è un gruppo rispetto all’operazione di
CAPITOLO IV 3

prodotto vettoriale? Avrebbe senso chiedersi se l’insieme dei vettori liberi è un


gruppo rispetto all”’operazione” di prodotto scalare?)

Si dice che una permutazione σ realizza una inversione su una coppia di numeri
(h, k) se si ha che
h < k e σ(h) > σ(k) .
Per esempio, le uniche inversioni che la permutazione σ = (2 4 1 3) ∈ P4 realizza
sono quelle sulle coppie di numeri

(1, 3) , (2, 3) , (2, 4) .

Infatti: σ(1) = 2 e σ(3) = 1 e quindi 1 < 3 ma σ(1) > σ(3); σ(2) = 4 e σ(3) = 1 e
quindi ancora 2 < 3 ma σ(2) > σ(3); σ(2) = 4 e σ(4) = 3 e perciò ancora una volta
2 < 4 ma σ(2) > σ(4).
Si osservi che, in pratica, le inversioni di σ = (2 4 1 3) possono essere trovate
cercando tutte le coppie nella quaterna ordinata (2 4 1 3) in cui, seguendo l’ordine di
posizione dato dalla quaterna, il primo elemento è un numero maggiore del secondo
elemento. In questo caso tali coppie sono solo (2, 1), (4, 1) e (4, 3). A questo punto,
si determinano le coppie di numeri che danno le posizioni degli elementi di tali
coppie; tali nuove coppie di numeri sono le immagini secondo σ −1 delle coppie
(2, 1), (4, 1) e (4, 3) e costituiscono le coppie su cui si è verificata un’inversione.
Più esplicitamente: il 2 sta nella 1a posizione e l’1 sta nella 3a posizione; quindi
(σ −1 (2) = 1, σ −1 (1) = 3) e questo significa che su (1, 3) si è verificata l’inversione
che ha portato a (σ(1), σ(3)) = (2, 1). Similmente, il 4 sta nella 2a posizione
mentre l’1 sta nella 3a posizione; quindi (2, 3) è la coppia di numeri si cui c’è stata
l’inversione che ha portato a (σ(2), σ(3)) = (4, 1). In modo analogo si trova che
(2, 4) è la coppia di numeri si cui c’è stata l’inversione che ha portato a (σ(2), σ(4)) =
(4, 3). Queste sono tutte e sole le inversioni di σ.
Chiameremo segno ε(σ) della permutazione σ il numero

ε(σ) = (−1)m(σ) (1.1)

dove m(σ) è il numero di tutte le inversioni che σ realizza. Una permutazione è


detta pari se m(σ) è pari e cioè se il segno ε(σ) è +1. La permutazione è invece
detta dispari in caso contrario.
Un modo piuttosto facile per calcolare il segno (ma non il numero delle inver-
sioni!) di una permutazione è il seguente:

ε(σ) = (−1)µ(σ) (1.2)

dove questa volta µ(σ) indica il numero di ”scambi” che bisogna operare per trasfor-
mare la sequenza di interi che rappresenta σ

(i1 i2 . . . in ) = σ

nella sequenza di partenza (1 2 3 . . . n). Ad esempio, se σ ∈ P6 è la permutazione


rappresentata come
σ = (3 5 2 1 4 6)
4 CAPITOLO IV

si può riottenere la sequenza di partenza tramite i seguenti scambi:

si scambi 1 con 3 : (3 5 2 1 4 6) 7→ (1 5 2 3 4 6)

5 con 4 : (1 5 2 3 4 6) 7→ (1 4 2 3 5 6)
4 con 2 : (1 4 2 3 5 6) 7→ (1 2 4 3 5 6)
4 con 3 : (1 2 4 3 5 6) 7→ (1 2 3 4 5 6)
In totale si sono effettuati 4 scambi: la parmutazione è pari ed il segno è +1.
Si ricordi anche che si possono ottenere due diversi numeri di scambi, a seconda
dell’ordine in cui si eseguono gli spostamenti, ma che comunque si ottiene sempre
uno ed un solo valore per il segno della permutazione.
La dimostrazione della (1.2) si basa sulla seguente proprietà di cui non diamo
dimostrazione, ma di cui il lettore potrà facilmente sincerarsi, applicandola in alcuni
esempi.
Proposizione 1.1. Per ogni coppia di permutazioni σ e τ su di un insieme di
n elementi si ha che
ε(σ ◦ τ ) = ε(σ)ε(τ ) (1.3)

Si osservi che effettuare uno ”scambio” fra i numeri i e j nella sequenza che
rappresenta una permutazione σ è la stessa cosa che considerare la permutazione
σ ′ = τ ◦ σ, dove τ è la permutazione

τ = (1 2 . . . j ... i . . . n)
i-esimo posto j-esimo posto

Il numero delle inversioni m(τ ) di τ è pari al numero delle coppie

(i, i + 1) , (i, i + 2) , . . . , (i, j)

(i + 1, j) , (i + 2, j) , . . . , (j − 1, j)
ovvero m(τ ) = j − i + (j − 1) − i = 2(j − i) − 1, che è un numero dipari. Quindi, ogni
scambio consiste nell’applicare dopo la permutazione σ una permutazione di segno
(-1). Poichè dopo un certo numero di scambi si ottiene la permutazione identica e
dal momento che il segno di quest’ultima è (+1), per la (1.3)

+1 = (−1)numero degli ”scambi” ε(σ) .

Moltiplicando a destra e a sinistra per (−1)numero degli ”scambi” si ottiene la (1.2).

Concludiamo questo paragrafo, osservando che la Proposizione 1.1 permette an-


che di dedurre che, per ogni permutazione σ, vale la

ε(σ −1 ) = ε(σ) (1.4)

Infatti, dalla (1.3), il segno (+1) della permutazione identica deve essere pari al
prodotto dei segni di σ e di σ −1 , da cui segue subito la (1.4).
CAPITOLO IV 5

2. Forme multilineari alternate; il determinante di n vettori.

Continuiamo con l’esposizione di concetti preparatori all’introduzione del deter-


minante.
Sia V uno spazio vettoriale su R. Abbiamo la seguente:

Definizione 2.1. Sia p un intero positivo. Una forma p-lineare su V è una


qualunque applicazione
ϕ: V × · · · × V → R ,
p volte

(v1 , v2 , . . . , vp ) 7→ ϕ(v1 , v2 , . . . , vp )
che è lineare in ogni argomento vi , i = 1, . . . , p.

In altre parole, ϕ è p-lineare se, per ogni intero i = 1, 2, . . . , p e per ogni vi , vi′ ∈ V
e k, k ′ ∈ R
ϕ(v1 , v2 , . . . , kvi + k ′ vi′ , . . . , vp ) =
kϕ(v1 , v2 , . . . , vi , . . . , vp ) + k ′ ϕ(v1 , v2 , . . . , vi′ , . . . , vp )
indipendentemente dalla scelta degli altri vettori v1 , v2 etc..
Un esempio di forma 3-lineare lo abbiamo di fatto già incontrato: si tratta del
prodotto misto di 3 vettori liberi. Infatti, sappiamo che, se v i e v ′i sono vettori
liberi,
(av 1 + bv ′1 ) ∧ v 2 · v 3 = av 1 ∧ v 2 · v 3 + bv ′1 ∧ v 2 · v 3
v 1 ∧ (av 2 + bv ′2 ) · v 3 = av 1 ∧ v 2 · v 3 + bv 1 ∧ v ′2 · v 3
v 1 ∧ v 2 · (av 3 + bv ′3 ) = av 1 ∧ v 2 · v 3 + bv 1 ∧ v 2 · v ′3
e questo mostra che è 3-lineare.

Definizione 2.2. Una forma p-lineare su V si dice antisimmetrica (o alternata)


se
ϕ(v1 , . . . , vp ) = 0 (2.1)
quando due argomenti vi e vj (i 6= j) sono uguali.
Si osservi che una p-forma è antisimmetrica secondo la Definizione 2.2 se e
soltanto se succede che

ϕ(v1 , . . . , vi , . . . , vj , . . . vp ) = −ϕ(v1 , . . . , vj , . . . , vi , . . . vp ) (2.2)

ovvero se e soltanto se cambia di segno quando si scambiano fra loro due degli
argomenti. Infatti, supponiamo che ϕ sia antisimmetrica e consideriamo come i-
esimo e come j-esimo argomento il vettore somma la somma u + w di due vettori
u, w ∈ V . Allora, per la (2.1) e per la p-linearità

0 = ϕ(v1 , . . . , (u + w) , . . . , (u + w) , . . . vp ) =
i-esimo posto j-esimo posto
6 CAPITOLO IV

ϕ(v1 , . . . , u ,..., u , . . . vp )+
i-esimo posto j-esimo posto

+ϕ(v1 , . . . , u ,..., w , . . . vp )+
i-esimo posto j-esimo posto

+ϕ(v1 , . . . , w ,..., u , . . . vp )+
i-esimo posto j-esimo posto

+ϕ(v1 , . . . , w ,..., w , . . . vp ) =
i-esimo posto j-esimo posto

ϕ(v1 , . . . , u ,..., w , . . . vp )+
i-esimo posto j-esimo posto

+ϕ(v1 , . . . , w ,..., u , . . . vp )
i-esimo posto j-esimo posto

da cui la (2.2). Viceversa, se lo i-esimo vettore vi = u è uguale al j-esimo, segue


dalla (2.2) che

ϕ(v1 , . . . , u ,..., u , . . . vp ) = −ϕ(v1 , . . . , u ,..., u , . . . vp ) = 0


i-esimo j-esimo i-esimo j-esimo

e quindi ϕ è antisimmetrica secondo la Definizione 2.2.

Un’altra importante condizione equivalete alla (2.1) è la seguente. Siano v1 , v2 ,


. . . , vp p-vettori di V . Allora, ϕ è antisimmetrica se e solo se per ogni σ ∈ Pp .

ϕ(v1 , . . . , vp ) = ε(σ)ϕ(vσ(1) , vσ(2) , . . . , vσ(p) ) . (2.3)

Infatti, è chiaro che se (2.3) deve valere per ogni permutazione, a maggior ragione
deve valere quando si esegue uno permutazione σ consistente solo nello scambiare
fra loro due vettori vi e vj . Dal momento che il segno di uno ”scambio” è ε(σ) = −1,
da (2.3) si ottiene immediatamente la (2.2) e quindi la (2.1). D’altra parte, se vale
la (2.1) (e quindi la (2.2)), si ha che

ϕ(vσ(1) , vσ(2) , . . . , vσ(p) ) = −ϕ(vσ′ (1) , vσ′ (2) , . . . , vσ′ (p) )

dove σ ′ è una permutazione che si ottiene dalla σ effettuando uno ”scambio” fra due
interi della sequenza che rappresenta σ. Se ci vogliono µ(σ) scambi per riportarla
alla sequenza di partenza, il valore di ϕ sull’insieme ordinato (vσ(1) , vσ(2) , . . . , vσ(p) )
sarà lo stesso di

ϕ(vσ(1) , vσ(2) , . . . , vσ(p) ) = (−1)µ(σ) ϕ(v1 , . . . , vp ) = ε(σ)ϕ(v1 , . . . , vp ) .

Moltiplicando a destra e a sinistra per ε(σ) si ottiene la (2.3) (si ricordi che ε(σ)ε(σ)
è sempre uguale a +1, dal momento che ε(σ) può solo essere ±1).

Sia ora V uno spazio vettoriale di dimensione n e sia B = {v1 , . . . , vn } una base
per V . Siano poi u1 , . . . , un altri n vettori di V e siano aij le componenti di ui
nella base B; in altre parole, siano gli aij gli unici numeri tali che

ui = ai1 v1 + · · · + ain vn

per i = 1, . . . , n.
CAPITOLO IV 7

Definizione 2.3. Si dice determinante della n-pla di vettori u1 , . . . , un rispetto


alla base B il numero reale
X
det(u1 , . . . , un ) = ε(σ)a1σ(1) a2σ(2) . . . anσ(n) (2.4)
B
σ∈Pn

dove la sommatoria è effettuata su tutte le permutazioni di Pn .

Esempio 2.4. Supponiamo dim V = 2 e che, nella base B = {v1 , v2 } i due vettori
u1 e u2 abbiano componenti

u1 = a11 v1 + a12 v2 , u2 = a21 v1 + a22 v2 .

Allora, le permutazioni di P2 sono unicamente quelle rappresentate dalle sequenze


(1 2) (cioè la permutazione identica) e σ = (2 1). Si osservi poi che ε(σ) = −1.
Quindi

det(u1 , u2 ) = a11 a22 + ε(σ)a1σ(1) a2σ(2) = a11 a22 − a12 a21 .


B

Esempio 2.5. Supponiamo dim V = 3 e che le componenti nella base B di tre


vettori u1 , u2 e u3 siano i numeri
 
a11 a12 a13
 a21 a22 a23  .
a31 a32 a33

D’altra parte le permutazioni di P3 sono quelle rappresentate dalle sequenze

(1 2 3) , (2 3 1) , (3 1 2) ,

(1 3 2) , (2 1 3) , (3 2 1) .

Si osservi che le prime tre sono permutazioni pari, mentre le ultime sono tutte
dispari. Di conseguenza

det(u1 , u2 , u3 ) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 −
B

− a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .

A questo punto possiamo dimostrare la seguente importante proprietà.


8 CAPITOLO IV

Proposizione 2.6. Per ogni permutazione τ ∈ Pn , si ha che


det(uτ (1) , uτ (2) , . . . , uτ (n) ) = ε(τ ) det(u1 , u2 , . . . , un ) (2.5)
B B

Dimostrazione. Si osservi che, tenendo fissa la permutazione τ , l’insieme delle


permutazioni del tipo
σ = σ′ ◦ τ , (2.6)
con σ ′ permutazione qualunque di Pn , coincide esattamente con tutto Pn . Infatti
una qualunque permutazione σ soddisfa l’uguaglianza (2.6), se si pone σ ′ = σ ◦ τ −1 .
Ora, per la definizione stessa del determinante e per la precedente osservazione,
abbiamo che
X
det(uτ (1) , uτ (2) , . . . , uτ (n) ) = ε(σ)aτ (1)σ(1) aτ (2)σ(2) . . . aτ (n)σ(n) =
B
σ∈Pn
X

= ε(σ ◦ τ )aτ (1)σ′ ◦τ (1) aτ (2)σ′ ◦τ (2) . . . aτ (n)σ′ ◦τ (n) =
σ′ ∈Pn
X
= ε(τ ) ε(σ ′ )aτ (1)σ′ ◦τ (1) aτ (2)σ′ ◦τ (2) . . . aτ (n)σ′ ◦τ (n) .
σ′ ∈Pn

A questo punto, possiamo riordinare i fattori di ciascun addendo della sommatoria


senza modificare il risultato e si ottiene che
X
det(uτ (1) , uτ (2) , . . . , uτ (n)) = ε(τ ) ε(σ ′ )a1σ′ (1) a2σ′ (2) . . . anσ′ (n) =
B
σ′ ∈Pn

= ε(τ ) det(u1 , u2 , . . . , un ) .
B

La (2.5) è così dimostrata.

Importante conseguenza della Proposizione 2.6 è il seguente:

Teorema 2.7. L’applicazione


det : V × · · · × V → R
B n volte

(u1 , . . . , un ) 7→ det(u1 , u2 , . . . , un )
B
è una forma n-lineare alternata.
Dimostrazione. Il fatto che detB sia n - lineare segue dal fatto che la formula
per
det(u1 , u2 , . . . , un )
B
è un polinomio di primo grado omogeneo rispetto alle componenti di ciascuno dei
vettori ui , i = 1, . . . , n ed è quindi lineare rispetto ad ogni argomento. Per vedere
che è una forma alternata, basta ricordarsi che il segno di una permutazione che
esegue uno ”scambio” fra due vettori è sempre (-1). Sicchè la Proposizione 2.6
implica che la formula (2.3) è sempre verificata.

Dal Teorema 2.7 segue come corollario il seguente.


CAPITOLO IV 9

Teorema 2.8. Se ϕ è una forma n-lineare alternata su V (con dim V = n),


allora è sempre della forma
ϕ = λ det ,
B

dove B = {v1 , . . . , vn } è una base di V e λ è il numero reale dato da

λ = ϕ(v1 , . . . , vn ) .

In altre parole, l’enunciato del teorema afferma che una forma n-lineare alternata
ϕ su uno spazio di dimensione n è univocamente determinata se e solo se si conosce
il valore di ϕ sulla n-pla formata dagli elementi di una base B.
Dimostrazione. Se le componenti di n vettori nella base B sono indicate dai
simboli aij , per via del fatto che ϕ è multilineare, possiamo scrivere che
X
ϕ(u1 , . . . , un ) = a1i1 a2i2 . . . anin ϕ(vi1 , vi2 , . . . , vin )
i1 ,...,in

dove la sommatoria è effettuata su tutti i possibili valori da 1 a n che possono


assumere gli indici ij . Si osservi comunque che il numero reale ϕ(vi1 , vi2 , . . . , vin ) è
nullo quando due numeri della sequenza (i1 , . . . , in ) sono uguali (in questo caso ci
sarebbero due argomenti uguali per ϕ), mentre è dato da

ε(σ)ϕ(v1 , v2 , . . . , vn )

in caso la sequenza (i1 , . . . , in ) sia uguale alla permutazione (σ(1), . . . , σ(n)) (vedi
la (2.3)). Di conseguenza
X
ϕ(u1 , . . . , un ) = ε(σ)a1σ(1) a2σ(2) . . . anσ(n) ϕ(v1 , v2 , . . . , vn ) =
σ∈Pn

= λ det(u1 , . . . , un ) .
B

Concludiamo lasciando al lettore, per esercizio, la verifica del seguente corollario


del Teorema 2.8.

Corollario 2.9. Il determinante detB di n vettori rispetto alla base B è l’unica


forma n-lineare alternata per cui il coefficiente λ dato dal Teorema 2.8 è pari a 1.
10 CAPITOLO IV

3. Determinante di una matrice quadrata.

Sia A una matrice quadrata n × n. Le righe R1 , R2 , . . . , Rn di A sono vettori di


Rn . Di conseguenza, possiamo finalmente introdurre la seguente:

Definizione 3.1. Si dice determinante della matrice A (e lo si indica con det A)


il determinante delle righe di A rispetto alla base canonica B = {e1 , e2 , . . . , en } di
Rn , cioè
det A = det(R1 , R2 , . . . , Rn ) (3.1)
B

Dalla definizione e dai teoremi del paragrafo precedente si ottiene immediata-


mente la seguente proposizione.

Proposizione 3.2. Il determinante di una matrice A gode delle seguenti pro-


prietà:
a) det(In ) = detB (e1 , . . . , en ) = 1 (con I si denota la matrice identità);
b) se si scambiano fra loro due righe di A si ottiene una nuova matrice A′ il
cui determinante è quello di A cambiato di segno; in particolare, se due righe di A
sono uguali, det A = 0;
c) è lineare rispetto ad ogni riga, e cioè, se la i-esima riga Ri di A è espressa
come
Ri = aX + bY
per due vettori X, Y ∈ Rn e due numeri reali a e b, allora

det A = det(R1 , . . . , aX + bY, . . . , Rn ) =


B

= a det(R1 , . . . , X, . . . , Rn ) + b det(R1 , . . . , Y, . . . , Rn ) .
B B

Inoltre, (per il Corollario 2.9) det è l’unica funzione dallo spazio delle matrici
quadrate M (n) in R che gode delle proprietà a) b) e c).

Le proprietà espresse dalla Proposizione 3.2 risultano particolarmente utili per


ottenere delle procedure di calcolo che siano più semplici di quelle date dalle (3.1)
e (2.4). Per arrivare a queste tecniche di calcolo, dovremo considerare il concetto
di complemento algebrico, che introdurremo fra breve.
Data una matrice A = (aij ) ∈ M (n) diremo sottomatrice quadrata di ordine q
una qualunque matrice A′ ∈ M (q) che si possa ottenere dalla matrice A cancellan-
done n − q righe ed n − q colonne. Ad esempio, se A è la matrice
 
1 2 3
A = 4 5 6
7 8 9
le sue sottomatrici di ordine 2 sono
     
1 2 1 3 2 3
4 5 4 6 5 6
CAPITOLO IV 11
     
1 2 1 3 2 3
7 8 7 9 8 9
     
4 5 4 6 5 6
7 8 7 9 8 9
Per ogni matrice quadrata A = (aij ) ∈ M (n) si dice complemento algebrico dell’e-
lemento aij di posto (i, j) (ovvero l’elemento che sta nel j-esimo posto della riga
i-esima)il determinante della sottomatrice quadrata di ordine n − 1, che si ottiene
eliminando da A la i-esima riga e la j-esima colonna, preceduto da (−1)i+j . Il
complemento algebrico di aij è in alcuni testi chiamato anche cofattore di aij ed è
in genere indicato con Aij .
Ad esempio, se A è la matrice
 
1 −1 3
A = 1 0 2 ,
3 1 1

il complemento algebrico A21 è pari a


 
−1 3
A21 = (−1)2+1 det = −(−1 − 3) = 4 .
1 1

Vale dunque il seguente

Teorema 3.3 (Prima regola di Laplace). Data una matrice A ∈ M (n) ed


una riga Ri = (ai1 , . . . , ain ) di A, si ha che il determinante è pari alla somma

det A = ai1 Ai1 + · · · + ain Ain (3.2)

dove Aik indica il complemento algebrico di aik (nota bene: ovviamente il risultato
non dipende dalla scelta della riga).

Si osservi che per via della prima regola di Laplace, il calcolo del determinante
di una matrice di ordine n può ricondursi al calcolo di n determinanti di matrici
n − 1. E ciascuno di questi ultimi determinanti può calcolarsi tramite il computo di
determinanti di matrici di ordine n − 2, e cosı̀ via, fino a ridursi a calcolare alcuni
determinanti di matrici di ordine 2: in conclusione, basta sapere come calcolare il
determinante di matrici 2 × 2 per calcolare tutti gli altri.

Dimostrazione. Per semplicità di notazione, dimostreremo il teorema nel caso


in cui la riga prescelta sia R1 . Ma gli stessi argomenti funzionano ugualmente nel
caso di una qualunque altra riga. Sia

R1 = (a11 , a12 , . . . , a1n ) = a11 e1 + a12 e2 + · · · + a1n en

dove e1 , . . . , en sono gli elementi della base canonica B. Per la n-linearità della
funzione determinante abbiamo che

det A = det(R1 , R2 , . . . , Rn ) =
B
12 CAPITOLO IV

= a11 det(e1 , R2 , . . . , Rn ) + a12 det(e2 , R2 , . . . , Rn ) + · · · + a1n det(en , R2 , . . . , Rn )


B B B

Per dimostrare la (3.2) basta far vedere che ogni singolo fattore della forma

det(ek , R2 , . . . , Rn ) (3.3)
B

è esattamente il complemento algebrico A1k .


Ora, per ogni riga di A,

Rj = (aj1 , aj2 , . . . , ajn ) j 6= 1


(k)
vogliamo indicare con il simbolo Rj la nuova riga

(k)
Rj = (aj1 , aj2 , . . . , aj(k−1) , 0, aj(k−1) , . . . , ajn ) .

Dal momento che ogni determinante del tipo detB (ek , R2 , . . . , ek , . . . , Rn ) è nullo
(ci sono due righe uguali), possiamo scrivere che

det(ek , R2 , R3 , . . . , Rn ) =
B

= det(ek , R2 , R3 , . . . , Rn ) − a2k det(ek , ek , R3 , . . . , Rn )−


B B

−a3k det(ek , R2 , ek , . . . , Rn ) − · · · − ank det(ek , R2 , R3 , . . . , ek ) =


B B
(k) (k)
= det(ek , R2 , R3 , . . . , Rn(k) ) (3.4)
B

Consideriamo ora il sottospazio W di Rn definito come l’insieme delle combinazioni


lineari
W = L(e1 , . . . , ek−1 , ek+1 , . . . , en )
e indichiamo con C la base di W data da {e1 , . . . , ek−1 , ek+1 , . . . , en }. Consideriamo
poi la forma n − 1-lineare alternata su W definita come
def
ϕ(u1 , . . . , un−1 ) = det(ek , u1 , . . . , un−1 )
B

Per il Teorema 2.8, sappiamo che

ϕ(u1 , . . . , un−1 ) = λ det(u1 , . . . , un−1 ) ,


C

dove
λ = ϕ(e1 , . . . , ek−1 , ek+1 , . . . , en ) =
det(ek , e1 , . . . , ek−1 , ek+1 , . . . , en ) = (−1)k−1 det(e1 , . . . , en ) =
B B
k−1 k+1
= (−1) × 1 = (−1) .
Dunque,
(k) (k)
det(ek , R2 , R3 , . . . , Rn ) = det(ek , R2 , R3 , . . . , Rn(k) ) =
B B
CAPITOLO IV 13

(k) (k) (k)


= ϕ(R2 , R3 , . . . , Rn(k) ) = (−1)k+1 det(R2 , . . . , Rn(k) ) .
C
A questo punto, per concludere che ogni fattore del tipo (3.3) è un complemento
algebrico, è sufficiente realizzare che
(k)
det(R2 , . . . , Rn(k) )
C
è esattamente il determinante della matrice di n − 1 righe ed n − 1 colonnne che si
ottiene eliminando dalla matrice A la prima riga e la k-esima colonna. Lasciamo al
lettore questa verifica.

Dalla prima regola di Laplace, si ottiene il seguente


Teorema 3.4 (Seconda regola di Laplace). Se si moltiplicano gli elementi
aik della riga Ri per i complementi algebrici Ajk di un’altra riga Rj e si sommano
i prodotti, si ottiene 0. In altre parole
Xn
aik Ajk = 0 se i 6= j (3.5)
k=1

Dimostrazione. Si osservi che


ai1 Aj1 + ai2 Aj2 + · · · + ain Ajn
coincide con il determinante di una matrice A′ in cui si è sostituita la j-esima riga
di A con la riga Ri . D’altra parte questa nuova matrice A′ possiede la i-esima e la
j-esima riga uguali e quindi il suo determinante deve essere nullo.

Corollario 3.5. Se A = (aij ) ∈ M (n) è una matrice quadrata di ordine n e se


Ac è la matrice Ac = (Aij ), avente come coefficienti i complementi algebrici degli
elementi di A, allora
A(Ac )T = (Ac )T A = det(A)I (3.6)
dove I è la matrice identità e (Ac )T è la matrice trasposta di Ac .
Dimostrazione. Indichiamo con B = (bij ) la matrice (Ac )T e con C = (cij ) la
matrice A(Ac )T . Dal momento che B è una matrice trasposta, abbiamo che
bij = Aji
e per la regola del prodotto righe per colonne fra matrici, ciascun elemento cij è
dato dalla sommatoria
Xn n
X
cij = aik bkj = aik Ajk .
k=1 k=1
Per le regole di Laplace, possiamo concludere che cij = 0 se i 6= j, mentre cii = det A
per ogni i = 1, . . . , n. Da questo segue che C = det AI. Lo stesso risultato si ottiene
se si pone che C = (Ac )T A.

Concludiamo ora con una proposizione che mostra come tutti gli enunciati prece-
denti sono validi anche se si considerano le colonne di una matrice invece che le sue
righe.
14 CAPITOLO IV

Proposizione 3.6. Per ogni matrice A ∈ M (n),

det A = det AT (3.7)

dove AT indica la matrice trasposta di A.


Dimostrazione. Indichiamo con bij gli elementi della matrice trasposta AT .
Se aij sono gli elementi di A, per definizione abbiamo che

bij = aji .

Quindi, per la (2.4),


X
det AT = ε(σ)b1σ(1) b2σ(2) . . . bnσ(n) =
σ∈Pn

X
= ε(σ)aσ(1)1 aσ(2)2 . . . aσ(n)n =
σ∈Pn
X
= ε(σ)aσ(1)σ−1 ◦σ(1) aσ(2)σ−1 ◦σ(2) . . . aσ(n)σ−1 ◦σ(n) =
σ∈Pn
X
= ε(σ)a1σ−1 (1) a2σ−1 (2) . . . anσ−1 (n)
σ∈Pn

dove nell’ultimo passaggio si è utilizzato il fatto che in ogni singolo addendo si


poteva cambiare l’ordine dei fattori. Si ricordi ora che l’insieme delle permutazioni
del tipo γ = σ −1 coincide con tutto Pn (infatti, ogni permutazione ammette una
permutazione inversa) e che ε(σ) = ε(σ −1 ). Perciò possiamo affermare che
X
det AT = ε(γ)a1γ(1) a2γ(2) . . . anγ(n) = det A ,
γ∈Pn

e questo conclude la dimostrazione.

Abbiamo cosı̀ ottenuto che:

Corollario 3.7. Tutti gli enunciati sulle proprietà del determinante finora
trovati sono ancora veri se si sostituisce ovunque la parola ”colonna” alla parola
”riga”.
CAPITOLO IV 15

4. Metodo pratico per il calcolo del determinante.

Partendo dalla definizione di determinante di una matrice A ∈ M (n) e dalle


proprietà delle forme multilineari alternate, abbiamo ottenuto da un lato tre im-
portanti proprietà del determinante (Proposizione 3.2), e dall’altro una regola di
calcolo (regola di Laplace) che permette sempre di ridursi al solo computo di de-
terminanti di matrici 2 × 2. Vogliamo mostare come, utilizzando in modo accorto
questi risultati, si possa ulteriormente ricondurre il calcolo ad un numero molto
basso di somme e di prodotti.

Prima di tutto, introduciamo la definizione di matrice trangolare.


Definizione 4.1. Una matrice quadrata A = (aij ) ∈ M (n) è detta triangolare
superiore (risp. triangolare inferiore) se aij = 0 per tutte le coppie i e j con i > j
(risp. con i < j)
In altre parole, una matrice A viene detta triangolare superiore se risulta del
tipo
a11 a12 a13 ... a1n
 
 0 a22 a23 ... a2n 
0 0 a33 ... a3n 
 
A=  . (4.1)
 .. .. .. .. 
. . . 
0 0 0 . . . ann
mentre è trangolare inferiore se è del tipo
a11 0 0 ... 0
 
 a21 a22 0 ... 0 
a a32 a33 ... 0
 
A=  31
 (4.2)
 ... .. .. .. 
. . . 
an1 an2 an3 . . . ann
Abbiamo allora che
Proposizione 4.2. Il determinante di una matrice A triangolare (superiore od
inferiore) è pari al prodotto degli elementi che stanno sulla diagonale, cioè

det A = a11 a22 a33 . . . ann (4.3)

Dimostrazione. Se A è del tipo (4.1), calcoliamo det A secondo la regola di


Laplace applicata alla prima colonna; dal momento che nella prima colonna tutti i
termini diversi da a11 sono nulli, abbiamo che

det A = a11 A11

Il complemento algebrico A11 è pari al determinante della matrice A′ che si ottiene


eliminando la prima riga e la prima colonna. Anche questa matrice A′ è triango-
lare superiore ed il suo determinante può essere calcolato sviluppando la regola di
Laplace ancora sulla prima colonna. Si ottiene che

det A = a11 a22 A′22


16 CAPITOLO IV

e cosı̀ via fino ad ottenere la (4.3). Analogamente si dimostra l’enunciato per le


triangolari inferiori.

Ora, sia A una matrice quadrata qualsiasi e siano R1 , R2 , . . . , Rn le sue righe.


Per mettere tipograficamente in evidenza le sue righe scriveremo che

R1
 
 R2 
A=
 ... 
 .

Rn

Si ricordi che le operazioni che permettono di passare dalla matrice A ad una matrice
B ridotta per righe sono le seguenti:
α) scambio di due righe; cioè, si passa dalla matrice

R1


 R2 
 . 
 . 
 . 
 Ri 
 
A= .
 .. 
 (4.4)
 
R 
 j
 . 
 . 
.
Rn

alla matrice
R1

 R2 
 . 
 . 
 . 
R 

 j
A =
 .. 
 (4.5)
 . 
 Ri 
 
 . 
 . 
.
Rn

Si osservi che, per la Proposizione 3.2, i determinanti delle due matrici (4.4) e (4.5)
sono legati dalla relazione
det A = (−1) det A′

β) sostituzione di una riga Rj con una combinazione lineare del tipo


X
µRj + λk Rk
k6=j
CAPITOLO IV 17

con un coefficiente µ diverso da 0 (il più delle volte si utilizza µ = 1); cioè, si passa
dalla matrice (4.4) alla matrice
 
R1
 R2 
..
 
.
 
A′ = 
 
P
 µRj + k6=j λk Rk 
 (4.6)
 
 .. 
 . 
Rn

In questo caso il determinante della nuova matrice A′ è


 
R  R1 R 
1 1
 R2 
 R 2 
 R2 
..
 
 .   . 
 ..  X  .. 

.

 

det A = µ det  + λk det  = µ det R =
     
 Rj 
 R
 j-esimak riga 

 j
 .  k6=j    . 
 . 
.
 ..   . 
.
 . 
Rn Rn R n

= µ det A ,
perchè gli ultimi addendi della seconda eguaglianza sono nulli, in quanto determi-
nanti di matrici con due righe uguali.
Riassumendo, se si esegue un cambiamento del tipo α), possiamo dire che det A =
− det A′ , mentre se si esegue un cambiamento del tipo β), det A = µ1 det A′ , dove,
in entrambi i casi, A′ è matrice che si ottiene in base alla operazione prescelta.
Dopo un’opportuna sequenza di operazioni del tipo α) o del tipo β) sappiamo che
la matrice B che otteniamo è ridotta per righe e quindi triangolare superiore; di
conseguenza, det A potrà essere calcolato tramite la formula
1 1 1 1
det A = (−1)n(A) ... det B = (−1)n(A) . . . b11 b22 . . . bnn
µ1 µh(A) µ1 µh(A)

dove n(A) è il numero di scambi riga che si sono effettuati durante la riduzione per
righe e i coefficienti µi sono quelli che compaiono nelle operazioni di tipo β) durante
la stessa riduzione.

Esempio 4.3. Calcoliamo il determinante della matrice


2 −2 4 2
 
3 1 1 2 
A=
2 2 −2 1

2 0 2 −2

Riduciamo A per righe, incominciando con le sostituzioni

R2 7→ 2R2 − 3R1
18 CAPITOLO IV

R3 7→ R3 − R1
R4 7→ R4 − R1
Sono tutte sostituzioni del tipo β) con coefficienti, la prima con µ = 2 e le altre con
µ = 1. Quindi
1
det A = det A(1)
2
dove
2 −2 4 2
 
 0 8 −10 −2 
A(1) =   .
0 4 −6 −1
0 2 −2 −4
Effettuiamo ora lo scambio di R2 con R4 . Si ha dunque che

1
det A = − det A(2)
2

dove A(2) è la matrice

2 −2 4 2
 
0 2 −2 −4 
A(2) = .
0 4 −6 −1

0 8 −10 −2

Poi effettuiamo le sostituzioni

R3 7→ R3 − 2R2

R4 7→ R4 − 4R2
ed otteniamo che
1
det A = − det A(3)
2
dove
2 −2 4 2
 
0 2 −2 −4 
A(3) =
0 0 −2 7

0 0 −2 14
Se si sostituisce R4 con R4 −R3 si ottiene la matrice A(4) che è triangolare superiore
e si ha che
1 1
det A = − det A(4) = − × 2 × 2 × (−2) × 7 = 28 .
2 2
CAPITOLO IV 19

5. Determinante del prodotto di due matrici. Matrici invertibili.

Date due matrici quadrate A e B di ordine n, è possibile considerare la loro


somma A + B, il prodotto λA di A per uno scalare λ ed il prodotto righe per
colonne AB. Vediamo come si possa calcolare il determinante di queste nuove
matrici a partire dai determinanti det A e det B.

La prima cosa, cui bisogna veramente prestare attenzione, è che non esiste alcuna
regola che metta in relazione det(A+ B) con det A e det B. In particolare, si ricordi
che
det(A + B) 6= det A + det B
in generale (se per qualche coppia di matrici l’uguaglianza si verifica, ciò è dovuto
solo a una circostanza fortuita!).

È invece possibile calcolare det(λA). Infatti λA è una matrice che si ottiene


moltiplicando tutte le righe R1 , . . . , Rn per il coefficiente λ. Per la n-linearità del
determinante, si ottiene così che

det(λA) = λn det A (5.1)

Infine, per quanto riguarda il determinante di AB, si ha il seguente importante


teorema.

Teorema 5.1 (Teorema del Binet). Siano A e B due matrici quadrate di


ordine n. Allora
det(AB) = (det A)(det B)

Dimostrazione. Sia C = (cij ) = AB. Per definizione del prodotto righe per
colonne abbiamo che

cij = ai1 b1j + ai2 b2j + . . . ain bnj

Di conseguenza, se indichiamo con C1 , C2 , . . . , Cn le righe di C e con B1 , B2 , . . . ,


Bn le righe di B, possiamo anche scrivere che

Ci = (ci1 , ci2 , . . . , cin ) =

= (ai1 b11 + · · · + ain bn1 , ai1 b12 + · · · + ain bn2 , . . . , ai1 b1n + · · · + ain bnn ) =
= ai1 (b11 , b12 , . . . , b1n ) + ai2 (b21 , b22 , . . . , b2n ) + · · · + ain (bn1 , bn2 , . . . , bnn ) =
= ai1 B1 + ai2 B2 + · · · + ain Bn .
Segue allora che, per la multilinearità del determinante

det C = det(C1 , C2 , . . . , Cn ) =
B
20 CAPITOLO IV
X
= a1i1 a2i2 . . . anin det(Bi1 , Bi2 , . . . , Bin ) .
B
i1 ...in

In quest’ultima sommatoria sono nulli tutti i termini in cui si debba calcolare un


determinante in cui compaiono due righe uguali. Perciò interessano solo i termini
in cui (i1 , i2 , . . . , in ) è una permutazione dei numeri da 1 ad n. Di conseguenza,
possiamo scrivere che
X
det C = a1σ(1) a2σ(2) . . . anσ(n) det(Bσ(1) , Bσ(2) , . . . , Bσ(n) ) =
B
σ∈Pn

!
X
a1σ(1) a2σ(2) . . . anσ(n) ε(σ) det(B1 , B2 , . . . , Bn ) =
B
σ∈Pn

= det A det B
e questo conclude la dimostrazione.

Il teorema del Binet ammette una immediata applicazione nel seguente corollario.
Ricordiamo che una matrice A ∈ M (n) è detta invertibile se esiste una matrice B
(detta l’inversa di A) tale che AB = BA = I, dove I è la matrice identità.

Corollario 5.2. Se A è una matrice invertibile, allora det A 6= 0. In partico-


lare, il determinante della matrice inversa B è pari a det1 A .
Dimostrazione. Se A è invertibile e B è la sua matrice inversa, si ha che

1 = det(I) = det(AB) = det A det B

da cui segue l’enunciato.

Ci si potrebbe chiedere se l’enunciato del Corollario 5.2 si possa inverirtire e cioè:


è vero che se il determinante di una matrice è diverso da zero allora la matrice è
invertibile? La risposta è sı̀ e si basa sul Corollario 3.5, che abbiamo già dimostrato.
Infatti, se det A 6= 0, possiamo calcolare la matrice B definita come

1
B= (Ac )T
det A

dove Ac è la matrice dei complementi algebrici di A. Dalla (3.6), sappiamo che

1 1
AB = (A(Ac )T ) = (det A)I = I ,
det A det A
1 1
BA = ((Ac )T A) = (det A)I = I .
det A det A
Quindi B è la matrice inversa di A ed A è invertibile.

Potrebbero piacerti anche