Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
May 4, 2000
σ = (2 4 1 3)
(σ ◦ τ ) ◦ γ = σ ◦ (τ ◦ γ)
(infatti
(σ ◦ τ ) ◦ γ(i) = σ(τ (γ(i))) = σ ◦ (τ ◦ γ)(i)
per ogni i ∈ In );
b) esiste un elemento neutro e tale che
σ◦e=e◦σ =σ
Si dice che una permutazione σ realizza una inversione su una coppia di numeri
(h, k) se si ha che
h < k e σ(h) > σ(k) .
Per esempio, le uniche inversioni che la permutazione σ = (2 4 1 3) ∈ P4 realizza
sono quelle sulle coppie di numeri
Infatti: σ(1) = 2 e σ(3) = 1 e quindi 1 < 3 ma σ(1) > σ(3); σ(2) = 4 e σ(3) = 1 e
quindi ancora 2 < 3 ma σ(2) > σ(3); σ(2) = 4 e σ(4) = 3 e perciò ancora una volta
2 < 4 ma σ(2) > σ(4).
Si osservi che, in pratica, le inversioni di σ = (2 4 1 3) possono essere trovate
cercando tutte le coppie nella quaterna ordinata (2 4 1 3) in cui, seguendo l’ordine di
posizione dato dalla quaterna, il primo elemento è un numero maggiore del secondo
elemento. In questo caso tali coppie sono solo (2, 1), (4, 1) e (4, 3). A questo punto,
si determinano le coppie di numeri che danno le posizioni degli elementi di tali
coppie; tali nuove coppie di numeri sono le immagini secondo σ −1 delle coppie
(2, 1), (4, 1) e (4, 3) e costituiscono le coppie su cui si è verificata un’inversione.
Più esplicitamente: il 2 sta nella 1a posizione e l’1 sta nella 3a posizione; quindi
(σ −1 (2) = 1, σ −1 (1) = 3) e questo significa che su (1, 3) si è verificata l’inversione
che ha portato a (σ(1), σ(3)) = (2, 1). Similmente, il 4 sta nella 2a posizione
mentre l’1 sta nella 3a posizione; quindi (2, 3) è la coppia di numeri si cui c’è stata
l’inversione che ha portato a (σ(2), σ(3)) = (4, 1). In modo analogo si trova che
(2, 4) è la coppia di numeri si cui c’è stata l’inversione che ha portato a (σ(2), σ(4)) =
(4, 3). Queste sono tutte e sole le inversioni di σ.
Chiameremo segno ε(σ) della permutazione σ il numero
dove questa volta µ(σ) indica il numero di ”scambi” che bisogna operare per trasfor-
mare la sequenza di interi che rappresenta σ
(i1 i2 . . . in ) = σ
si scambi 1 con 3 : (3 5 2 1 4 6) 7→ (1 5 2 3 4 6)
5 con 4 : (1 5 2 3 4 6) 7→ (1 4 2 3 5 6)
4 con 2 : (1 4 2 3 5 6) 7→ (1 2 4 3 5 6)
4 con 3 : (1 2 4 3 5 6) 7→ (1 2 3 4 5 6)
In totale si sono effettuati 4 scambi: la parmutazione è pari ed il segno è +1.
Si ricordi anche che si possono ottenere due diversi numeri di scambi, a seconda
dell’ordine in cui si eseguono gli spostamenti, ma che comunque si ottiene sempre
uno ed un solo valore per il segno della permutazione.
La dimostrazione della (1.2) si basa sulla seguente proprietà di cui non diamo
dimostrazione, ma di cui il lettore potrà facilmente sincerarsi, applicandola in alcuni
esempi.
Proposizione 1.1. Per ogni coppia di permutazioni σ e τ su di un insieme di
n elementi si ha che
ε(σ ◦ τ ) = ε(σ)ε(τ ) (1.3)
Si osservi che effettuare uno ”scambio” fra i numeri i e j nella sequenza che
rappresenta una permutazione σ è la stessa cosa che considerare la permutazione
σ ′ = τ ◦ σ, dove τ è la permutazione
τ = (1 2 . . . j ... i . . . n)
i-esimo posto j-esimo posto
(i + 1, j) , (i + 2, j) , . . . , (j − 1, j)
ovvero m(τ ) = j − i + (j − 1) − i = 2(j − i) − 1, che è un numero dipari. Quindi, ogni
scambio consiste nell’applicare dopo la permutazione σ una permutazione di segno
(-1). Poichè dopo un certo numero di scambi si ottiene la permutazione identica e
dal momento che il segno di quest’ultima è (+1), per la (1.3)
Infatti, dalla (1.3), il segno (+1) della permutazione identica deve essere pari al
prodotto dei segni di σ e di σ −1 , da cui segue subito la (1.4).
CAPITOLO IV 5
(v1 , v2 , . . . , vp ) 7→ ϕ(v1 , v2 , . . . , vp )
che è lineare in ogni argomento vi , i = 1, . . . , p.
In altre parole, ϕ è p-lineare se, per ogni intero i = 1, 2, . . . , p e per ogni vi , vi′ ∈ V
e k, k ′ ∈ R
ϕ(v1 , v2 , . . . , kvi + k ′ vi′ , . . . , vp ) =
kϕ(v1 , v2 , . . . , vi , . . . , vp ) + k ′ ϕ(v1 , v2 , . . . , vi′ , . . . , vp )
indipendentemente dalla scelta degli altri vettori v1 , v2 etc..
Un esempio di forma 3-lineare lo abbiamo di fatto già incontrato: si tratta del
prodotto misto di 3 vettori liberi. Infatti, sappiamo che, se v i e v ′i sono vettori
liberi,
(av 1 + bv ′1 ) ∧ v 2 · v 3 = av 1 ∧ v 2 · v 3 + bv ′1 ∧ v 2 · v 3
v 1 ∧ (av 2 + bv ′2 ) · v 3 = av 1 ∧ v 2 · v 3 + bv 1 ∧ v ′2 · v 3
v 1 ∧ v 2 · (av 3 + bv ′3 ) = av 1 ∧ v 2 · v 3 + bv 1 ∧ v 2 · v ′3
e questo mostra che è 3-lineare.
ovvero se e soltanto se cambia di segno quando si scambiano fra loro due degli
argomenti. Infatti, supponiamo che ϕ sia antisimmetrica e consideriamo come i-
esimo e come j-esimo argomento il vettore somma la somma u + w di due vettori
u, w ∈ V . Allora, per la (2.1) e per la p-linearità
0 = ϕ(v1 , . . . , (u + w) , . . . , (u + w) , . . . vp ) =
i-esimo posto j-esimo posto
6 CAPITOLO IV
ϕ(v1 , . . . , u ,..., u , . . . vp )+
i-esimo posto j-esimo posto
+ϕ(v1 , . . . , u ,..., w , . . . vp )+
i-esimo posto j-esimo posto
+ϕ(v1 , . . . , w ,..., u , . . . vp )+
i-esimo posto j-esimo posto
+ϕ(v1 , . . . , w ,..., w , . . . vp ) =
i-esimo posto j-esimo posto
ϕ(v1 , . . . , u ,..., w , . . . vp )+
i-esimo posto j-esimo posto
+ϕ(v1 , . . . , w ,..., u , . . . vp )
i-esimo posto j-esimo posto
Infatti, è chiaro che se (2.3) deve valere per ogni permutazione, a maggior ragione
deve valere quando si esegue uno permutazione σ consistente solo nello scambiare
fra loro due vettori vi e vj . Dal momento che il segno di uno ”scambio” è ε(σ) = −1,
da (2.3) si ottiene immediatamente la (2.2) e quindi la (2.1). D’altra parte, se vale
la (2.1) (e quindi la (2.2)), si ha che
dove σ ′ è una permutazione che si ottiene dalla σ effettuando uno ”scambio” fra due
interi della sequenza che rappresenta σ. Se ci vogliono µ(σ) scambi per riportarla
alla sequenza di partenza, il valore di ϕ sull’insieme ordinato (vσ(1) , vσ(2) , . . . , vσ(p) )
sarà lo stesso di
Moltiplicando a destra e a sinistra per ε(σ) si ottiene la (2.3) (si ricordi che ε(σ)ε(σ)
è sempre uguale a +1, dal momento che ε(σ) può solo essere ±1).
Sia ora V uno spazio vettoriale di dimensione n e sia B = {v1 , . . . , vn } una base
per V . Siano poi u1 , . . . , un altri n vettori di V e siano aij le componenti di ui
nella base B; in altre parole, siano gli aij gli unici numeri tali che
ui = ai1 v1 + · · · + ain vn
per i = 1, . . . , n.
CAPITOLO IV 7
Esempio 2.4. Supponiamo dim V = 2 e che, nella base B = {v1 , v2 } i due vettori
u1 e u2 abbiano componenti
(1 2 3) , (2 3 1) , (3 1 2) ,
(1 3 2) , (2 1 3) , (3 2 1) .
Si osservi che le prime tre sono permutazioni pari, mentre le ultime sono tutte
dispari. Di conseguenza
det(u1 , u2 , u3 ) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 −
B
= ε(τ ) det(u1 , u2 , . . . , un ) .
B
(u1 , . . . , un ) 7→ det(u1 , u2 , . . . , un )
B
è una forma n-lineare alternata.
Dimostrazione. Il fatto che detB sia n - lineare segue dal fatto che la formula
per
det(u1 , u2 , . . . , un )
B
è un polinomio di primo grado omogeneo rispetto alle componenti di ciascuno dei
vettori ui , i = 1, . . . , n ed è quindi lineare rispetto ad ogni argomento. Per vedere
che è una forma alternata, basta ricordarsi che il segno di una permutazione che
esegue uno ”scambio” fra due vettori è sempre (-1). Sicchè la Proposizione 2.6
implica che la formula (2.3) è sempre verificata.
λ = ϕ(v1 , . . . , vn ) .
In altre parole, l’enunciato del teorema afferma che una forma n-lineare alternata
ϕ su uno spazio di dimensione n è univocamente determinata se e solo se si conosce
il valore di ϕ sulla n-pla formata dagli elementi di una base B.
Dimostrazione. Se le componenti di n vettori nella base B sono indicate dai
simboli aij , per via del fatto che ϕ è multilineare, possiamo scrivere che
X
ϕ(u1 , . . . , un ) = a1i1 a2i2 . . . anin ϕ(vi1 , vi2 , . . . , vin )
i1 ,...,in
ε(σ)ϕ(v1 , v2 , . . . , vn )
in caso la sequenza (i1 , . . . , in ) sia uguale alla permutazione (σ(1), . . . , σ(n)) (vedi
la (2.3)). Di conseguenza
X
ϕ(u1 , . . . , un ) = ε(σ)a1σ(1) a2σ(2) . . . anσ(n) ϕ(v1 , v2 , . . . , vn ) =
σ∈Pn
= λ det(u1 , . . . , un ) .
B
= a det(R1 , . . . , X, . . . , Rn ) + b det(R1 , . . . , Y, . . . , Rn ) .
B B
Inoltre, (per il Corollario 2.9) det è l’unica funzione dallo spazio delle matrici
quadrate M (n) in R che gode delle proprietà a) b) e c).
dove Aik indica il complemento algebrico di aik (nota bene: ovviamente il risultato
non dipende dalla scelta della riga).
Si osservi che per via della prima regola di Laplace, il calcolo del determinante
di una matrice di ordine n può ricondursi al calcolo di n determinanti di matrici
n − 1. E ciascuno di questi ultimi determinanti può calcolarsi tramite il computo di
determinanti di matrici di ordine n − 2, e cosı̀ via, fino a ridursi a calcolare alcuni
determinanti di matrici di ordine 2: in conclusione, basta sapere come calcolare il
determinante di matrici 2 × 2 per calcolare tutti gli altri.
dove e1 , . . . , en sono gli elementi della base canonica B. Per la n-linearità della
funzione determinante abbiamo che
det A = det(R1 , R2 , . . . , Rn ) =
B
12 CAPITOLO IV
Per dimostrare la (3.2) basta far vedere che ogni singolo fattore della forma
det(ek , R2 , . . . , Rn ) (3.3)
B
(k)
Rj = (aj1 , aj2 , . . . , aj(k−1) , 0, aj(k−1) , . . . , ajn ) .
Dal momento che ogni determinante del tipo detB (ek , R2 , . . . , ek , . . . , Rn ) è nullo
(ci sono due righe uguali), possiamo scrivere che
det(ek , R2 , R3 , . . . , Rn ) =
B
dove
λ = ϕ(e1 , . . . , ek−1 , ek+1 , . . . , en ) =
det(ek , e1 , . . . , ek−1 , ek+1 , . . . , en ) = (−1)k−1 det(e1 , . . . , en ) =
B B
k−1 k+1
= (−1) × 1 = (−1) .
Dunque,
(k) (k)
det(ek , R2 , R3 , . . . , Rn ) = det(ek , R2 , R3 , . . . , Rn(k) ) =
B B
CAPITOLO IV 13
Concludiamo ora con una proposizione che mostra come tutti gli enunciati prece-
denti sono validi anche se si considerano le colonne di una matrice invece che le sue
righe.
14 CAPITOLO IV
bij = aji .
X
= ε(σ)aσ(1)1 aσ(2)2 . . . aσ(n)n =
σ∈Pn
X
= ε(σ)aσ(1)σ−1 ◦σ(1) aσ(2)σ−1 ◦σ(2) . . . aσ(n)σ−1 ◦σ(n) =
σ∈Pn
X
= ε(σ)a1σ−1 (1) a2σ−1 (2) . . . anσ−1 (n)
σ∈Pn
Corollario 3.7. Tutti gli enunciati sulle proprietà del determinante finora
trovati sono ancora veri se si sostituisce ovunque la parola ”colonna” alla parola
”riga”.
CAPITOLO IV 15
R1
R2
A=
...
.
Rn
Si ricordi che le operazioni che permettono di passare dalla matrice A ad una matrice
B ridotta per righe sono le seguenti:
α) scambio di due righe; cioè, si passa dalla matrice
R1
R2
.
.
.
Ri
A= .
..
(4.4)
R
j
.
.
.
Rn
alla matrice
R1
R2
.
.
.
R
′
j
A =
..
(4.5)
.
Ri
.
.
.
Rn
Si osservi che, per la Proposizione 3.2, i determinanti delle due matrici (4.4) e (4.5)
sono legati dalla relazione
det A = (−1) det A′
con un coefficiente µ diverso da 0 (il più delle volte si utilizza µ = 1); cioè, si passa
dalla matrice (4.4) alla matrice
R1
R2
..
.
A′ =
P
µRj + k6=j λk Rk
(4.6)
..
.
Rn
= µ det A ,
perchè gli ultimi addendi della seconda eguaglianza sono nulli, in quanto determi-
nanti di matrici con due righe uguali.
Riassumendo, se si esegue un cambiamento del tipo α), possiamo dire che det A =
− det A′ , mentre se si esegue un cambiamento del tipo β), det A = µ1 det A′ , dove,
in entrambi i casi, A′ è matrice che si ottiene in base alla operazione prescelta.
Dopo un’opportuna sequenza di operazioni del tipo α) o del tipo β) sappiamo che
la matrice B che otteniamo è ridotta per righe e quindi triangolare superiore; di
conseguenza, det A potrà essere calcolato tramite la formula
1 1 1 1
det A = (−1)n(A) ... det B = (−1)n(A) . . . b11 b22 . . . bnn
µ1 µh(A) µ1 µh(A)
dove n(A) è il numero di scambi riga che si sono effettuati durante la riduzione per
righe e i coefficienti µi sono quelli che compaiono nelle operazioni di tipo β) durante
la stessa riduzione.
R2 7→ 2R2 − 3R1
18 CAPITOLO IV
R3 7→ R3 − R1
R4 7→ R4 − R1
Sono tutte sostituzioni del tipo β) con coefficienti, la prima con µ = 2 e le altre con
µ = 1. Quindi
1
det A = det A(1)
2
dove
2 −2 4 2
0 8 −10 −2
A(1) = .
0 4 −6 −1
0 2 −2 −4
Effettuiamo ora lo scambio di R2 con R4 . Si ha dunque che
1
det A = − det A(2)
2
2 −2 4 2
0 2 −2 −4
A(2) = .
0 4 −6 −1
0 8 −10 −2
R3 7→ R3 − 2R2
R4 7→ R4 − 4R2
ed otteniamo che
1
det A = − det A(3)
2
dove
2 −2 4 2
0 2 −2 −4
A(3) =
0 0 −2 7
0 0 −2 14
Se si sostituisce R4 con R4 −R3 si ottiene la matrice A(4) che è triangolare superiore
e si ha che
1 1
det A = − det A(4) = − × 2 × 2 × (−2) × 7 = 28 .
2 2
CAPITOLO IV 19
La prima cosa, cui bisogna veramente prestare attenzione, è che non esiste alcuna
regola che metta in relazione det(A+ B) con det A e det B. In particolare, si ricordi
che
det(A + B) 6= det A + det B
in generale (se per qualche coppia di matrici l’uguaglianza si verifica, ciò è dovuto
solo a una circostanza fortuita!).
Dimostrazione. Sia C = (cij ) = AB. Per definizione del prodotto righe per
colonne abbiamo che
= (ai1 b11 + · · · + ain bn1 , ai1 b12 + · · · + ain bn2 , . . . , ai1 b1n + · · · + ain bnn ) =
= ai1 (b11 , b12 , . . . , b1n ) + ai2 (b21 , b22 , . . . , b2n ) + · · · + ain (bn1 , bn2 , . . . , bnn ) =
= ai1 B1 + ai2 B2 + · · · + ain Bn .
Segue allora che, per la multilinearità del determinante
det C = det(C1 , C2 , . . . , Cn ) =
B
20 CAPITOLO IV
X
= a1i1 a2i2 . . . anin det(Bi1 , Bi2 , . . . , Bin ) .
B
i1 ...in
!
X
a1σ(1) a2σ(2) . . . anσ(n) ε(σ) det(B1 , B2 , . . . , Bn ) =
B
σ∈Pn
= det A det B
e questo conclude la dimostrazione.
Il teorema del Binet ammette una immediata applicazione nel seguente corollario.
Ricordiamo che una matrice A ∈ M (n) è detta invertibile se esiste una matrice B
(detta l’inversa di A) tale che AB = BA = I, dove I è la matrice identità.
1
B= (Ac )T
det A
1 1
AB = (A(Ac )T ) = (det A)I = I ,
det A det A
1 1
BA = ((Ac )T A) = (det A)I = I .
det A det A
Quindi B è la matrice inversa di A ed A è invertibile.