Sei sulla pagina 1di 46

APPUNTI DI GEOMETRIA ED

ALGEBRA
Ernesto Spinelli
Contents
1 Relazioni di equivalenza e strutture algebriche 2
1.1 Breve introduzione alluso degli insiemi . . . . . . . . . . 2
1.2 Relazioni di equivalenza e partizioni . . . . . . . . . . . . 5
1.3 Strutture algebriche . . . . . . . . . . . . . . . . . . . . . 9
2 Matrici, determinanti e sistemi lineari 16
2.1 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Determinanti e matrici invertibili . . . . . . . . . . . . . 19
2.3 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . 26
3 I vettori dello spazio ordinario 35
3.1 Vettori, combinazioni lineari, prodotto scalare, vettoriale
e misto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1
Chapter 1
Relazioni di equivalenza e
strutture algebriche
1.1 Breve introduzione alluso degli insiemi
Denizione 1.1.1 Siano A, B insiemi. Si dice che A `e un sottoinsieme
di B se ogni elemento di A `e anche un elemento di B.
Se A`e un sottoinsieme di B, useremo la scrittura A B; in caso contrario
scriveremo A B.
Esempi
1; 2; 3 N, 1; 2; 3 1; 3; 2, 2; 4 3; 5,
N Z, N N
0
, N
0
N.
Denizione 1.1.2 Siano A, B insiemi. Si dice che A `e uguale a B se
A ha esattamente gli stessi elementi di B, cio`e se ogni elemento di A `e
in B e viceversa.
Se A`e uguale B, useremo la scrittura A = B; in caso contrario scriveremo
A = B.
Criterio 1.1.3 Siano A, B insiemi. Laermazione A = B `e equiva-
lente ad A B e B A.
2
Esempi
5k [ k Z = d [ d Z d = 10x + 15y x, y Z,
2; 3 = b [ b Z b
2
5b + 6 = 0.
Denizione 1.1.4 Siano A, B insiemi. Deniamo gli insiemi
A B := x [ x A e x B l intersezione di A e B;
A B := x [ x A o x B l unione di A e B;
A ` B := x [ x A e x B la dierenza di B in A.
Se B A, linsieme A ` B `e detto anche il complementare di B in A.
Esempi
2; 3 1; 2; 5 = 2, 2; 3 1; 2; 5 = 1; 2; 3; 5,
2; 3 ` 1; 2; 5 = 3, 1; 2; 5 ` 2; 3 = 1; 5.
Se consideriamo, per esempio, gli insiemi 2; 4 3; 5 e N` Z ci accor-
giamo che sono privi di elementi. A questo punto osserviamo
Proposizione 1.1.5 Siano A, B insiemi. Se A `e privo di elementi, A
B.
La dimostrazione di questa propriet` a `e pressoch`e immediata. Da essa
discende subito che, se A e B sono insiemi privi di elementi, allora A = B
(e quindi 2; 4 3; 5 = N ` Z). A questo punto si pu` o denire in
maniera rigorosa il concetto di insieme vuoto.
Denizione 1.1.6 Lunico insieme privo di elementi si denisce lin-
sieme vuoto e lo si denota col simbolo . Due insiemi A e B si dicono
disgiunti se A B = .
3
In seguito lavoreremo generalmente con insiemi non vuoti, senza mai
specicarlo espressamente.
Introduciamo ora un insieme che chiameremo di nuovo in causa quando
parleremo di partizioni.
Denizione 1.1.7 Sia A un insieme. Linsieme costituito da tutti i
sottoinsiemi di A si denisce linsieme delle parti di A e lo si denota col
simbolo {(A).
In altre parole, {(A) := X [ X A.
Esempio Sia A := 1; 2; 3. Allora
{(A) = 1; 2; 3; 1; 2; 1; 3; 2; 3; A; .
In generale osserviamo che, se A ha n elementi, [{(A)[ = 2
n
.
Denizione 1.1.8 Siano A, B insiemi. Deniamo prodotto cartesiano
di A e B (o di A per B) linsieme A B i cui elementi sono scritture
formali del tipo (a, b) dove a A e b B, ovvero
A B := (a, b) [ a A b B.
Gli elementi di A B si dicono coppie ordinate. Se (a, b) A B, a
si dice prima coordinata e b seconda coordinata. Due coppie ordinate
(a
1
, b
1
) ed (a
2
, b
2
) si dicono uguali se, e solo se, a
1
= a
2
e b
1
= b
2
.
Generalizzando la nozione precedente, se n N (n 2) e A
1
, . . . , A
n
sono insiemi, deniamo prodotto cartesiano di A
1
, . . . , A
n
linsieme
A
1
. . . A
n
:= (a
1
, . . . , a
n
) [ a
i
A
i
i n
|
.
Gli elementi di A
1
. . . A
n
si dicono n-ple. Se (a
1
, . . . , a
n
) A
1

. . . A
n
, a
i
si dice i-ma coordinata della n-pla. Due n-ple (a
1
, . . . , a
n
) e
(b
1
, . . . , b
n
) si dicono uguali se, e solo se, a
i
= b
i
per ogni i n
|
. Inne,
se A
1
= . . . = A
n
, poniamo A
n
1
:= A
1
. . . A
n
.
4
1.2 Relazioni di equivalenza e partizioni
Denizione 1.2.1 Siano A, B insiemi. Una relazione 1 tra A e B `e
un qualsiasi sottoinsieme di A B. Una relazione 1 A B si dice
una funzione da A in B se
a A [ b B (a, b) 1.
In tal caso, A si dice dominio della funzione 1, B codominio di 1 e,
ssato a A, lunico b B tale che (a, b) 1 si dice limmagine di a
tramite 1 e si denota con 1(a).
Nel seguito, se 1`e una relazione tra A e B e (a, b) 1 scriveremo anche
che a1b e diremo che a `e in relazione 1 con b. In particolare, se 1 `e
una funzione, scriveremo
1 : A B, a 1(a).
Esempi
a) Sia / := (a, b) [ a, b Z k Z b = ak. Allora / `e una
relazione tra Z e Z (diremo su Z) detta relazione di divisibilit`a.
Osserviamo che / non `e una funzione (perch`e 2/4, ma anche 2/6).
b) Sia Y linsieme delle rette del piano e X quello dei punti del piano
e deniamo 1 := (x, y) [ x X, y Y x y. Allora 1 `e una
relazione tra X ed Y detta relazione di incidenza. Osserviamo che
anche 1 non `e una funzione (un punto appartiene ad innite rette).
Ovviamente cercheremo sempre di lavorare con funzioni o relazioni
buone, ovvero che godano di propriet` a importanti. Iniziamo ad elen-
carne alcune per le funzioni.
Denizione 1.2.2 Siano A, B insiemi e f : A B. La funzione f si
dice iniettiva se
a, a

A : a = a

f(a) = f(a

).
5
La funzione f si dice suriettiva se
b B a A f(a) = b.
Se f `e sia iniettiva che suriettiva si dice biettiva o una biezione. Due
insiemi A e B si dicono equipotenti se esiste f : A B biettiva.
Per insiemi niti lessere equipotenti signica avere lo stesso numero di
elementi. Mentre esistono insiemi inniti che sono equipotenti, ma tali
che luno sia contenuto propriamente nellaltro (per esempio, N e Z sono
equipotenti).
Denizione 1.2.3 Siano A, B insiemi, f : A B e S A. Denia-
mo immagine di S tramite f
f(S) := b [ b B s S f(s) = b.
Sia T B. Deniamo antiimmagine di T tramite f
f
1
(T) := a [ a A f(a) T.
Se C `e un insieme e g : B C deniamo funzione composta di g con
f la funzione
g f : A C, a g(f(a)).
Ora, se f : A B `e una funzione, si pu` o denire
f
1
:= (f(a), a) [ a A,
la relazione inversa di f. Essa `e una relazione tra B ed A, ma in generale
non `e una funzione. Si consideri, ad esempio,
f : 1; 2 3, 1 3 2 3.
In tal caso, f
1
:= (3, 1); (3, 2), che non `e una funzione. Ma se f
`e iniettiva, allora f
1
`e una funzione da f(A) in A, addirittura `e una
biezione da f(A) in A detta la funzione inversa di f. Per essa ovviamente
vale che f f
1
= id
A
= f
1
f, dove
id
A
: A A, a a
6
(la funzione identica).
Prendiamo un esempio gi` a ben conosciuto. Sia X linsieme delle rette
del piano euclideo. Poniamo
| := (r, s) [ r, s X r = s o r s = ,
nota come relazione di parallelismo. Se (r, s) [[ diciamo anche che r `e
parallela ad s. Allora valgono:
ogni retta `e parallela a s`e stessa;
se una retta r `e parallela ad una retta s, allora anche s `e parallela
ad r;
se tre rette r, s, t son tali che r `e parallela ad s ed s `e parallela a t,
allora r `e parallela a t.
Quella di parallelismo `e un esempio di relazione di equivalenza di cui
diamo la denizione.
Denizione 1.2.4 Sia A un insieme e 1 A A.
1 si dice riessiva se
a A a1a.
1 si dice simmetrica se
a, b A : a1b b1a.
1 si dice transitiva se
a, b, c A : a1b e b1c a1c.
La relazione 1 si dice dequivalenza se `e riesiva, simmetrica e transi-
tiva.
7
Esempio 1.2.5 (Gauss) Sia m Z. La relazione

m
:= (a, b) [ a, b Z m/a b
`e una relazione di equivalenza detta la congruenza modulo m. Se a, b Z
e a
m
b diremo che a `e congruo a b modulo m.
Denizione 1.2.6 Sia A un insieme, una relazione su A e a A.
Linsieme
[a]

:= b [ b A a b
si dice la classe di equivalenza di a rispetto a . Un sottoinsieme S di
A si dice una classe di equivalenza rispetto a se esiste a A tale che
S = [a]

.
Ora introduciamo il concetto di partizione di un insieme per poi inda-
gare le relazioni esistenti tra partizioni ed equivalenze.
Denizione 1.2.7 Sia A un insieme, L {(A). L si dice una par-
tizione di A se:
S L, S = ;
S, T L, S = T o S T = ;

SL
S = A.
Se consideriamo
5
, ci accorgiamo subito che, per esempio, [1]

5
=
[6]

5
= [4]

5
, . . ., e che [0]

5
; [1]

5
; . . . ; [4]

5
`e una partizione di Z,
ovvero da una relazione di equivalenza su di un insieme ho ottenuto una
partizione dellinsieme. Questo `e un fenomeno di tipo generale, come
mostra la seguente
Proposizione 1.2.8 Sia A un insieme e una relazione di equivalenza
su A. Linsieme delle classi di equivalenza rispetto a costituisce una
partizione di A.
Diamo un nome a partizioni di questo tipo.
8
Denizione 1.2.9 Sia A un insieme e una relazione di equivalenza
su A. La partizione di A che consiste delle classi di equivalenza rispetto
a si dice linsieme quoziente di A rispetto a e si denota col simbolo
A/

. Sia S una classe di equivalenza rispetto a . Se a A `e tale che


S = [a]

, a si dice un rappresentante di S rispetto a .


Sia L una partizione di A. Un sottoinsieme R di A si dice un sistema
di rappresentanti per L se, per ogni S L, [S R[ = 1.
Quindi, usando queste notazioni,
Z/
5
= [0]

5
; [1]

5
; . . . ; [4]

e 0; . . . ; 4 `e un sistema di rappresentanti per Z/


5
, ma anche linsieme
5; 6; 3; 7; 4 lo `e. Infatti un sistema di rappresentanti si ottiene
sciegliendo da ciascuna classe di equivalenza uno ed un solo elemento:
poich`e la scelta `e arbitraria, ovviamente esistono in generale diversi si-
stemi di rappresentanti per una partizione o addirittura inniti, come nel
caso di Z/
5
.
Unultima propriet` a `e la seguente
Proposizione 1.2.10 Sia A un insieme e L una partizione di A. Po-
niamo

L
:= (a, b) [ a, b A S L a, b S.
Allora
L
`e una relazione di equivalenza su A e A/

L
= L.
Le dimostrazioni di 1.2.8 e 1.2.10 sono lasciate per esercizio.
Di fatto, se A `e un insieme, E linsieme di tutte le relazioni di equi-
valenza su A e linsieme di tutte le partizioni di A, la funzione
: E , A/

`e una biezione.
1.3 Strutture algebriche
Denizione 1.3.1 Sia X un insieme. Una funzione
: X X X
9
si dice una operazione o una legge di composizione su X. Se `e una
operazione su X, la coppia (X, ) si dice una struttura algebrica. In tal
caso, X si dice il sostegno della struttura (X, ).
Per convenzione, per ogni a, b X scriviamo a b alposto di (a, b).
Ognuno di noi ha da sempre utilizzato strutture algebriche, per esem-
pio (Z, +) o (Z, ) o (R, ), ma non necessariamente si necessita di numeri
per costruire strutture algebriche. Anzi, partendo da un insieme arbi-
trario, ciascuno pu`o costruire una propria struttura algebrica denendo
una operazione elemento per elemento (ricorrendo eventualmente alle
tavole di Cayley).
Denizione 1.3.2 Sia X un insieme e una operazione su X.
si dice associativa se
a, b, c X (a b) c = a (b c);
si dice commuutativa se
a, b X a b = b a.
La struttura (X, ) si dice un semigruppo se `e associativa.
Un elemento e X si dice un elemento neutro per (X, ) se, per ogni
x X, x e = e x = x. Un semigruppo con un elemento neutro si dice
un monoide.
Se (X, ) `e un monoide con elemento neutro e, un elemento a X si
dice invertibile se esiste b X tale che a b = b a = e.
La struttura (X, ) si dice un gruppo se (X, ) `e un monoide e tutti i
suoi elementi sono invertibili. Se (X, ) `e un gruppo e `e commutativa
si dice che (X, ) `e un gruppo abeliano.
Un semplice esercizio che si propone `e vedere se (Z, +), (Z, ), (N, +),
(R, ) sono semigruppi, monoidi e/o gruppi.
Osservazione 1.3.3 (1) Una struttura contiene al pi` u un elemento
neutro;
10
(2) Sia (M, ) un monoide, e il suo elemento neutro e |(M) linsieme
degli elementi invertibili di M. Allora
x |(M) [ y M x y = e = y x.
Da ci` o segue che si pu` o parlare de lelemento neutro della struttura e
de linverso di un elemento invertibile. In particolare, se x |(M), il
suo inverso lo indicheremo con x
1
, se si `e in notazione moltiplicativa
(ricordate: linverso di 2 in Q rispetto a `e
1
2
), e con x se si `e in
notazione additiva (linverso di 2 in Q rispetto a + `e 2).
Proposizione 1.3.4 Sia (M, ) un monoide ed e il suo elemento neutro.
Valgono:
(1) e |(M) ed il suo inverso e
1
= e;
(2) x |(M), x
1
|(M) e (x
1
)
1
= x;
(3) x, y |(M), x y |(M) e (x y)
1
= y
1
x
1
.
A questo punto, deniamo il concetto di sottostruttura
Denizione 1.3.5 Sia (X, ) una struttura algebrica e H X. H si
dice una parte stabile o chiusa di X rispetto a se
a, b H a b H.
La restrizione di ad H H, [
HH
, si dice loperazione indotta su H.
Se H `e una parte chiusa di X, (H, [
HH
) si dice una sottostruttura
di (X, ). In particolare, se (H, [
HH
) `e un gruppo allora si dice un
sottogruppo di (X, ).
Da 1.3.4 segue subito che, se M `e un monoide, |(M) `e un sottogruppo
di M, il gruppo degli elementi invertibili di M.
Un esempio importante di gruppo `e quello delle permutazioni, che poi
ci permetter` a di denire un concetto cruciale per tutta lalgebra lineare,
quello di determinante di una matrice.
11
Esempio 1.3.6 (Il gruppo delle permutazioni o
n
) Sia X un insie-
me. Una permutazione di X `e una biezione da X in X. Denotiamo con
o
X
linsieme di tutte le permutazioni di X. Allora rispetto alloperazione
data dalla composizione di funzioni, (o
X
, ) `e un gruppo detto il gruppo
simmetrico su X (cfr. 1.2.3 e quel che segue). Se n N e X := n
|
,
poniamo o
n
:= o
X
e lo deniamo il gruppo simmetrico di grado n. Os-
serviamo che o
n
ha n! elementi.
Sia o
n
. Deniamo numero di inversioni i

di il numero di
coppie ((i), (i + k)), con i, k
n 1|
tali che i + k n, per cui
(i) > (i +k). Il numero
() := (1)
i
`e detto la segnatura di . La permutazione si dice pari ( dispari,
rispettivamente) se () = 1 (() = 1, rispettivamente). In generale,
per ogni , o
n
, ( ) = () (), da cui segue subito che () =
(
1
).
Una permutazione o
n
si pu`o rappresentare a mezzo della n-pla
((1), . . . , (n)) (esiste una biezione tra o
n
ed il sottinsieme di n
|
n
costi-
tuito dalle n-ple le cui coordinate sono a due a due distinte!). Calcoliamo
per esempio la segnatura di

1
:= (3, 4, 1, 2) e
2
:= (2, 4, 1, 3).
Allora per
1
il numero di inversioni `e 4 (
1
(1) >
1
(3),
1
(1) >
1
(4),

1
(2) >
1
(3) e
1
(2) >
1
(4)), quindi (
1
) = (1)
4
= 1, mentre
(
2
) = 1.
In generale sugli insiemi di numeri ben noti abbiamo operato con due
operazioni in qualche modo legate tra loro. Per esempio, dati a, b, c in Z,
abbiamo considerato a +b, a b, ma anche (a +b) c. Rivolgiamo ora la
nostra attenzione proprio a strutture algebriche con due operazioni.
Denizione 1.3.7 Sia A un insieme e + e operazioni su A. La terna
(A, +, ) si dice un anello se valgono:
(1) (A, +) `e un gruppo abeliano;
12
(2) (A, ) `e un semigruppo;
(3) x, y, z A (x +y) z = x z +y z e x (y +z) = x y +x z.
Se `e commutativa, (A, +, ) si dice un anello commutativo. Se (A, ) ha
elemento neutro, lanello si dice unitario.
Se (A, +, ) `e un anello, lelemento neutro di (A, +) lo si denota con 0
(o eventualmente 0
A
), mentre se `e unitario lelemento neutro di (A, ) si
denota con 1 (o eventualmente 1
A
).
Esempi immediati di anelli sono (Z, +, ), (Q, +, ) ed (R, +, ). Per
tutti vale che, per un qualsiasi elemento del sostegno a, a 0 = 0 =
0 a (questo `e vero per ogni anello). Quindi se voglio guardare alle
propriet` a della struttura moltiplicativa di un anello, devo escludere lo 0.
Riguardo agli esempi precedenti, mi accorgo che solo pochi elementi di
(Z` 0, ) hanno inverso (esattamente 1 e 1), mentre tutti gli elementi
di (Q` 0, ) lo hanno. Questa `e una propriet` a cruciale.
In generale, se ho una struttura algebrica con una o due operazioni
con sostegno X, parler`o della struttura X se non vi `e ambiguit`a sulle
operazioni.
Denizione 1.3.8 Sia (A, +, ) un anello.
(1) A si dice un dominio dintegrit` a se (A` 0, ) `e un monoide com-
mutativo;
(2) A si dice un campo se (A ` 0, ) `e un gruppo abeliano.
Pertanto se A `e un campo, A `e un dominio, ma il viceversa non `e vero.
Infatti Z `e un dominio (e quindi in esso vale la legge di annullamento del
prodotto), ma non `e un campo poich`e, per esempio, 2 non ha inverso in
Z rispetto a . Invece, Q ed R sono campi.
Concludiamo riportando due esempi fondamentali di anello e campo,
rispettivamente.
Esempio 1.3.9 (Lanello dei polinomi) Sia K un campo. Deniamo
anello dei polinomi a coecienti in K nella variabile x, e lo denotiamo
13
con K[x], linsieme delle scritture formali
a
0
+a
1
x + a
2
x
2
+. . . +a
n
x
n
n N
0
, a
i
K i 0, . . . , n
munito delle operazioni
+ : K[x]
2
K[x],

i=0
a
i
x
i
,
n

i=0
b
i
x
i

i=0
(a
i
+b
i
)x
i
,
: K[x]
2
K[x],

i=0
a
i
x
i
,
m

i=0
b
i
x
i

n+m

i=0


h+k=i
(a
h
b
k
)

x
i
.
Un elemento di K[x] si dice un polinomio (a coecienti in K nella varia-
bile x). Se f := a
0
+ a
1
x + a
2
x
2
+ . . . + a
n
x
n
K[x] e a
n
= 0, n si dice
il grado del polinomio.
Una semplice osservazione: per quel che concerne la somma di due poli-
nomi, non richiediamo che i gradi dei polinomi che sommiamo siano
uguali. Infatti, se f, g K[x] sono di grado n e m, rispettivamente,
con n > m, posso scrivere comunque g =

n
i=0
b
i
x
i
ponendo b
i
= 0 per
ogni i m+ 1, . . . , n.
Esempio 1.3.10 (Il campo con p elementi) Sia p un numero primo
e consideriamo Z/
p
. Poniamo, per ogni i Z, i := [i]
p
. Allora
Z/
p
= 0; . . . ; p 1 ha p elementi. Deniamo su Z/
p
le seguenti
operazioni:

+ : Z/
p
Z/
p
Z/
p
, (i, j) k dove k = [i + j]
p
,
e
: Z/
p
Z/
p
Z/
p
, (i, j) h dove h = [i j]
p
.
Le operazioni

+ e non dipendono dal sistema di rappresentanti scelto
per Z/
p
. Allora (Z/
p
,

+,) `e un campo che denoteremo con F
p
.
Quindi, per ogni primo p si pu`o costruire un campo in tal modo e di fatto
questo `e lunico campo con p elementi (rigorosamente si dovrebbe dire
a meno di isomorsmi !). Pi` u in generale, i campi niti possono avere
14
un numero di elementi che non sia necessariamente un numero primo,
ma, in ogni caso, il numero di questi elementi deve essere potenza di un
unico numero primo. C`e un teorema di struttura che descrive completa-
mente i campi niti, ma non viene presentato qui. Un fatto interessante
`e sottolineare che i campi niti hanno applicazione fondamentale nella
crittograa e nella teoria dei codici. Solo per fare un esempio, tra i codici
correttori di errori pi` u noti ed usati vi sono i codici ciclici. Essi si pos-
sono descrivere in un ambiente interamente algebrico come particolare
sottostruttura di una struttura che si costruisce a partire da un gruppo
e da un campo nito (lalgebra gruppale su di un campo nito).
Terminiamo con una osservazione. Se (K, +, ) `e un campo, x K e
m un intero positivo deniamo
mx := x +. . . +x
. .. .
mvolte
.
Se x = 0 `e in R o Q, per ogni m N, mx = 0. Mentre in F
p
, per ogni
x F
p
, px = 0.
Sia K un campo. Deniamo caratteristica di K (e la denoteremo con
char K) il pi` u piccolo intero positivo c tale
cx = 0 x K.
Se tale c non esiste, diciamo che la caratteristica del campo `e 0. Quindi
Q ha caratteristica zero, mentre char F
p
= p. Pi` u in generale, un campo
o ha caratteristica zero o ha caratteristica un primo p.
Nel seguito, operemo su R o C in linea di massima, ovvero su campi
di caratteristica zero. Qualche accortezza maggiore in genere `e richiesta
per campi di caratteristica 2.
15
Chapter 2
Matrici, determinanti e
sistemi lineari
2.1 Matrici
Denizione 2.1.1 Siano m, n N e K un campo. Deniamo matrice
ad m righe e n colonne (o (m, n)-matrice o (mn)-matrice) a coecienti
in K un insieme di m n elementi a
ij
di K rappresentato dalla tabella

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
. . . .
.
.
.
a
m1
a
m2
. . . a
mn

.
In forma compatta, indicheremo questa matrice col simbolo (a
ij
)
1im
1jn
.
Lindice i `e detto indice di riga, j indice di colonna. Il sottoinsieme
a
i1
, a
i2
, . . . , a
in
`e detto i-ma riga, mentre a
1j
, a
2j
, . . . , a
mj
`e detto j-
ma colonna.
Se m = n, la matrice `e detta rettangolare; se m = n, la matrice si
dice quadrata di ordine n.
Se m = 1, la matrice si dice vettore riga; se n = 1 si dice vettore
colonna.
Linsieme di tutte le matrici ad m righe ed n colonne a coecienti in K
16
sar` a denotato da K
m,n
. Inoltre, nel seguito, data la matrice (a
ij
)
1im
1jn

K
m,n
scriveremo per indicarla semplicemente (a
ij
).
Denizione 2.1.2 Siano m, n N, K un campo e A := (a
ij
), B :=
(b
ij
) K
m,n
. Diciamo che A = B se, e solo se, a
ij
= b
ij
per ogni i m
|
e j n
|
.
Denizione 2.1.3 Siano m, n N, K un campo, K e A := (a
ij
)
K
m,n
. Deniamo prodotto della matrice A per lo scalare la matrice
A := (a
ij
)
1im
1jn
.
Se B := (b
ij
) K
m,n
, deniamo somma delle matrici A e B la matrice
A +B := (c
ij
)
1im
1jn
c
ij
= a
ij
+b
ij
i m
|
, j n
|
.
Osservazione Per ogni m, n N, (K
m,n
, +) `e un gruppo abeliano (con
elemento neutro data dalla matrice i cui elementi sono tutti 0, detta
matrice nulla e denotata da O).
Denizione 2.1.4 Siano m, n, p N, K un campo, A := (a
ij
)
1im
1jn

K
m,n
e B := (b
ij
)
1in
1jp
K
n,p
. Deniamo prodotto della matrice A per
la matrice B la matrice
A B := (c
ij
)
1im
1jp
c
ij
=
n

k=1
a
ik
b
kj
i m
|
, j
p
|
.
Si parla anche di prodotto di righe per colonne delle matrici A e B, in
quanto lelemento c
ij
di A B si ottiene sommando i prodotti termine a
termine della i-ma riga di A per la j-ma colonna di B. Notiamo che esso
ha senso solo se il numero di colonne della prima matrice coincide col
numero di righe della seconda.
Denizione 2.1.5 Sia n N. Deniamo matrice identica di K
n,n
la
matrice
I
n
:= (a
ij
)
1in
1jn
a
ij
=

1 se i = j;
0 altrimenti.
17
Proposizione 2.1.6 Sia n N. Allora (K
n,n
, +, ) `e un anello unitario
(con elemento neutro I
n
).
La dimostrazione di 2.1.6 `e un semplice esercizio lasciato al lettore.
Quello che osserviamo `e invece che in generale K
n,n
non `e commutativo:
basta considerare le matrici
A :=

0 1
0 0

e B :=

1 0
0 0

.
Allora
A B =

0 0
0 0

0 1
0 0

= B A.
Denizione 2.1.7 Siano m, n N, K un campo, A := (a
ij
)
1im
1jn

K
m,n
. Deniamo trasposta della matrice A la matrice
A
t
:= (a
ji
)
1jn
1im
K
n,m
.
Se m = n, A si dice
simmetrica ( antisimmetrica, rispettivamente) se A = A
t
(A =
A
t
, rispettivamente);
triangolare superiore ( inferiore, rispettivamente) se a
ij
= 0 per
ogni i > j (per ogni i < j, rispettivamente);
diagonale se a
ij
= 0 per ogni i = j.
Gli elementi a
11
, a
22
, . . . , a
nn
di A si dicono costituire la diagonale prin-
cipale di A.
In altre parole, la trasporta di una matrice si ottiene scambiando le
righe con le colonne, ovvero per riessione lungo la diagonale principale
se la matrice `e quadrata.
18
2.2 Determinanti e matrici invertibili
Denizione 2.2.1 Sia n N, K un campo e A := (a
ij
) K
n,n
. De-
niamo determinante della matrice A
det A :=

Sn
()a
1(1)
a
2(2)
. . . a
n(n)
.
Quello del determinante (ed il suo calcolo) `e un concetto chiave che uti-
lizzeremo in tutta la parte riguardante lAlgebra Lineare e non solo. La
denizione che ne abbiamo dato, per` o, `e davvero poco operativa: in-
fatti, se A K
n,n
il calcolo del suo determinante richiede la somma di n!
addendi (ognuno preso col segno dato dalla segnatura della permutazione
relativa, cfr. 1.3.6). Quindi lobiettivo `e fornirci di alcuni strumenti che
permettano questo calcolo in modo pi` u semplice. Iniziamo provando
questa
Proposizione 2.2.2 Sia n N, K un campo e A K
n,n
. Allora
det A = det A
t
.
Dimostrazione. Sia A := (a
ij
) ed A
t
:= (a

ij
). Allora, ricordando che
a

ij
= a
ji
per ogni i, j n
|
, si ha che
det A
t
=

Sn
()a

1(1)
a

2(2)
. . . a

n(n)
=

Sn
()a
(1)1
a
(2)2
. . . a
(n)n
.
Poich`e la moltiplicazione in K `e commutativa e o
n
, posso ordinare gli
elementi a
(1)1
, a
(2)2
, . . . , a
(n)n
in modo tale che al primo posto compaia
a
1k
1
, al secondo a
2k
2
e cos` via. Ma k
i
=
1
(i). Quindi, poich`e o
n
=

1
[ o
n
ed (
1
) = () per ogni o
n
(cfr. 1.3.6), si ha
det A
t
=

1
Sn
(
1
)a
1
1
(1)
a
2
1
(2)
. . . a
n
1
(n)
= det A,
che `e quanto volevasi provare. 2
Corollario Per quel concerne il determinante, ogni propriet`a riguardante
le righe `e valida per le colonne.
19
Pertanto nel seguito parleremo di propriet` a relative esclusivamente a
righe. Inoltre assumeremo che K abbia sempre caratteristica diversa
da 2 (caso che in generale richiede qualche attenzione supplementare).
In particolare, nelle applicazioni useremo quasi esclusivamente i campi R
e C.
Proposizione 2.2.3 Sia n N, K un campo e A, B K
n,n
. Se A e B
dieriscono per lo scambio di due righe, allora det A = det B.
Corollario Se A K
n,n
ha due righe uguali, allora det A = 0.
Proposizione 2.2.4 Sia n N, K un campo, K e A, B K
n,n
.
Se B `e ottenuta da A moltiplicando tutti gli elementi di una riga per ,
allora det B = det A.
Corollario Se A K
n,n
ha due righe proporzionali, allora det A = 0.
Dimostrazione. Basta applicare 2.2.4 ed il Corollario a 2.2.3. 2
Proposizione 2.2.5 Sia n N, K un campo e A K
n,n
. Se gli ele-
menti di una riga di A sono ciascuno somma di due addendi, allora
det A `e la somma dei determinanti delle matrici che si ottengono da
A sostituendo agli elementi della riga in questione i primi ed i secondi
addendi, rispettivamente (e lasciando invariati gli altri elementi).
Ovvero se
A :=

a
11
a
12
. . . a
1n
.
.
.
.
.
.
.
.
.
a
i1
+b
i1
a
i2
+b
i2
. . . a
in
+b
in
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn

,
allora
det A = det

a
11
a
12
. . . a
1n
.
.
.
.
.
.
.
.
.
a
i1
a
i2
. . . a
in
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn

+ det

a
11
a
12
. . . a
1n
.
.
.
.
.
.
.
.
.
b
i1
b
i2
. . . b
in
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn

.
20
Corollario Se A K
n,n
e B `e la matrice ottenuta da A aggiungendo ad
una certa riga di A unaltra riga di A moltiplicata per uno scalare K,
allora det A = det B.
Dimostrazione. Basta applicare 2.2.5 ed il Corollario a 2.2.4. 2
Le dimostrazioni di 2.2.3, 2.2.4 e 2.2.5 sono lasciate al lettore. Solo
2.2.3 richiede qualche attenzione particolare, mentre 2.2.4 e 2.2.5 si ot-
tengono immediatamente.
Denizione 2.2.6 Siano m, n N, K un campo e A := (a
ij
) K
m,n
.
Una n-pla (x
1
, . . . , x
n
) K
n
si dice combinazione lineare delle m righe
di A se esistono
1
, . . . ,
m
K, detti coecienti della combinazione
lineare, tali che
x
1
=
1
a
11
+
2
a
21
+. . . +
m
a
m1
x
2
=
1
a
12
+
2
a
22
+. . . +
m
a
m2
.
.
.
x
n
=
1
a
1n
+
2
a
2n
+. . . +
m
a
mn
.
Molto rilevante `e il seguente risultato.
Teorema 2.2.7 Sia n N, K un campo e A K
n,n
. Allora det A = 0
se, e solo se, una riga `e combinazione lineare delle altre.
Dimostrazione. Se una riga `e combinazione lineare delle altre, appli-
cando 2.2.5 ed il suo Corollario si ha che det A = 0.
Il viceversa sar` a discusso nella parte riguardante lAlgebra Lineare.
2
Quindi il determinante di una matrice `e un elemento del campo che mi
d` a subito informazioni sulle righe (o colonne) della matrice in termini di
combinazione lineare.
I risultati precedenti permettono gi`a il calcolo di determinanti in
maniera abbastanza agevole. Tuttavia esiste una formula generale che
permette il calcolo del determinante di matrici di qualsiasi ordine. A tal
ne diamo la seguente
21
Denizione 2.2.8 Siano m, n N, K un campo e A := (a
ij
) K
m,n
.
Se p, q N con p m e q n, una matrice B K
p,q
si dice una
sottomatrice di A se gli elementi di B appartengono a p righe e q colonne
pressate di A. Se p = q, B si dice un minore estratto da A.
Se m = n, per ogni i, j n
|
deniamo minore complementare
dellelemento a
ij
, il minore estratto da A di ordine n 1 ottenuto can-
cellando la i-ma riga e la j-ma colonna di A. Deniamo complemento
algebrico o cofattore di a
ij
A
ij
:= (1)
i+j
det(minore complementare di a
ij
).
Teorema 2.2.9 (Laplace) Sia n N, K un campo e A := (a
ij
)
K
n,n
. Per ogni r, c n
|
,
det A =
n

j=1
a
rj
A
rj
=
n

j=1
a
jc
A
jc
.
Corollario Per ogni n N e per ogni A := (a
ij
) K
n,n
triangolare
superiore (o inferiore)
det A =
n

i=1
a
ii
.
Dimostrazione. Procediamo per induzione su n. Se n = 1, non vi `e
nulla da provare, essendo A = (a
11
) e quindi det A = a
11
.
Sia ora n > 1 ed assumiamo vera la tesi per n 1, ovvero as-
sumiamo che (n 1, n 1)-matrici triangolari superiori hanno deter-
minante uguale al prodotto degli elementi della diagonale principale. Sia
A := (a
ij
) K
n,n
triangolare superiore. Applicando 2.2.9 (rispetto alla
prima colonna) si ha
det A = a
11
det

a
22
0 . . . . . . 0
0 a
33
0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 a
n1 n1
0
0 . . . . . . 0 a
nn

.
22
Ma, per lipotesi induttiva,
det

a
22
0 . . . . . . 0
0 a
33
0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 a
n1 n1
0
0 . . . . . . 0 a
nn

=
n

i=2
a
ii
,
e questo conclude la dimostrazione. 2
Il calcolo del determinante di una matrice mediante triangolarizzazione
(visto nelle esercitazioni) consiste nel costruire una matrice triangolare
superiore avente lo stesso determinante della matrice data utilizzando
le regole di calcolo derivanti da 2.2.3, 2.2.4 e 2.2.5. A questo punto il
Corollario a 2.2.9 ci fornisce immediatamente il risultato.
Esiste una regola molto semplice che d`a il valore del determinante di
un prodotto di matrici in funzione dei determinanti delle singole matrici
(che concorrono al prodotto).
Teorema 2.2.10 (regola di Binet) Sia n N, K un campo e A, B
K
n,n
. Allora
det(A B) = det A det B.
Osservazione In generale, se A, B K
n,n
, non necessariamente AB =
B A (cfr. esempio dopo 2.1.6), ma vale, per 2.2.10, che
det(A B) = det(B A).
Unaltra propriet` a che deriva da 2.2.10 `e la seguente
Proposizione 2.2.11 Sia n N, K un campo e A K
n,n
. Se A `e
invertibile, allora
(1) det A = 0;
(2) det(A
1
) = (det A)
1
.
23
Dimostrazione. Poich`e A `e invertibile, A A
1
= I
n
. Quindi, per 2.2.10,
det(A A
1
) = det A det(A
1
) = det I
n
= 1.
Pertanto det A = 0 e det(A
1
) = (det A)
1
. 2
Il risultato precedente ci d`a una condizione necessaria anch`e una ma-
trice A di ordine n sia invertibile, ovvero che det A = 0. La condizione `e
anche suciente, come mostra il seguente
Teorema 2.2.12 Sia n N, K un campo e A K
n,n
. Allora A `e
invertibile se, e solo se, det A = 0.
Obiettivo ora `e quello di calcolare eettivamente linversa di una matrice.
A tal ne premettiamo la seguente
Denizione 2.2.13 Sia n N, K un campo e A := (a
ij
) K
n,n
.
Diciamo che A `e singolare se det A = 0.
Deniamo aggiunta classica di A la (n, n)-matrice che al posto (i, j)
presenta il cofattore A
ji
dellelemento a
ji
di A, e la denotiamo con Adj(A).
Ora, se A K
n,n
ed `e invertibile,
A Adj(A) = det A I
n
.
Pertanto
A
1
=
1
det A
Adj(A).
Quindi per calcolare linversa di una matrice invertibile A
si scrive A
t
;
si sostituisce ad ogni elemento di A
t
il suo cofattore;
si moltiplica la matrice ottenuta per
1
det A
.
Osservazione Poniamo GL(n, K) := A[ A K
n,n
det A = 0. Al-
lora GL(n, K) `e un gruppo detto il gruppo lineare di ordine n su K.
Un altro concetto importante `e quello di rango di una matrice, che
andiamo a denire.
24
Denizione 2.2.14 Siano m, n N, K un campo e A K
m,n
. De-
niamo rango di A (e lo denotiamo con rg(A)) il massimo ordine dei suoi
minori con determinate non nullo.
Osservazione Se A K
m,n
, valgono:
(1) rg(A) = 0 se, e solo se, A = O;
(2) se m = n, rg(A) = n se, e solo se, det A = 0;
(3) se B `e una sottomatrice di A, rg(B) rg(A).
Denizione 2.2.15 Siano m, n N, K un campo e A, B K
m,n
.
Diciamo che A e B sono equivalenti per righe se luna `e ottenibile
dallaltra mediante un numero nito di trasformazioni elementari delle
righe, ovvero:
scambio di due righe;
moltiplicazione di una riga per un elemento |(K);
sostituzione di una riga con la somma di essa e di unaltra.
Osservazione Da 2.2.3, 2.2.4 e 2.2.5 ed i loro corollari segue subito che,
se A e B sono equivalenti per righe, allora
rg(A) = rg(B).
Denizione 2.2.16 Siano m, n N, K un campo e S K
m,n
. Diciamo
che S `e una matrice a scalini se `e della forma

0 . . . 0 a
1j
1
. . . . . . . . . . . . a
1n
0 . . . . . . 0 a
2j
2
. . . . . . . . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . . . . . . . 0 a
pjp
. . . a
pn
0 . . . . . . . . . . . . . . . 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . . . . . . . . . . . . . . . . . . . 0

.
25
Utilizzando 2.2.3, 2.2.4 e 2.2.5 (di fatto, utilizzando lo stesso metodo
che permette il calcolo di determinanti di matrici mediante triangolariz-
zazione) ed il Corollario a 2.2.9, `e facilmante dimostrabile il seguente
Teorema 2.2.17 Siano m, n N, K un campo e A K
m,n
. Allora
A `e equivalente per righe ad una matrice a scalini. Inoltre, se A
GL(n, K), allora `e equivalente per righe ad una matrice diagonale con
tutti gli elementi sulla diagonale principale non nulli.
2.3 Sistemi lineari
Denizione 2.3.1 Sia n N e K un campo. Deniamo equazione
lineare (a coecienti in K) nelle variabili x
1
, . . . , x
n
unequazione del
tipo
a
1
x
1
+. . . +a
n
x
n
= b a
i
, b K. (2.1)
Gli a
i
sono detti i coecienti dellequazione lineare e b il termine noto.
Se b = 0, lequazione si dice omogenea. Una soluzione di (2.1) `e una
n-pla (x
1
, . . . , x
n
) K
n
tale che
a
1
x
1
+. . . +a
n
x
n
= b.
Se n = 1, la (2.1) diventa
a
1
x
1
= b.
Se a
1
= 0, essa ha soluzione data da ba
1
1
. Se a
1
= 0 e b = 0 lequazione
non ha soluzione, mentre se a
1
= b = 0 ogni elemento c K ne `e
soluzione. In tal caso diciamo che (2.1) `e una identit`a.
Se n 2 e a
1
= 0, linsieme

b a
2
x
2
a
3
x
3
. . . a
n
x
n
a
1
, x
2
, . . . , x
n

x
2
, . . . , x
n
K

costituisce linsieme delle soluzioni di (2.1). In tal caso diciamo che (2.1)
ha
n1
soluzioni, intendendo che lequazione ha innite soluzioni ed
esse dipendono da n 1 parametri a cui si assegna un valore arbitrario
in K. Se a
1
= . . . = a
n
= 0 e b = 0 lequazione non ha soluzioni, mentre
se a
1
= . . . = a
n
= b = 0 ogni elemento c K
n
ne `e soluzione. In tal
caso diciamo che (2.1) `e una identit`a.
26
Denizione 2.3.2 Siano m, n N e K un campo. Deniamo sistema
lineare di m equazioni (lineari) a coecienti in K in n incognite x
1
, . . . , x
n
un sistema della forma
()

a
11
x
1
+. . . + a
1n
x
n
= b
1
a
21
x
1
+. . . +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+. . . +a
mn
x
n
= b
m
dove a
ij
, b
i
K. Gli a
ij
sono detti i coecienti del sistema ed i b
i
i
termini noti. Se b
i
= 0 per ogni i m
|
, il sistema si dice omogeneo. Una
soluzione di () `e una n-pla (x
1
, . . . , x
n
) K
n
che `e simultaneamente
soluzione di tutte le equazioni del sistema. Il sistema si dice compatibile
se ha una soluzione.
Se (

) `e un altro sistema lineare di m equazioni a coecienti in K


nelle incognite x
1
, . . . , x
n
, () e (

) si dicono equivalenti se hanno le


stesse soluzioni.
Osservazione Se () `e omogeneo, valgono:
(1) () `e sempre compatibile (in quanto (0, . . . , 0) ne `e soluzione);
(2) se (x
1
, . . . , x
n
) `e una soluzione di (), allora per ogni K la
n-pla (x
1
, . . . , x
n
) `e una soluzione ();
(3) se (x
1
, . . . , x
n
) e ( x
1
, . . . , x
n
) sono soluzioni di (), allora (x
1
+
x
1
, . . . , x
n
+ x
n
) `e soluzione ().
Per tutta questa sezione, quando parleremo di un sistema () inten-
deremo esattamente un sistema come quello in 2.3.2.
Denizione 2.3.3 Sia () un sistema. Deniamo sistema omogeneo
associato a () il sistema ottenuto da () ponendo b
i
:= 0 per ogni i m
|
.
Indicheremo il sistema omogeneo associato a () con (
om
).
Osservazione Valgono:
27
(1) se (x
1
, . . . , x
n
) `e soluzione di () e ( x
1
, . . . , x
n
) `e soluzione di (
om
),
allora (x
1
+ x
1
, . . . , x
n
+ x
n
) `e soluzione ();
(2) se (x
1
, . . . , x
n
) e ( x
1
, . . . , x
n
) sono soluzioni di (), allora (x
1

x
1
, . . . , x
n
x
n
) `e soluzione (
om
).
Utilizzando le precedenti osservazioni, si pu`o facilmente provare il seguente
Teorema 2.3.4 Sia () un sistema compatibile. Fissata (x
1
, . . . , x
n
)
soluzione particolare di (), ogni sua altra soluzione `e della forma (x
1
+
x
1
, . . . , x
n
+ x
n
), dove ( x
1
, . . . , x
n
) `e unarbitraria soluzione di (
om
).
Adesso ricorriamo al linguaggio delle matrici per rappresentare un
sistema.
Denizione 2.3.5 Sia () un sistema. Deniamo matrice associata a
(), la matrice A dei coecienti del sistema, ovvero A := (a
ij
)
1im
1jn
.
Deniamo vettore colonna delle incognite e vettore colonna dei termini
noti le matrici
X :=

x
1
.
.
.
x
n

e B :=

b
1
.
.
.
b
m

,
rispettivamente. Deniamo rango di ()
rg() := rg(A).
Deniamo matrice completa di (), la (m, n + 1)-matrice ottenuta ag-
giungendo ad A la colonna dei termini noti (e la denoteremo con A[B).
Usando queste notazioni, il sistema () si pu`o scrivere nella forma
A X = B,
detta forma matriciale del sistema.
Il nostro obiettivo `e adesso quello di studiare i sistemi, ovvero stabilire
quando sono compatibili;
28
eventualmente determinarne le soluzioni.
Pertanto ci dobbiamo fornire di strumenti che possano dare una risposta
ai precedenti quesiti. Il primo di essi `e un teorema che d` a condizioni
necessarie e sucienti anch`e un sistema sia compatibile.
Teorema 2.3.6 (Criterio di Rouch`e-Capelli) Sia () un sistema. Al-
lora () `e compatibile se, e solo se, rg(A) = rg(A[B).
La dimostrazione di questo importante risultato sar` a vista nellambito
dellAlgebra Lineare.
A questo punto sappiamo quando un sistema `e compatibile, vogliamo
eventualmente trovarne linsieme delle soluzioni. A tal ne premettiamo
la seguente
Denizione 2.3.7 Sia () un sistema di rango r. Deniamo determi-
nante principale del sistema un determinate di ordine r non nullo estratto
dall matrice associata al sistema. Le equazioni corrispondenti alle r righe
che danno il determinante principale si dicono equazioni principali e le
incognite corrispondenti alle r colonne che concorrono al determinante
principale si dicono incognite principali. Le equazioni o incognite che
non sono principali si dicono secondarie.
Non `e del tutto corretto parlare de il determinante principale di un si-
stema di rango r, poich`e dalla sua matrice associata si possono estrarre
diversi minori di ordine r con determinante non nullo. Tuttavia, nel
seguito dato un sistema supporremo di avere ssato un determinante
principale, e quindi le relative equazioni ed incognite principali del siste-
ma. La scelta di quale determinante principale considerare `e lasciata a
chi opera.
Criterio 2.3.8 Per risolvere un sistema lineare di m equazioni in n
incognite compatibile di rango r ci si riconduce ad un sistema di r equa-
zioni (le equazioni principali) in r incognite (le incognite principali) con-
siderando come parametri le n r incognite secondarie che compaiono
nelle r equazioni principali. Un sistema di questo tipo ammette
nr
soluzioni.
29
Pertanto `e importante studiare sistemi di r equazioni in r incognite di
rango r.
Denizione 2.3.9 Un sistema lineare di r equazioni in r incognite di
rango r si dice di Cramer.
Ovviamente un sistema di Cramer ammette ununica soluzione. Vediamo
come ottenerla.
Sia () un sistema di Cramer di rango r nelle incognite x
1
, . . . , x
r
e
consideriamo la sua forma matriciale
A X = B.
Poich`e A K
r,r
ed ha rango r, det A = 0 (cfr. Osservazione dopo 2.2.14).
Per il Teorema 2.2.12, A `e invertibile. Quindi posso moltiplicare ambo i
membri dellequazione matriciale per A
1
e si ottiene
(A
1
A) X = A
1
B,
ovvero, poich`e A
1
A = I
r
,
X = A
1
B.
Ma A
1
=
1
det A
Adj(A) (cfr. 2.2.13 e ci` o che segue), dunque si ha

x
1
x
2
.
.
.
x
r

=
1
det A

A
11
A
21
. . . A
r1
A
12
A
22
. . . A
r2
.
.
.
.
.
.
.
.
.
A
1r
A
2r
. . . A
rr

b
1
b
2
.
.
.
b
r

=
1
det A

b
1
A
11
+b
2
A
21
+ . . . +b
r
A
r1
b
1
A
12
+b
2
A
22
+. . . +b
r
A
r2
.
.
.
b
1
A
1r
+b
2
A
2r
+ . . . + b
r
A
rr

.
Quindi, per ogni j r
|
,
x
j
=
b
1
A
1j
+b
2
A
2j
+. . . +b
r
A
rj
det A
.
Pertanto abbiamo dimostrato il seguente
30
Teorema 2.3.10 (Cramer) Un sistema di Cramer in r incognite (con
matrice associata A) ammette ununica soluzione (x
1
, . . . , x
r
) dove, per
ogni k r
|
,
x
k
=
det A
(k)
det A
ed A
(k)
`e la matrice ottenuta da A sostituendo alla k-ma colonna di A la
colonna dei termini noti.
Inne introduciamo unultima denizione
Denizione 2.3.11 Sia () un sistema di rango r e sia il suo deter-
minante principale. Un determinate di ordine r+1 ottenuto aggiungendo
al determinante principale la riga dei coecienti delle incognite principali
di una equazione secondaria e la colonna dei termini noti corrispondenti
si dice un determinante caratteristico.
Il Teorema 2.3.6 pu` o essere formulato equivalentemente nella seguente
forma
Teorema 2.3.12 Sia () un sistema. Allora () `e compatibile se, e solo
se, tutti i suoi determinanti caratteristici sono nulli.
Applichiamo quanto visto sinora alla risoluzione del sistema a coe-
cienti in R

x +y z = 1
2x y + z = 1
x 2y + 2z = 2.
La matrice A associata a tale sistema `e

1 1 1
2 1 1
1 2 2

.
Poich`e la seconda e la terza colonna sono proporzionali, det A = 0. Si
vede subito che rg(A) = 2 ed il suo determinante principale (o meglio,
quello che scelgo) `e dato da
1 1
2 1
31
Quindi le equazioni principali del sistema sono la prima e la seconda e le
incognite principali x ed y. Se il sistema `e compatibile, i suoi determinanti
caratteristici devono essere nulli. In questo caso ho un solo determinante
caratteristico
1 1 1
2 1 1
1 2 2
che `e zero perch`e ha due colonne uguali. Quindi il sistema `e compati-
bile ed ammette
1
soluzioni. Assegno valore allincognita z. Devo
risolvere il sistema di Cramer (delle equazioni principali nelle incognite
principali)

x +y = 1 +
2x y = 1
che ha soluzioni
x =
1 + 1
1 1
1 1
2 1
e y =
1 1 +
2 1
1 1
2 1
.
Pertanto linsieme delle soluzioni `e dato da (0, 1 + , ) [ R.
Nellambito delle Esercitazioni abbiamo visto altri due metodi per
risolvere un sistema della forma

a
11
x
1
+. . . +a
1n
x
n
= b
1
a
21
x
1
+. . . +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+. . . +a
mn
x
n
= b
m
(a coecienti in R o C):
il metodo di sostituzione;
il metodo di eliminazione di Gauss.
Entrambi si utilizzano di fatto senza conoscere a priori informazioni sul
sistema (per esempio rg(A) e, quindi, se il sistema stesso sia compatibile
32
o meno) e si basano sulla seguente osservazione: se ad una equazione del
sistema al posto j si sostituisce una combinazione lineare delle equazioni
del sistema, ovvero una espressione della forma
m

i=1

i
(a
i1
x
1
+. . . +a
in
x
n
) =
m

i=1

i
b
i
con
1
, . . . ,
m
K e
j
= 0, si ottiene un sistema equivalente a quello
dato. Discutiamoli molto brevemente.
Metodo di sostituzione. Se a
11
= 0, si considera il sistema equivalente

x
1
=
a
12
a
11
x
2
. . .
a
1n
a
11
x
n
+b
1
a
21
x
1
+ . . . + a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+. . . +a
mn
x
n
= b
m
Sostituendo il valore di x
1
dato dalla prima equazione nelle restanti, si
ottiene un sistema equivalente. Di questo sistema equivalente, le ultime
m1 equazioni sono in n 1 incognite (x
2
, . . . , x
n
). Sia S
m1
il sistema
formato da queste m1 equazioni. Da una di esse, come prima, si ricava
il valore di una incognita in funzione delle restanti n 2, e cos` via.
Durante tale processo possono capitare
- equazioni della forma 0 = 0, che eliminiamo in quanto non danno
alcuna condizione sulle incognite cercate;
- equazioni della forma 0 = c = 0, che chiaramente ci dicono che il
sistema `e incompatibile.
Alla ne del procedimento, o si determina il valore di unincognita e,
procedendo a ritroso, si ottiene la soluzione del sistema, oppure restano
r incognite libere e tutte le altre incognite sono esprimibili in funzione
di esse. In tal caso il sistema ha
r
soluzioni (che si ottengono dando
valori arbitrari alle r incognite libere).
Metodo di eliminazione di Gauss. Di fatto, si agisce sulla matrice
completa del sistema mediante triangolarizzazione, ovvero ci si riduce
ad una matrice a scalini in cui, eventualmente, solo gli elementi ai posti
33
(i, i) ed (i, n+1) (che chiamiamo
ii
e
ii
, rispettivamente) della matrice
ottenuta siano diversi da 0. In tal modo ci si `e ricondotti ad un nuovo
sistema in cui ogni equazione `e della forma
jj
x
j
=
jj
, che sappiamo
rapidamente studiare.
Con tale metodo `e possibile calcolare anche linversa di una matrice
senza usare la formula dopo 2.2.13 (un esempio `e stato dato nelle Eserci-
tazioni).
34
Chapter 3
I vettori dello spazio ordinario
3.1 Vettori, combinazioni lineari, prodotto
scalare, vettoriale e misto
Consideriamo lo spazio ordinario della geometria euclidea. Se A e B sono
punti dello spazio distinti, il segmento di estremi A e B individua due
segmenti orientati

AB e

BA aventi stessa direzione (ovvero giacciono
sulla stessa retta), stessa lunghezza, ma orientazioni opposte.
Denizione 3.1.1 Sia

AB un segmento orientato dello spazio. De-
niamo modulo di

AB la lunghezza del segmento di estremi A e B e lo
indichiamo con [[

AB[[.
Due segmenti orientati

AB e

CD si dicono equipollenti se il punto
medio del segmento orientato

AD coincide col punto medio del segmento
orientato

BC.
Se A `e un punto dello spazio, il segmento orientato

AA `e semplicemente
il punto A. Da un punto di vista geometrico, due segmenti orientati

AB
e

CD sono equipollenti se, e solo se, A = B e C = D oppure hanno
stesso modulo, stessa direzione (ovvero giacciono su rette parallele) e
stesso verso. Molto importante `e questa
35
Proposizione 3.1.2 Sia S linsieme dei segmenti orientati dello spazio
e sia
:= (s, t) [ s, t S s `e equipollente a t.
Allora `e una relazione di equivalenza su S.
Denizione 3.1.3 Sia S linsieme dei segmenti orientati dello spazio e
sia come in 3.1.2. Le classi di equivalenza di S rispetto a si dicono
i vettori liberi dello spazio. Se u `e un vettore libero e A e B sono punti
dello spazio tali che u = [

AB]

(ovvero se

AB `e un rappresentante di u),
il segmento orientato

AB si dice il vettore u applicato in A, e si denota
anche con (u, A).
Deniamo modulo di u il modulo di un qualsiasi segmento orientato
che sia rappresentante di u.
Linsieme dei vettori liberi dello spazio, ovvero linsieme quoziente S/

,
si denoter`a con V
3
. Ovviamente per ogni vettore u esistono inniti rap-
presentanti (per ci` o che concerne le relazioni di equivalenza ed i concetti
correlati, consigliamo di rivedere la Sezione 1.2).
Un vettore u determina una traslazione dello spazio nel senso che, se
u = [

AB]

, di fatto diciamo come andare dal punto A al punto B. In tal


caso scriviamo anche che
A +u = B u = B A.
La rappresentazione del vettore u come BA sar` a molto comoda quando
tratteremo della Geometria Analitica dello spazio.
Per ogni punto dello spazio A, il segmento orientato

AA individua la
stessa classe di equivalenza rispetto alla relazione , che denoteremo con

0 e chiameremo il vettore nullo.


Osservazione Sia S
3
linsieme dei punti dello spazio. Fissato un punto
O S
3
(detto origine) ad ogni punto P di S
3
`e associato un unico vettore
u dato da [

OP]

. Viceversa, dato u V
3
esiste un unico punto P S
3
tale che u = [

OP]

. Pertanto, scelto il punto O esiste una biezione tra


linsieme dei vettori liberi dello spazio e linsieme dei vettori applicati in
O e, quindi, tra V
3
e S
3
.
36
Denizione 3.1.4 (Somma di vettori) Siano u, v V
3
. Deniamo
somma dei vettori u e v il vettore
u +v := [

AC]

,
se u = [

AB]

e v = [

BC]

.
La denizione `e ben posta, ovvero si pu` o provare che non dipende dai
rappresentanti scelti per i vettori u e v. Inoltre, per ottenere il vettore
u+v si adotta la cosiddetta regola del parallelogramma. Scegliamo come
rappresentanti dei vettori u e v due segmenti orientati aventi primo estre-
mo coincidente. Siano essi

AB ed

AC, rispettivamente (possiamo farlo
per lOssevazione prima di 3.1.4). Allora il vettore u +v = [

AD]

, dove
AD `e la diagonale del parallelogramma avente AB ed AC come lati non
paralleli.
Denizione 3.1.5 (Prodotto di un numero reale per un vettore)
Sia v V
3
e R. Deniamo prodotto del numero reale (o scalare)
per il vettore v il vettore
v :=

0 se = 0 o v =

0
avente stessa direzione e verso di v e [[v[[ = [[v[[ se > 0
avente stessa direzione e verso opposto di v e [[v[[ = [[v[[ altrimenti
Per ogni v V
3
, si vede subito che v +

0 =

0 +v = v e v + (v) =

0.
Pi` u in generale, si pu` o provare che
Proposizione 3.1.6 (V
3
, +) `e un gruppo abeliano.
Altre semplici ed utili propriet` a sono le seguenti.
Proposizione 3.1.7 Siano u, v V
3
e , R. Valgono:
(1) (u +v) = u + v;
(2) (u) = (u) = ()v;
(3) ( + )u = u +v;
37
(4) 1u = u;
(5) [[u +v[[ [[u[[ +[[v[[.
Un concetto fondamentale, che ritroveremo quando parleremo di spazi
vettoriali, `e quello di lineare dipendenza di vettori dello spazio.
Denizione 3.1.8 Siano u
1
, . . . , u
n
V
3
e
1
, . . . ,
n
R. Deniamo
combinazione lineare dei vettori u
1
, . . . , u
n
di coecienti
1
, . . . ,
n
il
vettore

1
u
1
+. . . +
n
u
n
.
I vettori u
1
, . . . , u
n
si dicono linearmente dipendenti se esiste (
1
, . . . ,
n
)
R
n
` (0, . . . , 0) tale che
1
u
1
+ . . . +
n
u
n
=

0.
Quindi i vettori u
1
, . . . , u
n
si dicono linearmente indipendenti se:

1
u
1
+. . . +
n
u
n
=

0 =
1
= . . . =
n
= 0.
Osservazione Siano u
1
, . . . , u
n
V
3
.
(1) Se esiste i n
|
tale che u
i
=

0, allora u
1
, . . . , u
n
sono linearmente
dipendenti;
(2) se esistono h < n e 1 j
1
< . . . < j
h
n tali che u
j
1
, . . . , u
j
h
sono
linearmente dipendenti, allora u
1
, . . . , u
n
sono linearmente dipen-
denti;
(3) u
1
, . . . , u
n
sono linearmente dipendenti se, e solo se, esiste i n
|
e
1
, . . . ,
i1
,
i+1
, . . . ,
n
R tali che
u
i
=
1
u
1
+ . . . +
i1
u
i1
+
i+1
u
i+1
+. . . +
n
u
n
.
La dimostrazione di queste propriet`a `e un esercizio semplicissimo. La
(3) `e particolarmente importante: un insieme di vettori `e linearmente
dipendente se, e solo se, un vettore di essi si pu`o esprimere come combi-
nazione lineare dei restanti.
38
Denizione 3.1.9 Due vettori u, v di V
3
si dicono paralleli se hanno la
stessa direzione.
Tre (o pi` u) vettori u, v, w di V
3
si dicono complanari se hanno di-
rezioni parallele ad uno stesso piano.
Vale il seguente risultato (la cui dimostrazione `e stata data a lezione, ma
non riportata in queste note).
Teorema 3.1.10 Siano u
1
, . . . , u
n
V
3
. Valgono:
(1) u
1
`e linearmente dipendente se, e solo se, u
1
=

0;
(2) u
1
, u
2
sono linearmente dipendenti se, e solo se, u
1
ed u
2
sono
paralleli;
(3) u
1
, u
2
, u
3
sono linearmente dipendenti se, e solo se, u
1
, u
2
, u
3
sono
complanari;
(4) Per ogni n 4, u
1
, . . . , u
n
sono linearmente dipendenti.
Corollario Valgono le seguenti propriet`a:
(1) il numero massimo di vettori linearmente indipendenti di V
3
`e 3;
(2) se u
1
, u
2
sono vettori linearmente indipendenti di V
3
, allora per ogni
vettore v complanare con essi esistono, e sono unici,
1
,
2
in R
tali che
v =
1
u
1
+
2
u
2
.
In particolare, al variare di
1
,
2
in R si ottengono tutti i vettori
del piano vettoriale V
2
individuato da u
1
e u
2
.
Se u
1
=

0, gli elementi dellinsieme u
1
[ R costituiscono la retta
vettoriale V
1
individuata da u
1
.
Denizione 3.1.11 Una terna di vettori u
1
, u
2
, u
3
di V
3
linearmente in-
dipendenti si dice una base di V
3
. Diciamo anche che V
3
ha dimensione
3 (mentre V
2
ha dimensione 2 e V
1
ha dimensione 1).
Una base u
1
, u
2
, u
3
di V
3
si dice positiva se la pi` u piccola rotazione
nel piano individuato da u
1
ed u
2
che sovrappone u
1
ad u
2
`e vista dal
semispazio individuato da u
3
in senso antiorario.
39
Assegnata una base B := u
1
, u
2
, u
3
di V
3
per ogni v V
3
esistono, e
sono univocamente determinati,
1
,
2
,
3
R tali che
v =
1
u
1
+
2
u
2
+
3
u
3
.
Gli scalari
1
,
2
,
3
si dicono anche le componenti di v rispetto alla base B
(e scriveremo v = (
1
,
2
,
3
)). Occorre sempre precisare la base rispetto
alla quale si considerano le componenti di un vettore: solo il vettore nullo
ha le stesse componenti rispetto a qualsiasi base di V
3
(e sono (0, 0, 0)).
Osservazione Fissata una base B di V
3
, ad ogni vettore u si associa la
terna (u
1
, u
2
, u
3
) delle sue componenti rispetto alla base B. In pratica,
si identica V
3
con R
3
. In tal modo le operazioni di somma tra vettori e
di prodotto di uno scalare per un vettore si traducono in operazioni sulle
terne di numeri reali. Infatti, se u = (u
1
, u
2
, u
3
), v = (v
1
, v
2
, v
3
) e R,
u +v = (u
1
+v
1
, u
2
+ v
2
, u
3
+v
3
)
e
u = (u
1
, u
2
, u
3
).
Inoltre
u ev sono paralleli
u
1
v
1
=
u
2
v
2
=
u
3
v
3
,
e se w = (w
1
, w
2
, w
3
) V
3
u, v e wsono linearmente dipendenti
u
1
v
1
w
1
u
2
v
2
w
2
u
3
v
3
w
3
= 0.
Cerchiamo di capire il perch`e dellultima equivalenza. Se u, v, w sono
linearmente dipendenti esiste (
1
,
2
,
3
) R
3
` (0, 0, 0) tale che

1
(u
1
, u
2
, u
3
) +
2
(v
1
, v
2
, v
3
) +
3
(w
1
, w
2
, w
3
) = (0, 0, 0),
che si traduce nel sistema omogeneo di tre equazioni nelle tre incognite

1
,
2
,
3

1
u
1
+
2
v
1
+
3
w
1
= 0

1
u
2
+
2
v
2
+
3
w
2
= 0

1
u
3
+
2
v
3
+
3
w
3
= 0
40
Questo sistema deve ammettere una soluzione diversa da (0, 0, 0), ovvero
non deve essere di Cramer, dunque il rango della matrice associata deve
essere al pi` u 2. Ma questo `e equivalente a dire che
u
1
v
1
w
1
u
2
v
2
w
2
u
3
v
3
w
3
= 0.
Per 2.2.2, la condizione `e equivalente anche a
u
1
u
2
u
3
v
1
v
2
v
3
w
1
w
2
w
3
= 0.
Pi` u in generale, rg

u
1
u
2
u
3
v
1
v
2
v
3
w
1
w
2
w
3

coincide col numero di vettori li-


nearmente indipendenti tra u, v e w (e le righe che concorrono al minore
di ordine massimo con determinante non nullo ci indicano i vettori tra
u, v e w che sono linearmente indipendenti). Invitiamo a rivedere a tal
proposito 2.2.7.
Osservazione (Cambiamento di base) Se B := e
1
, e
2
, e
3
e B

:=
e

1
, e

2
, e

3
sono basi di V
3
e (a
1i
, a
2i
, a
3i
) sono le componenti di e

i
rispetto
alla base B, la matrice A := (a
ij
)
1i3
1j3
ha determinante non nullo, ed `e
detta la matrice del cambiamento dalla base B alla base B

, mentre A
1
`e la matrice del cambiamento dalla base B

alla base B. Le basi le diremo


equiverse se det A > 0, controverse in caso contrario.
Lessere equiverse `e una relazione dequivalenza (provatelo per esercizio).
In generale, se v = (a, b, c) rispetto alla base B e v = (a

, b

, c

) rispetto a
B

a
b
c

= A

.
Denizione 3.1.12 (Prodotto scalare) Deniamo prodotto scalare tra
41
vettori di V
3
una funzione
: V
3
V
3
R, (u, v) uv :=

0 se u =

0 o v =

0
[[u[[ [[v[[ cos

uv altrimenti.
Propriet` a semplici del prodotto scalare sono le seguenti.
Proposizione 3.1.13 Siano u, v, w V
3
e R. Valgono:
(1) u v = v u;
(2) (u v) = (u) v = u (v);
(3) u (v + w) = u v +u w;
(4) u u = [[u[[
2
;
(5) cos

uv =
uv
||u||||v||
.
Denizione 3.1.14 Siano u, v V
3
. Diciamo che u e v sono ortogonali
se u v = 0 ed ortonormali se sono ortogonali e [[u[[ = [[v[[ = 1. I vettori
il cui modulo `e 1 sono detti anche versori. In particolare, deniamo
versore di u
vers u :=
u
[[u[[
.
Una base

i,

j,

k di V
3
si dice ortonormale se

i,

j,

k sono versori mu-


tualmente ortogonali.
Il lavorare con basi ortonormali di V
3
`e essenziale, perch`e permette di sem-
plicare le regole per il calcolo del prodotto scalare tra vettori e quindi per
quello dellangolo tra vettori e del modulo di un vettore. Vediamo come.
Sia

i,

j,

k base ortonormale di V
3
e siano u, v V
3
le cui componenti
rispetto alla base scelta sono (u
1
, u
2
, u
3
) e (v
1
, v
2
, v
3
), rispettivamente.
Ovvero,
u = u
1

i +u
2

j +u
3

k e v = v
1

i + v
2

j + v
3

k.
Sapendo che

j =

k =

k = 0 e

i

i =

k

k =

j = 1,
42
applicando 3.1.13 si ha
u v = u
1
v
1
+u
2
v
2
+ u
3
v
3
, [[u[[ =

u
2
1
+u
2
2
+u
2
3
,
e quindi
cos

uv =
u
1
v
1
+u
2
v
2
+u
3
v
3

u
2
1
+ u
2
2
+u
2
3

v
2
1
+v
2
2
+ v
2
3
.
Se u =

0,
cos

iu =
u
1
[[u[[
, cos

ju =
u
2
[[u[[
, cos

ku =
u
3
[[u[[
si dicono i coseni direttori di u e sono le componenti rispetto alla base

i,

j,

k di vers u. In particolare, la somma dei quadrati dei coseni diret-


tori di un vettore non nullo `e pari ad 1.
Denizione 3.1.15 Siano u, v V
3
con u =

0. Deniamo componente
ortogonale di v rispetto al vettore u il numero reale
v
u
:= [[v[[ cos

uv = v vers u.
La proiezione ortogonale di v sulla retta vettoriale individuata da u `e il
vettore
v
u
:= v
u
vers u.
Dal punto di vista geometrico, se

AB `e il rappresentante del vettore v,
allora v
u
`e il vettore avente come rappresentante il segmento orientato

, dove A

e B

sono le intersezioni di una ssata retta r parallela ad u


coi piani passanti per i punti A e B e perpendicolari a r, rispettivamente.
Segue subito che,
u v = [[u[[v
u
= [[v[[u
v
, cio`e il prodotto scalare di due vettori `e
uguale al modulo delluno per la componente ortogonale dellaltro
rispetto al primo;
v
u
= [[v[[ cos

uv
u
||u||
=
uv
||u||
2
u.
43
Si pu` o parlare anche di proiezione ortogonale di un vettore v = [

AB]

su
di un piano . Esso `e il vettore avente come rappresentante il segmento
orientato

, dove A

e B

sono i punti di appartenenti alle rette per


A e per B e perpendicolari ad , rispettivamente.
Denizione 3.1.16 (Prodotto vettoriale) Deniamo prodotto vetto-
riale tra vettori di V
3
una funzione
: V
3
V
3
V
3
, (u, v) uv :=

0 se u `e parallelo a v
w
dove w `e ortogonale a u e v, di verso tale che la base u, v, w sia positiva
e con modulo
[[ w[[ = [[u[[ [[v[[ sin

uv.
Supponendo di considerare come rappresentanti dei vettori u e v due
segmenti orientati applicati nello stesso punto, [[uv[[ `e larea del paral-
lelogramma aventi come lati non paralleli quei due segmenti orientati.
Per il prodotto vettoriale valgono le seguenti semplici propriet`a.
Proposizione 3.1.17 Siano u, v, w V
3
e R. Allora:
(1) u v = v u;
(2) (u) v = u (v) = (u v);
(3) u (v + w) = u v +u w.
Come per il prodotto scalare, lavorare con basi ortonormali di V
3
per-
mette di semplicare le regole per il calcolo del prodotto vettoriale tra
vettori. Infatti, sia

i,

j,

k base ortonormale di V
3
e siano u, v V
3
,
u = u
1

i +u
2

j +u
3

k e v = v
1

i +v
2

j +v
3

k.
Sapendo che

j =

k,

k

i =

j,

j

k =

i e

i

i =

j =

k

k =

0,
44
applicando 3.1.17 si ha
u v = (u
2
v
3
u
3
v
2
)

i + (u
3
v
1
u
1
v
3
)

j + (u
1
v
2
u
2
v
1
)

k =

i

j

k
u
1
u
2
u
3
v
1
v
2
v
3
.
Denizione 3.1.18 (Prodotto misto) Siano u, v, w V
3
. Deniamo
prodotto misto dei vettori u, v e w il numero reale
(u v) w R.
Osserviamo subito che abbiamo scritto (u v) w, ma potevamo anche
omettere di introdurre le parentesi: lordine delle operazioni `e univoca-
mente determinato.
Sia

i,

j,

k base ortonormale di V
3
e u, v, w V
3
,
u = (u
1
, u
2
, u
3
), v = (v
1
, v
2
, v
3
) e w = (w
1
, w
2
, w
3
).
Allora, applicando le regole di calcolo per il predotto vettoriale e quello
scalare, si ha
(uv) w = (u
2
v
3
u
3
v
2
, u
1
v
3
+u
3
v
1
, u
1
v
2
u
2
v
1
)(w
1
, w
2
, w
3
) =
u
1
u
2
u
3
v
1
v
2
v
3
w
1
w
2
w
3
.
Pertanto, per 2.2.3, permutando i tre vettori il prodotto vettoriale pu` o
al pi` u cambiare di segno.
Proposizione 3.1.19 Siano u, v, w V
3
. Allora:
(1) (u v) w =

0 se, e solo se, w `e parallelo ad u v, ovvero `e
complanare con i vettori u e v;
(2) Se u, v, w non sono complanari, (u v) w `e positivo (negativo,
rispettivamente) se u, v, w formano una base positiva (negativa,
rispettivamente) di V
3
.
Supponendo di considerare come rappresentanti dei vettori linearmente
indipendenti u, v e w tre segmenti orientati applicati nello stesso punto,

OA,

OB ed

OC, rispettivamente, [(u v) w[ `e il volume del parallelepi-
pedo avente come spigoli concorrenti nello stesso vertice i rappresentanti
dei tre vettori (ovvero 6 volte il volume del tetraedro OABC).
45