Sei sulla pagina 1di 79

1 Teoria degli Insiemi

Il concetto di insieme `e unidea primitiva, per la quale non si fornir` a pertanto alcuna denizione. Si
ammetter`a dunque come intuitiva la nozione di insieme di elementi.
La teoria degli insiemi che sar`a descritta in questo capitolo non far` a riferimento a particolari
insiemi, e tutte le nozioni, le denizioni e i risultati che verranno presentati avranno un vastissimo
campo di applicazione, non essendovi dipendenza dalla natura degli elementi costituenti un determinato
insieme.
Indicheremo gli insiemi con lettere maiuscole e gli oggetti che li costituiscono, detti elementi, con
lettere minuscole.
Un insieme pu`o essere denito in maniera analitica, se sono elencati tutti i suoi elementi, o in maniera
sintetica, se i suoi elementi sono deniti mediante una propriet`a caratteristica.
Esempio 1.1. Denizione analitica: S = (1, 3, 5, 7, 9).
Denizione sintetica S = {insieme di tutti i numeri dispari minori di 10}.
Denizione 1.2. Per indicare che a `e un elemento di S, si scrive a S e si legge a appartenente ad
S, oppure a appartiene ad S. Invece la scrittura a S indica che a non appartiene ad S, cio`e che a
non `e un elemento di S.
Esempio 1.3.
S = le marmellate prodotte dalla ELVEA
T = {1, 2, 3}
S e T sono esempi di insiemi. Chiaramente se a = la marmellata di arance ELVEA, risulta che a
`e un elemento di S, i.e. a S. Invece se b = la marmellata di castagne SantaRosa, b S.
Ancora, sia a = 2, risulta a T, b = 4, b T. Se a e b T, il simbolo a = b indica che a e b
denotano lo stesso elemento di T, al contrario a = b sta ad indicare che a e b denotano due elementi
distinti.
`
E opportuno adoperare alcuni simboli per sintetizzare frasi di uso corrente.
Denizione 1.4 (Quanticatore esistenziale). Lespressione Esiste almeno un x tale che . . . si indica
con x| . . . . Il simbolo `e detto quanticatore esistenziale.
Denizione 1.5 (Quanticatore universale). Lespressione per ogni x, qualunque sia x, si rappresenta
con x. Analogamente le frasi per ogni x ed y e qualunque siano x ed y si indicano con x, y. Il
simbolo `e detto quanticatore universale.
Denizione 1.6 (Insiemi uguali). Due insiemi, S e T, sono uguali se contengono gli stessi elementi,
se cio`e x S implica x T, x S e se y T implica y S, y T.
Denizione 1.7 (Diagrammi di Eulero-Venn). Per la rappresentazione graca degli insiemi, si possono
utilizzare i diagrammi di Eulero-Venn. Questo metodo di rappresentazione consiste nel visualizzare tutti
gli elementi dellinsieme ponendoli allinterno di una linea chiusa, in prossimit` a della quale si indica il
nome dellinsieme stesso.
Denizione 1.8 (Sottoinsiemi o parti di un insieme.). Sia S un insieme. Diremo che un insieme X `e
sottoinsieme di S se ogni elemento di X `e anche un elemento di S. Per dire che X `e un sottoinsieme
di S si scrive X S e si legge X incluso in S . Il simbolo `e il simbolo di inclusione in senso largo,
in quanto potrebbe anche aversi X = S ed in questo caso si parla di sottoinsieme improprio. Per
precisare che esiste almeno un un elemento di S che non appartiene ad X, si scrive X S ed il simbolo
, che `e detto di inclusione stretta, evidenzia che X = S. In questo caso X `e un sottoinsieme
proprio di S. Le scritture X S e X S indicano che X non `e un sottoinsieme, improprio ne
proprio, di S.
1
Figura 1: Sottoinsieme proprio
Esempio 1.9 (Sottoinsiemi di un insieme). Consideriamo gli insiemi S = {a, e}, T = {y|y `e una vocale}.
S `e un sottoinsieme proprio di T e si scrive S T.
Denizione 1.10 (Sottoinsieme vuoto). Si chiama sottoinsieme vuoto e si indica con , linsieme
che non contiene alcun elemento di S.
Denizione 1.11 (Insieme delle parti di S). Linsieme i cui elementi sono tutti i sottoinsiemi di S `e
detto insieme delle parti di S e si denota con P(S). Gli elementi di P(S) sono quindi degli insiemi,
va perci` o osservato, ad esempio, che mentre a indica un elemento di S, il simbolo {a} indica un elemento
di P(S), e precisamente il sottoinsieme di S costituito dal solo elemento a. Inoltre P(S).
Esempio 1.12. Si consideri linsieme S = {3, 6, 89}, linsieme delle parti di S,
P(S) = {, S, {3}, {6}, {89}, {3, 6}, {3, 89}, {6, 89}}
Figura 2: Esempio 1.12
`
E possibile dimostrare che se S `e costituito da n elementi, allora P(S) `e costituito da 2
n
elementi.
Esempio 1.13. Sia S linsieme costituito dai numeri reali positivi. I sottoinsiemi
X = {x S : x`e un intero divisibile per 4} e Y = {x S : x`e un numero pari }
sono tali che X Y .
2
Denizione 1.14 (Partizione di un insieme). Si denisce partizione di un insieme S un qualsiasi
sottoinsieme dellinsieme delle parti di S, (P(S)), composto da sottoinsiemi di S a due a due disgiunti
e la cui unione `e S.
Ovviamente un insieme S pu` o ammettere partizioni diverse.
Esempio 1.15. Sia S = {a, b, c, d}, allora S
1
= {a, c} e S
2
= {b, d} costituiscono una partizione di
S, infatti S
1
, S
2
S, S
1
S
2
= e S
1
S
2
= S. Invece S
3
= {a, c, d} e S
4
= {a, b}, pur essendo
sottoinsiemi di S la cui unione `e S, non costituiscono una partizione di S, poiche non sono disgiunti.
Denizione 1.16 (Unione, intersezione e complemento). Sia S un insieme e siano X e Y due sottoin-
siemi di S, si dice unione di X e Y e si indica con
X Y
il sottoinsieme di S costituito dagli elementi che appartengono ad X oppure (senza esclusivit` a) ad Y .
Figura 3: Unione
Esempio 1.17. Sia S linsieme costituito dai numeri reali positivi. Siano
X = {x S : x `e un intero dispari}
e
Y = {x S : x `e un numero pari },
si vede che
X Y = {x S : x `e un numero intero}
Figura 4: Esempio 1.17
Denizione 1.18 (Propriet`a dellunione). Sia S un insieme e siano X, Y e Z tre suoi sottoinsie-
mi.Valgono le seguenti
X X = X propriet`a di idempotenza
X Y = Y X propriet`a commutativa
(X Y ) Z = X (Y Z) propriet`a associativa.
3
Denizione 1.19. Pi` u in generale, detti X
1
, X
2
, . . . , X
k
k sottoinsiemi di S (non necessariamente
distinti), si dice unione di essi, il sottoinsieme di S:
X
1
X
2
. . . X
k
=
k

i=1
X
i
che `e costituito dagli elementi di S che appartengono ad almeno uno degli insiemi dati.
La nozione di unione di insiemi si pu` o ulteriormente generalizzare. Sia I una famiglia di indici ed
{X
i
: i I} una famiglia di sottoinsiemi di S, si denisce unione della famiglia

iI
X
i
, il sottoinsieme
di S costituito dagli elementi di S che appartengono ad almeno un X
i
.
Denizione 1.20 (Intersezione di insiemi). Sia S un insieme ed X ed Y due suoi sottoinsiemi. Si
denisce intersezione di X ed Y e si denota con
X Y
il sottoinsieme di S costituito dagli elementi che appartengono sia ad X che ad Y .
I sottoinsiemi X e Y si dicono disgiunti se la loro intersezione `e linsieme vuoto, i.e.: X Y = .
Figura 5: Intersezione
Esempio 1.21. Sia S linsieme costituito dagli animali da cortile e siano
X = {x S : x `e unoca o un coniglio}
ed
Y = {x S : x `e un bipede da cortile }.
Risulta
X Y = {x S : x `e un oca}
Denizione 1.22 (Propriet`a dellintersezione). Sia S un insieme e siano X, Y e Z tre suoi sottoinsie-
mi.Valgono le seguenti
X X = X propriet`a di idempotenza
X Y = Y X propriet`a commutativa
(X Y ) Z = X (Y Z) propriet`a associativa.
Denizione 1.23 (Intersezione di insiemi). Pi` u in generale, detti X
1
, X
2
, . . . , X
k
k sottoinsiemi di S
(non necessariamente distinti), si dice intersezione di essi, il sottoinsieme di S:
X
1
X
2
. . . X
k
=
k

i=1
X
i
che `e costituito dagli elementi di S ognuno dei quali gode della propriet` a di appartenere a ciascuno degli
insiemi dati.
4
La nozione di intersezione di insiemi si pu`o ulteriormente generalizzare. Sia I una famiglia di indici
ed {X
i
: i I} una famiglia di sottoinsiemi di S, si denisce intersezione della famiglia

iI
X
i
, il
sottoinsieme di S costituito dagli elementi di S ognuno dei quali gode della propriet` a di appartenere a
ciascun X
i
.
Esempio 1.24. Siano X ed Y due sottoinsiemi di S, dove S `e linsieme dei numeri reali, deniti da
X = {x S : x `e un numero pari}
Y = {x S : x `e un numero dispari}
risulta che X Y = .
Denizione 1.25 (Propriet`a distributiva dellunione e dellintersezione). Sia S un insieme ed X, Y e
Z tre suoi sottoinsiemi. Valgono le seguenti
(X Y ) Z = (X Z) (Y Z) propriet`a distributiva dellunione rispetto allintersezione.
(X Y ) Z = (X Z) (Y Z) propriet`a distributiva dellintersezione rispetto allunione.
Figura 6: Prima propriet` a distributiva dellunione e dellintersezione
Queste relazioni si estendono a collezioni qualsiasi di sottoinsiemi di S, risulta, infatti, che se {X
i
}
iI
ed Y sono sottoinsiemi di S, allora:
(

iI
X
i
) Y =

iI
(X
i
Y )
5
e
(

iI
X
i
) Y =

iI
(X
i
Y ).
Esempio 1.26. Siano X = {a, b, c}, Y = {c, d, e} e Z = {c, a, e, f}, allora (X Y ) Z = {c}
{c, a, e, f} = {a, c, e, f}, (X Z) (Y Z) = {a, b, c, e, f} {a, c, d, e, f} = {a, c, e, f}.
Inoltre (XY )Z = {a, b, c, d, e}{a, c, e, f} = {a, c, e} e (XZ)(Y Z) = {a, c}{c, e} = {a, c, e}.
Osservazione 1.27. In generale, si ha ovviamente che X XY e Y XY . In pi` u XY XY
ed `e chiaro che XY = X Y X; inoltre x / XY se e solo se x / X e x / Y . Ancora, XY X
e X Y Y , mentre X Y = Y Y X. Ovviamente x / X Y se e solo se x / X o x / Y .
Aggiungiamo poi che
X Y = X X Y = Y,
X (X Y ) = X, X (X Y ) = X
Denizione 1.28 (Insieme complemento). Sia X un sottoinsieme di S. Si dice complemento di X
rispetto ad S, e si denota con S \ X o X, il sottoinsieme di S costituito dagli elementi di S che non
appartengono ad X.
Figura 7: Complemento
Chiaramente
S =
e
= S
Ed ancora
S \ X = X
X X =
X X = S
Esempio 1.29. Sia S linsieme dei numeri interi positivi ed X il sottoinsieme costituito dai numeri
pari. Chiaramente, risulta: X = {x S : x `e un numero dispari}. Inoltre se X `e il sottoinsieme di S
costituito dai numeri pari ed Y `e il sottoinsieme di S costituito dai numeri divisibili per 8, risulta che
X \ Y = {x X : x `e pari ma non divisibile per 8}.
6
Denizione 1.30 (Dierenza simmetrica di insiemi o unione disgiunta).
`
E opportuno introdurre anche
la nozione di Dierenza simmetrica di due insiemi. Siano S un insieme, A e B due suoi sottoinsiemi.
Si denisce Dierenza simmetrica di A e B e si indica con A B, linsieme costituito dagli elementi
che appartengono ad A \ B oppure a B \ A, i.e.
A B = (A \ B) (B \ A),
o ancora, equivalentemente
A B = (A B) \ (A B).
Figura 8: Dierenza simmetrica
`
E possibile vedere che
A A = ,
A = A
AB = B A propriet`a commutativa
A (B C) = (A B) C propriet`a associativa
Esempio 1.31. Sia A = {1, 4, 5, 70} e B = {1, 2, 5, 89}, risulta che
A B = {4, 70, 2, 89}.
Figura 9: Esempio 1.31
Denizione 1.32 (Relazione di De Morgan). Siano A e B due sottoinsiemi di S. Si verica facilmente
che
(A B) = A B (I relazione di De Morgan)
e
(A B) = A B (II relazione di De Morgan).
Tali relazioni si estendono anche al caso di unioni ed intersezioni di famiglie di insiemi. Risulta,
infatti, che se {X
i
}
iI
e una collezione di sottoinsiemi di S,
S \ (
iI
X
i
) =
iI
(S \ X
i
) (I relazione di De Morgan)
e
S \ (
iI
X
i
) =
iI
(S \ X
i
) (II relazione di De Morgan).
7
Esempio 1.33. Sia S = {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}, A = {1, 2, 3, 5, 6, 7} e B = {6, 7, 8, 9, 10}.
Si ha
A = {4, 8, 9, 10} B = {1, 2, 3, 4, 5}
A B = {6, 7},
A B = {1, 2, 3, 4, 5, 8, 9, 10}
e
A B = {1, 2, 3, 4, 5, 8, 9, 10}.
Ancora
A B = {1, 2, 3, 5, 6, 7, 8, 9, 10},
A B = {4},
A B = {4}.
Figura 10: Esempio 1.33
Denizione 1.34 (Prodotto cartesiano di insiemi). Dati gli insiemi X
1
, X
2
, . . . , X
k
, si chiama prodotto
cartesiano di X
1
, X
2
, . . . , X
k
e si denota con
X
1
X
2
X
k
,
linsieme i cui elementi sono le k-uple ordinate (x
1
, x
2
, . . . , x
k
) con x
1
X
1
, x
2
X
2
, . . . , x
k
X
k
.
Gli insiemi X
1
, X
2
, . . . , X
k
si chiamano rispettivamente primo fattore, secondo fattore . . . , k-esimo
fattore del prodotto cartesiano e gli elementi x
1
, x
2
, . . . , x
k
prima coordinata, seconda coordinata, . . . ,
k-esima coordinata dellelemento (x
1
, x
2
, . . . , x
k
).
Se gli insiemi X
1
, X
2
, . . . , X
k
sono tutti uguali fra loro e coincidenti con un dato insieme X, il loro
prodotto cartesiano si denota con X
k
.
Esempio 1.35. Sia X
1
= {1, 2, 3} e X
2
= {a, b}, il prodotto cartesiano X
1
X
2
e dato da:
X
1
X
2
= {(1, a), (1, b), (2, a), (2, b), (3, a), (3, b)}.
`
E evidente che X
1
X
2
= X
2
X
1
. Quindi il prodotto cartesiano non gode della proprieta com-
mutativa. Ed inoltre se X
1
`e costituito da n elementi e X
2
`e costituito da m elementi, allora X
1
X
2
`e
composto da m n elementi.
8
Osservazione 1.36. Il termine prodotto cartesiano deriva dalla Geometria. Siano R linsieme dei
numeri reali e un piano in cui stato ssato un riferimento cartesiano. Ogni punto P di pu` o essere
identicato con la coppia (x, y) R R, dove x `e lascissa di P e y la sua ordinata. Dunque, il piano
della geometria euclidea pu`o essenre identicato con il prodotto cartesiano
R R = R
2
= {(x, y)|x, y R}
Cos` anche per lo spazio della geometria euclidea che pu` o essere identicato son il prodotto cartesiano
R
3
= {(x, y, z)|x, y, z R}
Pi` u in generale, uno spazio euclideo n-dimensionale si identica con linsieme delle n-uple ordinate
di numeri reali
R
n
= {(x
1
, x
2
, . . . . . . , x
n
)|x
i
Ri = 1, 2, . . . . . . , n}
Esempio 1.37. Un rettangolo R R
2
`e il prodotto cartesiano di due intervalli
R = {(x, y) R
2
|a x b, c y d} = I J,
dove I = {x R|a x b} e J = {y R|c y d}.
Denizione 1.38 (Propriet`a del prodotto cartesiano). Sia S un insieme ed A, B e C tre suoi sottoin-
siemi, `e facile vericare che
(X Y ) Z = (X Z) (Y Z) e X (Y Z) = (X Y ) (X Z)
propriet`a distributiva del prodotto rispetto allunione;
(X Y ) Z = (X Z) (Y Z) e X (Y Z) = (X Y ) (X Z)
propriet`a distributiva del prodotto rispetto allintersezione;
(X \ Y ) Z = (X Z) \ (Y Z) e X (Y \ Z) = (X Y ) \ (X Z)
propriet`a distributiva del prodotto rispetto al complemento.
Inoltre valgono le seguenti:
(X Y ) (Z V ) = (X Z) (Y V )
(X Y ) (Z V ) = (X Z) (X V ) (Y Z) (Y V )
(X Z) \ (Y V ) = ((X \ Y ) Z) (X (Z \ V )).
9
5 Vettori in in R
n
Denizione 5.1 (Vettore in R
n
) Si denisce vettore ad n componenti reali una n-pla ordinata
di numeri reali. Le componenti del vettore possono essere disposte in colonna (vettore colonna):
a =

a
1
a
2
.
.
.
a
n

oppure su una riga i.e. a = (a


1
a
2
. . . a
n
) (vettore riga). I vettori vengono indicati con una lettera
minuscola in grassetto.
Esempio 5.1 Il vettore
a =

1
2
.
.
.
4

`e un vettore colonna. Il vettore


a = (1 2 . . . 4)
`e un vettore riga.
Denizione 5.2 (Rappresentazione geometrica di un vettore) Dato un riferimento cartesiano
xOy (nel piano) o Oxyz (nello spazio) un vettore v `e interpretabile come un segmento orientato
dallorigine O verso il punto le cui coordinate sono le componenti di v.
Denizione 5.3 (Uguaglianza fra vettori) Due vettori u e v sono uguali se le componenti cor-
rispondenti coincidono.
Esempio 5.2 Se u = (1, 3, 4) e v = (1, 3, 4) sono uguali, invece u = (1, 3, 4) e w = (1, 4, 3) non sono
uguali, poich`e la seconda e la terza componente sono diverse.
Denizione 5.4 (Prodotto di un vettore per uno scalare) Dato un vettore a ed uno scalare ,
il prodotto di a per lo scalare `e dato da: a = (a
1
, a
2
, . . . , a
n
).
Denizione 5.5 (Rappresentazione geometrica del prodotto di un vettore per uno scalare)
Con loperazione di prodotto di un vettore per uno scalare si ottiene un altro vettore che ha la stessa
direzione del vettore da moltiplicare e verso coincidente con quello del primo vettore se lo scalare `e
maggiore di zero, opposto se lo scalare `e negativo. Inoltre la lunghezza del nuovo vettore `e pari al
prodotto della lunghezza del vettore originario per il valore assoluto dello scalare.
Denizione 5.6 (Somma di vettori) I vettori a = (a
1
, a
2
, . . . , a
n
) e b = (b
1
, b
2
, . . . , b
n
) possono
essere sommati se hanno lo stesso numero di componenti. Il vettore somma `e a + b = (a
1
+ b
1
, a
2
+
b
2
, . . . , a
n
+ b
n
).
Loperazione di addizione tra vettori ammette la seguente interpretazione geometrica: il vettore
somma `e dato dalla diagonale passante per O del parallelogramma che ha per lati i due vettori addendi.
1
2
1
a=(2,1)
Figure 1: Rappresentazione geometrica del vettore a = [2, 1]
Denizione 5.7 (Prodotto scalare euclideo) Si denisce prodotto scalare di due vettori u e v,
e si indica con uv, lo scalare ottenuto sommando i prodotti delle componenti omologhe. Cio`e se
u = (u
1
, u
2
, . . . , u
n
) e v = (v
1
, v
2
, . . . , v
n
), si ha:
uv = u
1
v
1
+ u
2
v
2
+ . . . + u
n
v
n
. (1)
Esempio 5.3 Dati i vettori u = (2, 1, 4, 5] e v = [0, 9, 3, 2], si ottiene:
uv = (2, 1, 4, 5)(0, 9, 3, 2) = 0 2 1 9 + 4 (3) + 5 2 = 11
Denizione 5.8 (Norma euclidea) Si denisce norma euclidea o modulo di un vettore u la radice
quadrata del prodotto scalare uu
u =

(uu) =

u
2
1
+ u
2
2
+ . . . u
2
n
. (2)
Da un punto di vista geometrico, la norma euclidea esprime la lunghezza del vettore u.
Esempio 5.4 Sia u = [1 5 3 0], risulta u =

1 + 25 + 9 + 0 =

35.
Teorema 5.1 (Interpretazione geometrica del prodotto scalare in R
2
) Dati due vettori u e v
in R
2
, sia langolo da essi formato. Vale la seguente relazione: uv = uv cos .
Dimostrazione Consideriamo il triangolo formato dal vettore u, dal vettore v e dal segmento che unisce
i punti u e v. Come detto in precedenza, la lunghezza di questo segmento `e pari a u v. Per il
teorema del coseno si ha:
u v
2
= u
2
+v
2
2uv cos
2
2
1
a
-1
-2
-a
2a
Figure 2: Rappresentazione geometrica del prodotto del vettore a = (2, 1) per lo scalare = 2
da cui:
uv cos =
1
2
(u
2
+v
2
uv
2
) =
1
2
[u
2
1
+u
2
2
+v
2
1
+v
2
2
(u
1
v
1
)
2
(u
2
v
2
)
2
] = u
1
v
1
+u
2
v
2
= uv
Corollario 5.1 (Ortogonalit`a di due vettori) Due vettori u e v si dicono ortogonali se il loro
prodotto scalare `e nullo, i.e. se uv = 0.
Esempio 5.5 (Vettori ortogonali) Per i vettori u = (2, 1, 0, 3) e v = (0, 3, 3, 1) si ottiene uv =
0 2 1 3 + 0 (3) + 3 1 = 0, e dunque i vettori u e v sono ortogonali.
Teorema 5.2 (Cauchy-Schwarz) Siano u e v due vettori allora
|uv| uv. (3)
Luguaglianza in (5.3) vale se e solo se i) uno dei due vettori `e il vettore nullo o ii) i due vettori sono
fra loro proporzionali, i.e. se esiste uno scalare tale che u = v.
Dimostrazione Dal teorema (5.13), poich`e 1 cos 1, si ha che la disequazione (5.3) `e sempre
vericata. La disequazione `e soddisfatta alluguaglianza se cos = 1 o cos = 1. ma in questo caso
i due vettori sono nella stessa direzione o nella direzione opposta e pertanto uno `e multiplo dellaltro.
Osservazione 5.1 (Distanza tra due vettori) Siano u e v due vettori. Si denisce distanza tra u
e v la lunghezza del segmento che unisce i punti u e v.
La distanza tra i vettori u e v corrisponde lunghezza del vettore uv (= u v). Il risultato si
ricava osservando che, sommando i vettori u e v mediante la regola del parallelogramma, il vettore
uv ha la stessa lunghezza del segmento che unisce i punti u e v e che misura, appunto, la distanza
tra u e v.
3
2
a
1
b
a+b
2
1
Figure 3: Somma dei vettori a = (2, 1) e b = (1, 2) : a +b = (3, 3)
Denizione 5.9 (Versore) Si denisce versore un vettore e R
n
tale che e = 1.
Esempio 5.6 (Versori) In R
3
sono versori i vettori che identicano gli assi cartesiani
i = (1, 0, 0), j = (0, 1, 0), k = (0, 0, 1).
Considerato un qualsiasi vettore non nullo u R
n
, tale vettore `e normalizzabile, `e cio`e posssibile
considerare un versore che abbia la stessa direzione e lo stesso verso di u ma modulo unitario:
e
u
=
u
u
.
Con riferimento al vettore u dellesempio 5.12 risulta
e
u
=
u

35
=

35
,
5

35
,
3

35
, 0

e e
u
=
u

35
= 1.
4
5 Spazi vettoriali reali
Denizione 5.1 (Spazi vettoriali reali). Sia V un insieme di vettori (a componenti reali). Linsieme
V si dice spazio vettoriale reale se `e dotato delloperazione di somma:
u, v V u +v V
e delloperazione di prodotto di uno scalare per un vettore:
R e v V v V.
Le operazioni di somma fra vettori e di prodotto di uno scalare per un vettore in uno spazio vettoriale
godono delle seguenti propriet`a:
1) v +u = u +vper ogni u, v V [propriet`a commutativa];
2) (u +v) +w = u + (v +w) per ogni u, v, w V [propriet`a associativa];
3) u +0 = u per ogni u V [esistenza dellelemento neutro];
4) u + (u) = 0 per ogni u V [esistenza dellopposto];
5) ( v) = ( ) v per ogni , K, v V [proprieta associativa del prodotto per uno scalare]
6) 1 v = v per ogni v V [esistenza dellelemento neutro rispetto al prodotto per uno scalare]
7) (v + w) = v + w per ogni v V [proprieta distributiva del prodotto per uno scalare
rispetto alla somma]
8) ( +) v = v + v per ogni , K, v V [propriet`a distributiva della somma fra scalari
rispetto al prodotto per uno scalare].
Esempio 5.2 (R
n
come spazio vettoriale). Linsieme R
n
dei vettori ad n componenti reali (x
1
, x
2
, . . . , x
n
) :
x
i
R costituisce uno spazio vettoriale reale, con le operazioni di somma termine a termine, i.e.
+ : ((x
1
, x
2
, . . . , x
n
), (y
1
, y
2
, . . . , y
n
)) R
n
R
n
(x
1
+y
1
, x
2
+y
2
, . . . , x
n
+y
n
) R
n
e di prodotto componente per componente per un numero reale, i.e.:
: (, (x
1
, x
2
, . . . , x
n
)) RR
n
(x
1
, x
2
, . . . , x
n
) R
n
,
come si puo facilmente vericare.
Denizione 5.3 (Sottospazi vettoriali). Un sottoinsieme non vuoto W di V , si dice sottospazio
(vettoriale) di V se W `e uno spazio vettoriale con le operazioni presenti in V . Equivalentemente W
e un sottospazio di V se esso `e non vuoto ed `e chiuso rispetto alle operazioni di somma e prodotto
presenti in V .
Per indicare che W e un sottospazio di V si scrive W V .
E possibile caratterizzare i sottospazi di uno spazio vettoriale V mediante la seguente proposizione:
Proposizione 5.4 (Propriet`a dei sottospazi). W `e un sottospazio di V se e solo se
i) 0 W, ovvero W e non vuoto;
ii) per ogni u, w W : u + w W;
iii) per ogni R, u W : w W.
Denizione 5.5 (Combinazione lineare di vettori). Dati n vettori v
1
, . . . , v
n
ed n scalari
1
, . . . ,
n
,
si dice combinazione lineare dei vettori v
1
, . . . , v
n
secondo gli scalari
1
, . . . ,
n
, il vettore
1
v
1
+

2
v
2
+
n
v
n
.
1
Esempio 5.6. La combinazione lineare dei vettori (0, 4, 5), (2, 3, 1) e (0, 1, 1) secondo gli scalari
0, 3, 1 e data dal vettore 0(0, 4, 5) + 3(2, 3, 1) (0, 1, 1) = (6, 8, 2).
Osservazione 5.7 (Sui sottospazi vettoriali). Un modo equivalente di denire un sottospazio vetto-
riale e quello di richiedere che la combinazione lineare di due o piuelementi dellinsieme, con scalari
qualsiasi, sia, ancora, un elemento dellinsieme. In altri termini, linsieme W e uno spazio vettoriale
se risulta:
Per ogni u
1
, u
2
, . . . , u
n
W e per ogni
1
,
2
, . . . ,
n
R :
1
u
1
+
2
u
2
+. . .
n
u
n
W
Esempio 5.8 (Sottospazi vettoriali). E evidente che {0} e un sottospazio di V , e che V
stesso e un sottospazio. {0} e V sono detti sottospazi banali. Tutti gli altri sottospazi si dicono
sottospazi propri di V .
In R
2
, linsieme {(0, y) : y R} e un sottospazio vettoriale, infatti
i 0 = (0, 0) {(0, y) : y R};
ii per ogni (0, y
1
), (0, y
2
) {(0, y) : y R} risulta (0, y
1
) + (0, y
2
) = (0, y
1
+y
2
) {(0, y) : y
R};
iii per ogni R, (0, y) {(0, y) : y R} risulta (0, y) = (0, y) {(0, y) : y R}.
Invece il sottoinsieme {(3, y) : y R} non e un sottospazio vettoriale, in quanto non contiene il
vettore nullo (0, 0).
Denizione 5.9 (Sottospazi generati da un insieme). Sia S un sottoinsieme non vuoto di V , si
dice sottospazio generato da S e si indica con < S >, linsieme costituito da tutte le combinazioni
lineari nite di elementi di S, i.e.
v < S > i N,
1
, . . . ,
i
R, s
1
, . . . , s
i
S : v =
1
s
1
+ +
i
s
i
.
Esempio 5.10. Sia S = {0}, allora < S >= {0}.
Se v e un vettore di V (spazio vettoriale reale), lo spazio generato da v, < v >, e costituito da tutti i
vettori proporzionali a v, cio`e {v : R}.
In R
n
si considerino i vettori
(1, 0, . . . , . . . , 0); (0, 1, . . . , . . . , 0); . . . ; (0, 0, . . . , . . . , 1),
e facile vericare che
< (1, 0, . . . , . . . , 0); (0, 1, . . . , . . . , 0); . . . ; (0, 0, . . . , . . . , 1) >= R
N
.
Infatti
< (1, 0, . . . , . . . , 0); (0, 1, . . . , . . . , 0); . . . ; (0, 0, . . . , . . . , 1) >=
{(
1
,
2
, . . . , . . . ,
N
) :
i
R, i = 1, . . . , N}
Proposizione 5.11. Si verica che U W e ancora un sottospazio vettoriale, detto sottospazio inter-
sezione.
Dimostrazione. Risulta 0 U W e dunque questultimo e non vuoto. Ancora se u
1
, u
2
U W
e , R, poiche u
1
, u
2
U e u
1
, u
2
W e U e W sono sottospazi, si ha che u
1
+ u
2
U e
u
1
+u
2
W e dunque u
1
+u
2
U W.
2
5.1 Lineare dipendenza e indipendenza, sistemi di generatori, basi e dimen-
sione
Denizione 5.12 (Vettore linearmente dipendente da un insieme). Sia V uno spazio vettoriale
reale, e sia S un sottoinsieme di V . Un vettore v si dice linearmente dipendente da S se v < S >.
Denizione 5.13 (Vettore linearmente indipendente da un insieme). I vettori w V tali che
w < S >, si dicono linearmente indipendenti da S.
Osservazione 5.14 (Sulla lineare indipendenza). Equivalentemente si puo dire che un vettore v `e
linearmente dipendente da S se esso pu`o scriversi come combinazione lineare degli elementi (vettori) di
S.
Esempi 5.15 (Lineare dipendenza da un insieme). Sia S = {(0, 3, 0), (1, 9, 0), (0, 4, 0)} un sot-
toinsieme di R
3
. Il vettore v = (2, 3, 0) `e linearmente dipendente da S. Ad esempio (2, 3, 0) =
5(0, 3, 0) + 2(1, 9, 0) + 00, 4, 0). Invece il vettore w = (1, 1, 1) non dipende da S poich`e non esistono
scalari che restituiscano w come combinazione lineare degli elementi di S.
Denizione 5.16 (Sottoinsiemi linearmente dipendenti). Un sottoinsieme non vuoto S di V si
dice linearmente dipendente se esiste v S tale che v sia linearmente dipendente da S \ {v}.
Esempio 5.17. Linsieme S = {(0, 3, 0), (1, 9, 0), (0, 4, 0)} `e linearmente dipendente, infatti (0, 4, 0)
dipende linearmente da {(0, 3, 0), (1, 9, 0)}, potendosi ottenere come
4
3
(0, 3, 0) + 0(1, 9, 0).
Denizione 5.18. Un insieme S si dice linearmente indipendente se non `e linearmente dipendente,
cio`e in S non vi `e alcun vettore che possa esprimersi come combinazione lineare dei rimanenti.
Esempio 5.19. Linsieme S = {(2, 9, 0), (0, 1, 1)} `e linearmente indipendente.
Esempio 5.20. Linsieme vuoto `e, per denizione, linearmente indipendente.
Se un insieme S `e costituito da un solo vettore, i.e. S = {u}, S `e linearmente dipendente se e solo
se u `e il vettore nullo.
Infatti se u = 0, allora u < S \ {u} >= , viceversa se u = 0, allora 0 {0} =< S \ {0} >.
Con un ragionamento simile si deduce anche che qualunque sottoinsieme che contenga il vettore nullo
`e linearmente dipendente.
Osservazione 5.21 (Vettori linearmente dipendenti). Un modo alternativo per valutare la lineare
dipendenza di un vettore da un insieme `e il seguente.
Se v dipende linearmente dallinsieme S, allora esisteranno un numero nito di vettori in S, diciamo
u
1
, . . . , u
n
ed altrettanti scalari
1
, . . . ,
n
, tali che v risulti combinazione lineare di questi vettori con tali
coecienti, i.e. v =

n
i=1

i
u
i
. Di conseguenza si pu`o scrivere una combinazione lineare con elementi
di S e con scalari non tutti nulli che restituisce il vettore nullo, i.e. v

n
i=1

i
u
i
= 0.
Allo stesso modo, se S e un sottoinsieme di V tale che sia possibile ottenere una combinazione lineare
di suoi vettori con scalari non tutti nulli, ma che sia uguale al vettore nullo, allora S e linearmente
dipendente.
Le considerazioni svolte conducono ai seguenti risultati:
Proposizione 5.22. Sia V uno spazio vettoriale. Le seguenti aermazioni sono equivalenti:
S `e linearmente dipendente;
esistono n vettori in S tali che u
1
, . . . , u
n
ed n coecienti di combinazione
1
, . . . ,
n
tali che

1
u
1
+ +
n
u
n
= 0;
Esiste u S tale che < S >=< S \ {u} >.
Allo stesso modo si ha che
Proposizione 5.23. Sia V uno spazio vettoriale reale. Le seguenti aermazioni sono equivalenti:
S `e linearmente indipendente;
3
Comunque si scelgono n vettori in S :u
1
, . . . , u
n
per cui si abbia
1
u
1
+ +
n
u
n
= 0, risulta
che gli n coecienti di combinazione
1
, . . . ,
n
sono tutti nulli;
Per ogni u S lo spazio < S > contiene propriamente < S \ {u} >.
Proposizione 5.24. Sia V uno spazio vettoriale reale e sia S un sottoinsieme di V . Risulta che
Se S `e linearmente indipendente e T S, allora anche T e linearmente indipendente;
Se S `e linearmente dipendente e T S, allora anche T e linearmente dipendente.
Teorema 5.25. Sia V uno spazio vettoriale reale, e sia S = {v
1
, . . . , v
s
} un sottoinsieme nito di V .
Sia, T = {u
1
, . . . u
t
} un sottoinsieme di < S >. Se t > s, T e linearmente dipendente.
Dimostrazione facoltativa che richiede la conoscenza dei sistemi lineari. Chiaramente per ogni j = 1, . . . , t,
esistono a
1j
, . . . a
sj
R tali che
u
j
= a
1j
v
1
+. . . a
sj
v
s
.
Considerata allora una combinazione lineare con i vettori u
1
, . . . u
n
che fornisca il vettore nullo,

1
u
1
+. . .
n
u
n
= 0,
questa si riscrive come

1
s

i=1
a
1i
v
1
+ +
t
s

i=1
a
ti
v
s
= 0
e scambiando le somme si ottiene
s

i=1

j=1
a
ij

v
i
= 0
Poiche i vettori di S sono linearmente indipendenti, deve risultare
t

j=1
a
ij

j
= 0. (5.1)
Si e dunque ottenuto un sistema omogeneo di s equazioni in t incognite. Pertanto, considerata la
matrice di tipo st, i.e. A = [a
ij
], il cui rango non puo superare s, ne risulta lesistenza di una soluzione
non banale,
1
, . . . ,
t
di (??) e cioe si e trovata una combinazione lineare dei vettori u
1
, . . . , u
s
con
coecienti non nulli.
Osservazione 5.26. E inoltre opportuno osservare che se S e un sottoinsieme nito di V , e possibile
trovare un sottoinsieme T di S che genera < S >. Se S e linearmente indipendente allora basta scegliere
T = S. Se S e linearmente dipendente, ce almeno un vettore w
1
, tale che S

= S {w
1
} genera
< S >. Se S

e linearmente indipendente, e suciente scegliere S

come T, altrimenti e possibile


iterare il procedimento e considerare S

. Dopo un numero nito di passi si otterra lasserto.


Denizione 5.27 (Insieme di generatori). Un sottoinsieme S di V si dice insieme di generatori
per V se `e possibile esprimere ogni vettore di V come combinazione lineare nita dei vettori di S, i.e.per
ogni v V , esistono u
1
, . . . , u
n
S e
1
, . . . ,
n
K, tali che
1
u
1
+
n
u
n
= v.
Esempi 5.28 (Insieme di generatori e insiemi linearmente indipendenti: confronto). Linsieme
{(0, 1), (1, 0), (1, 1)} `e linearmente dipendente, infatti si ottiene 1 (0, 1) + 1 (1, 0) 1 (1, 1) = (0, 0).
Invece, linsieme {(1, 0), (0, 1)} e linearmente indipendente, infatti, considerata la combinazione
1
(1, 0)+

2
(0, 1) = (0, 0), risulta (
1
,
2
) = (0, 0), che restituisce
1
= 0 e
2
= 0.
Ancora `e facile vedere che questultimo insieme {(1, 0), (0, 1)} e anche un insieme di generatori per
R
2
. Infatti se v R
2
, v si puo scrivere come (v
1
, v
2
) per opportuni numeri reali v
1
e v
2
e dunque
v = v
1
(1, 0) +v
2
(0, 2). Allo stesso modo e un sistema di generatori anche linsieme {(0, 1), (1, 0), (1, 1)},
infatti e anche vero che v = v
1
(1, 0) +v
2
(0, 2) + 0(1, 1).
4
Inoltre anche linsieme {(0, 2)} `e linearmente indipendente, poich`e (0, 2) = (0, 2) = (0, 0) se e solo se
= 0.
Daltra parte questo stesso insieme non un insieme di generatori, poich`e, ad esempio, il vettore (10, 0)
non `e ottenibile come combinazione lineare di (0, 2), ovvero come suo multiplo.
Denizione 5.29 (Base di uno spazio vettoriale). Un sottoinsieme B = {v
1
, . . . , v
n
} di V si dice
una base per lo spazio vettoriale V se B e un insieme di generatori linearmente indipendente.
Esempio 5.30 (Basi di uno spazio vettoriale). Linsieme {(1, 0), (0, 1)} `e una base per R
2
, basta
guardare lesempio precedente ??.
Linsieme {(0, 1, 0), (0, 0, 1)} non `e una base per R
3
, poich`e non `e un insieme di generatori. Infatti
il vettore (2, 0, 0) R
3
non `e ottenibile come combinazione lineare dei vettori (0, 1, 0) e (0, 0, 1).
Allo stesso modo non `e una base per R
3
linsieme {(1, 0, 0), (0, 1, 0), (0, 0, 1), (2, 2, 0)}. Infatti tale
insieme non `e linearmente indipendente, poiche
(2, 2, 0) = 2(1, 0, 0) + (0, 1, 0) + 0(0, 0, 1)
.
Osservazione 5.31. Se B `e una base per lo spazio vettoriale V , allora ogni vettore di V si pu`o scrivere
come combinazione lineare dei vettori di B e tale combinazione lineare `e unica.
Infatti, il fatto che i vettori di V si possano scrivere come combinazione lineare dei vettori di B `e
conseguenza del fatto che B `e un insieme di generatori. Che poi tale combinazione sia unica, segue dal
fatto che se ve ne fossero due, distinte, si avrebbe
v =
1
v
1
+. . .
n
v
n
=
1
v
1
+ +
n
v
n
.
Da cio allora si otterrebbe
(
1

1
)v
1
+. . . (
n

n
)v
n
= 0,
e dunque la lineare indipendenza di v
1
, . . . , v
n
garantisce che
i
=
i
per ogni i = 1, . . . , n.
Esempio 5.32 (Basi di uno spazio vettoriale).
Il seguente teorema dimostra che tutte le basi hanno la stessa dimensione
Teorema 5.33 (Teorema della dimensione). Siano B e B

due basi dello spazio vettoriale V che


ammetta un numero nito di vettori generatori. Allora B e B

hanno lo stesso numero di vettori.


Dimostrazione. Dalla denizione di base segue che B

e contenuto in < B > e B in < B

>, per cui


ciascuno dei due insiemi ha un numero di vettori minore o uguale dellaltro, in conseguenza del teorema
??.
Osservazione 5.34 (Importante). Se V e uno spazio vettoriale con un numero nito di vettori che lo
generano, dal teorema precedente segue che la cardinalit`a (i.e. il numero di elementi) di ogni base dello
spazio `e la stessa.
.
Denizione 5.35. Si denisce dimensione dello spazio vettoriale V la cardinalit`a di una sua base.
Osservazione 5.36 (facoltativa). Tale denizione resta ben posta anche nel caso di spazi vettoriali
non nitamente generati, ma la dimostrazione del teorema della dimensione nel caso generale `e molto
diversa.
Esempi 5.37 (Sulla dimensione di V ). R
N
e uno spazio vettoriale di dimensione N sul campo reale.
Linsieme delle matrici di tipo mn : M
m,n
con elementi reali ha dimensione m n.
Lo spazio vettoriale {0} ha dimensione 0.
Osservazione 5.38. Dal teorema della dimensione seguono le seguenti propriet`a:
i) Se un sottoinsieme di V , di dimensione n contiene pi` u di n vettori allora tale insieme `e necessari-
amente linearmente dipendente.
5
ii) Se S `e un sottoinsieme dello spazio vettoriale V . Allora
se S `e linearmente indipendente allora cardS dimV ,
se S `e un sistema di generatori per V allora cardS dimV .
Se cardS = dimV , allora
S `e linearmente indipendente se e solo se S `e un insieme di base.
S `e un sistema di generatori se e solo se S `e un sistema di generatori.
Teorema 5.39 (Teorema del completamento). Sia V uno spazio vettoriale e siano B una base di
V ed S un sottoinsieme linearmente indipendente di V . Allora, esiste un unico sottoinsieme T di B tale
che S T sia ancora un insieme di base.
Dimostrazione. Detto W il sottospazio generato da < S >, allora se W = V non c`e nulla da provare.
Se invece W `e un sottospazio proprio di V , allora esister`a un vettore in B, chiamamolo b
1
tale che W
sia contenuto propriamente nel sottospazio < S {b
1
} >. A questo punto `e possibile ragionare come in
precedenza e vedere se < S {b
1
} = V . Se ci`o non accade allora sar`a ancora possibile aggiungere ad
S b
1
} un altro vettore della base B e ripetere il ragionamento precedente, e cosi via per un numero
nito di volte.
Corollario 5.40 (Dimensione di un sottospazio). Se W `e un sottospazio di V , allora dimW dimV.
6
6 Matrici
Denizione 6.1 (Denizione di matrice). Si denisce matrice di numeri reali di tipo n m una
tabella a doppia entrata con m righe ed n colonne:
A =

a
11
a
12
. . . . . . a
1n
a
21
a
22
. . . . . . a
2n
. . . . . . . . . . . . . . .
a
m1
a
m2
. . . . . . a
mn

dove a
11
, a
12
, ..., a
mn
R.
Le matrici vengono indicate con lettere maiuscole in grassetto. Si indica con a
ij
il generico elemento
della matrice A individuato dalla riga i e dalla colonna j.
Le n-ple (a
11
, a
12
, . . . , a
1n
), (a
21
, a
22
, . . . a
2n
), ecc. sono dette righe o vettori riga della matrice A
e si denotano con A
i
, i = 1, . . . , m se la matrice ha m righe.
Le m-ple di numeri reali (a
11
, a
21
, . . . , a
m1
), (a
12
, a
22
, . . . , a
m2
), ecc. si dicono colonne o vettori
colonna della matrice A e si indicano con A
j
, j = 1, . . . , n se la matrice ha n colonne.
Una matrice si dice quadrata se il numero di righe `e uguale al numero delle colonne, ovvero se
m = n. Ia questo caso A si dice matrice quadrata di ordine n.
Esempio 6.2. La matrice
A =

1 3 5
0 2 9

`e una matrice di tipo 2 3. Lelemento a


23
`e 5.
La matrice
B =

1 3 5
0 2 9
3 4 6

`e una matrice quadrata di ordine 3.


Denizione 6.3 (Diagonale principale di una matrice). Se A `e una matrice quadrata di ordine n, si
denisce diagonale principale la n-upla (a
11
, a
22
, . . . , a
nn
).
Esempio 6.4. La diagonale principale della matrice B dellesempio 6.2 `e (1, 2, 6).
Denizione 6.5 (Sottomatrice di una matrice A). Data una matrice A di tipo m n, si denisce
sottomatrice di A di tipo p q ogni matrice che si ottiene da A cancellando m p righe ed n q
colonne.
Denizione 6.6 (Uguaglianza tra matrici). Due matrici A e B si dicono uguali se hanno lo stesso
numero di righe m e di colonne n e se a
ij
= b
ij
, per i = 1, . . . , m e j = 1, . . . , n.
Denizione 6.7 (Trasposta di una matrice). Data la matrice A di tipo m n, si denisce trasposta
di A e si indica con A
T
la matrice di tipo n m che ha per righe le colonne di A e per colonne le righe
di A.Evidentemente si ha (A
T
)
T
= A.
Esempio 6.8. Data la matrice
A =

1 3 5
0 2 9

la sua trasposta `e
A
T
=

1 0
3 2
5 9

Denizione 6.9 (Matrice simmetrica). Una matrice quadrata A si dice simmetrica se A = A


T
. In
una matrice simmetrica si ha a
ij
= a
ji
per ogni scelta degli indici i, j.
1
Esempio 6.10. La matrice
A =

1 2 5
2 2 9
5 9 4

`e una matrice simmetrica.


Denizione 6.11 (Matrice antisimmetrica). Una matrice quadrata `e detta antisimmetrica se bsA
T
=
bsA, ovvero se a
ij
= a
ji
,per ogni scelta degli indici i, j. Si noti che questultima implica che a
ii
= 0, i.
Esempio 6.12. La matrice
A =

0 1 3 6
1 0 7 9
3 7 0 4
6 9 4 0

`e una matrice antisimmetrica.


Denizione 6.13 (Matrici triangolari). Una matrice quadrata A si dice triangolare inferiore se gli
elementi al di sopra della diagonale principale sono nulli. La matrice quadrata A si dice triangolare
superiore se gli elementi al di sotto della diagonale principale sono nulli; i.e.
A `e triangolare inferiore se a
ij
= 0, per i < j
A `e triangolare superiore se a
ij
= 0, per i > j.
Esempio 6.14. La matrice
A =

1 0 0
2 2 0
5 9 4

`e una matrice triangolare inferiore.


La matrice
B =

1 5 6
0 2 3
0 0 4

`e una matrice triangolare superiore.


Denizione 6.15 (Matrice diagonale). Una matrice quadrata A si dice diagonale se a
ij
= 0 per ogni
i = j cio`e ogni elemento al di fuori della diagonale principale `e nullo.
Esempio 6.16. La matrice
A =

1 0 0
0 2 0
0 0 9

`e una matrice diagonale.


Denizione 6.17 (Matrice identit`a). Si denisce matrice identit` a di ordine n e si indica con I o con
I
n
, la matrice diagonale che ha a
ii
= 1, con i = 1, . . . , n e a
ij
= 0 con i = 1, . . . , n j = i, . . . , n e i = j.
Esempio 6.18.
I
3
=

1 0 0
0 1 0
0 0 1

Denizione 6.19 (Matrice nulla). Si denisce matrice nulla di tipo nm e si indica con 0, la matrice
che ha tutti gli elementi nulli (a
ij
= 0, per i = 1, . . . , m e j = 1, . . . n).
Esempio 6.20.
0 =

0 0 0 0
0 0 0 0
0 0 0 0

`e una matrice nulla di tipo 3 4


2
Operazioni sulle matrici
Denizione 6.21 (Somma di matrici). Siano A e B due matrici a coecienti reali aventi la stessa
dimensione mn.
Si denisce somma delle matrici A e B, la matrice C = A+ B il cui generico elemento c
ij
`e
dato da c
ij
= a
ij
+ b
ij
. La somma di matrici gode delle seguenti propriet`a:
associativa (A+B) +C = A+ (B +C)
commutativa A+B = A+B
esistenza dellelemento neutro A+0 = 0 +A = A
esistenza dellopposto A+ (A) = 0 (A := [a
ij
]).
Esempio 6.22.
A =

1 3 2
2 2 0
5 9 4

B =

1 5 6
1 2 3
7 0 4

C = A+B =

1 + 1 3 + 5 2 + 2
2 + 1 2 + 2 0 + 3
5 + 7 9 + 0 4 + 4

Denizione 6.23 (Prodotto di una matrice per uno scalare). Data la matrice A e uno scalare R,
si denisce prodotto della matrice A per lo scalare , la matrice
A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . . . . . . . . . . .
a
m1
a
m2
. . . a
mn

Esempio 6.24.
= 2
A =

1 3 2
2 2 0
5 9 4

A =

2 1 2 3 2 2
2 2 2 2 2 0
2 5 2 9 2 4

2 6 4
4 4 0
10 18 8

Osservazione 6.25. Siano A e B due matrici ed h e k due numeri reali, valgono le seguenti propriet`a:
i) (h + k)A = hA+ kA,
ii) (h k)A = h(kA),
iii) h(A+B) = hA+ hB,
iv) 1A = A,
Pertanto linsieme delle matrici m n costituisce uno spazio vettoriale reale sul campo reale
rispetto alle operazioni di somma e prodotto per uno scalare.
3
Denizione 6.26 (Prodotto righe per colonne). Siano date A matrice m n e B matrice n t. Il
prodotto righe per colonne di A per B `e la matrice C = AB del tipo m t, i cui elementi sono dati
dalla seguente formula:
C = [c
ij
] =
n

k=1
a
ik
b
kj
.
Per capire bene quali sono gli elementi della matrice C, proviamo a descrivere ciascun elemento. Ad
esempio, lelemento della riga i e della colonna j `e il prodotto scalare della i-esima riga di A per la
j-esima colonna di B.
Osservazione 6.27. Si noti che il prodotto tra due matrici `e denito se e solo se il numero di colonne
di A `e pari al numero di colonne di B, cio`e se A e B sono conformabili. Inoltre risulta che AB ha
tante righe quante ne ha A e tante colonne quante ne ha B. Si osservi inne che il prodotto righe per
colonne in generale non `e commutativo; pu`o accadere che il prodotto AB sia ben denito, mentre BA
non lo sia. In generale si ha AB = BA.
Esempio 6.28 (Prodotto righe per colonne). Il prodotto righe per colonne di
A =

5 1 8
6 2 4

per
B =

3 1
0 1
9 0

`e la matrice C = AB di tipo 2 2 cos` ottenuta:


C =

87 6
54 8

.
Denizione 6.29 (Propriet`a del prodotto righe per colonne). Per il prodotto righe per colonne valgono
le seguenti propriet`a:
i) propriet`a associativa: se A `e moltiplicabile a destra per B e il prodotto AB `e moltiplicabile a
destra per C, allora (AB)C = A(BC),
ii) propriet`a di esistenza dellelemento neutro (a destra e a sinistra): Se A `e una matrice di tipo
mn, allora A `e moltiplicabile a destra per la matrice identica di ordine n: I
n
e a sinistra per la
matrice identica di ordine m : I
m
, e risulta AI
n
= I
m
A = A.
Osservazione 6.30. Vale anche la propriet`a distributiva della somma rispetto al prodotto, i.e.
se A e B sono due matrici di tipo mn e C `e una matrice di tipo nt, risulta che (A+B)C = AC+BC.
Analogamente se D `e una matrice di tipo s m, si ha D(A+B) = DA+DB.
Esempio 6.31. Eseguire tutti i prodotti possibili tra le seguenti matrici:
A =

1 2 1
0 1 1
1 0 2

, B =

1
2
1

, C =

0 1 1

, D =

1 4
4 2

, E =

0 5
4 2
6 1

Dal momento che A `e una matrice 3 3, B `e una matrice 3 1, C `e una matrice 1 3, D `e una
matrice 2 2, E `e una matrice 3 2, i prodotti possibili sono:
AB =

4
3
1

, AE =

2 2
10 3
12 7

, BC =

0 1 1
0 2 2
0 1 1

,
CA =

1 1 3

, CE =

10 3

, ED =

20 10
12 20
10 26

, CB = 3.
4
Esempio 6.32. Data la matrice
A =

1 1 1
0 2 1/2
0 2 1

,
vericare che `e
A
2
A
T
+I
3
=

1 5 1/2
1 2 5/2
1 5/2 2

5
8 Matrici a scala per righe e metodo di eliminazione di Gauss
Denizione 8.1 (Pivot) Data una matrice A di tipo m n, si denisce pivot della riga i di A il
primo elemento non nullo della riga i-esima.
Esempio 8.1 (Pivot) Nella matrice
A =

1 3 0
0 2 9
2 7 0

,
i pivot di ogni riga sono evidenziati in grassetto.
Denizione 8.2 (Matrici a scala per righe) Una matrice A si dice a scala per righe se:
1) tutte le eventuali righe nulle sono in fondo alla matrice;
2) il pivot della riga i-esima `e strettamente pi` u a destra del pivot della riga (i 1)-esima (i 2)
ovvero tutti gli elementi di una colonna contenente un pivot che hanno indice di riga superiore a
quello del pivot (cio`e tutti gli elementi della colonna al di sotto del pivot) sono nulli. Quindi il
numero di zeri iniziali nella riga i `e strettamente maggiore del numero di zeri iniziali della riga
(i 1)-esima.
Esempio 8.2 (Matrice a scala per righe)
A =

1 3 5 4
0 2 9 0
0 0 0 0

Osservazione 8.1 Le righe non nulle di una matrice a scala per righe sono linearmente indipendenti,
e cos` sono che colonne che contengono i pivot non nulli.
Denizione 8.3 (Matrice a scala ridotta per righe) Una matrice A si dice a scala ridotta per
righe se essa `e una matrice a scala per righe, se i pivot sono tutti uguali ad 1 e se, in ogni colonna
contenente il pivot di una riga, tutti gli elementi diversi dal pivot sono uguali a zero.
Esempio 8.3 (Matrice a scala ridotta)
R =

0 1 0 4 1
0 0 1 2 0
0 0 0 0 0
0 0 0 0 0

Osservazione 8.2 Sono matrici a scala ridotta la matrice nulla e la matrice identica.
Denizione 8.4 (Operazioni elementari sulle righe) Si deniscono operazioni elementari sulle
righe le seguenti operazioni:
I scambiare due righe;
1
II moltiplicare una riga per uno scalare non nullo;
III sommare ad una riga unaltra riga, moltiplicata per uno scalare.
Denizione 8.5 (Matrici elementari) Si denisce matrice elementare, e si indica con E, una
matrice che si ottiene applicando unoperazione elementare alla matrice identica I.
Teorema 8.1 (Matrici elementari e operazioni elementari) Sia A una matrice di tipo m n,
e sia E una matrice elementare di ordine m. Il prodotto EA `e una matrice ottenuta applicando ad A
loperazione elementare per righe corrispondente ad E.
Esempio 8.4 (Matrici elementari e operazioni elementari) Sia
A =

1 1 1 0
0 1 1 0
1 2 1 1

e si consideri la matrice elementare


E =

0 1 0
1 0 0
0 0 1

ottenuta applicando la prima operazione elementare alle prime due righe della matrice identica I. Il
prodotto righe per colonne EA fornisce la prima operazione elementare, infatti:
EA =

0 1 1 0
1 1 1 0
1 2 1 1

Consideriamo unesempio per la seconda operazione elementare, e supponiamo di voler moltiplicare


la seconda riga di A per lo scalare k = 2. Baster`a considerare la matrice
E =

1 0 0
0 2 0
0 0 1

ottenendo
EA =

1 1 1 0
0 2 2 0
1 2 1 1

Inne, se si vuole sommare alla terza riga di A la prima moltiplicata per k = 3 basta considerare
E =

1 0 0
0 1 0
3 0 1

EA =

1 1 1 0
0 1 1 0
4 5 4 1

2
Denizione 8.6 (Equivalenza di matrici per righe) Due matrici A e B di tipo mn si dicono
equivalenti per righe, e si indica con , se possono essere ottenute luna dallaltra mediante un
numero nito di operazioni elementari. Ossia, se esistoni E
1
, ..., E
k
matrici elementari, tali che
E
k
E
1
A = B
Teorema 8.2 (Matrici equivalenti per righe) Ogni matrice `e equivalente per righe ad una ma-
trice a scala per righe dello stesso ordine.
La dimostrazione di questo risultato pu`o essere ottenuta presentando lalgoritmo di Gauss.
Algoritmo di Gauss
Passo 1
1.1 Si individua la colonna non nulla con indice di riga pi` u basso. Sia j lindice di questa colonna.
(Se non ci sono colonne non nulle, la matrice `e nulla e dunque a scala per righe e lalgoritmo
termina).
1.2 Se lelemento a
1j
`e zero, si scambia la prima riga con una riga i tale a
ij
= 0.
1.4 Si rendono nulli tutti gli altri elementi della colonna j con indice di riga i 2, sommando
alle varie righe opportuni multipli della prima riga.
Passo 2 Se la matrice corrente `e formata da almeno una riga, si mette da parte la prima riga e
si ripete il passo 1 sulla matrice restante.
Esempio 8.5 (Algoritmo di Gauss) Sia
A =

0 1 1 0
0 1 1 2
4 5 4 1

Cominciamo dal passo 1. Dobbiamo trovare la prima colonna non nulla. La colonna 1 `e non nulla
e poich`e a
11
= 0, scambiamo la riga 1 e la riga 3, ottenendo:

4 5 4 1
0 1 1 2
0 1 1 0

Poich`e tutti gli elementi al di sotto della prima riga nella prima colonna sono nulli, possiamo
omettere temporaneamente la prima riga. A questo punto, consideriamo la matrice restante:

0 1 1 2
0 1 1 0

,
la cui prima colonna non nulla `e la seconda. Poich`e a
12
= 0, non occorrono scambi di righe. Va
invece annullato ci`o che `e sotto questa riga nella stessa colonna, sommando alla terza riga la prima
moltiplicata per 1 ed ottenendo

0 1 1 2
0 0 2 2

3
Trascuriamo anche la seconda riga.

0 0 2 2

La matrice restante `e costituita da una sola riga, per cui lalgoritmo termina, ottenendo cos` la matrice
a scala S, equivalente per righe ad A:
S =

4 5 4 1
0 1 1 2
0 0 2 2

Per ottenere una matrice a scala per righe ridotta si utilizza invece lalgoritmo di Gauss-Jordan.
Teorema 8.3 (Teorema di Gauss-Jordan) Ogni matrice `e equivalente per righe ad una ed una
sola matrice a scala ridotta dello stesso tipo.
La dimostrazione di questo risultato risiede nellalgoritmo presentato di seguito.
Algoritmo di Gauss-Jordan
Passo 1 Si esegue lalgoritmo di Gauss per trasformare la matrice Ain una matrice a scala equivalente
per righe.
Passo 2 Si moltiplica ogni riga per un opportuno scalare tale da rendere ogni pivot uguale ad 1.
Passo 3 Si considerano le righe non nulle e, a partire dallultima, si annullano gli elementi di ogni
colonna contenente un pivot e che sono al di sopra del pivot stesso. Questo risultato si ottiene
sommando alle varie righe opportuni multipli della riga in esame contenete il pivot.
Esempio 8.6 (Algoritmo di Gauss-Jordan) Si vuole ridurre a scala con lalgoritmo di Gauss-
Jordan la seguente matrice:
A =

2 1 0 4
1 1 1 0
2 1 1 1

La matrice `e non nulla e per il passo 1.1 si pu`o proseguire. La matrice ha pi` u di una riga e dunque
si considera il procedimento esposto nel passo 1.2. La colonna non nulla con indice pi` u basso `e la
prima ed il suo pivot `e 2. Lindice di riga corrispondente `e 1. Bisogna allora moltiplicare la riga per
1
2
, ottenendo:

1
1
2
0 2
1 1 1 0
2 1 1 1

A questo punto vanno annullati tutti gli elementi nella prima colonna, sommando multipli della
prima ottenendo:

1
1
2
0 2
0
3
2
1 2
0 0 1 3

4
Va ora considerata la matrice schermata:

0
3
2
1 2
0 0 1 3

La matrice schermata possiede due righe non nulle e la colonna non nulla con indice pi` u basso `e la
seconda ed il pivot `e
3
2
. Ancora una volta non occorrono scambi, poich`e il pivot `e nella prima riga.
Tale riga va moltiplicata per
2
3
e si ottiene:

0 1
2
3
4
3
0 0 1 3

Moltiplicando la terza riga per 1 si ottiene:

0 0 1 3

Partendo dal basso, si annullano ora tutti gli elementi sovrastanti il pivot di ogni riga nella propria
colonna. Va dunque considerata la matrice:

1
1
2
0 2
0 1
2
3
4
3
0 0 1 3

Alla seconda riga va sommata la terza moltiplicata per


2
3
, ottenendo:

1
1
2
0 2
0 1 0
10
3
0 0 1 3

Inne, la prima riga va sommata alla seconda moltiplicata per


1
2
:

1 0 0
1
3
0 1 0
10
3
0 0 1 3

La matrice cos` ottenuta `e una matrice a scala ridotta per righe equivalente alla matrice A.
5
9 Rango di una matrice
Denizione 9.1 (Spazio delle righe di A) Data una matrice A, si denisce spazio delle righe
di A il sottospazio vettoriale generato dai vettori riga di A.
Denizione 9.2 (Spazio delle colonne di A) Data una matrice A, si denisce spazio delle colonne
di A il sottospazio vettoriale generato dai vettori colonna di A.
Esempio 9.1 Data la matrice
A =

1 0 0
0 1 0

lo spazio delle righe di A `e linsieme delle terne della forma:


(1, 0, 0) + (0, 1, 0) = (, , 0).
Lo spazio delle colonne `e linsieme di tutti i vettori della forma:

1
0

0
1

0
0

0
0

Denizione 9.3 (Rango delle righe di A) Data una matrice A di tipo mn, si denisce rango
delle righe di A la dimensione dello spazio delle righe di A, ovvero il numero massimo di vettori
riga linearmente indipendenti contenuti in A.
Denizione 9.4 (Rango delle colonne di A) Data una matrice A di tipo mn, si denisce rango
delle colonne di A la dimensione dello spazio delle colonne di A, ovvero il numero massimo di vettori
colonna linearmente indipendenti contenuti in A.
Teorema 9.1 Data una matrice A di tipo mn, il rango delle righe `e uguale al rango delle colonne.
Possiamo pertanto parlare di rango della matrice A, che viene indicato con rk(A).
Osservazione 9.1 (Propriet`a del rango) Valgono le seguenti propriet`a:
Se A `e una matrice di tipo mn, il rango di A `e rk(A) min{m, n} .
Se A `e una matrice di tipo mn e di rango rk(A) = p, allora A possiede mp righe ed n p
colonne che sono combinazioni lineari delle precedenti.
La matrice nulla di tipo mn ha rango 0.
Date due matrici A e B conformabili, `e possibile provare che rk(AB) min{rk(A), rk(B)}.
Se A `e una matrice ed M una sua sottomatrice, allora rk(M) rk(A).
Teorema 9.2 Due matrici equivalenti per righe hanno lo stesso spazio delle righe.
1
Dimostrazione Se B `e una matrice equivalente per righe ad A, allora possiamo ottenere B a partire da
A, attraverso una sequenza nita di operazioni sulle righe. Per cui, i vettori riga di B sono combinazioni
lineari dei vettori riga di A. Conseguentemente, lo spazio delle righe di B, `e un sottospazio dello spazio
delle righe di A. Essendo A equivalente per righe a B, per gli stessi motivi, lo spazio delle righe di A,
`e un sottospazio dello spazio delle righe di B. Per la doppia inclusione, i due spazi di righe coincidono.
Corollario 9.1 Siano A e B due matrici equivalenti per righe (A B). Si ha allora rk(A) = rk(B).
Questo corollario ci suggerisce che per il calcolo del rango possiamo utilizzare lalgoritmo di elimi-
nazione di Gauss per trasformare la matrice di partenza Ain una matrice a scala per righe B. Abbiamo
infatti che rk(B) = rk(A), ma la speciale struttura a scala di B consente un immediato calcolo del
rango
Teorema 9.3 (Calcolo del rango di una matrice a scala per righe) Sia B una matrice a scala
per righe. Il rango di B `e dato dal numero di righe non nulle.
Dimostrazione Se A `e una matrice a scala, le sue righe non nulle formano un insieme di vettori
linearmente indipendenti, in quanto nessuno dei vettori riga pu`o essere ottenuto come combinazione
lineare dei restanti (la dimostrazione di questaermazione `e lasciata al lettore).
Esempio 9.2 Studiamo il rango della seguente matrice, al variare di k in R:
A =

1 k 1 2
2 2 2 2k
1 1 k 2k

.
Per calcolare il rango della matrice A `e necessario ridurla. Una possibile riduzione per righe `e la
seguente:
A =

1 k 1 2
2 2 2 2k
1 1 k 2k

R2R22R1

1 k 1 2
0 2 2k 0 2k 4
1 1 k 2k

R3R3R1

1 k 1 2
0 2 2k 0 2k 4
0 1 k k + 1 2k 2

R2R3

1 k 1 2
0 1 k k + 1 2k 2
0 2 2k 0 2k 4

Dallespressione dellultima matrice, si deduce facilmente che per k = 1 la riga R


2
si annulla
completamente e dunque rk(A) = 2. Per ogni k = 1, invece, rk(A) = 3.
2
9.1 Matrici Quadrate e Invertibilit`a
Denizione 9.1 (Matrici invertibili). Sia A una matrice quadrata di ordine n. Diremo che A `e in-
vertibile se esiste una matrice quadrata A
1
di ordine n, detta inversa di A, tale che:
AA
1
= A
1
A = I
n
.
Proposizione 9.2 (Propriet`a dellinversa). Valgono le seguenti propriet`a:
i) Se la matrice A `e invertibile, allora anche A
1
`e invertibile.
ii) Per ogni n, la matrice identica I
n
`e invertibile.
iii) Siano A e B due matrici invertibili, allora anche la matrice prodotto AB `e invertibile, e si ha
(AB)
1
= B
1
A
1
. Infatti dalla propriet`a del prodotto righe per colonne, segue che (AB)(B
1
A
1
) =
ABB
1
A
1
= AI
n
A
1
= AA
1
= I
n
.
Esempio 9.3 (Inversa di una matrice A). Dalla denizione 9.1 segue che la matrice
A =

1 2 0
1 0 1
0 1 1

,
ammette per inversa
A
1
=

1 2 2
1 1 1
1 1 2

.
Teorema 9.4 (Invertibilit`a e rango). Sia A una matrice quadrata di ordine n. Essa `e invertibile se e
solo se rk(A) = n.
Dimostrazione. Sia A una matrice quadrata di ordine n e invertibile. Consideriamo la matrice identit`a
di ordine n, il cui rango `e rk(I
n
= n. Ma I
n
= AA
1
e utilizzando le propriet`a del rango possiamo
scrivere rk(AA
1
) {rk(A), rk(A
1
)} e dunque n = rk(AA
1
) = rk(I
n
) rk(A), ovvero rk(A) n.
Sempre dalle propriet`a del rango sappiamo che rk(I
n
) n e, componendo le due disuguaglianze, si
ottiene rk(A) = n.
Viceversa, se A `e una matrice quadrata di ordine e rango n, allora essa `e equivalente per righe ad
I
n
. Esistono pertanto un numero nito di matrici elementari E
1
, . . . , E
k
tali che E
1
E
k
A = I
n
. Ne
segue che la matrice B = E
1
E
k
`e linversa di A.
Osservazione 9.5 (Sullinvertibilit`a). Da questo teorema si deduce che una matrice `e invertibile se e
solo se essa `e prodotto di matrici elementari.
Si deduce anche che, applicando lalgoritmo di Gauss-Jordan alla matrice A si ottiene la matrice
identica I
n
, (i.e. E
1
E
k
A = I
n
) ed applicando alla matrice I
n
le stesse operazioni elementari, si
ottiene A
1
(i.e. E
1
E
k
I
n
= A
1
).
Dallosservazione precedente si deduce un metodo rapido per il calcolo dellinversa di A
1
. Si con-
sidera, appunto, una matrice di tipo n 2n, in eetti la matrice

A | I
n

.
A tale matrice si applica lalgoritmo di Gauss-Jordan e si ottiene nel primo blocco la matrice I
n
e nel
secondo la matrice A
1
:

I
n
| A
1

.
Esempio 9.6 (Calcolo dellinversa con Gauss-Jordan). Si vuole invertire la matrice
A =

1 1
1 0

1
Allo scopo si consideri la matrice (A|I
2
), i.e.

1 1
.
.
. 1 0
1 0
.
.
. 0 1

Sottraiamo alla seconda riga la prima ed otteniamo

1 1
.
.
. 1 0
0 1
.
.
. 1 1

moltiplichiamo ora la seconda riga per 1 ed abbiamo

1 1
.
.
. 1 0
0 1
.
.
. 1 1

.
Sottraiamo inne alla prima riga la seconda e otteniamo

1 0
.
.
. 0 1
0 1
.
.
. 1 1

.
La matrice

0 1
1 1

linversa di A, A
1
.
Esempio 9.7. Calcolare linversa della matrice
A =

1 1 1
5 4 3
10 5 1

.
Formiamo la tabella

1 1 1
.
.
. 1 0 0
5 4 3
.
.
. 0 1 0
10 5 1
.
.
. 0 0 1

.
Essendo uguale ad 1 il primo elemento della prima riga, si lascia inalterata tale riga. Dalla seconda
riga si sottrae la prima moltiplicata per 5; dalla terza, invece, si sottrae la prima moltiplicata per 10. Si
forma cos` la seguente tabella:

1 1 1
.
.
. 1 0 0
0 1 2
.
.
. 5 1 0
0 5 1 9
.
.
. 10 0 1

.
Si divida la seconda riga per 1; dalla prima riga si sottragga la seconda riga ottenuta, moltiplicata
per 1; dalla terza riga si sottragga la seconda riga ottenuta moltiplicata per 5. Si ottiene la tabella

1 0 1
.
.
. 4 1 0
0 1 2
.
.
. 5 1 0
0 0 1
.
.
. 15 5 1

.
2
Essendo uguale ad 1 il terzo elemento della terza riga, tale riga resta inalterata. Dalla prima riga si
sottrae la terza moltiplicata per 1; dalla seconda riga si sottrae la terza moltiplicata per 2. Si trova

1 0 0
.
.
. 11 4 1
0 1 0
.
.
. 25 9 2
0 0 1
.
.
. 15 5 1

.
Dunque, la matrice inversa `e
A
1
=

11 4 1
25 9 2
15 5 1

.
3
11 Determinanti
Ad ogni matrice quadrata `e possibile associare un numero reale, chiamato determinante, che esprime
alcune propriet`a della matrice stessa, fra cui la sua invertibilit`a.
Denizione 11.1 (Denizione classica di determinante) Sia Auna matrice quadrata. Si denisce
determinante di A e si indica con det((A), il numero reale cos` denito:
det(A) :=

Sn
sgn()

Sn
a
i(i)
, (1)
dove la somma `e estesa a tutte le permutazioni di {1, . . . , n}.
In altri termini, possiamo dire che det(A) si calcola sommando tutti i possibili prodotti di n elementi
(con un opportuno segno), in modo che i fattori di ciascun prodotto non appartengano a due a due
alla stessa riga o alla stessa colonna.
Per il determinante valgono le seguenti propriet`a:
i) Se A `e una matrice di ordine 1, allore det(A) = a.
ii) Se A `e una matrice di ordine 2, allora det(A) = a
11
a
22
a
12
a
21
.
iii) Se una matrice T `e triangolare, allora il determinante, per sua denizione, `e dato dal prodotto
degli elementi sulla diagonale principale, i.e.
det(T) = t
11
t
22
. . . t
nn
.
iv det(A) = det(A)
T
.
Da un punto di vista computazionale per il calcolo del determinante pu`o essere utilizzata la tecnica
di espansione in cofattori.
Denizione 11.2 (Calcolo del determinante con lespansione in cofattori) Sia Auna matrice
quadrata di ordine n e sia A
ij
la sottomatrice di A ottenuta cancellando la riga i e la colonna j. Il
termine C
ij
:= (1)
i+j
det(A
ij
) `e detto complemento algebrico o cofattore dellelemento a
ij
.
Con lespansione in cofattori, det(A) pu`o essere calcolato rispetto alla riga i:
det(A) =
n

j=1
a
ij
C
ij
o rispetto alla colonna j:
det(A) =
n

i=1
a
ij
C
ij
Esempio 11.1 (Calcolo del determinante con lespansione in cofattori) Si voglia calcolare il
determinante della matrice
A =

1 0 1
1 1 0
3 0 4

,
1
con lespansione in cofattori rispetto alla riga 1. Si ha dunque:
det(A) = 1 det

1 0
0 4

+ 0 (1) det

1 0
3 4

+ (1) 1 det

1 1
3 0

=
1 (1 4) + 0 1 (1) (1 3) = 7.
Nel caso n = 3 pu essere per il calcolo del determinante pu`o essere utilizzata la regola di Sarrus.
Denizione 11.3 (Regola di Sarrus) Sia A una matrice quadrata di ordine 3. La regola di Sarrus
consiste nel costruire una nuova matrice B con n righe e n+2 colonne, copiando le prime due colonne
di A alla destra di A. Si calcola la somma dei prodotti degli elementi sulle diagonali principali e si
sottrae la somma degli elementi sulle diagonali secondarie.
Esempio 11.2 (Regola di Sarrus) Si vuole calcolare il determinante della matrice
A =

1 0 3
2 1 1
0 2 2

Si applica la regola di Sarrus e si costruisce la matrice


A =

1 0 3
.
.
. 1 0
2 1 1
.
.
. 2 1
0 2 2
.
.
. 0 2

Si calcolano i prodotti sulle prime tre diagonali discendenti con il segno positivo e quelli sulle tre
diagonali ascendenti con il segno positivo, ottenendo:
1(1)(2) + 0(1)0 + 3(2)(2) [0(1)(3) + 2(1)(1) + (2)(2)0] = 2 + 12 + 2 = 16
Nel seguito presentiamo alcune importanti propriet`a del determinante.
Osservazione 11.1 (Propriet`a del determinante rispetto alle operazioni elementari)
Operazioni elementari di tipo I Se A

`e una matrice ottenuta da A scambiando due righe, allora


det(A

) = det(A);
Operazioni elementari di tipo II Se A

`e una matrice ottenuta da A moltiplicando una riga per


uno scalare k = 0, allora det(A) = k det(A);
Operazioni elementari di tipo III Se A

`e una matrice ottenuta da A sommando ad una riga


unaltra moltiplicata per uno scalare, allora det(A

) = det(A).
Osservazione 11.2 (Determinante di una matrice mediante lalgoritmo di Gauss) Sia B una
matrice a scala, equivalente per righe ad A, ottenuta con lalgoritmo di Gauss (che, ricordiamo, utilizza
solo operazioni elementari di tipo I e di tipo II). Dalle propriet` a dei determinanti segue che
det(B) = (1)
s
det(A), (2)
2
dove s `e il numero di scambi di righe eettuati per passare da A a B.
Osserviamo inoltre che, essendo la matrice B ottenuta con Gauss, essendo quadrata `e necessari-
amente triangolare superiore, il cui determinante dato dal prodotto degli elementi sulla diagonale
principale. Ne segue il determinante di una matrice A, pu` o essere agevolmente calcolato attraverso la
riduzione a scala attraverso lalgoritmo di Gauss, memorizzando il numero di scambi righe eettuati.
Teorema 11.1 Il determinante di una matrice quadrata A di ordine n `e diverso da zero se e solo se
rk(A) = n.
Dimostrazione Applichiamo lalgoritmo di eliminazione di Gauss alla matrice quadrata A di ordine n.
Se rk(A) = n si otterr`a una matrice B triangolare superiore, con tutte righe non nulle. Ne segue
che tutti i pivot corrispondono agli elementi sulla diagonale principale e pertanto det(B = 0. Ma per
losservazione precedente, si avr`a anche det(A) = 0, in quanto det(A) e det(B) possono dierire al
pi` u per il segno.
Se invece rk(A) < n, la matrice nale B avr almeno una riga nulla. Pertanto almeno uno degli
elementi sulla diagonale principale sar`a pari a zero e quindi det(A) = det(B) = 0.
Corollario 11.1 (Relazione tra determinante e invertibilit`a) Una matrice A `e invertibile se e
solo se det(A) = 0.
Dimostrazione Una matrice A `e invertibile se e solo se rk(A) = n. Ma dal teorema ?? sappiamo che
det(A) = 0 se e solo se rk(A) = n.
Denizione 11.4 (Matrici singolari) Una matrice si dice non singolare se det(A) = 0, mentre
si dice singolare se det(A) = 0.
Il determinante `e anche alla base di un metodo alternativo per il calcolo dellinversa di una matrice
A.
Infatti, `e possibile vericare che
A
1
=

C11
detA
C12
detA
. . .
C1n
detA
C21
detA
C22
detA
. . .
C2n
detA
. . . . . . . . . . . .
Cn1
detA
Cn2
detA
. . .
Cnn
detA

T
. (3)
Un altro risultato assai utile per il calcolo del determinante `e il teorema di Binet, il quale si enuncia
come segue
Teorema 11.2 (Teorema di Binet) Siano A e B due matrici quadrate di ordine n, allora
det(AB) = detA detB. (4)
Dalla formula (4) si pu`o calcolare il determinante della matrice A
1
noto il determinante di A.
Corollario 11.2 (Determinante di A
1
) Se A `e una matrice quadrata invertible, allora
det(A
1
) =
1
detA
. (5)
3
11.1 Calcolo del rango utilizzando i determinanti
Il concetto di rango di una matrice non quadrata pu`o essere espresso anche attraverso il determinante.
Infatti, data una matrice mxn, il suo rango pu`o essere calcolato attraverso il determinante delle
sottomatrici quadrate della matrice considerata.
Allo scopo premettiamo la seguente denizione
Denizione 11.5 (minore) Sia A una matrice di tipo m n, si dice minore di A di ordine p,
con p min{m, n} una qualunque sottomatrice quadrata di A di ordine p.
Esempio 11.3 (minori) Se
A =

1 0 7 3
4 7 0 0

,
i suoi minori di ordine 2 sono le seguenti matrici:

1 0
4 7

1 7
4 0

1 3
4 0

0 7
7 0

0 3
7 0

7 3
0 0

.
Vale poi il seguente teorema per il calcolo del rango.
Teorema 11.3 (Calcolo del rango con i minori) Il rango di una matrice `e uguale allordine mas-
simo dei suoi minori non singolari.
In altre parole, una matrice A ha rango p se e solo se esiste un minore non singolare di ordine p e
tutti i minori di A di ordine p + 1 (se esistono) sono singolari.
Denizione 11.6 (orlato) Sia A una matrice di tipo m n, e sia M un minore di A di ordine p.
Si dice orlato di M un qualunque minore N di A di ordine p + 1 che ammetta M come sua sotto
matrice (in altri termini N si ottiene da M cancellando una riga ed una colonna).
4
Esempio 11.4 (orlati) Se A `e la matrice

1 0 2 3
8 1 1 1
3 2 0 1

,
ed M `e il suo minore di ordine 2, ottenuto da A cancellando la terza riga e la seconda e quarta
colonna, cio`e

1 2
8 1

,
i suoi orlati sono i minori

1 0 2
8 1 1
3 2 0

1 2 3
8 1 1
3 2 0

.
Per il calcolo del determinante vale il seguente teorema.
Teorema 11.4 (Teorema degli orlati di Kronecker) Sia A una matrice mxn. Il rango di A `e
pari a p se e solo se esiste un minore di ordine p non singolare e tutti i suoi orlati sono tutti singolari.
Esempio 11.5 (Calcolo del rango con gli orlati) Si vuole calcolare il rango della matrice
A =

1 0 2 3
3 1 18 5
2 0 4 6
8 2 40 4

Il minore del secondo ordine


M =

1 0
3 1

`e non singolare poich`e det(M) = 1. Tutti gli orlati di ordine 3 sono

1 0 2
3 1 18
2 0 4

1 0 3
3 1 5
2 0 6

1 0 2
3 1 18
8 2 40

,
5

1 0 3
3 1 5
8 2 4

.
Poich`e tutti questi minori hanno determinante nullo se ne deduce che rk(A) = 2.
6
13 Sistemi di equazioni lineari
Denizione 13.1 (Equazione Lineare) Si denisce equazione lineare unespressione della forma
a
1
x
1
+ a
2
x
2
+ . . . a
n
x
n
= b,
dove a
1
, a
2
, . . . , a
n
sono numeri reali, detti coecienti dellequazione, x
1
, . . . , x
n
sono dette incognite
e b R si dice termine noto.
Denizione 13.2 (Soluzione di unequazione lineare) Una soluzione di unequazione lineare a
1
x
1
+
a
2
x
2
+ . . . + a
n
x
n
= b, `e una n-upla di numeri reali s
1
, s
2
, . . . , s
n
che verichi lequazione, tale cio`e
che a
1
s
1
+ a
2
s
2
+ . . . a
n
s
n
= b.
risolvere unequazione lineare signica determinare tutte le n-uple che verichino lequazione.
Denizione 13.3 (Sistema di equazioni lineari) Un sistema di equazioni lineari `e un insieme
di equazioni lineari che devono essere soddisfatte simultaneamente:

a
11
x
1
+ a
12
x
2
+ . . . + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ . . . + a
2n
x
n
= b
2
. . .
a
m1
x
1
+ a
m2
x
2
+ . . . + a
mn
x
n
= b
m
(1)
dove le incognite sono x
1
, x
2
, . . . , x
n
, i coecienti sono a
11
, a
12
, . . . , a
1n
, a
21
, . . . , a
2n
, . . . , a
m1
, . . . , a
mn
e i termini noti sono b
1
, b
2
, . . . , b
m
.
Esempio 13.1 (Sistema di equazioni lineari) Il seguente `e un sistema lineare di tre equazioni in
quattro incognite.

3x
1
+ 11x
2
4x
3
= 1
2x
2
+ 2x
3
4x
4
= 0
1x
1
+ 5x
2

4
3
x
3
+

3x
4
= 1
(2)
Denizione 13.4 (Soluzione di un sistema di equazioni lineari) Si denisce soluzione di un
sistema lineare di m equazioni in n incognite una n-pla (x
1
, x
2
, . . . , x
n
) che `e soluzione di tutte
le equazioni del sistema, contemporaneamente.
Denizione 13.5 (Sistemi di equazioni lineari consistente) Un sistema di equazioni lineari si
dice consistente o compatibile se ammette almeno una soluzione. Viceversa, il sistema si dice
impossibile.
Esempio 13.2 Il sistema seguente di due equazioni in due incognite

x + y = 0
x + y = 1.
`e impossibile. Il sistema di due equazioni in due incognite

x + y = 0
3x + y = 1.
`e invece compatibile, infatti ammette la soluzione (x, y) = (
1
2
,
1
2
)
1
Per trattare un sistema sistema di equazioni lineari `e opportuno introdurre la notazione matriciale.
Denizione 13.6 (Notazione matriciale di un sistema lineare) Dato un sistema di equazioni
lineari, sia
x =

x
1
x
2
. . .
x
n

il vettore colonna delle incognite. Sia


A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . . . . . . . . . . .
a
m1
a
m2
. . . a
mn

la matrice dei coecienti e sia


b =

b
1
b
2
. . .
b
m

il vettore dei termini noti. Un sistema di equazioni lineari pu` o essere descritto in forma matriciale:
Ax = b, (3)
dove A `e appunto la matrice dei coecienti di tipo mn, x `e un vettore colonna di tipo n 1, b
`e un vettore colonna di tipo m1 e lespressione Ax indica il prodotto riga per colonna tra A e x.
Esempio 13.3 Il sistema di equazioni lineari dellesempio 13.1, in notazione matriciale diventa:

3 11 4 0
0 2 2 4
1 5
4
3

x
1
x
2
x
3
x
4

1
0
1

Pu` o anche accadere che un sistema lineare ammetta pi` u di una soluzione. Si dimostra che,
Teorema 13.1 Se un sistema di equazioni lineari ammette pi` u di una soluzione, allora ne ammette
innite.
Dim. Supponiamo che un sistema lineare di m equazioni in n incognite, consistente, ammetta due
soluzioni s = (s
1
, s
2
, . . . , s
n
) ed r = (r
1
, r
2
, . . . , r
n
). Questo signica che:
Ar = b e As = b
Consideriamo una nuova npla t data da
t = s + r : , R e + = 1
avremo allora:
At = A(s + r) = As + At = b + b = ( + )b = b
Dunque t `e una soluzione per il nostro sistema lineare. Inoltre, essendo t composta da innite nple
ottenute al variare di e = 1 R, le soluzioni saranno innite.
2
Esempio 13.4 Il sistema di due equazioni in due incognite

x + y = 0
2x + 2y = 0.
ammette innite soluzioni del tipo (x, y) = (t, t), t R.
Denizione 13.7 (Matrici associate ad un sistema di equazioni lineari) La matrice A dei co-
ecienti del sistema `e detta matrice incompleta del sistema, mentre la matrice A

= [A | b], che
comprende la matrice dei coecienti A e la colonna dei termini noti b, `e detta matrice completa
del sistema.
Esempio 13.5 Con riferimento alla Denizioni 13.7 e 13.3 si ha
A

= [A|b] =

a
11
a
12
. . . . . . a
1n
b
1
a
21
a
22
. . . . . . a
2n
b
2
. . . . . . . . . . . . . . . . . .
a
m1
a
m2
. . . . . . a
mn
b
m

(4)
con
A =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . . . . . . . . . . .
a
m1
a
m2
. . . a
mn

, b =

b
1
b
2
. . .
b
n

, x =

x
1
x
2
. . .
. . .
x
n

(5)
Esempio 13.6 (Matrice incompleta e completa di un sistema di equazioni lineari) Per il sis-
tema lineare

3x
1
+ 4x
2
x
3
+ x
4
= 1
x
1
+ x
3
= 0
x
1
x
2
+ x
4
= 1
si ha:
A

= [A|b] =

3 4 1 1 | 1
1 0 1 0 | 0
1 1 0 1 | 1

, A =

3 4 1 1
1 0 1 0
1 1 0 1

, b =

1
0
1

, x =

x
1
x
2
x
3
x
4

Teorema 13.2 (Esistenza delle soluzioni in un sistema di equazioni lineari) Un sistema lin-
eare ammette soluzioni se e solo se il vettore dei termini noti b `e linearmente dipendente dai vettori
colonna di A.
Dim. Siano a
1
, a
2
, . . . , a
n
, n vettori colonna, di m righe, corrispondenti alle colonne della matrice A
dei coecienti e sia b il vettore dei termini noti. Un sistema di equazioni lineari pu` o essere descritto
anche come equazione vettoriale:
a
1
x
1
+a
2
x
2
+ . . . +a
n
x
n
= b (6)
3
Esempio 13.7 Il sistema lineare

2x + 3y 2z = 5
5x 4y + 2z = 6
pu` o essere scritto come

2
5

x +

3
4

y +

2
2

z =

5
6

Ne segue da questa rappresentazione di un sistema di equazioni lineari, che la compatibilit`a di un


sistema di equazioni lineari equivale a dire che il vettore dei termini noti b `e linearmente dipendente
dai vettori colonna a
1
, . . . , a
n
o, in altri termini, che esistono n scalari x
1
, . . . , x
n
tali che il vettore b
possa essere espresso come combinazione lineare tramite questi, dei vettori colonna a
1
, . . . , a
n
.
Esempio 13.8 Con riferimento allesempio 13.1, si ha che le colonne del sistema sono
a
1
=

3
0
1

, a
2
=

11
2
5

, a
3
=

4
2

4
3

, a
4
=

0
4

, b =

1
0
1

Teorema 13.3 (Teorema di Rouch`e-Capelli) Un sistema lineare ammette soluzioni se e solo se


la sua matrice completa ha lo stesso rango della matrice incompleta, se cio`e rk(A) = rk(A|b).
Dim. Supponiamo che rk(A) = rk(A|b). Questo implica che il vettore b dipende linearmente dai
vettori colonna di A e cio`e che esiste = (
1
, . . . ,
n
) tale che A = b. Dunque, le componenti di
costituiscono una soluzione del sistema lineare. Viceversa, se il sistema possiede almeno una soluzione,
signica che esiste un vettore u = (u
1
, . . . , u
n
) tale che Au = b. Quindi le componenti di questo
vettore sono i coecienti di una combinazione lineare delle colonne di A, per cui b `e linearmente
dipendente dalle colonne di A. Questo implica che aggiungendo b ad A, il massimo numero delle
colonne linearmente indipendenti di A non cambia. Dunque rk(A) = rk(A|b).
Teorema 13.4 Sia p = rk(A) = rk(A|b). Se p < m, esistono p righe del sistema linearmente
indipendenti e m p righe linearmente dipendenti. Ogni soluzione del sistema ridotto formato dalle
sole p righe linearmente indipendenti, soddisfa anche le restanti mp righe linearmente dipendenti.
Dim. Supponiamo, senza perdita di generalit` a, che le prime p righe siano linearmente indipendenti.
Sia [a
m1
a
m2
. . . a
mn
b] una delle righe linearmente dipendenti dalle prime p. Si avr` a pertanto a
m1
=

p
i=1

i
a
i1
, a
m2
=

p
i=1

i
a
i2
, . . . , a
mn
=

p
i=1

i
a
in
e b
i
=

p
i=1

i
b
i
. Ne consegue che ogni
soluzione che soddisfa le prime p equazioni, sar` a soluzione anche di quelle che dipendono linearmente
da queste p.
Osservazione 13.1 Un sistema che ha alcune equazioni linearmente dipendenti da altre, `e un sistema
ridondante quindi, in base al teorema enunciato, possiamo ricercare le sue soluzioni trovando quelle
del sistema ridotto in cui sono presenti solo le sue equazioni signicative, cio`e quelle linearmente
indipendenti.
Teorema 13.5 (Sistemi di equazioni lineari con ununica soluzione) Sia p = rk(A) = rk(A|b).
Un sistema di equazioni lineari ammette ununica soluzione se e solo se p = n (p uguale al numero
delle incognite).
4
Dim. Se p = n infatti, il numero di equazioni signicative `e pari al numero delle incognite. Allora,
per trovare le soluzioni del nostro sistema, possiamo limitarci a trovare le soluzioni delle equazioni
signicative, il che equivale a studiare un sistema la cui matrice dei coecienti `e quadrata, dunque
invertibile. Per cui lunica soluzione che stiamo cercando `e :
x = A
1
b
Teorema 13.6 (Sistemi di equazioni lineari con innite soluzioni) Sia p = rk(A) = rk(A|b).
Un sistema di equazioni lineari ammette innite soluzioni se e solo se p < n (p uguale al numero delle
incognite).
Dim. Se p < n, il sistema presenta pi` u incognite che equazioni sostanziali. Questo sistema `e
a
1
x
1
+a
2
x
2
+ . . . +a
p
x
p
+a
p+1
x
p+1
+ . . . +a
n
x
n
= b
Assegnando arbitrariamente dei valori numerici ad n p incognite che, senza ledere le generalit` a,
possiamo supporre siano le ultime n p, otteniamo
a
1
x
1
+a
2
x
2
+ . . . +a
p
x
p
= b a
p+1
x
p+1
. . . a
n
x
n
= b
ottenendo cos` un sistema di p equazioni in p incognite che, per il teorema precedente, ammette
una soluzione. Se chiamiamo infatti A
p
la matrice dei coecienti del nuovo sistema, la soluzione `e
x = A
1
p
b
Vista larbitrariet` a della scelta dei valori numerici abbiamo innite possibilit` a e per ogni asseg-
nazione otteniamo una soluzione al sistema, ottenendo cos` innite soluzioni.
13.1 Sistemi di equazioni lineari omogenei
Denizione 13.8 (Sistemi di equazioni lineari omogenei) Un sistema di equazioni lineari si dice
omogeneo se la colonna dei termini noti `e un vettore nullo, i.e. b = 0.
Esempio 13.9 Il sistema

3x 5y z = 0
7y 3z = 0
`e un sistema di due equazioni in tre incognite omogeneo.
Si noti che un sistema lineare omogeneo `e sempre risolubile, in quanto ln-upla nulla `e sempre
soluzione del sistema, detta soluzione banale.
Osservazione 13.2 (Soluzioni di un sistema lineare omogeneo) Risolvere un sistema lineare omo-
geneo, dunque, non signica vericare lesistenza di una soluzione (che, appunto, esiste sempre), bens`
determinare tutte le soluzioni.
Teorema 13.7 Un sistema lineare omogeneo ammette soluzioni non banali se e solo se il rango della
matrice associata `e strettamente minore del numero delle incognite. Altrimenti, infatti, ne ammet-
terebbe solo una, che `e appunto la soluzione banale.
Osservazione 13.3 (Spazio delle soluzioni di un sistema lineare omogeneo) Considerato un sis-
tema lineare omogeneo Ax = 0, con A matrice di tipo mn, dette s
1
ed s
2
due soluzioni del sistema,
si vede che anche
1
s
1
+
2
s
2
`e ancora soluzione del sistema, per ogni
1
,
2
R. Pertanto linsieme
S
0
delle soluzioni di un sistema lineare omogeneo in n incognite `e un sottospazio vettoriale di R
n
di
dimensione n p.
5
13.2 Spazio delle soluzioni di un sistema di equazioni lineari
Denizione 13.9 (Sistema lineare omogeneo associato ad un sistema lineare) Dato un sis-
tema di equazioni lineari non omogeneo Ax = b, si densce sistema lineare omogeneo associato
a Ax = b, il sistema che ha la stessa matrice incompleta, ma come colonna dei termini noti il vettore
nullo, i.e. Ax = 0
Teorema 13.8 (Soluzioni di un sistema lineare) Sia Ax = b un sistema lineare consistente. Sia
S linsieme delle sue soluzioni, s una sua soluzione particolare ed S
0
linsieme delle soluzioni del
sistema omogeneo associato. Si ha:
S = s +S
0
cio`e, ogni soluzione di questo sistema si ottiene sommando ad s una soluzione del sistema omogeneo
associato e, viceversa, sommando ad s una soluzione del sistema omogeneo associato, si ottiene una
soluzione del sistema dato.
13.3 Soluzione di sistemi di equazioni lineari mediante eliminazione di
Gauss
Denizione 13.10 (Sistemi lineari equivalenti) Due sistemi di equazioni lineari si dicono equiv-
alenti se ammettono le stesse soluzioni.
Esempio 13.10 Ad esempio, risultano equivalenti i sistemi

x + y = 0
x y = 4
e

2x 2y = 8
x = 2
che ammettono entrambi come unica soluzione (2, 2).
Di seguito presentiamo alcune operazioni elementari che consentono di trasformare un dato sistema
lineare in uno ad esso equivalente.
Denizione 13.11 (Operazioni elementari sulle righe di un sistema) Le operazioni elementari
sulle righe di un sistema sono:
i) scambio di due equazioni;
ii) sostituzione di una equazione con una multipla di questa;
iii) sostituire unequazione con la stessa a cui ne sia stata aggiunta unaltra moltiplicata per uno
scalare.
Esempio 13.11 Nel caso dellesempio 13.10, il secondo sistema `e ottenuto dal primo moltiplicando
lultima equazione per lo scalare 2 e sommando le due equazioni del primo dopo averle moltiplicate per
lo scalare
1
2
.
6
Teorema 13.9 Le operazioni elementari sulle righe trasformano un sistema di equazioni lineari in un
sistema equivalente, cio`e non alterano linsieme delle soluzioni.
Osservazione 13.4
`
E importante osservare che le operazioni sulle righe di un sistema (cf. Denizione
13.11) non sono altro che operazioni elementari sulle righe della matrice del sistema A

= [A|b].
Le operazioni elementari (cf. Denizione 13.11), consentono appunto di passare da ogni sistema
lineare ad un sistema ad esso equivalente a scala.
Dal momento che le operazioni elementari su di un sistema lineare non sono altro che operazioni
elementari sulla matrice associata al sistema, due sistemi sono equivalenti (cf. Denizione 13.10)se e
solo se le matrici rappresentative sono fra loro equivalenti.
Poiche ogni sistema `e identicabile con la matrice che lo rappresenta, si parla indierentemente di
equazioni linearmente indipendenti (o dipendenti) o di righe linearmente indipendenti (o dipendenti),
o ancora, di rango del sistema o della matrice incompleta che lo rappresenta.
Consideriamo un sistema n n. Un sistema del genere ammette esattamente una soluzione.
Denizione 13.12 (Sistemi triangolari) Un sistema `e in forma triangolare se nella kma equazione,
i coecienti delle prime k 1 variabili sono tutti zero, e i coecienti di x
k
sono non nulli, per
k = 1, ...n.
Esempio 13.12 Il sistema

3x + 2y + z = 1
y z = 2
2z = 4
`e in forma triangolare. Un sistema in forma triangolare `e semplice da risolvere. Dalla terza equazione,
segue che z = 2. Sostituendo questo valore nella seconda equazione otteniamo y 2 = 2 dunque y = 4.
Sostituendo y = 4, z = 2 nella prima equazione, concludiamo che 3x + 2 4 + 2 = 1, dunque x = 3.
La soluzione del sistema `e (3, 4, 2).
Ogni sistema triangolare n n pu` o essere risolto in questo modo. Pi` u in generale, lnma equazione
d` a il valore x
n
. Questo viene sostituito nella (n 1)ma equazione, per trovare x
n1
. I valori x
n
ed
x
n1
vengono utilizzati nella (n 2)ma equazione per trovare x
n2
e cos` via.
Osservazione 13.5 Se un sistema n n di equazioni non `e triangolare, si possono usare delle oper-
azioni elementari per trasformarlo in un sistema equivalente che sia per` o in forma triangolare.
Esempio 13.13 Si consideri il sistema di tre equazioni in tre incognite

y + z = 2
y z = 0
4x + 5y + 4z = 1
Risulta che la matrice completa del sistema `e di tipo 3 4:
A

0 1 1 2
0 1 1 0
4 5 4 1

.
7
`
E possibile ridurre a scala la matrice A

con lAlgoritmo di Gauss, ottenendo la matrice S equivalente


ad A

S =

4 5 4 1
0 1 1 2
0 0 2 2

,
per cui il sistema di partenza `e equivalente ad

4x + 5y + 4z = 1
y + z = 2
2z = 2
,
che ammette ununica soluzione {(2, 1, 1)}.
Denizione 13.13 (Sistemi lineari a scala) Un sistema di equazioni lineari si dice a scala se la
sua matrice completa `e a scala.
Esempio 13.14 Considerato il sistema lineare

x y + t = 0
y z = 2
z + t = 1
(7)
la sua matrice completa
A

1 1 0 1 0
0 1 1 0 2
0 0 1 1 1

`e una matrice a scala per righe, dunque il sistema `e a scala.


Osservazione 13.6 (Sistemi di equazioni lineari impossibili) Dato un sistema a scala `e possi-
bile riconoscere subito se ammette o meno soluzioni. Infatti, se nella matrice completa A

`e presente
una riga del tipo 0 0 0 . . . 0 b, esso `e impossibile.
Osservazione 13.7 Sia Ax = b un sistema di equazioni lineari a scala. Se rk(A) = rk(A

) = p < m,
allora A

avr` a mp righe nulle, che sono linearmente dipendenti e possono quindi essere eliminate.
Denizione 13.14 (Risoluzione di un sistema lineare a scala) Per risolvere un sistema lineare
a scala consistente si procede a ritroso a partire dallultima equazione (k = m): si risove la k-sima
equazione e si sostituisce la soluzione trovata nella (k 1)-sima.
Esempio 13.15 Con riferimento al sistema dellEsempio 13.14 si capisce che lultima equazione am-
mette innte soluzioni, ad esempio se a t si d` a il valore si ottiene z = 1, nella penultima equazione
si ha y = 3 e nella prima equazione x = 3, i.e. le soluzioni del sistema sono
{(x, y, z, t) = (3 2, 3 , 1 , ) : R}
Osservazione 13.8 Evidenziata limportanza dei sistemi a scala, si capisce che lalgoritmo di Gauss
pu` o essere utile per la risoluzione dei sistemi lineari. Infatti basta applicare uno di questi algoritmi
alla matrice completa di un sistema, per ottenere unaltro sistema a scala, equivalente al primo, di
immediata risoluzione.
8
Osservazione 13.9 (Numero di parametri nelle soluzioni di un sistema lineare) Dal teorema
di Rouch`e Capelli e dalle considerazioni fatte sui sistemi a scala, si deduce che se Ax = b `e un sistema
lineare di m equazioni in n incognite di rango p = rk(A

) = rk(A), allora il sistema ammette ununica


soluzione se n = p,
np
soluzioni (che si legge innito alla n p soluzioni) se p < n, ed in tal
caso le soluzioni dipendono da n p parametri. Per il calcolo del rango del sistema, talvolta `e pi` u
utile applicare il teorema degli orlati, piuttosto che la riduzione a scala. I minori coinvolti nel calcolo
dellorlato non singolare individuano anche le righe linearmente indipendenti del sistema, ovvero un
sistema equivalente al primo.
Esempio 13.16 Si consideri il sistema

3x + 2y z = 0
6x + 4y 2z = 0
x + 6y = 1
,
tale sistema `e di tre equazioni in tre incognite, ma `e facile vericare che esso ha rango 2, poiche
la seconda equazione `e ottenuta dalla prima moltiplicandola per 2, pertanto, esso ammette innite
soluzioni, anzi `e possibile quanticare quanto innite esse siano. Il fatto che una delle tre incognite
si possa scegliere liberamente, si esprime dicendo che linsieme delle soluzioni ha un grado di libert` a
Ci sono cio`e
1
soluzioni, cio`e soluzioni che dipendono da un parametro. In forma matriciale, si vede
subito che
A

= [A|b] =

3 2 1 0
6 4 2 0
1 6 0 1

e la seconda riga `e il doppio della prima. Le soluzioni sono dunque {(1 6t, t, 3 16t) : t R}.
Il sistema lineare di due equazioni in due incognite

2y z = 0
4y 2z = 1
`e incompatibile, infatti la matrice completa `e
A

2 1 0
4 2 1

che ha rango 2, mentre la matrice incompleta `e


A =

2 1
4 2

di rango 1.
13.4 Soluzione di un sistema di equazioni lineari con la regola di Cramer
Denizione 13.15 (Sistema quadrato) Un sistema lineare si dice quadrato se la matrice incom-
pleta `e una matrice quadrata.
9
Osservazione 13.10 (Metodo della matrice inversa) Dato un sistema quadrato Ax = b, se la
matrice A non `e singolare, cio`e risulta det(A) = 0, il sistema ammette una ed una sola soluzione.
Moltiplicando a sinistra per A
1
ambo i membri della relazione, otteniamo
A
1
Ax = A
1
b
Essendo A
1
A = I, si esplicita la soluzione del sistema
x = A
1
b
Ma la ricerca dellinversa di una matrice, soprattutto per n 4, richiede molto tempo, quindi si
utilizzano altri metodi di risoluzione. Dal Teorema 13.3 si deduce il seguente risultato
Teorema 13.10 (Teorema di Cramer) Un sistema quadrato ammette una ed una sola soluzione se
e solo se la sua matrice incompleta `e invertibile.
Esempio 13.17 Il sistema lineare

x + 2y z = 1
z + y = 0
2x + z 2y = 0
`e un sistema lineare quadrato.
Fino a questo momento `e stato visto che uno dei modi possibili per risolvere un sistema lineare
consiste nella riduzione a scala della matrice rappresentativa del sistema stesso e nella risoluzione per
sostituzione del sistema equivalente che ammette la matrice a scala come sua matrice associata.
Nel caso in cui si voglia risolvere un sistema lineare quadrato con un numero piccolo di equazioni
(diciamo al pi` u tre) pu` o essere conveniente adoperare la regola di Cramer.
Teorema 13.11 (Regola di Cramer) Sia Ax = b un sistema lineare quadrato di n equazioni lineari
tale che det(A) = 0. Allora, lunica soluzione del sistema `e ln-upla (s
1
, s
2
, . . . , s
n
), con
s
i
=
det[A
1
. . . A
i1
BA
i+1
. . . A
n
]
detA
, per ogni i = 1, . . . , n
dove la matrice [A
1
. . . A
i1
BA
i+1
. . . A
n
] `e ottenuta da A, sostituendo alla colonna i-esima la colonna
dei termini noti.
Esempio 13.18 (Regola di Cramer per un sistema quadrato) Consideriamo il sistema lineare
Si consideri il sistema lineare di 3 equazioni in 3 incognite
Ax = b,
dove
A =

1 2 3
1 0 2
1 0 1

10
x =

x
y
z

e
B =

1
2
3

.
Notiamo che la matrice A dei coecienti del sistema `e una matrice invertibile dal momento che
|A| = 2 = 0. Osserviamo che il fatto che il determinante della matrice sia non nullo signica che
la matrice ha rango massimo, cio`e 3 e che il sistema avr` a una sola soluzione. La regola di Cramer ci
dice che le componenti dellunica soluzione (x, y, z), si trovano in questo modo:
x =
det

1 2 3
2 0 2
3 0 1

2
= 4,
y =
det

1 1 3
1 2 2
1 3 1

2
= 0
e
z =
det

1 2 1
1 0 2
1 0 3

3
= 1
Lunica soluzione del sistema `e quindi (4, 0, 1)
La regola di Cramer pu`o essere adoperata anche per un sistema non quadrato, cio`e se `e dato un
sistema di m equazioni in n incognite, di rango p, allora tale sistema `e equivalente ad un altro sistema
individuato dalle p righe linearmente indipendenti. Daltra parte, per il Teorema 13.3 `e possibile
assegnare ad np incognite altrettanti np parametri (che vanno riletti nel termine noto), si perviene,
cos`, ad un sistema di p equazioni in p incognite al quale si applica la regola di Cramer per i sistemi
quadrati.
Esempio 13.19 Sia dato il sistema di tre (m = 3) equazioni in quattro (n = 4) incognite

3x y + z + t = 1
4x 2z + 2t = 2
x y + 2z = 0
`
E facile vericare che il rango di tale sistema `e due (p = 2), infatti la seconda equazione `e combinazione
lineare della prima e della terza equazione. Il teorema di Rouch`e Capelli ci dice allora che ci sono
2
soluzioni (
np
), ottenibili risolvendo il sistema

3x y + z + t = 1
x y + 2z = 0
11
Assegnando allora a z e a t due valori arbitrari (parametri), i.e. z = , t = si ottiene il sistema

3x y = 1
x y = 2
Dato che questo sistema `e quadrato, `e applicabile la regola di Cramer, che d`e luogo a
det(A) = 3 (1) ((1) 1) = 2,
x =
det

1 1
2 1

2
=
1 +
2
,
y =
det

3 1
1 2

2
=
1 5 +
2
e la quaterna di soulzioni `e

(x, y, z, t) =

1 +
2
,
1 5 +
2
, ,

: , R

.
Osservazione 13.11 (Interpretazione geometrica dei sistemi lineari) I sistemi lineari consentono
di descrivere ed individuare sottospazi ani, i.e. rette, piani ed iperpiani negli spazi ani ed
euclidei. Ad esempio una retta in R
2
`e data da unequazione lineare in due incognite, nello spazio
R
3
`e descritta mediante un sistema lineare di due equazioni linearmente indipendenti in tre incog-
nite, un piano in R
3
da unequazione in tre incognite, ecc., ecc. Consideriamo, ad esempio il caso
di tre incognite. Unequazione lineare con tre incongnite, geometricamente rappresenta un piano nello
spazio. Un sistema di due equazioni in tre incongnite rappresenta lintersezione di due piani. Abbiamo
tre possibilit` a:
se i due piani sono distinti e paralleli, non ci sono intersezioni, dunque il sistema non ammette
soluzioni;
se i due piani si incontrano in una retta, ci sono
1
soluzioni (i punti sulla retta);
se i due piani coincidono, ci sono
2
soluzioni (tutti i punti del piano).
Supponiamo ora di avere un sistema di tre equazioni in due incognite. Esso rappresenta lintersezione
di tre rette nel piano. Anche stavolta abbiamo tre possibilit`a:
se le due rette non hanno alcun punto in comune, non ci sono intersezioni, dunque il sistema
non ammette soluzioni;
se le due rette si incontrano in uno stesso punto, c`e ununica soluzione;
se le due rette coincidono, ci sono
1
soluzioni (tutti i punti delle rette).
12
5 Applicazioni Lineari (reali)
Le applicazioni lineari sono funzioni tra due spazi vettoriali e conservano le operazioni di somma tra
vettori e prodotto per uno scalare.
Denizione 5.1 (Applicazione lineare). Siano U e V spazi vettoriali reali. Una funzione
f : U V (5.1)
si dice applicazione lineare di U in V se valgono le seguenti propriet`a:
f(u +v) = f(u) +f(v), per ogni u, v U
f(u) = f(u), per ogni R u, v U.
Le due condizioni si possono rendere equivalentemente nellunica:
f(u
1
+u
2
) = f(u
1
) +f(u
2
) per ogni u
1
, u
2
U ed ogni , R. (5.2)
Esempi 5.2. Lapplicazione f = id : U U che ad ogni u U associa u stesso, `e unapplicazione
lineare. Tale applicazione si dice identit`a o applicazione lineare identica.
Lapplicazione 0 : U U che ad ogni u U associa 0 `e unapplicazione lineare.
Considerato lo spazio vettoriale R
n
, si vede che lapplicazione f : R
n
M
n,1
(R), che ad ogni
v = (v
1
, . . . , v
n
) R
n
associa la matrice colonna delle sue componenti, i.e.
f : v

v
1
v
2
. . .
v
n

`e unapplicazione lineare.
Lapplicazione f : R
3
R
2
che ad (x, y, z) R
3
associa (3x + 2y, z y) `e unapplicazione lineare,
infatti se (x
1
, y
1
, z
1
), (x
2
, y
2
, z
2
) R
3
e , R, risulta
f((x
1
, y
1
, z
1
) +(x
2
, y
2
, z
2
)) = f(x
1
+x
2
, y
1
+y
2
, z
1
+z
2
) =
= (3(x
1
+x
2
) + 2(y
1
+y
2
), (z
1
+z
2
) (y
1
+y
2
)) =
(3x
1
+ 3x
2
+ 2y
1
+ 2y
2
, z
1
+z
2
y
1
+y
2
) =
((3x
1
+ 2y
1
) +(3x
2
+ 2y
2
), (z
1
y
1
) +(z
2
y
2
)) =
(3x
1
+ 2y
1
, z
1
y
1
) +(3x
2
+ 2y
2
, z
2
y
2
) =
f(x
1
, y
1
, z
1
) +f(x
2
, y
2
, z
2
).
Teorema 5.3. Sia f : U V unapplicazione lineare tra due spazi vettoriali reali, siano u
1
, . . . , u
n
U
e v
i
= f (u
i
) con i = 1, . . . , n, allora
i) se u
1
, . . . , u
n
sono linearmente dipendenti, anche v
1
, . . . , v
n
sono linearmente dipendenti;
ii) se v
1
, . . . , v
n
sono linearmente indipendenti, anche u
1
, . . . , u
n
sono linearmente indipendenti.
Questo signica che vettori indipendenti di V provengono da vettori indipendenti di U. Non `e
sempre vero, invece, che a vettori indipendenti di U corrispondono vettori indipendenti di V .
Dim.
1
i) Siano c
1
, . . . , c
n
R, scalari non tutti nulli tali che
c
1
u
1
+. . . +c
n
u
n
= 0
allora
c
1
v
1
+. . . +c
n
v
n
= c
1
f (u
1
) +. . . +c
n
f (u
n
) = f (c
1
u
1
+. . . +c
n
u
n
) = f (0) = 0
quindi v
1
, . . . , v
n
sono linearmente dipendenti.
ii) Data lequazione c
1
u
1
+c
2
u
2
+. . . +c
n
u
n
= 0
U
, applicando f ad ambo i mambri si ottiene che
f(c
1
u
1
+c
2
u
2
+. . . +c
n
v
n
= f (0) = 0
V
quindi, per la linearit`a di f
c
1
f(u
1
) +c
2
f (u
2
) +. . . +c
n
f (u
n
) = c
1
v
1
+c
2
v
2
+. . . +c
n
v
n
= 0
V
da questa, essendo v
1
, . . . , v
n
linearmente indipendenti, si ha che c
1
= . . . = c
n
= 0
Unapplicazione lineare `e determinata completamente dai valori che assume sugli elementi di una
base, come dice il seguente teorema
Teorema 5.4. Siano U e V due spazi vettoriali, sia {e
1
, . . . , e
n
} una base di U e {v
1
, . . . , v
n
} dei
vettori di V . Esiste allora ununica applicazione lineare f : U V tale che f(e
1
) = v
1
, . . . , f (e
n
) = v
n
.
Dim. Dato u U, per denizione di base, esistono
1
, . . . ,
n
unici scalari per cui u =
1
e
1
+. . . +

n
e
n
. Si denisce la funzione
f(u) =
1
v
1
+. . . +
n
v
n
.
Essa `e lineare, infatti,
1) Siano u
1
, u
2
U tali che u
1
=
1
e
1
+. . . +
n
e
n
e u
2
=
1
e
1
+. . . +
n
e
n
.
Allora u
1
+u
2
= (
1
+
1
)e
1
+. . . + (
n
+
n
)e
n
.
Per denizione
f(u
1
+u
2
) = (
1
+
1
)v
1
+. . . + (
n
+
n
)v
n
=
1
v
1
+
1
v
1
+. . . +
n
v
n
+
n
v
n
=
=
1
v
1
+. . . +
n
v
n
+
1
v
1
+. . . +
n
v
n
= f (u
1
) +f (u
2
).
2) Dato k R, ku
1
= k
1
e
1
+. . . +k
n
e
n
, da cui
f(ku
1
) = k
1
v
1
+. . . +k
n
v
n
= kf (u
1
).
Esiste quindi unapplicazione lineare fatta cos`.
`
E lunica? Si, perche per ogni u =
1
e
1
+. . .+
n
e
n
U,
unapplicazione lineare g deve essere tale che
g(u) = g(
1
e
1
+. . . +
n
e
n
) =
1
g(e
1
) +. . . +
n
g(e
n
) =
1
v
1
+. . . +
n
v
n
e, dovendo conservare le combinazioni lineari dei vettori della base, deve necessariamente agire come f.
Osservazione 5.5. Se due applicazioni lineari da U a V assumono gli stessi valori sui vettori di una
base di U, esse coincidono.
Denizione 5.6 (Immagine di un sottoinsieme). Data unapplicazione lineare f : U V , con U e V
spazi vettoriali reali ed S U, linsieme
f(S) = {v V : u S : f (u) = v} = {f (u) : u S} V
si chiama immagine di S mediante f.
2
Denizione 5.7 (Controimmagine di un elemento). Data unapplicazione lineare f : U V , con U e
V spazi vettoriali reali ed un elemento v V, il sottoinsieme di U
f
1
(v) = {u U : v = f (u)} U
si chiama controimmagine di u in U mediante f.
Denizione 5.8 (Controimmagine di un sottoinsieme). Data unapplicazione lineare f : U V , con U
e V spazi vettoriali reali e T V , allora
f
1
(T) = {u U : v T tale che f (u) = v} = {u : f (u) T}.
si chiama controimmagine del sottoinsieme T di V mediante f.
Denizione 5.9 (Nucleo di unapplicazione lineare). Data unapplicazione lineare f : U V , con U
e V spazi vettoriali reali ed S U, si denisce nucleo dellapplicazione f e si denota con Ker(L) il
sottospazio di U costituito dai vettori che hanno per immagine mediante f il vettore nullo dello spazio
V , i.e.
Kerf := {u U : f (u) = 0
V
} = f
1
(0
V
). (5.3)
Osservazione 5.10. Il Nucleo di unapplicazione lineare f non pu`o mai essere vuoto. Infatti, esso
contiene sempre almeno lelemento nullo 0
U
U. Questo perche per ogni applicazione lineare f, vale la
propriet`a f(0
U
) = 0
V
come si dimostra:
f(0
U
) = f (0
U
+0
V
) = f (0
U
) +f (0
V
)
questo implica
f(0
U
) = f (0
U
) f (0
U
) = 0
V
Teorema 5.11. Data unapplicazione lineare f : U V , con U e V spazi vettoriali reali, allora
i) Se X `e un sottospazio di U, allora f(X) `e un sottospazio di V ;
ii) Se Y `e un sottospazio di V , allora f
1
(Y ) `e un sottospazio di U.
Dim.
i) 1) presi v
1
, v
2
f (X) u
1
, u
2
X : f (u
1
) = v
1
, f (u
2
) = v
2
per la linearit`a di f, si ha che:
v
1
+v
2
= f (u
1
) +f (u
2
) = f (u
1
+u
2
)
essendo u
1
+u
2
U perche `e uno spazio vettoriale, si ha f(u
1
+u
2
) = v
1
+v
2
f (U);
2) preso R e preso v f (X) u U : f (u) = v. Allora
v = f (u) = f (u)
essendo u U perche `e uno spazio vettoriale, si ha f(u) = v f (U).
ii) 1) siano u
1
, u
2
f
1
(Y) v
1
, v
2
Y : f (u
1
) = v
1
, f (u
2
) = v
2
si ha che
f(u
1
+u
2
) = f (u
1
) +f (u
2
) = v
1
+v
2
essendo v
1
+v
2
Y perche `e uno sottospazio vettoriale, si ha u
1
+u
2
f
1
(Y)
2) preso R e preso u
1
f
1
(Y) v
1
Y : f (u
1
) = v
1
. Allora
f(u
1
) = f (u
1
) = v
1
essendo v
1
Y perche `e uno sottospazio vettoriale, si ha u
1
f
1
(Y).
Osservazione 5.12 (Il nucleo `e un sottospazio). Il nucleo di unapplicazione lineare f : U V `e un
sottospazio di U. Segue dal Teorema ??.
3
Osservazione 5.13 (Limmagine `e un sottospazio). Limmagine di unapplicazione lineare f : U V
`e un sottospazio di V . Segue dal Teorema ??.
Denizione 5.14 (Applicazione iniettiva). Unapplicazione f : U V `e detta iniettiva se, presi
comunque u, v U con u = v, risulta f(u) = f (v) o, equivalentemente se, presi comunque u, v U
con f(u) = f (v), allora u = v.
Teorema 5.15 (Nucleo e applicazioni iniettive). Sia f : U V unapplicazione lineare. Allora f `e
iniettiva se e solo se Ker(f) = {O
U
}.
Dim. Se f `e iniettiva allora f(u) = f (0
U
) u = 0
U
, u U. Ma poiche f(0
U
) = 0
V
, lunico
vettore la cui immagine `e 0
V
, `e 0
U
. Da cui Ker(f) = {O
U
}.
Viceversa, se Kerf = {0
V
}, allora detti u
1
ed u
2
due vettori di U tali che f(u
1
) = f (u
2
) , risulta che
f(u
1
u
2
) = 0
V
e dunque u
1
u
2
Kerf , pertanto u
1
u
2
= 0
U
u
1
= u
2
f`e iniettiva.
Denizione 5.16 (Applicazione suriettiva). Unapplicazione f : U V `e detta suriettiva se Im(f) =
V .
Teorema 5.17. Sia f : U V unapplicazione lineare. Allora f `e biettiva (ossia iniettiva e suriettiva)
se e solo se Ker(f) = O
U
e Im(f) = V .
Teorema 5.18 (Teorema del Nucleo e dellImmagine). Siano U e V due spazi vettoriali reali e sia U di
dimensione nita, allora
dimU = dim(Kerf) + dim(Imf). (5.4)
Dim. Sia {v
1
, . . . , v
s
} una base di Imf. Siano u
1
, . . . , u
s
U : f (u
i
) = v
i
per i = 1, . . . , s.
Sia w
1
, . . . , w
t
una base del nucleo. Si dimostra che {v
1
, . . . , v
s
, w
1
, . . . , w
t
} `e una base di V . Sia
u U
1
, . . . ,
s
scalari tali che f(u) =
1
v
1
+. . . +
s
v
s
perche {v
1
+. . . +v
s
} `e una base di Imf.
Per la linearit`a di f, abbiamo f(u) =
1
f (u
1
) +. . . +
s
f (u
s
) = f (
1
u
1
+. . . +
s
u
s
) da cui
f(u) f (
1
u
1
+. . . +
s
u
s
) = f (u
1
u
1
. . .
s
u
s
) = 0
implica che
u
1
u
1
. . .
s
u
s
Kerf
quindi t scalari
1
, . . . ,
t
:
u
1
u
1
. . .
s
u
s
=
1
w
1
+. . . +
t
w
t
Quindi
u =
1
u
1
+. . . +
s
u
s
+
1
w
1
+. . . +
t
w
t
che `e una combinazione lineare di u
1
, . . . , u
s
, w
1
, . . . , w
t
. Quindi questi s + t elementi generano V .
Si dimostra anche che sono linearmente indipendenti, quindi costituiscono una base: Supponiamo che
sussista

1
u
1
+. . . +
s
u
s
+
1
w
1
+. . . +
t
w
t
= 0 (5.5)
Applicando f ad entrambi i membri e tenendo conto che f(w
i
) = 0, per i = 1, . . . , t si ha

1
f(u
1
) +. . . +
s
f (u
s
) = 0
1
v
1
+. . . +
s
v
s
= 0
ma {v
1
, . . . , v
s
} sono, per ipotesi, linearmente indipendenti. Quindi
i
= 0 per j = 1, . . . , s.
Tornando a ??, si ha

1
w
1
+. . . +
t
w
t
= 0
ma {w
1
, . . . , w
t
} `e una base dunque linearmente indipendente, per bui
i
= 0 per j = 1, . . . , t.
4
5.1 Matrici associate ad unapplicazione lineare
Siano U e V due spazi vettoriali reali di dimensione nita. Sia f unapplicazione lineare da U in V W.
Siano assegnate due basi, B
U
= {u
1
, . . . , u
n
} in U e B
V
= {v
1
, . . . , v
m
} in V .
Proposizione 5.19 (facoltativa). Lapplicazione f `e ben denita (cio`e se ne conoscono i valori in tutti i
vettori di U ) una volta che siano assegnate le componenti rispetto alla base B
V
dellimmagine dei vettori
di B
U
mediante f.
Dim. Se
f(u
1
) = a
11
v
1
+. . . a
m1
v
m
. . .
f(u
n
) = a
1n
w
1
+. . . a
mn
v
m
allora per ogni u U, poiche risulta che u ammette componenti (x
1
, . . . , x
n
), rispetto alla
base B
U
, i.e. u = x
1
u
1
+. . . x
n
u
n
, dalla linearit`a di f si ha
f(u) = f(x
1
u
1
+. . . x
n
u
n
) = x
1
f(u
1
) +. . . x
n
f(u
n
).
Denizione 5.20 (Applicazione lineare e matrice associata). Siano U e V due spazi vettoriali di di-
mensione nita, e B
U
= {u
1
, . . . , u
n
} e B
V
= {v
1
, . . . , v
m
} basi rispettivamente di U e V . Ogni vettore
u U `e rappresentato da univocamente in B
U
da n scalari
1
. . . ,
n
tali che:
u =
1
u
1
+ +
n
u
n
.
Sia f : U V unapplicazione lineare. Per la sua linearit`a, si ha che:
f(u) = f (
1
u
1
+ +
n
u
n
) =
1
f (u
1
) + +
n
f (u
n
).
Ciascun f(u
i
), con i = 1, . . . , n, appartiene a V , di conseguenza si potr`a scrivere come combinazione
lineare di vettori di B
V
:
f(u
i
) = a
1i
v
1
+a
2i
v
2
+. . . +a
mi
v
m
.
La matrice A che ha per colonna iesima le coordinate del vettore f(u
i
) nella base B
V
:
A =

a
11
a
12
. . . . . . a
1n
a
21
a
22
. . . . . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . . . . a
mn

`e la matrice associata rappresentativa di f, nei riferimenti B


U
e B
V
Esempio 5.21. Sia f : R
4
R
3
lapplicazione lineare denita da f(x, y, z, t) = (x5t, y+z+t, xyz
t). Per trovare la matrice A associata ad f, si considerano {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)},
base per R
4
e {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, base per R
3
.
f(1, 0, 0, 0) = (1, 0, 1) = 1(1, 0, 0) + 0(0, 1, 0) + 1(0, 0, 1)
f(0, 1, 0, 0) = (0, 1, 1) = 0(1, 0, 0) + 1(0, 1, 0) 1(0, 0, 1)
f(0, 0, 0, 1) = (5, 1, 1) = 5(1, 0, 0) + 1(0, 1, 0) 1(0, 0, 1)
dunque, la matrice associata a questa applicazione lineare `e:
A =

1 0 0 5
0 1 1 1
1 1 1 1

5
Figure 1: Dilatazione di un quadrato
Esempio 5.22. Un esempio di applicazione lineare `e una dilatazione. Data la seguente funzione lineare
del piano R
2
in se:
g(x, y) = (2x, 2y)
la matrice associata `e la matrice diagonale
A =

2 0
0 2

.
Dato un quadrato di lato 1, con i lati sugli assi cartesiani, la sua immagine tramite g `e un quadrato i
cui lati sono ancora sugli assi cartesiani, la cui lunghezza `e raddoppiata:
Esempio 5.23. Data h : R
2
R
2
tale che h(x, y) = (2x, y). La matrice associata `e
B =

2 0
0 1

.
Partendo dallo stesso quadrato dellesempio precedente, limmagine di questo tramite h `e un rettangolo
che mantiene i lati sugli assi:
Figure 2: Trasformazione di un quadrato nel piano tramite la funzione h
Esempio 5.24. Sia k : R
2
R
2
tale che k(x, y) = (
3x+y
2
,
x+3y
2
). La matrice associata `e
C =

3/2 1/2
1/2 3/2

.
Limmagine del quadrato, stavolta `e un parallelogramma i cui lati si sono spostati:
Figure 3: Trasformazione di un quadrato nel piano tramite la funzione k
6
15 Autovalori e autovettori di una matrice A
Sia una matrice quadrata di ordine n. Un problema che si presenta con frequenza nelle applicazioni di
Algebra Lineare `e quello di determinare uno scalare ed un vettore x = 0 che soddisfano lequazione:
Ax = x (15.1)
Denizione 15.1. Uno scalare ed un vettore x = 0 che soddisfano questa equazione prendono il nome,
rispettivamente di autovalore di A e di autovettore di A associato a .
Denizione 15.2 (Polinomio caratteristico di A). Data la matrice quadrata
A =

a
11
a
12
.
.
. a
1n
a
21
a
22
.
.
. a
2n
. . . . . . . . . . . .
a
n1
a
n2
.
.
. a
nn

la matrice AI `e la seguente:
AI =

a
11
a
12
.
.
. a
1n
a
21
a
22

.
.
. a
2n
. . . . . . . . . . . .
a
n1
a
n2
.
.
. a
nn

Si denisce polinomio caratteristico di A, il polinomio ottenuto sviluppando il determinante della


matrice AI.
Denizione 15.3 (Equazione caratteristica di A). Si denisce equazione caratteristica di A, lequazione
det(AI) = 0.
Teorema 15.4. Uno scalare `e un autovalore di A se e solo se `e una soluzione dellequazione
caratteristica di A.
Dim. Per mantenere la forma matriciale, lequazione Ax = x pu`o essere scritta come Ax = Ix,
da cui (A I)x = 0.
(A I)x = 0 `e un sistema di equazioni lineari omogeneo. Sappiamo che un sistema omogeneo
determinato ammette come unica soluzione la soluzione banale x = 0. Poiche siamo interessati solo a
soluzioni x = 0, dobbiamo imporre che il sistema ammetta innite soluzioni, e dunque che rk(AI) <
n.
Essendo A una matrice quadrata, per ottenere rk(AI) < n dobbiamo imporre det(AI) = 0.
Otteniamo cos` lequazione caratteristica, le cui soluzioni saranno gli autovalori di A.
Gli autovalori di A sono pertanto le soluzioni
1
,
2
, . . . ,
n
dellequazione caratteristica. Il nu-
mero di volte con cui lautovalore
i
compare nella soluzione dellequazione caratteristica viene detto
molteplicit`a algebrica di
i
.
Per ciascun autovalore
i
, ogni vettore x = 0 che soddisfa il sistema di equazioni lineari (A
i
I)x =
0 prende il nome di autovettore di A associato allautovalore
i
. Evidentemente per ogni autovalore
di A esistono inniti autovettori. Linsieme degli autovettori associato ad un autovalore viene detto
autospazio associato allautovalore .
Esempio 15.5 (Calcolo deli autovalori e degli autovettori). Consideriamo la matrice
A =

2

2

2 1

Costruiamo quindi la matrice


AI =

2

2

2 1

0
0

2 1

1
e calcoliamo il polinomio caratteristico det(AI) = (2 )(1 ) 2 =
2
3.
A questo punto risolviamo lequazione caratteristica
2
3 = 0. Le soluzioni dellequazione,
1
= 0
e
2
= 3, sono gli autovalori di A.
Per determinare gli autovettori dobbiamo risolvere il sistema di equazioni omogeneo (A
i
I)x = 0.
Ponendo
1
= 0 il sistema diventa
2x
1
+

2x
2
= 0 (15.2)

2x
1
+ x
2
= 0 (15.3)
Questo sistema `e ridondante, per cui possiamo eliminare la seconda equazione:
2x
1
+

2x
2
= 0 (15.4)
(15.5)
Il sistema, per costruzione, ammette innite soluzioni e possiamo porre x
2
=

2, ottenendo x
1
= 1.
Pertanto un autovettore associato a = 0 sar`a x = (1,

2).
Analogamente, ponendo
2
= 3 il sistema diventa
x
1
+

2x
2
= 0 (15.6)

2x
1
2x
2
= 0 (15.7)
Questo sistema `e ridondante, per cui possiamo eliminare la seconda equazione:
x
1
+

2x
2
= 0 (15.8)
(15.9)
Il sistema `e anche, per costruzione, indeterminato e possiamo porre x
2
=

2, ottenendo x
1
= 2. Pertanto
un autovettore associato a = 0 sar`a x = (2,

2).
Gli autovalori di una matrice A possono essere numeri reali o complessi. Per le matrici simmetriche
vale il seguente teorema, che diamo senza dimostrazione.
Teorema 15.6 (Autovalori di matrici simmetriche). Gli autovalori di una matrice simmetrica sono reali.
Teorema 15.7 (Autovettori di matrici simmetriche). Data una matrice simmetrica A, gli autovettori
associati a distinti autovalori sono tra loro ortogonali. Siano cio`e
i
e
j
due distinti autovalori di A e
siano x
i
e x
j
due autovettori associati, rispettivamente, a
i
e
j
. Si avr`a allora x
T
i
x
j
= 0.
Dim. Siano
i
e
j
due distinti (
i
=
j
) autovalori di A e siano x
i
e x
j
, rispettivamente un
autovettore associato a
i
ed un autovettore associato a
j
. Allora entrambe le equazioni Ax
i
=
i
x
i
e Ax
j
=
j
x
j
sono vericate. Moltiplichiamo queste due equazioni, rispettivamente per x
T
j
e per x
T
i
,
ottenendo x
T
j
Ax
i
=
i
x
T
j
x
i
e x
T
i
Ax
j
=
j
x
T
i
x
j
.
Ma essendo la matrice A simmetrica, si verica facilmente che i primi membri delle due equazioni
sono uguali, i.e. x
T
j
Ax
i
= x
T
i
Ax
j
. Ne consegue che
i
x
T
j
x
i
=
j
x
T
i
x
j
. Ma poiche gli autovalori
i
e
j
sono per ipotesi distinti, dovr`a allora necessariamente essere x
T
j
x
i
= x
T
i
x
j
= 0 e dunque gli autovettori
x
i
e x
j
sono ortogonali.
15.1 Matrici simili
Denizione 15.8 (Matrici simili). Due matrici quadrate, A e B si dicono simili se esiste una matrice
quadrata nonsingolare P tale che B = PAP
1
. Ne consegue anche che se A a B sono simili, allora
A = P
1
BP.
Teorema 15.9. Se le matrici A e B sono simili, esse hanno gli stessi autovalori.
Dim. Siano A e B due matrici simili. Dunque B = PAP
1
. Sia un autovalore di B. Si ha
Bx = x. Sostituendo si ottiene PAP
1
x = x. Moltiplicando ambo i membri per P
1
, otteniamo
AP
1
x = P
1
x, da cui, ponendo P
1
x = y, risulta Ay = y, dimostrando che `e anche un
autovalore di A. .
2
Denizione 15.10 (Matrici diagonalizzabili). Una matrice quadrata A si dice diagonalizzabile se `e
simile ad una matrice diagonale, cio`e se esistono una matrice diagonale D e una matrice nonsingolare
P tali che D = PAP
1
.
Denizione 15.11 (Matrici ortogonali). Una matrice quadrata H si dice ortogonale se H
T
H =
HH
T
= I. Pertanto per le matrici ortogonali linversa coincide con la trasposta, i.e. H
1
= H
T
.
Denizione 15.12 (Autovettori normalizzati). Data una matrice A, sia un autovalore di A e sia x
un autovettore di A associato a . Se dividiamo lautovettore x per la sua lunghezza, ||x||, otteniamo
lautovettore normalizzato u, i.e. u =
x
||x||
.
Siano
1
,
2
, . . . ,
n
, n autovalori di A e siano u
1
, u
2
, . . . , u
n
, gli autovettori normalizzati ad essi
associati. Indicheremo con Q la matrice le cui colonne sono gli autovettori normalizzati di A, i.e.
Q = [u
1
u
2
u
n
].
Proposizione 15.13. Data una matrice simmetrica A, sia Q la matrice di autovettori normalizzati.
La matrice Q `e una matrice ortogonale.
Dim. (Assumiamo per semplicit`a che gli autovalori siano tutti distinti, ma la dimostrazione si estende
anche al caso pi` u generale). Siano
1
,
2
, . . . ,
n
, n distinti autovalori di A e siano u
1
, u
2
, . . . , u
n
, gli
autovettori normalizzati ad essi rispettivamente associati. Evidentemente si ha u
T
i
u
j
= 1 se i = j e
u
T
i
u
j
= 0 se i = j (cf.15.7. Pertanto si Q
T
Q = I, dimostrando che la matrice `e ortogonale.
Teorema 15.14 (Teorema spettrale). Una matrice quadrata simmetrica A `e sempre diagonalizzabile.
Sia D la matrice diagonale i cui elementi sulla diagonale principale sono gli autovalori di A e sia Q una
matrice degli autovettori normalizzati di A. Valgono le relazioni A = Q
T
DQ e D = QAQ
T
.
Dim. Consideriamo il prodotto R = QAQ
T
. La matrice R `e una matrice quadrata di ordine n, il
cui generico elemento r
ij
di riga i e colonna j `e denito dal prodotto r
ij
= u
T
i
Au
j
. Ma poich`e u
j
`e
lautovettore normalizzato di Acorrispondente allautovalore
j
, possiamo porre Au
j
=
j
u
j
, ottenendo
r
ij
=
j
u
T
i
u
T
j
. Pertanto si avr`a r
ij
=
j
se i = j, cio`e per tutti gli elementi sulla diagonale principale
ed avremo invece r
ij
= 0 se i = j, cio`e per tutti gli elementi al di fuori della diagonale principale. Ne
consegue che la matrice R `e una matrice diagonale i cui elementi sulla diagonale principale sono gli
autovalori di A e dunque R = D, dimostrando il teorema.
3
15 Forme quadratiche
Denizione 15.1 (Forme quadratiche) Una forma quadratica `e un polinomio omogeneo di sec-
ondo grado in n variabili: F =
n

i=1
n

j=1
a
ij
x
i
x
j
. Una forma quadratica pu`o essere scritta in notazione
matriciale come F = x
T
Ax, essendo
x =

x
1
x
2
. . .
x
n

e
A =

a
11
a
12
.
.
. a
1n
a
21
a
22
.
.
. a
2n
. . . . . . . . . . . .
a
n1
a
n2
.
.
. a
nn

Pertanto chiameremo F forma quadratica associata associata alla matrice A.


Esempio 15.1 Una forma quadratica in due variabili `e a
11
x
2
1
+a
12
x
1
x
2
+a
21
x
2
x
1
+a
22
x
2
2
. In forma
matriciale essa `e data dal prodotto x
T
Ax, dove
x =

x
1
x
2

e
A =

a
11
a
12
a
21
a
22

Denizione 15.2 (Simmetrizzazione della matrice A) La matrice A di una forma quadratica


F = x
T
Ax pu`o essere sempre resa simmetrica. Si ha infatti F = x
T
Ax = x
T
Bx, dove il generico
elemento della matrice B `e b
ij
=
aij+aji
2
Denizione 15.3 (Matrici denite positive) Una matrice quadrata A si dice denita positiva
se la forma quadratica associata F = x
T
Ax assume valori positivi per ogni x = 0 (`e evidente che
F = 0 se x = 0), i.e. F = x
T
Ax > 0, x = 0.
Denizione 15.4 (Matrici semidenite positive) Una matrice quadrata A si dice semidenita
positiva se la forma quadratica associata F = x
T
Ax assume valori non negativi per ogni x (si pu`o
cio`e avere F = x
T
Ax = 0 anche per x = 0, i.e. F = x
T
Ax 0, x ed esiste almento un vettore
x = 0 tale che x
T
Ax = 0.
Denizione 15.5 (Matrici denite negative) Una matrice quadrata A si dice denita negativa
se la forma quadratica associata F = x
T
Ax assume valori negativi per ogni x = 0 (`e evidente che
F = 0 se x = 0), i.e. F = x
T
Ax < 0, x = 0.
Denizione 15.6 (Matrici semidenite negative) Una matrice quadrata A si dice semidenita
negativa se la forma quadratica associata F = x
T
Ax assume valori non positivi per ogni x (si pu`o
cio`e avere F = x
T
Ax = 0 anche per x = 0, i.e. F = x
T
Ax 0, x ed esiste almento un vettore
x = 0 tale che x
T
Ax = 0
1
Denizione 15.7 (Matrici indenite) Una matrice quadrata A si dice indenita se la forma
quadratica associata F = x
T
Ax pu`o assumere sia valori negativi che positivi al variare di x.
Per riconoscere se una matrice A associata ad una forma quadratica `e denita positiva, denita
negativa, semidifenita positiva, semidenita negativa o indenita, utilizziamo il seguente teorema per
trasformare la forma quadratica F in una forma quadratica che non contiene termini misti.
Teorema 15.1 (Diagonalizzazione di una forma quadratica) Siano
1
,
2
, . . . ,
n
gli n autoval-
ori della matrice quadrata A.
`
E possibile trovare una trasformazione di variabili per cui una forma
quadratica
F =
n

i=1
n

j=1
a
ij
x
i
x
j
= x
T
Ax
pu`o essere espressa in una forma semplicata del tipo F =
n

i=1

i
y
2
i
.
Dimostrazione Essendo A una matrice simmetrica, possiamo utilizzare il teorema spettrale e porre
A = Q
T
DQ, con D matrice diagonale degli autovalori e Q matrice degli autovettori normalizzati.
Possiamo perci`o scrivere F = x
T
Q
T
DQx. Ponendo poi Qx = y, otteniamo F = y
T
Dy =
n

i=1

i
y
2
i
.

Il seguente teorema ci consente di riconoscere la natura di una forma quadratica guardando solo
al segno degli autovalori di A, che indichiamo con
1
, . . . ,
n
.
Teorema 15.2 Una matrice A associata ad una forma quadratica `e:
denita positiva: se
i
> 0 per i = 1, . . . , n;
denita negativa: se
i
< 0 per i = 1, . . . , n;
semidenita positiva: se
i
0 per i = 1, . . . , n ed esiste almeno un
j
= 0;
semidenita negativa: se
i
0 per i = 1, . . . , n ed esiste almeno un
j
= 0;
indenita: se esistono distinti i e j tali che
i
> 0 e
j
< 0.
Dimostrazione. Trasformando la forma quadratica x
T
Ax nella y
T
Dy =
n

i=1

i
y
2
i
attraverso la diag-
onalizzazione, abbiamo che il segno di y
T
Dy dipende solo dagli elementi della matrice D, cio`e dagli
autovalori di A.
2
1 Geometria nello spazio
1.1 Rappresentazione di una retta nel piano cartesiano
Si consideri una retta r e un vettore u = (l, m) non nullo del piano cartesiano (cio`e il piano in cui sia
ssato un riferimento Oxy cartesiano qualsiasi).
Denizione 1.1 (Vettore direzionale di una retta nel piano) Si dice che u `e un vettore di-
rezionale di r se u ha la stessa direzione di r o, equivalentemente, se u pu`o essere rappresentato da
un segmento orientato

AB giacente su r.
I numeri reali l, m si dicono numeri direttori di r.
Teorema 1.1 (Sui numeri direttori) I numeri direttori di r sono deniti a meno di un fattore di
proporzionalita.
Infatti, ssato un vettore u del piano, tutti i suoi multipli u sono vettori giacenti sulla stessa retta
perche moltiplicare per uno scalare lascia invariata la direzione di un vettore.
Le rette di un piano cartesiano possono passare o meno per lorigine degli assi. Nel primo caso,
una retta `e individuata da un suo vettore direzionale.
Figure 1: retta passante per lorigine individuata dal suo vettore direzione u
Nel secondo caso, invece, per individuare univocamente una retta, non baster`a pi` u darne semplice-
mente la direzione, sono infatti innite le rette aventi la stessa direzione.
Figure 2: rette con stessa direzione
Alla direzione dobbiamo aggiungere unaltra informazione: le coordinate di un punto P
0
per il quale
la retta in questione passa.
Quindi, una retta r `e individuata non appena sia ssato un suo punto P
0
(x
0
, y
0
) ed un suo vettore
direzionale u = (l, m).
Vale infatti, la seguente proposizione:
Teorema 1.2 Sia r la retta passante per il punto P
0
(x
0
, y
0
) e avente u = (l, m) come vettore di-
rezionale. Il punto P(x,y) appartiene alla retta r se e solo se esiste un numero reale (parametro) t tale
che si abbia:

x = x
0
+ lt
y = y
0
+ mt
(1)
Dim. Infatti : P(x, y) e un punto di r se e solo se il vettore P P
0
e parallelo a u, cioe P P
0
= tu,
dove t e un numero reale.
1
Figure 3: retta passante per di vettore direzione u e passante per P
0
Si ha allora la relazione vettoriale

x x
0
y y
0

= t

l
m

cioe
x x
0
= lt, e y y
0
= mt. (2)
Denizione 1.2 (Equazioni parametriche) Le equazioni 1 che determinano le coordinate dei punti
di una retta al variare di un parametro t, si dicono equazioni parametriche della retta r nel piano.
Osservazione 1.1 Una retta r ha innite rappresentazioni parametriche che dipendono dalla scelta
del punto P
0
(x
0
, y
0
) e del vettore u = (l, m).
Esempio 1.1 (Sulle Equazioni parametriche) Equazioni parametriche della retta r passante per
il punto P(2, 4) e di vettore direzionale (1, 2) sono date da:

x = 2 + t
y = 4 + 2t
Il punto P(3, 2) non appartiene ad r, poiche da 3 = 2 + t si trae t = 1 e da 2 = 4 + 2t si trae
t = 1. Il punto P(3, 6) appartiene ad r poiche corrisponde al valore del parametro t = 1. Il vettore
(2, 4) e ancora un vettore direzionale di r poiche e parallelo a (1, 2). Quindi unaltra rappresentazione
parametrica di r e data da :

x = 3 + 2t
y = 6 + 4t
Denizione 1.3 (Equazioni parametriche di una retta passante per due punti) Se P
1
(x
1
, y
1
)
e un punto qualsiasi di una retta r, passante per P
0
(x
0
, y
0
) (P
0
= P
1
) anche P
1
P
0
= (x
1
x
0
, y
1
y
0
)
e un vettore direzionale di r. Le equazioni parametriche della retta r passante per P
0
e P
1
sono date
da:

x = x
0
+ (x
1
x
0
)t
y = y
0
+ (y
1
y
0
)t
(3)
Si noti che per t = 0 si ottiene il punto P
0
e per t = 1 si ottiene il punto P
1
.
`
E possibile provare la seguente proposizione:
Teorema 1.3 (Equazione lineare) Siano a, b, c costanti reali, con a e b non entrambi nulli. Le
coordinate (x, y) dei punti di una retta r vericano unequazione lineare del tipo:
ax + by + c = 0 (4)
2
Dim. Dire che il vettore direzionale u(l, m) e la retta r sono parallele, equivale a dire che il vettore
P P
0
= (x x
0
, y y
0
) e il vettore (m, l) (vettore ortogonale ad u), sono ortogonali. Questo
signica che il loro prodotto scalare `e nullo:

x x
0
y y
0

m l

= 0
che equivale alla
(x x
0
)m(y y
0
)l = 0 (5)
ossia
mx ly mx
0
+ ly
0
= 0
che, posto a = m, b = l e c = ly
0
mx
0
, e lequazione lineare ax + by + c = 0 in x e y.
Dalla dimostrazione di questo teorema si trae immediatamente che:
lequazione di una qualsiasi retta r passante per il punto P
0
(x
0
, y
0
) e della forma:
a(x x
0
) + b(y y
0
) = 0 (6)
dove (b, a) e un vettore direzionale di r.
Denizione 1.4 (Equazione cartesiana) Lequazione ax + by + c = 0 si dice equazione carte-
siana della retta r, nel piano.
Osservazione 1.2 (Importante) Ogni equazione lineare ax + by + c = 0 con a e b non entrambi
nulli e unequazione cartesiana di una retta di vettore direzionale u = (b, a).
Esempio 1.2 Lequazione 3x
2
y = 0 non rappresenta una retta poiche lequazione non `e lineare.
Lequazione 7x 6y + 1 = 0 rappresenta una retta di vettore direttore (6, 7).
Osservazione 1.3 (Sullortogonalit`a) Come gi`a osservato, se una retta ammette equazione carte-
siana ax + by + c = 0, a meno di un fattore di proporzionalit`a, il suo vettore direzionale `e (b, a).
Da ci` o segue anche che i coecienti dei termini di primo grado della equazione cartesiana di una
retta, i.e. a e b, sono le componenti di un vettore perpendicolare al vettore direttore della retta stessa
(cf. Denizione ??).
Teorema 1.4 Ogni retta ha, a meno di fattori di proporzionalita, ununica equazione cartesiana cioe
se ax +by +c = 0 e a

x +b

y +c

= 0 sono equazioni di una stessa retta r si ha che a

= a, b

= b,
c

= c, per un certo parametro .


In base al teorema 1.4 si pu`o dire che ax + by + c = 0 `e l equazione cartesiana di r e scrivere
r : ax + by + c = 0. (7)
Dalle precedenti considerazioni si trae il seguente metodo per la determinazione di una retta pas-
sante per due punti.
Osservazione 1.4 (Retta per due punti) Se P
0
(x
0
, y
0
) e P
1
(x
1
, y
1
) sono punti distinti di una retta
r,(i.e. P
1
P
0
e un vettore direzionale di r) per la 5 :
(y
1
y
0
)(x x
0
) (x
1
x
0
)(y y
0
) = 0 (8)
che e appunto lequazione cartesiana della retta r passante per i punti P
0
(x
0
, y
0
) e P
1
(x
1
, y
1
).
3
Osservazione 1.5 (Retta per un punto di assegnato vettore direttore) Sia (l, m) il vettore di-
rettore di una retta r e sia P
0
(x
0
, y
0
) un punto di r. Se in (5)si ha (l = 0) e (m = 0) oppure in (8)
si ha (x
1
= x
0
) e (y
1
= y
0
), queste due equazioni possono essere scritte nella forma simmetrica:
x x
0
l
=
y y
0
m
(9)
che e lequazione della retta r passante per P
0
(x
0
, y
0
) e di vettore direzionale (l, m) oppure
x x
0
x
1
x
0
=
y y
0
y
1
y
0
(10)
che e lequazione della retta passante per i punti P
0
(x
0
, y
0
) e P
1
(x
1
, y
1
).
Osservazione 1.6 (Passaggio dalla rappresentazione cartesiana alla parametrica e viceversa)

E facile passare da una rappresentazione parametrica allequazione cartesiana di una retta r. Basta
ricavare il parametro t da una delle equazioni parametriche 1 e sostituire il valore trovato nellaltra.
Viveversa, per passare dallequazione cartesiana ax + by + c = 0 ad una rappresentazione parametrica
di r, basta porre una delle due variabili uguale a parametro, ed esplicitare laltra
se b = 0, bisogna porre x = t e ricavare y ottenendo cos` le equazioni:

x = t
y =
a
b
t
c
b
che sono equazioni parametriche della retta r passante per il punto P(0,
c
b
) e parallela al vettore (1,
a
b
).
Se a = 0 bisogna porre y = t e ricavare x. Si ottengono le equazioni :

x =
b
a
t
c
a
y = t
che sono ancora equazioni parametriche della retta r che passa anche per il punto (
c
a
, 0) ed e parallela
al vettore (
b
a
, 1).
Esempio 1.3 Una retta r parallela allasse y (risp. allasse x) ha equazione cartesiana x x
0
= 0
(risp. y y
0
= 0) ovvero x = x
0
(risp. y = y
0
) ed equazioni parametriche:

x = x
0
y = t

risp.

x = t
y = y
0

Osservazione 1.7 Una retta r di equazione ax + by + c = 0 passa per lorigine O(0, 0) se e solo se
a 0 + b 0 + c = 0 cioe c = 0.
Una retta r di equazione ax+by+c = 0 non parallela agli assi e non passante per lorigine, cioe tale
che (a = 0),(b = 0) e (c = 0) incontra gli assi nei punti P
1
(0,
c
b
) e P
2
(
c
a
, 0) e si disegna facilmente
Figure 4: retta passante per due punti sugli assi
4
Esempio 1.4 (Rette) Siano dati i punti P
0
(1, 2) e P
1
(0, 3). Lequazione parametrica della
retta passante per P
0
e P
1
`e
x+1
1
=
y2
1
. Per ottenere una rappresentazione parametrica di tale retta,
si pu`o porre

x = t
y = 3 + t con t R
`
E infatti facile vericare che un vettore direttore di tale retta `e u = P
1
P
0
= (1, 1) e che la retta
passa per il punto (0, 3).
Data lequazione parametrica della retta r:

x = 2t + 4
y = 1 t con t R
si verica facilmente che un vettore direttore `e (2, 1) e che la retta passa per il punto (4, 1).
Lequazione cartesiana si ottiene eliminando il parametro t dallequazione parametrica e dunque
ottenendo
t =
x 4
2
, y = 1
x 4
2
,
per cui lequazione cartesiana della retta `e
x + 2y + 1 = 0
Osserviamo inoltre che il vettore di componenti (a, b) = (1, 2) `e un vettore ortogonale al vettore direttore
della retta, infatti

1 2

2
1

= 2 + 1 = 0
1.2 Rappresentazione di un piano nello spazio
Consideriamo un piano e un vettore u = (l, m, n) dello spazio cartesiano (cioe lo spazio in cui sia
ssato un riferimento Oxyz cartesiano)
Denizione 1.5 (Vettore parallelo ad un piano) Il vettore u e parallelo a se puo essere rapp-
resentato con un segmento orientato giacente su .
Osservazione 1.8 (Condizioni per determinare un piano) Un piano e individuato da un suo
punto P
0
(x
0
, y
0
, z
0
) e da due vettori non nulli u = (l, m, n), u

= (l

, m

, n

) paralleli a e non paralleli


tra loro [Figura ].
Infatti se P(x, y, z) e un punto qualsiasi dello spazio, allora P(x, y, z) appartiene a se e solo se i
vettori P P
0
, u, u

sono complanari. Questultima condizione ammettendo lesistenza di due numeri


reali s e t tali che:
P P
0
= us +u

t (11)
Questa equazione vettoriale equivale alle tre equazioni:

x = x
0
+ ls + l

t
y = y
0
+ ms + m

t
z = z
0
+ ns + n

t
(12)
che, al variare dei parametri s, t forniscono le coordinate x, y, z di tutti i punti del piano , passante
per il punto P
0
(x
0
, y
0
, z
0
) e parallelo al piano individuato dai vettori u = (l, m, n) e u

= (l

, m

, n

).
5
Denizione 1.6 (Equazioni parametriche di un piano nello spazio) Le (12), i.e.

x = x
0
+ ls + l

t
y = y
0
+ ms + m

t
z = z
0
+ ns + n

t
si dicono equazioni parametriche del piano passante per il punto P
0
(x
0
, y
0
, z
0
) e di vettori
direttori u = (l, m, n) e u

= (l

, m

, n,

), nello spazio.
Osservazione 1.9 (Passaggio dalla rappresentazione parametrica alla cartesiana di un piano)
I vettori (l, m, n) e (l

, m

, n

) sono non nullo, possiamo quindi ricavare s da una delle equazioni para-
metriche e t da unaltra. Sostituendo nellultima, otteniamo lequazione:
a(x x
0
) + b(y y
0
) + c(z z
0
) = 0 (13)
dove
a = mn

n, b = l

n ln

, c = lm

m (14)
I numeri reali a, b, c non sono tutti nulli.
Infatti se lo fossero, le terne (l, m, n) e (l

, m

, n

) sarebbero proporzionali (basta osservare che, se


ad esempio (l

= 0), l

= (
l

l
)l, m

= (
l

l
)m, n

= (
l

l
)n, e quindi i vettori u = (l, m, n) e u

= (l

, m

, n

)
paralleli, contro lipotesi.
Osservazione 1.10 Siano a, b, c costanti non tutte nulle. Le coordinate (x, y, z) dei punti di un piano
vericano lequazione lineare:
ax + by + cz + d = 0 (15)
Infatti:
Teorema 1.5 Ogni piano dello spazio `e rappresentato da unequazione del tipo ax + by + cz + d = 0
con a, b, c non tutti nulli. Viceversa, ogni espressione di questo tipo rappresenta un piano nello spazio.
Tali equazioni vengono dette equazioni cartesiane del piano.
Esempio 1.5 Il piano parallelo ai vettori u = (1, 0, 1) e v = (0, 1, 1) e passante per P
0
(2, 1, 2) ha
equazioni parametriche:

x = 2 + s
y = 1 + t
z = 2 + s t
e ha equazione cartesiana
(x 2) + (y 1) + (z 2) = 0
cioe
x y z + 1 = 0
6
Osservazione 1.11 Per passare da una equazione parametrica ad una equazione cartesiana di un
piano, `e suciente eliminare i parametri che compaiono nella 12 ottenendo cos` unequazione del
tipo 15. Viceversa, per passare da unequazione cartesiana ad una parametrica, `e suciente risolvere
lequazione
ax + by + cz = 0,
che ammette
2
soluzioni (per il teorema di Rouch`e-Capelli (cf. Teorema ??)), che fornisco appunto
due vettori direttori del piano, inoltre si determina un punto sul piano e si scrive lequazione paramet-
rica.
Osservazione 1.12 (Vettore ortogonale ad un piano) Il vettore di componenti i coecienti di x,
y e z, i.e. (a, b, c), `e un vettore perpendicolare al piano di equazione ax+by+cz+d = 0. Infatti se P
0

(x
0
, y
0
, z
0
) e P
1
(x
1
, y
1
, z
1
) appartengono al piano allora il vettore P
1
P
0
= (x
1
x
0
, y
1
y
0
, z
1
z
0
)
`e un vettore direttore del piano e poiche.
ax
0
+ by
0
+ cz
0
+ d = 0
ax
1
+ by
1
+ cz
1
+ d = 0
risulta
a(x
1
x
0
) + b(y
1
y
0
) + c(z
1
z
0
) = 0.
che equivale a dire

a b c

x
1
x
0
y
1
y
0
z
1
z
0

= 0
Dalla precedente osservazione si deduce lesistenza di una semplice condizione di parallelismo tra
un vettore e un piano:
Teorema 1.6 Un vettore u = (l, m, n) e parallelo al piano di equazione ax + by + cz + d = O se e
solo se esso `e perpendicolare al vettore (a, b, c), i.e.
al + bm + cn = 0
Un piano ha ununica equazione cartesiana, a meno di fattori di proporzionalita, come prova il seguente
teorema, che fornisce anche una condizione di parallelismo tra piani.
Teorema 1.7 Siano : ax + by + cz + d = 0 e

: a

x + b

y + c

z + d

= 0 due piani. Allora:


a) e parallelo a

se e solo se esiste un tale che a

= a, b

= b, c

= c.
b) coincide con

se solo se esiste un tale che a

= a, b

= b, c

= c, d

= d.
Osservazione 1.13 Assegnati due vettori direttori di un piano (l, m, n), (l

, m

, n

) e un punto su di
esso P
0
(x
0
, y
0
, z
0
), lequazione cartesiana del piano pu`o essere ottenuta direttamente, imponendo
che il generico vettore sul piano P P
0
= (x x
0
, y y
0
, z z
0
) annulli il prodotto misto con gli
altri due vettori. (Si ricordi infatti che lannullamento del prodotto misto esprime una condizione di
complanariet`a. Questo equivale allannullamento del determinante della matrice

l m n
l

x x
0
y y
0
z z
0

.
7
Allo stesso modo, assegnati due vettori direttori di un piano, (l, m, n) e (l

, m

, n

), un vettore
normale al piano `e dato dal prodotto vettoriale fra i due vettori, i.e. `e suciente calcolare il determinate
simbolico della seguente matrice

l m n
l

i j k

.
1.3 RAPPRESENTAZIONE DI UNA RETTA NELLO SPAZIO
Sia r una retta e u = (l, m, n) un vettore dello spazio cartesiano.
Denizione 1.7 (vettore direzionale) Se u = (l, m, n) ha la direzione di r si dice che u e parallelo
ad r oppure che u e un vettore direzionale di r. I numeri reali l, m, n si chiamano numeri direttori di
r.
Teorema 1.8 I numeri direttori di r sono deniti a meno di un fattore di proporzionalita.
Una retta r e individuata da un suo vettore direzionale u = (l, m, n) e da un suo punto P
0
(x
0
, y
0
, z
0
).
Infatti un punto P(x, y, z) appartiene ad r se e solo se il vettore P P
0
e parallelo ad u (Figura ), cioe
se esiste un numero reale t,tale che
(x x
0
, y y
0
, z z
0
) = (l, m, n)t
vale a dire
x x
0
= lt y y
0
= mt z z
0
= nt (16)
`
E quindi provato il:
Teorema 1.9 Sia r la retta passante per il punto P
0
(x
0
, y
0
, z
0
) e avente u = (l, m, n) come vettore
direzionale. Le equazioni:

x = x
0
+ lt
y = y
0
+ mt
z = z
0
+ nt
(17)
al variare del parametro t, danno le coordinate (x, y, z) di tutti i punti di r.
Denizione 1.8 Le 17 si dicono equazioni parametriche della retta r passante per P
0
e parallela
al vettore (l, m, n), nello spazio.
8
Denizione 1.9 (Equazioni parametriche di una retta passante per due punti nello spazio)
Sia P
1
(x
1
, y
1
, z
1
) un qualsiasi punto di r, distinto da P
0
(x
0
, y
0
, z
0
). Allora P
1
P
0
= (x
1
x
0
, y
1

y
0
, z
1
z
0
) e un vettore direzionale di r e le :

x = x
0
+ (x
1
x
0
)t
y = y
0
+ (y
1
y
0
)t
z = z
0
+ (z
1
z
0
)t
(18)
sono equazioni parametriche della retta r passante per i due punti P
0
e P
1
. Si noti che ponendo in 18,
t = 0 si ha il punto P
0
e ponendo t = 1, si ha il punto P
1
.
Dalle 17 e 18 si ricavano facilmente il seguente teorema e il suo corollario:
Teorema 1.10 Sia r una retta passante per il punto P
0
(x
0
, y
0
, z
0
) e di vettore direzionale u = (l, m, n).
Allora P(x, y, z) e un punto di r se e solo se:
m(x x
0
) l(y y
0
) = n(x x
0
) l(z z
0
) (19)
= n(y y
0
) m(z z
0
)
Corollario 1.1 Sia r una retta passante per due punti P
0
(x
0
, y
0
, z
0
) e P
1
= (x
1
, y
1
, z
1
). Un punto
P(x, y, z) appartiene ad r se e solo se:
x x
0
x
1
x
0
=
y y
0
y
1
y
0
=
z z
0
z
1
z
0
(20)
Osservazione 1.14 Lintersezione di due piani : ax +by +cz +d = 0 e

: a

x +b

y +c

z +d

= 0
`e costituita da punti che vericano entrambe le equazioni. Per trovare questi punti si risolve il sistema

ax + by + cz + d = 0
a

x + b

y + c

z + d

= 0
in x, y, z. Ci sono tre possibilit`a che si distinguono in base al teorema di Rouch`e-Capelli e ai ranghi
delle due matrici
M =

a b c
a

e N =

a b c d
a

se rk(M) = 1 e rk(N) = 2 si ha che il sistema `e incompatibile e pertanto i due piani non si


incontrano cio`e che sono paralleli e distinti;
se rk(M) = 2 e rk(N) = 2 allora il sistema `e risolubile e ha
32
soluzioni e dunque lintersezione
dei due piani `e rappresentata da una retta;
se rk(M) = 1 e rk(N) = 1 il sistema `e risolubile e ha
31
soluzioni e dunque i due piani
coincidono.
Denizione 1.10 Per lOsservazione 1.14, risulta che i due piani : ax + by + cz + d = 0 e

:
a

x + b

y + c

z + d

= 0 si intersecano in una retta se e solo se rk

a b c
a

= 2. In questo caso
si dice che il sistema
r :

ax + by + cz + d = 0
a

x + b

y + c

z + d

= 0
(21)
rappresenta lequazione cartesiana della retta.
9
Quando si scrive la (21) per denotare la forma cartesiana di un retta r, si suppone implicitamente
che per i piani e

non siano paralleli, cioe che (a, b, c) e (a

, b

, c

) non siano proporzionali.


Teorema 1.11 Un vettore direzionale u di r e dato da :
u = (l, m, n) = (bc

c, a

c ac

, ab

b) (22)
e quindi per il lemma (14), il vettore u = (l, m, n) e parallelo ai piani e

e quindi alla retta r (


Figura).
Esempio 1.6 Si vogliono scrivere le equazioni di alcune rette di tipo particolare. Una retta r parallela
allasse x ha vettore direzionale (1, 0, 0) e quindi per le (17) ha equazioni parametriche

x = x
0
+ t
y = y
0
z = z
0
e equazioni cartesiane

y = y
0
z = z
0
Esempio 1.7 Similmente una retta parallela allasse y ha equazioni cartesiane

x = x
0
z = z
0
Esempio 1.8 una retta parallela allasse z ha equazioni cartesiane

x = x
0
y = y
0
In particolare gli assi x, y, z hanno rispettivamente equazioni:

y = 0
z = 0

x = 0
z = 0

x = 0
y = 0
Una retta che giace sul piano xy ha equazioni cartesiane:

ax + by + d = 0
z = 0
10
Una retta che giace sul piano xz ha equazioni :

ax + cz + d = 0
y = 0
Una retta che giace sul piano yz ha equazioni cartesiane:

by + cz + d = 0
x = 0
Una retta r passante per lorigine ha equazioni:
r :

ax + by + cz = 0
a

x + b

y + c

z = 0
come si ottiene subito sostituendo(0, 0, 0) nelle equazioni (21).
2 FASCI DI PIANI NELLO SPAZIO E FASCI DI RETTE
NEL PIANO
Denizione 2.1 Si dice fascio F di piani, linsieme dei piani che passano per una retta r (fascio
proprio) oppure linsieme dei piani paralleli ad un piano dato (fascio improprio). La retta si dice asse
del fascio proprio
Consideriamo due piani distinti : ax +by +cz +d = 0 e

: a

x +b

y +c

z +d

= 0. Se non e
parallelo a

, essi individuano un fascio proprio che ha come asse la retta intersezione di e

. Se
e parallelo a

, essi individuano un fascio improprio, che e costituito dai piani paralleli a e

.
Quindi un fascio di piani F puo sempre essere individuato da due piani e

distinti nello spazio.


Teorema 2.1 Siano : ax + by + cz + d = 0 e

:a

x + b

y + c

z + d

= 0 due piani distinti di un


fascio F . Allora tutti e soli i piani di F hanno equazione:
(ax + by + cz + d) + (a

x + b

y + c

z + d

) = 0 (23)
dove e sono due numeri reali non entrambi nulli. Inoltre due coppie (, ), (

) che soddisfano
la (23) danno luogo allo stesso piano se e solo se (

)= (, ) con = 0.
Osservazione 2.1 Un generico piano parallelo al piano : ax + by + cz + d = 0 ha equazione:
(a)x + (b)y + (c)z + d = 0
e quindi posto
d

= k ha equazione:
ax + by + cz + k = 0 (24)
Pertanto lequazione del fascio improprio di piani paralleli a e data, pi u semplicemente, dalla (24)
al variare del parametro reale k.
Nel piano, lanalogo del fascio di piani nello spazio e il fascio di rette.
11
Denizione 2.2 Si dice fascio F di rette, linsieme delle rette che passano per un punto P del piano
(fascio proprio) oppure linsieme delle rette parallele ad una retta data (fascio improprio). Il punto P
si dice centro del fascio proprio.
Le equazioni delle rette del fascio proprio di centro il punto P
0
(x
0
, y
0
), come visto in (6), si possono
scrivere nella forma:
a(x x
0
) + b(y y
0
) = 0 (25)
dove a, b non sono entrambi nulli. Inoltre il vettore (a, b) e denito a meno di un fattore di proporzion-
alita. La retta del fascio che passa per un altro punto P
1
(x
1
, y
1
) si ottiene scegliendo a e b (o meglio
il loro rapporto) in modo che a(x
1
x
0
) + b(y
1
y
0
) = 0.
Nel caso del fascio improprio F delle rette parallele alla retta ax + by + c = O si ha che le equazioni
delle rette di F sono del tipo:
ax + by + k = 0 al variare della costante k (26)
In particolare, la retta del fascio che passa per P
1
(x
1
, y
1
) e
ax + by ax
1
by
1
= 0
Un fascio di rette puo anche essere individuato da due sue rette r : ax+by+c = 0 e r

: a

x+b

y+c

=
0 Se r non e parallela a r

si ha il fascio proprio di centro il punto di intersezione di r e r

. Se r e
parallela a r

si ha il fascio improprio delle rette parallele a r.


Teorema 2.2 Siano r : ax + by + c = 0 e r

: a

x + b

y + c

= 0 due rette distinte di un fascio F.


Allora tutte e sole le rette di F hanno equazione:
(ax + by + c) + (a

x + b

y + c

) = 0 (27)
dove e sono due numeri reali non entrambi nulli. Inoltre, due coppie (, ), (

) danno luogo
allo stesso piano se e solo se (, )=(

), con = 0
Esempio 2.1 Data la retta
r :

x = 1 2t
y = 2 + 3t
z = 1 + t
(28)
ricavando t dalla terza equazione e sostituendo nella prima e nella seconda si ottiene r come inter-
sezione dei piani :x + 2z + 1 = 0 e

: y 3z 5 = 0 e lequazione del fascio F individuato da e

e (x + 2z + 1) + (y 3z 5) = 0. Ricavando invece t dalla prima equazione parametrica di r e


sostituendo nella seconda e nella terza, si hanno altri due piani passanti per r,
1
: 3x + 2y 7 = 0,

1
: x + 2z + 1 = 0, e (3x + 2y 7) + (x + 2z + 1) = 0 e lequazione del fascio individuato da
1
e

1
.
12
16 Ellisse, parabola, iperbole
16.1 Ellisse
Unellisse una gura che assomiglia ad un cerchio allungato in una direzione. Questa gura un esempio
di sezione conica e pu essere denita come il luogo dei punti, in un piano, la cui somma delle distanze
da due punti ssi dati (detti fuochi) costante. Se i due fuochi coincidono, si ha una circonferenza.
Il segmento che passa dai due fuochi detto asse maggiore ed `e anche il pi lungo segmento contenuto
nellellisse. Il segmento passante per il centro (a met`a tra i fuochi), ortogonale allasse maggiore, `e lasse
minore. Il semiasse maggiore `e una delle met`a dellasse maggiore: parte dal centro, passa attraverso
un fuoco e va no allellisse. Analogamente il semiasse minore `e met`a dellasse minore. I due assi sono
lequivalente per lellisse del diametro, mentre i due semiassi sono lequivalente del raggio.
La dimensione e la forma di unellisse sono determinate da due costanti, dette convenzionalmente a
e b. La costante a esprime la lunghezza del semiasse maggiore, la costante b esprime la lunghezza del
semiasse minore.
Lequazione dellellisse si trova eguagliando la somma delle distanze fra i fuochi e un punto generico
P(x, y) e il doppio del semiasse maggiore:

(x x
1
)
2
+ (y y
1
)
2
+

(x x
2
)
2
+ (y y
2
)
2
= 2a
Per trovare lequazione canonica o normale dellellisse (cio con centro nellorigine e i fuochi nellasse
delle x) sostituiamo y1 = 0, y2 = 0, x1 = c, x2 = c, c = sqrt(a
2
b
2
) e con le opportune operazioni
si ottiene unellisse centrato nellorigine di un sistema di assi cartesiani x y con lasse maggiore posto
lungo lasse delle ascisse denito dallequazione
x
2
a
2
+
y
2
b
2
= 1.
La forma di unellisse `e solitamente espressa da un numero detto eccentricit`a dellellisse, conven-
zionalmente denotata da e). Leccentricit`a `e legata ad a e b dallespressione e =

1
b
2
a
2
.
Leccentricit`a `e un numero positivo compreso tra 1 e 0, (se pari a 0, lellisse `e degenerato in una
circonferenza). Maggiore `e leccentricit`a, maggiore `e il rapporto tra a e b, quindi lellisse `e pi allungata.
La distanza tra i due fuochi 2ae.
16.2 Parabola
La parabola pu`o essere denita come linsieme dei punti equidistanti da un punto F detto fuoco ed una
retta R detta direttrice. In altre parole, una parabola `e linsieme dei punti P tali che, indicato con R
la proiezione ortogonale di P sulla retta r, sono uguali tra loro le lunghezze dei segmenti PF e PR.
Si dice asse di simmetria della parabola, la retta passante per F ed ortogonale alla direttrice. Si
dice vertice della parabola lintersezione dellasse di simmetria con la parabola, in un punto intermedio
tra il fuoco F e lintersezione tra lasse di simmetria e la direttrice.
In geometria analitica, servendoci delle coordinate cartesiane ortogonali, si trova come equazione
generale di una parabola la seguente funzione quadratica ax
2
+ 2hxy + by
2
+ 2gx + 2fy + c = 0, dove
h
2
= ab.
Operando una rotazione che trasforma lasse della parabola in una retta parallela allasse delle ordinate
si pu`o ottenere una espressione di una parabola piuttosto semplice che diciamo espressione polinomiale
in una variabile: in tal caso lequazione generale si riduce alla y = ax
2
+ bx + c, con a = 0, bec che sono
numeri reali ssati detti coecienti della parabola. Se invece la rotazione trasforma lasse in una retta
parallela allasse delle ascisse lequazione diventa: x = ay
2
+ by + c.
Si ha pertanto:
Discriminante: = b2 4ac
Equazione dellasse di simmetria: x =
b
2a
Coordinate del vertice

b
2a
,

4a

Coordinate del fuoco:


b
2a
,
1
4a

Equazione della direttrice: y =


1+
4a
1
Ciascuno dei coecienti nellespressione y = ax2 + bx + c ha un ruolo particolare. Il coeciente a
determina la convessit della parabola:
i) a 0 : convessit, vertice in basso
ii) a 0 : concavit, vertice in alto
iii) a = 0 : parabola degenere (in una retta)
Il suo signicato risulta evidente nel caso particolare (b = 0, c = 0) in cui lequazione si riduce alla
y = a x
2
.
Il coeciente b legato alla posizione dellasse della parabola (la retta verticale passante per il punto
di ascissa), che ha equazione x =
b
2a
Da notare che, restando sso il coeciente c, che determina lintersezione con lasse delle ordinate, e
facendo variare valore di b, la parabola passer sempre per quel punto. In particolare, la retta tangente
alla parabola nel punto di incontro con lasse delle ordinate, ha pendenza pari a b. Questo signica che se
b vale zero, lasse della parabola coincide con lasse delle ordinate. Mentre la derivata prima, potr essere
facilmente individuata in quanto il suo punto di incontro con lasse delle ascisse sar pari allascissa del
vertice (b/(2a)), mentre lincontro con lasse delle ordinate sar pari al valore di b.
Come accennato, il coeciente c determina il punto di intersezione della parabola con lasse delle
ordinate. Se il termine c `e nullo, la parabola passa quindi per lorigine degli assi.
16.3 Iperbole
In geometria analitica, ssati due punti detti fuochi e un numero reale positivo 2a, con 2a d(F, F), si
denisce come il luogo geometrico dei punti del piano cartesiano in cui costante (= 2a), il valore assoluto
della dierenza delle distanze dai fuochi.
In algebra, uniperbole una curva del piano cartesiano denita da unequazione del tipo
Ax2 + Bxy + Cy2 + Dx + Ey + F = 0,
tale che B2 4AC, dove tutti i coecienti sono reali, e dove esiste pi di una soluzione che denisce
una coppia (x, y) di punti delliperbole.
Lequazione generale delliperbole si specializza e si semplica in alcuni casi particolari. Se liperbole
ha il centro coincidente con lorigine degli assi coordinati e ha gli assi coincidenti con gli assi coordinati,
allora se essa interseca lasse delle x lequazione diventa
x
2
a
2

y
2
b
2
= 1
se invece interseca lasse delle y lequazione
x
2
a
2

y
2
b
2
= 1
In questo caso gli asintoti delliperbole hanno equazione y =
b
a
x.
Se gli asintoti sono perpendicolari (e quindi, nel caso delliperbole avente gli assi coincidenti con gli
assi cartesiani, se a = b) liperbole si dice iperbole equilatera.
Se uniperbole equilatera viene riferita ai propri asintoti (e cio se gli asintoti delliperbole coincidono
con gli assi cartesiani), allora la sua equazione assume una forma molto semplice:
xy = c
Se c diversa da 0 a tale curva associata la funzione di proporzionalit inversa y = k/c. Se c = 0 la
curva degenera nellinsieme dei due assi cartesiani, individuati dallequazione xy = 0
I vari elementi associati ad una iperbole sono:
i) Fuochi = due punti ssi da cui tutti i punti delliperbole hanno dierenza costante
ii) Vertici = intersezioni del segmento che unisce i fuochi con i due rami delliperbole.
iii) Asintoti = due rette che si deniscono tangenti allinnito delliperbole, ovvero una coppia di rette
incidenti a cui i rami delliperbole si avvicinano sempre pi senza per mai intersecarle.
Liperbole avente assi paralleli agli assi cartesiani e centro nel punto C(x
c
, y
c
) ha equazione
(x x
c
)
2
a
2

(y y
c
)
2
b
2
= 1
Se si applica una rotazione degli assi di 90 gradi, si ottiene lequazione
2
(y y
c
)
2
a
2

(x x
c
)
2
b
2
= 1
In entrambe le formule a detto semiasse maggiore; la met della distanza tra i due rami; b chiamato
semiasse minore. Si noti che b pu essere maggiore di a; questa incongruenza viene risolta da alcuni testi
invertendo le costanti a e b. In questo caso lequazione delliperbole che interseca lasse delle y viene
scritta come
(xxc)
2
a
2

(yyc)
2
b
2
= 1.
Leccentricit delliperbole pu essere denita da e :=

1 +
b
2
a
2
=

a
2
+b
2
a
2
=
c
a
17 Sezioni coniche: denizioni ed equazioni
Si denisce sezione conica il luogo dei punti che si ottengono dallinteresezione di un cono con un piano.
Denizione 17.1. Si dice conica il luogo dei punti del piano xOy che soddisfa lequazione: ax
2
+bxy +
cy
2
+ dx + ey + f = 0
possibile associare tre numeri:
Linvariante cubico I
3
:
I
3
= det

a b d
b c e
d e f

linvariante quadratico I
2
:
I
2
= det

a b
b c

= ac b
2
linvariante lineare I
1
:
I
1
= Tr

a b
b c

= a + c
Attraverso gli invarianti possono essere descritte tutte le propriet`a di una conica.
17.0.1 Classicazione metrica delle coniche
In base a quanto detto sugli invarianti, `e possibile classicare le coniche, e quindi stabilire se una curva
sia unellisse, una parabola o uniperbole, tramite la seguente distinzione:
se I
3
= 0 la conica degenere e in particolare:
* se I
2
< 0, si riduce a due rette reali distinte * se I
2
= 0, si riduce a
1) coppia di rette reali distinte parallele oppure complesse coniugate senza punti comuni (rango
matrice completa =2) 2) coppia di rette reali coincidenti (rango matrice completa =1)
* se I
2
> 0, si riduce a due rette immaginarie coniugate.
se I3 = 0 la conica non degenere ed in particolare:
* uniperbole equilatera se I
2
< 0 e I
1
= 0,
* uniperbole non equilatera se I
2
< 0 ma I1 = 0,
* una parabola se I
2
= 0,
* unellisse reale se I
2
> 0 e I
1
I
3
< 0,
* unellisse immaginaria se I
2
> 0 ma I
1
I
3
> 0.
Ad esempio, la conica di equazione : x
2
x = 0, avendo I
3
= 0 e I
2
=
1
4
, `e una conica degenere in
due rette reali distinte : x = 0 e x = 1.
3
17.0.2 Riduzione di una conica a forma canonica
b
Essendo fornita lequazione di una conica del tipo
ax
2
+ 2bxy + cy
2
+ 2dx + 2ey + f = 0
`e possibile agire sui coecienti, tramite gli invarianti, per ottenere la forma canonica della conica.
Per forma canonica di una conica, si intende:
* per lellisse: deve avere come centro lorigine degli assi cartesiani e i suoi fuochi devono essere
sullasse x o sullasse y
* per la parabola: deve avere vertice nellorigine e come asse uno degli assi cartesiani
* per liperbole: deve avere centro nellorigine degli assi e i fuochi devono appartenere allasse x o
allasse y .
In generale unequazione del tipo :ax
2
+2bxy+cy
2
+2dx+2ey+f = 0, fornisce una conica rototraslata
rispetto allorigine degli assi: bisogna quindi ruotare la conica (1 passo) e poi traslarla no a portare il
centro o il vertice nellorigine (2 passo).
* 1 passo: la rotazione della conica si ottiene tramite lannullamento del coeciente di xy , cio 2b .
Dopo questa operazione, la conica si riduce nella forma
1
x
2
+
2
y
2
+2dx +2ey +f = 0, in cui
1
e

2
si ottengono nel seguente modo: bisogna diagonalizzare la matrice
M =

a b
b c

e si otterr la matrice
M

1
0
0
2

con
1
e
2
autovaloridellamatricediagonale.

1
e
2
sarannoquindiicoefficientidelterminiquadraticidell

equazionedellaconica.Naturalmente, nelcasodellaparabola, sarnullooilcoefficientedi


1
oppurequellodi
2
, inquantonell

equazionepresenteunsoloterminequadratico.
* 2 passo: con la traslazione, si ottiene unequazione del tipo :
1
x
2
+
2
y
2
+
3
= 0 incui
1
e
2
sonoivaloriricavaticonilpassoprecedente, mentre
3
siottienenellamanieraseguente :
selaconicaun

ellisseoun

iperbole,

3
=
I3
I2
mentre se la conica una parabola,

3
= 2
2

I3
I
3
1
in cui I
3
, I
2
eI
1
sonogliinvarianticubico, quadraticoelineare.
4