Sei sulla pagina 1di 243

Luigi Verdiani

Versione : Settembre 2021.


Copyright ©2020 Luigi Verdiani
Tutti i diritti sono riservati. Sono vietate la distribuzione e la riproduzione, anche
parziale o ad uso interno o didattico, con qualsiasi mezzo, senza l’autorizzazio-
ne scritta dell’autore.
ISBN :
ISBN13 :
Il testo è diviso in due parti. La prima copre gli argomenti che vengono tradi-
zionalmente trattati a lezione in un corso di geometria universitario del primo
anno, aggiungendo una serie di esempi e di esercizi che, per mancanza di tem-
po non possono essere svolti in aula. La seconda parte copre degli argomenti
di algebra lineare che vengono spesso trattati all’interno di corsi più avanzati,
ed è inserita allo scopo di trattare il materiale utilizzando le notazioni apprese
durante il primo anno.
Gli argomenti presentati sono contenuti in quasi ogni testo di algebra lineare
e non c’è, qui, alcuna pretesa di originalità. Le eventuali differenze sono più che
altro legate alla scelta del loro ordine nell’esposizione. In bibliografia sono citati
alcuni testi che possono costituire un’utile integrazione di queste note.
Il testo è suddiviso in capitoli che rispecchiano i punti salienti del programma.
Questi sono a loro volta divisi in sezioni al termine delle quali si trovano gli
esercizi proposti. Per la prima parte:
Capitolo 1 : capitolo introduttivo nel quale si ricapitolano alcune operazioni
fondamentali sugli insiemi e si definiscono le relazioni di equivalenza e i campi.
Come primo esempio non banale di campo si definiscono i numeri complessi.
Capitolo 2 : si introducono le matrici, che saranno utilizzate come strumento
nei capitoli successivi. Vengono elencate solo le proprietà più semplici riservan-
do ogni approfondimento ad un capitolo successivo.
Capitolo 3 : definizione e proprietà dei vettori liberi. Questi costituiscono
uno strumento che ci consentirà di dare una modellizzazione matematica del-
lo spazio Euclideo e, al tempo stesso, forniscono un primo esempio di spazio
vettoriale.
Capitolo 4: si applicano i risultati del capitolo precedente allo studio della geo-
metria analitica dello spazio tridimensionale. Vengono analizzate rette e piani e
relazioni metriche nello spazio.
Capitolo 5: si studia il problema dell’esistenza di soluzioni di un sistema li-
neare. Gli strumenti teorici necessari ad affrontare questo problema sono solo
accennati e vengono dimostrati nel capitolo successivo.
Capitolo 6: si approfondiscono temi relativi agli spazi vettoriali, definendo i
sottospazi vettoriali e generalizzando la definizione di base data per i vettori
liberi.
Capitolo 7: si studiano le proprietà elementari delle applicazioni lineari e il
problema della diagonalizzazione. Si dimostrano alcune proprietà del determi-
ii

nante di una matrice utilizzate nei capitoli precedenti.


Capitolo 8: come esempio di applicazione del processo di diagonalizzazione
si considera la riduzione in forma canonica delle coniche e delle quadriche.
Capitolo 9: in questo capitolo vengono riportati, senza lo svolgimento, i risul-
tati di alcuni degli esercizi proposti nel testo.
1. Insiemistica e Algebra . . . . . . . . . . . . . . . . . . 1
Insiemi, 1. Relazioni, 6. Il principio di induzione, 10. Campi, 12. I nume-
ri complessi, 13. Forma polare ed esponenziale, 16. Radici di un numero
complesso, 22.

2. Matrici e Determinanti . . . . . . . . . . . . . . . . . 25
Matrici, 25. Determinante di una matrice, 34.

3. Calcolo Vettoriale . . . . . . . . . . . . . . . . . . . . 41
Vettori liberi, 41. Operazioni elementari, 43. Parallelismo e complanari-
tà, 46. Basi dello spazio dei vettori liberi, 52. Prodotto scalare e ortogona-
lità, 55. Prodotto vettoriale e prodotto misto, 61. Il metodo delle coordina-
te, 70. Equazioni vettoriali, 74.

4. Geometria Analitica . . . . . . . . . . . . . . . . . . . 77
Coordinate nello spazio Euclideo, 77. Rette nello spazio Euclideo, 79. Piani
nello spazio Euclideo, 86. Posizione reciproca di rette e piani nello spa-
zio, 91. Fasci di piani, 97. Relazioni metriche, 102.

5. Sistemi Lineari . . . . . . . . . . . . . . . . . . . . . . . 108


Sistemi lineari, 108. Sistemi ridotti ed equivalenti, 111. Soluzione di sistemi
lineari, 121. Struttura dello spazio delle soluzioni, 130.

6. Spazi Vettoriali . . . . . . . . . . . . . . . . . . . . . . 133


Spazi vettoriali, 133. Sottospazi vettoriali, 135. Basi di spazi vettoriali, 142.
Rango di una matrice, 153.

7. Algebra Lineare . . . . . . . . . . . . . . . . . . . . . . 164


Applicazioni lineari, 164. Matrice associata ad una applicazione lineare, 169.
Nucleo e immagine, 177. Cambiamento di base, 189. Diagonalizzazione di
applicazioni lineari, 192. Spazi vettoriali complessi, 204. Il Teorema spet-
trale reale, 206.

8. Coniche e Quadriche . . . . . . . . . . . . . . . . . . 210


Coniche, 210. Quadriche, 220.
iv

9. Soluzioni degli Esercizi . . . . . . . . . . . . . . . . 224


Capitolo 1, 224. Capitolo 2, 225. Capitolo 3, 225. Capitolo 4, 227. Capitolo
5, 229. Capitolo 6, 230. Capitolo 7, 230. Capitolo 8, 232.

10. Approfondimenti di algebra . . . . . . . . . . . . 233


Ancora sulle relazioni, 233. I numeri naturali, 236. Gruppi e sottogruppi, 238.
Campi, 244.

11. Forme Bilineari e Applicazioni . . . . . . . . . . 248


Forme bilineari e sesquilineari, 248. Segnatura di una forma bilineare sim-
metrica, 257. Il Teorema spettrale, 267.
12. Approfondimenti di algebra lineare . . . . . . . 274
Proprietà del determinante di una matrice, 274. Inversa di una matrice, 284.
Il Teorema di Hamilton-Cayley, 290. Endomor-fismi nilpotenti, 300. Forma
canonica di Jordan, 302. Spazio vettoriale quoziente, 315. Spazi vettoriali
di dimensione infinita, 317.

13. Fattorizzazione di Matrici . . . . . . . . . . . . . . 322


Decomposizione polare, 322. Decomposizione a valori singolari, 325. Ap-
prossimazione ai minimi quadrati, 329.

14. Spazi Proiettivi . . . . . . . . . . . . . . . . . . . . . 336


Definizione e modelli, 336. Sottospazi proiettivi, 337. Riferimenti proiettivi
e coordinate omogenee, 340. Proiettività, 344. Il birapporto, 348. Dualità,
fasci di iperpiani, 350. Complessificazio-ne di uno spazio vettoriale, 353.

15. Soluzioni degli Esercizi . . . . . . . . . . . . . . . 355


Capitolo 10, 355.

Simboli e Notazioni . . . . . . . . . . . . . . . . . . . . . 357


Indice Analitico . . . . . . . . . . . . . . . . . . . . . . . . 360
In questo capitolo trattiamo brevemente alcuni concetti fondamentali dell’al-
gebra e della teoria degli insiemi. Nel nostro caso questi sono funzionali al-
lo studio degli argomenti che costituiscono il nucleo del corso e non verranno
approfonditi, nonostante la loro importanza.

Insiemi
Un insieme è una collezione di oggetti, detti elementi dell’insieme, munita di
un criterio per stabilire se un oggetto appartiene o meno all’insieme.
La condizione di appartenenza dell’elemento a all’insieme A si indica con
a ∈ A mentre la non appartenenza verrà indicata con a ∉ A. Se si verifica
che ogni elemento di un insieme B appartiene anche all’insieme A si dice che B è
un sottoinsieme di A, condizione che indicheremo con B ⊂ A (o anche B ⊆ A se
si vuole sottolineare che A e B possono anche coincidere). Se B è un sottoinsieme
di A ma si è certi che esista almeno un elemento di A non appartenente a B si
indica B ⊊ A e si dice che B è un sottoinsieme proprio di A. Un insieme privo di
elementi è detto vuoto e viene indicato col simbolo ∅.

Esempio 1.1 Fra gli insiemi che verranno presi in considerazione durante il corso
si distinguono quelli numerici, alcuni dei quali verranno indicati con i seguenti
simboli
- L’insieme dei numeri naturali: N
- L’insieme dei numeri interi: Z
- L’insieme dei numeri razionali: Q
- L’insieme dei numeri reali: R
- L’insieme dei numeri complessi: C
Le definizioni rigorose di questi insiemi non sono elementari (vedremo nella
seconda parte del testo come si definiscono i numeri naturali) . Nel caso dei nu-
meri razionali occorre, ad esempio, un criterio per stabilire quando due numeri
1 2
razionali sono uguali, per evitare che due numeri come 2 e 4 siano considerati di-
stinti. La definizione dei numeri reali viene trattata solitamente nei corsi di Analisi
Matematica. Daremo invece più avanti la definizione dei numeri complessi.
2 Capitolo 1 Insiemistica e Algebra

Dove questo abbia senso, un segno utilizzato come apice indica la restrizione ai
soli numeri positivi (e.g. Z+ ) o negativi (e.g. Z− ).

Si possono definire delle operazioni fra insiemi che definiscono nuovi insiemi:
Se B ⊆ A si definisce il complementare di B in A
come l’insieme degli elementi di A che non appar-
tengono a B: C (B) A

CA (B) = {a ∈ A : a ∉ B}.
B
In particolare, il complementare di A in A è l’insieme
vuoto. Utilizzeremo anche la notazione A \ {a} per A
indicare il complementare in A dell’elemento a. Fig. 1.1 Complementare di B in A

Dati due insiemi A e B si definisce l’intersezione di A e B come l’insieme degli


elementi appartenenti sia ad A che a B:

A ∩ B = {c : c ∈ A e c ∈ B}

rappresentata in doppio tratteggio nella A A∩B A A∪B


Fig. 1.2 e l’unione di A e B come l’insie-
me degli elementi che appartengono ad B B
almeno uno tra A e B
Fig. 1.2 Intersezione ed unione di insiemi

A ∪ B = {c : c ∈ A o c ∈ B}

rappresentato nella parte destra della stessa figura.

Esempio 1.2 Un insieme può essere definito elencando i suoi elementi, ad esempio

A = {0, 1, 2, 3, 4}

o mediante una loro caratterizzazione: lo stesso insieme A è anche definito da

A = {n ∈ N : n ≤ 4}.

Se B = {1, 3} e C = {2} si ha che B e C sono sottoinsiemi di A e CA (B) = {0, 2, 4},


CA (C) = {0, 1, 3, 4}, B ∩ C = ∅, B ∪ C = {1, 2, 3}.

La definizione mediante caratterizzazione degli elementi si presta bene al caso


di insiemi costituiti da un numero infinito di elementi o i cui elementi non siano
facilmente rappresentabili, ad esempio
1
A={ : n ∈ N \ {0}}, A = {x ∈ R : sin(2x ) > 0}.
n
Insiemistica e algebra §1.1 3

Spesso dovremo dimostrare l’uguaglianza di due insiemi A e B, ovvero il fatto


che gli insiemi sono costituiti dagli stessi elementi. Un modo di farlo è provare
che valgono entrambe le inclusioni: B ⊆ A e A ⊆ B.

Esempio 1.3 Consideriamo l’insieme dei numeri pari in N: A = {a ∈ N : a =


2h, h ∈ N}, l’insieme dei multipli di 3: B = {b ∈ N : b = 3k, k ∈ N} e l’insieme
dei multipli di 6: C = {c ∈ N : c = 6j, j ∈ N}. Vogliamo provare che A ∩ B = C.
Cominciamo col provare che A ∩ B ⊂ C. Sia x ∈ A ∩ B. Quindi x, appartenendo
ad A si scrive nella forma x = 2h, per qualche h ∈ N e, dal fatto che appartiene
anche a B, x = 3k. Trattandosi dello stesso numero si ha quindi 2h = 3k. Da
questo segue che 3k è un numero pari, ed essendo 3 dispari questo significa che
k è un numero pari, che si potrà quindi scrivere nella forma k = 2r per qualche
r ∈ N. Ne segue che x = 3k = 3 · 2r = 6r è un multiplo di 6, quindi appartiene a
C.
Proviamo ora che C ⊂ A ∩ B. Se x ∈ C si può scrivere x = 6j = 2 · (3j). Essendo
un multiplo di 2 si ha allora x ∈ A. Inoltre x = 6j = 3 · (2j). Quindi x è un
multiplo di 3 ed appartiene anche a B, e quindi all’intersezione A ∩ B.

Se A e B sono due insiemi non vuoti è possibile definire un terzo insieme, il


prodotto cartesiano A × B di A e B come l’insieme costituito da tutte le coppie
ordinate il cui primo elemento appartiene ad A ed il secondo a B, in altri termini

A × B = {(a, b) : a ∈ A, b ∈ B}.

Esempio 1.4 Se A = {1, 2, 3}, B = {a, b} si ha

A × B = {(1, a), (2, a), (3, a), (1, b), (2, b), (3, b)}

B × A = {(a, 1), (a, 2), (a, 3), (b, 1), (b, 2), (b, 3)}

Si noti che, anche quando si considera il prodotto di un insieme per se stesso,


l’ordine degli elementi nella coppia è importante: nel caso di R2 = R × R i punti
(1, 2) e (2, 1) sono ovviamente distinti. Una volta definito il prodotto tra due
insiemi è possibile estendere la definizione al prodotto fra n insiemi ponendo

S1 × S2 × . . . × Sn = {(s1 , s2 , . . . , sn ), si ∈ Si , i = 1, . . . , n}.

Nel definire le proprietà di un insieme spesso si utilizzeranno due simboli:


∃ (esiste) e ∀ (per ogni), detti quantificatori. La proprietà: ’esiste almeno un
4 Capitolo 1 Insiemistica e Algebra

elemento nell’insieme A che sia maggiore di 2’, viene tradotta, nel linguaggio
matematico come
∃a ∈ A : a > 2.

Mentre la proprietà: ’ogni elemento di A è maggiore di 2’, si formalizza come

∀a ∈ A : a > 2.

Definizione 1.5 Dati due insiemi A, B, una funzione f da A in B, che indichiamo


con f : A → B, è una procedura che permette di assegnare ad ogni elemento a ∈ A
uno e un solo elemento b ∈ B, che indichiamo con b = f (a). L’insieme

im(f ) = {b ∈ B, ∃a ∈ A : b = f (a)}

è detto immagine della funzione f . L’insieme

{(a, b) ∈ A × B : b = f (a)}

è detto grafico della funzione.

Può accadere che una funzione risulti essere definita solo in un sottoinsieme
di A, che viene detto dominio della funzione.

Definizione 1.6 Una funzione f : A → B si dice suriettiva se im(f ) = B. La


funzione f si dice iniettiva se, dati a1 , a2 ∈ A, si ha f (a1 ) = f (a2 ) se e solo se
a1 = a2 . Una funzione che sia iniettiva e suriettiva è detta biunivoca (o biettiva).

Una funzione f : A → B è suriettiva se ogni elemento di B è immagine di alme-


no un elemento a ∈ A, è iniettiva se due elementi distinti di A hanno immagini
distinte in B.

Esempio 1.7 La funzione f : R → R che associa ad x ∈ R il numero f (x) = 2x ∈


R è sia iniettiva che suriettiva. Per la suriettività abbiamo che, dato y ∈ R, il
y
numero x = 2 ∈ R è tale che f (x) = y. Per l’iniettività abbiamo che f (x1 ) =
f (x2 ) implica 2x1 = 2x2 , e questo è possibile solo se x1 = x2 . Si ha che (0, 0) e
(2, 4) sono elementi del grafico di f .

Esempio 1.8 La funzione f : N → N che associa ad n ∈ N il numero f (n) = n2 ∈


N è iniettiva ma non suriettiva. Si ha infatti che 3 ∈ N ma non esiste un numero
naturale n tale che f (n) = n2 = 3. Quindi 3 non appartiene all’immagine di
f , che non può coincidere con N. Per l’iniettività abbiamo che f (n1 ) = f (n2 )
implica n21 = n22 e, sui numeri naturali, da questo segue n1 = n2 . Se avessimo
invece definito f (n) = n2 come funzione f : Z → N, f non sarebbe stata iniettiva
in quanto, ad esempio, f (2) = f (−2) = 4.
Insiemistica e algebra §1.1 5

Esempio 1.9 Una corrispondenza biunivoca fra due insiemi A e B associa ad ogni
elemento di A uno ed un solo elemento di B. Questo fatto può essere usato per
fornire una descrizione alternativa di un insieme. Un possibile esempio è l’asso-
ciazione, in una squadra di calcio, tra il nome di un giocatore ed il suo numero
di maglia. Utilizzare il numero diventa un modo conciso di far riferimento al gio-
catore. Possiamo utilizzare la corrispondenza biunivoca fra un insieme di note
musicali e le relative frequenze per dare una descrizione alternativa dell’insieme
di note, che può essere utilizzata in un contesto fisico/matematico. Due insiemi
in corrispondenza biunivoca diventano, in un certo senso, ’intercambiabili’ ed è
possibile utilizzare quella delle due descrizioni che si presta meglio al contesto in
cui si sta operando.

Esempio 1.10 Chiamiamo cardinalità di un insieme finito A, il numero di elementi


di A, che indichiamo con #A. Siano A e B due insiemi finiti e f : A → B una
funzione biunivoca. Poiché f è iniettiva due elementi distinti di A hanno immagini
distinte, ne segue che #B ≥ #A. Essendo f suriettiva ogni elemento di B ha almeno
una retroimmagine in A, ne segue che #A ≥ #B. Quindi #A = #B. Nel caso di
insiemi infiniti si presentano fenomeni più complessi: si considerino gli insiemi N e
N \ {1} e la funzione f : N → N \ {0} data da f (n) = n + 1. E’ semplice verificare
che questa è una corrispondenza biunivoca. Quindi N N \ {0} hanno ’lo stesso
numero di elementi’.

Esercizio 1.1 Siano A = {1/n : n ∈ N\{0}} e B = {x ∈ R : 12x 3 −4x 2 −3x +1 =


0}. Determinare A ∩ B, CR (A), CA (A ∩ B).

Esercizio 1.2 Siano A = {0, 3}, B = {0, 1, 2, 3} e C = {1, 2, 6}. Determinare gli
insiemi A ∪ B, A ∩ B, A ∪ C, A ∩ C, B ∪ C, B ∩ C. Per ciascuno di questi insiemi
stabilire se è un sottoinsieme proprio di qualcuno dei rimanenti.

Esercizio 1.3 Siano A = {x ∈ R : |x − 2| ≤ 1}, B = {x ∈ R : |x| ≤ 1}. Determinare


gli insiemi A ∪ B, A ∩ B.

Esercizio 1.4 Sia A = {a ∈ N : a = 8k, k ∈ N}. Stabilire se le seguenti affermazio-


ni sono vere o false

(i) ∃a ∈ A : a < 20.


(ii) ∀a ∈ A, a è multiplo di 4.
(iii) A contiene infiniti multipli di 5.
6 Capitolo 1 Insiemistica e Algebra

n
Esercizio 1.5 Sia A = {( (−1)
n
1
,n ) ∈ R × R : n ∈ N \ {0}}. Rappresentare
graficamente, in modo approssimato, l’insieme A come sottoinsieme del piano
cartesiano.

Esercizio 1.6 Siano A, B, C degli insiemi. Provare che valgono le seguenti relazio-
ni:
(A ∪ B) ∪ C = A ∪ (B ∪ C), (A ∩ B) ∩ C = A ∩ (B ∩ C)

Esercizio 1.7 Siano B, C due sottoinsiemi di un insieme A. Provare che valgono le


seguenti relazioni:

CA (B ∩ C) = CA (B) ∪ CA (C), CA (B ∪ C) = CA (B) ∩ CA (C)

Esercizio 1.8 Determinare quali, fra le seguenti funzioni f : Z → Z, sono iniettive


e/o suriettive

n n pari
2
a) f (n) = 2n, b) f (n) = n+1 , c) f (n) = n + 7.
 n dispari
2

Esercizio 1.9 Stabilire se la funzione f : R2 → R2 definita da

f (x, y) = (x + 3y, 2x + 7y)

è iniettiva e/o suriettiva.

Relazioni
Introduciamo adesso il concetto di relazione. Una particolare classe di rela-
zioni, le relazioni di equivalenza, verrà utilizzata più avanti nella definizione dei
vettori liberi.

Definizione 1.11 Una relazione è una terna ordinata (A, R, B) dove A e B sono
due insiemi e R è un sottoinsieme del prodotto cartesiano di A e B. Se una coppia
(a, b) appartiene a R si dice che a è in relazione con b e si indica aRb (a volte
useremo anche la notazione a ≃ b). L’insieme

DR = {a ∈ A : ∃b ∈ B tale che aRb}

è detto dominio della relazione. L’insieme

im(R) = {b ∈ B : ∃a ∈ A tale che aRb}


Relazioni §1.2 7

è detto immagine o codominio della relazione. R è detto grafico della relazione.


Una relazione si dice suriettiva se im(R) = B, ovvero se ogni elemento di B è in
relazione con almeno un elemento di A. E’ detta iniettiva se
(a1 , b) ∈ R, (a2 , b) ∈ R ⇒ a1 = a2 .
ovvero se elementi distinti di A sono in relazione con elementi distinti di B. Una
relazione che sia iniettiva e suriettiva si dice biunivoca (o biettiva).

Esempio 1.12 Nel caso di insiemi finiti (e con pochi elementi) può essere conve-
niente rappresentare graficamente la relazione. Siano
A = {a, b, c, d, e, f } B = {1, 2, 3, 4, 5, 6}
e consideriamo la relazione (A, R, B) dove
R = {(a, 4), (b, 1), (b, 2), (c, 3), (d, 5), (e, 5), (e, 6), (f , 2)}.
Riportiamo, a titolo di esempio, una rappresentazione insiemistica ed una rappre-
sentazione tabulare di R.

1 2 3 4 5 6
a 1 a x

b 2 b x x

c 3 c x

d 4 d x

e 5 e x x

f 6 f x

A B

Fig. 1.3 Rappresentazione insiemistica e tabulare di una relazione

Questa relazione è suriettiva in quanto ogni elemento dell’insieme B è in re-


lazione con qualche elemento di A. La relazione non è iniettiva infatti esistono
coppie appartenenti alla relazione, ad esempio (b, 2) e (f , 2), che hanno la stessa
seconda componente, ma prima componente diversa (così come le coppie (d, 5) e
(e, 5)).

Esempio 1.13 Sia A l’insieme dei numeri naturali pari, la relazione (N, R, A) defi-
nita da (n, m) ∈ R se e solo se m = 2n è biunivoca e definisce una corrispondenza
biunivoca fra i due insiemi. Si ha R = {(0, 0), (1, 2), (2, 4), (3, 6), . . .}.
8 Capitolo 1 Insiemistica e Algebra

Esempio 1.14 Consideriamo la relazione (Z, R, N) dove (m, n) ∈ R se e solo se


n = m2 + 1. La relazione non è iniettiva, in quanto, ad esempio, (1, 2), (−1, 2) ∈
R. Non è neanche suriettiva, infatti, se lo fosse, scelto n = 3, dovrebbe esistere
m ∈ Z tale che m2 + 1 = 3. Questa relazione, di fatto, rappresenta il grafico della
funzione f : Z → N, f (m) = m2 + 1.

Nel caso particolare B = A si possono definire altre particolari classi di rela-


zioni:

Definizione 1.15 Una relazione (A, R, A) si dice


(i) riflessiva: se ∀a ∈ A, (a, a) ∈ R;
(ii) simmetrica: se (a1 , a2 ) ∈ R ⇒ (a2 , a1 ) ∈ R;
(iii) transitiva: se (a1 , a2 ) ∈ R, (a2 , a3 ) ∈ R ⇒ (a1 , a3 ) ∈ R.
Una relazione in A che sia al tempo stesso riflessiva, simmetrica e transitiva è detta
di equivalenza. Per una relazione di equivalenza (A, R, A), se a ∈ A, l’insieme
degli elementi di A che sono in relazione con a:

[a] = {x ∈ A : xRa}

è detto classe di equivalenza di a. L’insieme di tutte le classi di equivalenza di


elementi di A è detto quoziente di A rispetto alla relazione e si indica con A/R (o
a/ ≃ a seconda della notazione usata per la relazione). Ogni elemento di [a] è
detto rappresentante della classe [a].

Esempio 1.16 Si consideri un insieme A, costituito da un certo numero di persone.


La relazione in A data da aRb se a è più vecchio di b, è transitiva ma non
riflessiva o simmetrica. Definendo aRb se a ha almeno l’età di b, la relazione
risulta riflessiva e transitiva, ma non simmetrica. Se la relazione è invece definita
dal fatto di avere la stessa età, allora è una relazione di equivalenza.

Il modo in cui utilizzeremo le relazioni di equivalenza è il seguente: abbiamo


un insieme in cui vogliamo suddividere gli elementi in sottoinsiemi che siano
omogenei rispetto ad una determinata caratteristica. Come, nell’esempio prece-
dente, il fatto di avere la stessa età. Questi sottoinsiemi saranno delle classi di
equivalenza e, in alcuni casi, lavorare con le classi di equivalenza risulta essere
più facile che lavorare sull’intero insieme. Rimandiamo ad un capitolo successivo
i dettagli teorici di questa costruzione.

Esempio 1.17 Si consideri l’insieme A costituito dalle auto immatricolate in Ita-


lia. In questo insieme definiamo una relazione (che risulta essere di equivalenza)
ponendo in relazione due automobili se e solo se sono dello stesso modello. Ad
Relazioni §1.2 9

esempio tutte le Fiat 500 saranno in relazione fra loro e costituiscono una clas-
se di equivalenza. Una qualsiasi Fiat 500 può essere usata per rappresentare la
classe di equivalenza in quanto possiede, ai fini della relazione, le stesse carat-
teristiche delle altre. Consideriamo l’elenco dei modelli in circolazione (presente,
ad esempio, su una rivista di motori). Per ciascun elemento dell’elenco abbiamo
il corrispondente modello di auto (quindi una classe di equivalenza) e, viceversa,
ogni classe di equivalenza corrisponde ad una voce dell’elenco. Abbiamo allora
una corrispondenza biunivoca fra l’elenco e l’insieme delle classi di equivalenza,
ovvero l’insieme quoziente di A rispetto alla relazione. Possiamo usare questa cor-
rispondenza per identificare il quoziente di A rispetto alla relazione definita sopra
con l’elenco dei modelli di auto in circolazione.

L’esempio seguente, in cui si definiscono le classi di resto, ha una grande


importanza teorica e molte applicazioni, ad esempio in crittografia.

Esempio 1.18 Sia p ∈ N, p ≥ 2. Consideriamo la seguente relazione su Z:

n ≃ m se e solo se n, m hanno lo stesso resto nella divisione per p.

Ad esempio, se p = 13, si ha 18 ≃ 31 in quanto il resto nella divisione per p è


in entrambi i casi pari a 5. Dalla definizione segue facilmente che questa è una
relazione riflessiva, simmetrica e transitiva, ovvero una relazione di equivalenza.
L’insieme quoziente Z/ ≃ è detto insieme delle classi di resto modulo p e si indica
con Zp .
Se, ad esempio, p = 2, abbiamo che i numeri in relazione con n = 0 sono quelli
che hanno lo stesso resto di 0 nella divisione per 2, ovvero i numeri pari. Si ha
quindi
[0] = {0, ±2, ±4, . . .}.

I numeri in relazione con n = 1 sono quelli che hanno resto pari a 1 nella divisione
per 2, ovvero i numeri dispari e

[1] = {±1, ±3, ±5, . . .}

Queste due classi di equivalenza esauriscono tutti i numeri interi e

Z2 = {[0], [1]}.

In generale si ha
Zp = {[0], . . . , [p − 1]}

infatti 0, . . . , p − 1 sono tutti i possibili resti nella divisione per p (si veda la pros-
sima sezione per maggiori dettagli). Vedremo successivamente come sia possibile
definire delle operazioni di tipo algebrico su Zp .
10 Capitolo 1 Insiemistica e Algebra

Esercizio 1.10 Rappresentare nel piano cartesiano R2 = R × R l’insieme delle


coppie (x, y) con xRy, dove la relazione è definita da
a) (N, R, N), R = {(x, y) : x ≤ y};
b) (R, R, R), R = {(x, y) : x = y oppure y = 5};
c) (R, R, R+ ), R = {(x, y) : y = −x 2 + x − 1}.

Esercizio 1.11 Sia A = {1, 2, 3, 4, 5} e sia data la relazione (A, R, A), dove (a1 , a2 ) ∈
R se e solo se x + y = 6. Esplicitare gli elementi di R e stabilire il dominio e il
codominio della relazione. Stabilire inoltre se la relazione gode delle proprietà
riflessiva, simmetrica e transitiva.

Esercizio 1.12 Provare che la relazione (Z × (Z \ {0}), R, Z × (Z \ {0}), dove

R = {((a, b), (c, d)) : ad = bc}

è di equivalenza.

Esercizio 1.13 Determinare la classe di equivalenza a cui appartiene n = 35 in


Z4 = {[0], [1], [2], [3]}.

Il principio di induzione
Lavoreremo spesso con l’insieme dei numeri naturali N = {0, 1, 2, . . .}. La de-
finizione di questo insieme richiede degli assiomi, rimandati alla seconda parte
del testo, uno dei quali, il principio di induzione, verrà utilizzato spesso nei se-
guenti capitoli. Lo scopo è dimostrare che una certa proprietà, dipendente da un
numero naturale, è vera qualunque sia il valore di questo numero.
Supponiamo di avere una proprietà dipendente da un numero n ∈ N. Il
principio di induzione implica che la proprietà è vera per qualsiasi valore di
n se

(i) vale per n = 0,


(ii) supponendo che la proprietà valga per un valore generico n, si riesce a
dimostrare che vale anche per il valore n + 1.

In pratica: per il primo punto sappiamo che la proprietà vale per n = 0, il se-
condo punto implica che vale anche per n = 1 e, applicando ancora il secondo
punto, vale anche per n = 2....
Diamo alcuni esempi dell’uso del principio di induzione:
Il principio di induzione §1.3 11

Esempio 1.19 Vogliamo provare che, qualunque sia n ∈ N vale


n(n + 1)
0 + 1+ ... + n = .
2
Consideriamo quindi la seguente proprietà
n(n + 1)
p(n) : la somma dei primi n numeri interi è
2
e facciamo vedere che vale per ogni numero naturale. Indichiamo con X l’insieme
dei numeri naturali n per i quali p(n) è vera. Si ha
(i) 0 ∈ X infatti il primo membro dell’uguaglianza è 0 e il secondo membro è
(0 · 1)/2 = 0. Quindi i due membri sono uguali.
(ii) Sia ora n ∈ X dobbiamo provare che n + 1 ∈ X cioè che
(n + 1)(n + 2)
0 + 1 + . . . + n + (n + 1) =
2
n(n+1)
Ma, dato che stiamo supponendo che n ∈ X, si ha 0 + 1 + . . . + n = 2 ,
quindi

0 + 1 + . . . + n + s(n) = 0 + 1 + . . . + n + (n + 1) =
n(n + 1) (n + 1)(n + 2)
= +n+1=
2 2
Quindi n + 1 ∈ X

Il principio di induzione può essere utilizzato anche in modo leggermente di-


verso da quello che abbiamo descritto sopra, permettendo di non iniziare neces-
sariamente dal valore 0: se una certa proprietà vale per un numero n0 e, valendo
per un numero naturale n, vale anche per il suo successivo n + 1, allora vale per
ogni n ≥ n0 in N.

Esempio 1.20 Proviamo che, per ogni n ∈ N, n ≥ 5 vale

4n < 2n .

Per n = 5 questo è vero, infatti 20 < 32. Supponiamo ora che un qualche n ∈ N
verifichi 4n < 2n e dimostriamo che da questo segue 4(n+1) < 2n+1 . Si ha infatti,
utilizzando l’ipotesi e il fatto che 2n > 4 se n > 2,

4(n + 1) = 4 + 4n < 4 + 2n < 2n + 2n = 2 (2n ) = 2n+1 .

Esercizio 1.14 Dato un numero reale k ≠ 1, provare che


1 − kn+1
1 + k + k2 + . . . + kn =
1−k
12 Capitolo 1 Insiemistica e Algebra

Esercizio 1.15 Provare che vale


n(n + 1)(2n + 1)
1 + 22 + . . . + n2 =
6
qualunque sia il numero naturale n ≥ 1.

Campi
In questo corso ci occuperemo prevalentemente di grandezze di tipo vettoriale
ma, a queste grandezze, associamo anche grandezze di tipo scalare. Dagli esem-
pi visti nei corsi di fisica sappiamo infatti che possiamo moltiplicare un vettore
per uno scalare modificandone la lunghezza, o cambiandone il verso. Nella defi-
nizione teorica, che daremo più avanti, gli scalari non saranno necessariamente
dei numeri reali, ma elementi di insiemi chiamati campi. Qui accenniamo solo
alla definizione rimandando per maggiori dettagli, ad un capitolo successivo.

Definizione 1.21 Un gruppo è un insieme G in cui sia definita un’operazione G ×


G → G detta prodotto (·) tale che
(i) ∃e ∈ G tale che ∀g ∈ G: e · g = g · e = g,
(ii) ∀g ∈ G, ∃g −1 ∈ G: g −1 · g = g · g −1 = e,
(iii) ∀g1 , g2 , g3 ∈ G: g1 · (g2 · g3 ) = (g1 · g2 ) · g3 ,
L’elemento e è detto elemento neutro di G. L’elemento g −1 è detto inverso di g. Un
gruppo G si dice commutativo se ∀g1 , g2 ∈ G: g1 · g2 = g2 · g1 .

Gli insiemi Z, Q, R con l’operazione di somma sono esempi di gruppi commu-


tativi. Si noti che nella definizione, che si deve applicare ad un gruppo qualsiasi,
l’operazione è detta genericamente ’prodotto’ anche se, in questi esempi, l’ope-
razione è una somma. Anche l’insieme R \ {0} è un gruppo, stavolta con l’usuale
operazione di prodotto.

Esempio 1.22 Definiamo, per n ≥ 1,

Rn = {(x1 , . . . , xn ), xi ∈ R, i = 1, . . . , n}.

E, in questo insieme, l’operazione

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ).

Si verifica facilmente che Rn , con questa operazione, è un gruppo commutativo.

Definizione 1.23 Un campo è un insieme K in cui siano definite due operazioni


K × K → K denominate somma (+) e prodotto (·) tali che
(i) ∃0 ∈ K tale che ∀k ∈ K: 0 + k = k + 0 = k,
I numeri complessi §1.5 13

(ii) ∀k ∈ K, ∃ − k ∈ K tale che k + (−k) = −k + k = 0,


(iii) ∀k1 , k2 , k3 ∈ K : (k1 + k2 ) + k3 = (k1 + k2 ) + k3 ,
(iv) ∀k1 , k2 ∈ K : k1 + k2 = k2 + k1 ,
(v) ∃1 ∈ K \ {0} tale che ∀k ∈ K \ {0}: 1 · k = k · 1 = k,
(vi) ∀k ∈ K \ {0}∃k−1 ∈ K \ {0}: k−1 · k = k · k−1 = 1,
(vii) ∀k1 , k2 , k3 ∈ K \ {0}: k1 · (k2 · k3 ) = (k1 · k2 ) · k3 ,
(viii) ∀k1 , k2 ∈ K \ {0}: k1 · k2 = k2 · k1 ,
(ix) ∀k1 , k2 , k3 ∈ K \ {0}: k1 · (k2 + k3 ) = k1 · k2 + k1 · k3 .

Utilizzando la definizione di gruppo, le prime quattro proprietà si possono


riassumere dicendo che K è un gruppo commutativo rispetto alla somma. In-
dicato con 0 l’elemento neutro della somma, le seconde quattro implicano che
K \ {0} sia un gruppo commutativo rispetto al prodotto.

Esempio 1.24 I numeri reali ed i razionali (e, come vedremo tra poco, i numeri
complessi), con le usuali operazioni, costituiscono degli esempi di campi.

Esempio 1.25 Esistono anche campi costituiti da un numero finito di elementi:


se p è un numero primo, l’insieme Zp ha una struttura di campo rispetto alle
operazioni di somma e prodotto definite da

[m] + [n] = [m + n], [m] · [n] = [m · n].

I numeri complessi
Tra gli insiemi numerici fin qui noti esistono delle inclusioni N ⊂ Z ⊂ Q ⊂ R.
Passando da un insieme numerico ad uno più ampio, si cambia la possibilità di
risolvere equazioni. Limitandosi al caso di polinomi a coefficienti interi:

(i) L’equazione x + 1 = 0 ha soluzioni in Z ma non in N.


(ii) L’equazione 2x + 1 = 0 ha soluzioni in Q ma non in Z.
(iii) L’equazione x 2 − 2 = 0 ha soluzioni in R ma non in Q.
(iv) L’equazione x 2 + 1 = 0 non ha soluzioni in R.

Uno dei vantaggi dati dall’introduzione dei numeri complessi è proprio la


possibilità di risolvere equazioni polinomiali che non hanno soluzioni reali.

Definizione 1.26 Un numero complesso z è una coppia ordinata di numeri reali:


z = (x, y). Il primo elemento della coppia è detto parte reale del numero comples-
so e si indica x = Re(z), il secondo è invece detto parte immaginaria e si indica
y = Im(z).
14 Capitolo 1 Insiemistica e Algebra

Con questa definizione l’insieme C dei numeri complessi coincide con R2 . E’


però possibile introdurre delle operazioni in R2 che, in generale, non hanno
un analogo in Rn , rendendo particolare il caso n = 2. L’operazione di somma
coincide con quella nota, la novità è costituita dalla definizione di prodotto.

Definizione 1.27 Se z1 = (x1 , y1 ) e z2 = (x2 , y2 ) sono numeri complessi, la


somma e il prodotto di z1 e z2 sono definiti da

z1 + z2 = (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ),

z1 · z2 = (x1 , y1 ) · (x2 , y2 ) = (x1 x2 − y1 y2 , x2 y1 + x1 y2 ).

Vedremo, dopo aver introdotto una notazione differente, che con queste ope-
razioni C ha una struttura di campo.
Con un abuso di notazione possiamo considerare R ⊂ C, identificando i nu-
meri reali coi numeri complessi con parte immaginaria nulla, ovvero x ∈ R →
(x, 0) ∈ C. In questo modo ha senso parlare di moltiplicazione di un numero
complesso per un numero reale: x · z = (x, 0) · z. Nel caso di R2 , dai corsi delle
scuole superiori, abbiamo un’operazione di prodotto di un elemento di R2 per
uno scalare reale: λ · (x, y) = (λx, λy). Utilizzandola si ha che si può scrivere:

(x, y) = x · (1, 0) + y · (0, 1).

In questo modo possiamo scrivere ogni numero complesso come somma di


due numeri complessi: (1, 0) e (0, 1) moltiplicati per dei numeri reali x e y.
Abbiamo già introdotto la notazione 1 = (1, 0), per il secondo elemento si usa il
simbolo i = (0, 1). Si ha allora

C = {z = (x, y) = x + iy : x, y ∈ R}

nel seguito utilizzeremo sempre questa notazione che risulta essere molto più
maneggevole. I numeri reali x e y rappresentano sempre la parte reale e la
parte immaginaria di z. Notiamo, in particolare, che essendo i = (0, 1) si ha
i2 = i · i = (0, 1) · (0, 1) = (−1, 0) = −1, proprietà che non è soddisfatta da
alcun numero reale. Un vantaggio di questa notazione è che, per effettuare le
operazioni di somma e di prodotto, non occorre ricordarsi la definizione ma
basta usare le proprietà del calcolo note dai numeri reali:

Esempio 1.28 Se z1 = 2 − 3i e z2 = 3 − 4i si ha

z1 + z2 = (2 − 3i) + (3 − 4i) = (2 + 3) + (−3 − 4) i = 5 − 7i

z1 · z2 = (2 − 3i) · (3 − 4i) = 6 − 8i − 9i − 12 = −6 − 17i.


I numeri complessi §1.5 15

Conviene introdurre subito alcune operazioni che permettono di semplificare


l’algebra dei numeri complessi

Definizione 1.29 Sia z = x + iy un numero complesso ed n un numero naturale.


(i) Per n > 0 si pone zn = z · . . . · z (n volte). Se n = 0 si pone zn = 1.
(ii) Si definisce il coniugato di z come

z = x − iy.

(iii) Si definisce il modulo di z come


q
|z| = x 2 + y 2 .

(iv) Se z = x + iy ≠ 0 esiste un inverso di z rispetto al prodotto si pone


1 z x − iy
z−1 = = 2
= 2
z |z| x + y2

e, con questa definizione, z · z−1 = 1.

E’ possibile visualizzare l’operato di queste funzioni rappresentando i numeri


complessi come punti del piano. Nel caso dell’elevamento a potenza conviene
utilizzare la rappresentazione in forma polare dei numeri complessi, che verrà
fatta nel seguito. L’operazione di coniugio corrisponde alla simmetria rispetto
all’asse delle x. In particolare il coniugato di un numero reale è il numero reale
stesso. Il modulo di un numero complesso è pari alla distanza del punto corri-
spondente dall’origine degli assi. Si noti che, ristrette ai numeri reali, queste ope-
razioni coincidono con quelle già note. Data la costruzione data dell’elemento
inverso moltiplicativo si dimostra facilmente

Proposizione 1.30 L’insieme C dei numeri complessi ha una struttura di


campo rispetto alle operazioni di somma e prodotto definite sopra.

Proposizione 1.31 Siano z1 , z2 ∈ C. Allora si ha


 
z1 z1
i) z1 + z2 = z1 + z2 , ii) z1 · z2 = z1 · z2 , iii) se z2 ≠ 0, = .
z2 z2


z1 |z1 |
iv) |z|2 = z · z, v) |z1 · z2 | = |z1 | · |z2 |, vi) se z2 ≠ 0,
z = |z | .
2 2
16 Capitolo 1 Insiemistica e Algebra

Dim. Dimostriamo la proprietà ii), le altre si dimostrano in modo analogo. Sia


z1 = a1 + ib1 , z2 = a2 + ib2 . Allora

z1 · z2 = (a1 a2 − b1 b2 ) + i(a1 b2 + a2 b1 ) = (a1 a2 − b1 b2 ) − i(a1 b2 + a2 b1 )

e
z1 · z2 = (a1 − ib1 ) · (a2 − ib2 ) = (a1 a2 − b1 b2 ) − i(a1 b2 + a2 b1 ).

che dimostra l’uguaglianza richiesta.

Esercizio 1.16 Scrivere i seguenti numeri complessi nella forma x + iy

2 + 3i (1 + 2i)2
i) (−3 + i)(14 − 2i), ii) , iii) , iv) i2 + i3 + i413 .
1 − 4i 1−i

Esercizio 1.17 Sia p(z) = a0 + a1 z + . . . + an zn un polinomio i cui coefficienti ai


sono numeri reali. Dimostrare che se z ∈ C è una radice di p(z) allora anche z lo
è.

Esercizio 1.18 Risolvere le seguenti equazioni nelle incognite z e w


(
(1 + i)z + (2 − i)w = −3i
i) iz + (2 − 10i)z = 3z + 2i, ii)
(1 + 2i)z + (3 + i)w = 2 + 2i

Esercizio 1.19 Rappresentare i seguenti insiemi come sottoinsiemi del piano car-
tesiano
{z ∈ C : |z − 2| ≤ 2}, {z ∈ C : 1 ≤ |z + i| < 2}.

Forma polare ed esponenziale


Dal punto di vista insiemistico C può essere identificato con R2 , le operazioni
in C possono essere quindi rappresentate sul piano. In particolare la somma
tra numeri complessi si ottiene mediante la regola del parallelogrammo. Più
complessa è la rappresentazione del prodotto di due numeri complessi. Per farlo
conviene utilizzare un’altra rappresentazione degli elementi non nulli di C. Sia
z ≠ 0 ∈ C, r = |z| rappresenta la distanza euclidea del punto z dall’origine. Ne
segue che rz , avendo modulo unitario, è un punto della circonferenza di centro
l’origine e raggio 1, può quindi essere rappresentato nella forma (cos(θ), sin(θ))
che, tradotto nel formalismo dei numeri complessi diventa cos(θ) + i sin(θ).
Moltiplicando per r si trova quindi

z = r (cos(θ) + i sin(θ))
Forma polare ed esponenziale §1.6 17

che è detta forma polare del numero z. L’angolo θ è detto argomento del numero
complesso z e si indica con arg(z). Geometricamente rappresenta l’angolo fra il
segmento di estremi z e l’origine e la direzione positiva dell’asse delle ascisse.
Non si tratta però di un valore numerico univocamente determinato in quanto
θ + 2kπ è ancora un’argomento di z, qualunque sia k ∈ Z. Per avere un valo-
re univoco dell’argomento si sceglie spesso il cosiddetto argomento principale
Arg(z) che è l’argomento definito da Arg(z) ∈ (−π , π ]. Se z = x + iy ≠ 0 si ha
q x y
r = x2 + y 2, cos(θ) = q , sin(θ) = q .
2
x +y 2 x + y2
2

y
Se x ≠ 0 si ha quindi tan(θ) = x e questo definisce θ a meno di multipli interi
di 2π , ovvero


arctan( y

 x) x>0


arctan( y ) + π x<0
x
θ= π

 x = 0, y > 0

2


− π x = 0, y < 0
2

Quella che abbiamo realizzato è una corrispondenza biunivoca fra C \ {0} e


(0, +∞) × (−π , π ]. E’ possibile estendere questa corrispondenza a 0 ∈ C (basta
porre r = 0) ma in tal caso la corrispondenza non è più biunivoca dato che
0 × (cos(θ) + i sin(θ)) = 0 qualunque sia θ. Questo cambio di coordinate è
utilizzato in molti contesti ma occorre ricordare che occorre omettere l’origine
per avere una corrispondenza biunivoca.

Esempio 1.32
π π
Arg(1) = 0, Arg(−1) = π , Arg(i) = , Arg(−i) = − .
2 2
3
Posto α = arctan( 4 ) si ha

Arg(4 + 3i) = α Arg(−4 + 3i) = π − α,


Arg(−4 − 3i) = −π + α Arg(4 − 3i) = −α.

Calcoliamo il prodotto fra numeri complessi con questa notazione

z1 · z2 = r1 (cos(θ1 ) + i sin(θ1 )) · r2 (cos(θ2 ) + i sin(θ2 ))


= r1 r2 (cos(θ1 ) cos(θ2 ) − sin(θ1 ) sin(θ2 )+
+i(cos(θ1 ) sin(θ2 ) + sin(θ1 ) cos(θ2 )) =
= r1 r2 (cos(θ1 + θ2 ) + i sin(θ1 + θ2 )).

quella ottenuta è la forma polare del prodotto dei due numeri. r1 r2 è il modulo
del prodotto, mentre l’argomento del prodotto è la somma degli argomenti dei
18 Capitolo 1 Insiemistica e Algebra

numeri. Le proprietà moltiplicative dell’argomento di un numero complesso si


riassumono come segue

(i) arg(z1 z2 ) = arg(z1 ) + arg(z2 ) + 2kπ


(ii) arg(z−1 ) = − arg(z) + 2kπ
z
(iii) arg( z12 ) = arg(z1 ) − arg(z2 ) + 2kπ
(iv) arg(zn ) = n arg(z) + 2kπ

dove k è un numero intero.

Esempio 1.33 Determiniamo il modulo e l’argomento principale di


√ !17
3+i
z=
1+i
Si ha, utilizzando le proprietà del modulo
√ !17
| 3 + i| √ 17
|z| = = 2 .
|1 + i|
Mentre, utilizzando le proprietà dell’argomento
√  √
3+i
arg(z) = 17 arg 1+i = 17(arg( 3 + i) − arg(1 + i)) =
 
π π 17
= 17 6 − 4 = − 12 π .

per ottenere l’argomento principale è sufficiente aggiungere 2π .


Limitandosi ai numeri complessi di modulo 1 si ha, dalle proprietà precedenti:

n
(cos(θ) + i sin(θ)) = cos(nθ) + i sin(nθ)
Questa proprietà può ricordare una proprietà della funzione esponenziale
(ex )n = enx . in effetti esiste un legame profondo, che non possiamo qui giustifi-
care (diamo una parziale giustificazione nell’esempio 1.35), fra numeri complessi
di modulo 1 e funzione esponenziale, che porta a definire l’esponenziale di un
numero complesso puramente immaginario come
eiθ = cos(θ) + i sin(θ)
ne segue che la forma polare di un numero complesso può essere descritta anche
come
z = r eiθ
in forma esponenziale. Dato che, per i numeri reali, vale la relazione ex+y = ex ey
si estende la definizione di esponenziale a tutto C. Se z = x + iy si pone

ez = ex+iy = ex eiy = ex cos(y) + i sin(y) .
Forma polare ed esponenziale §1.6 19

Questa funzione coincide quindi con la funzione esponenziale nota nel caso di
numeri reali. Alcune delle sue principali proprietà sono

(i) ez1 +z2 = ez1 ez2


(ii) ez ≠ 0
−1
(iii) (ez ) = e−z
z1 −z2 ez1
(iv) e = ez2
(v) ez = ez

Non si tratta però di una funzione invertibile. Si prova facilmente che l’equazione
ez = 1 ha infinite soluzioni date da z = 2kπ i, per k ∈ Z. Manca quindi l’iniettività
della funzione.

π
Esempio 1.34 Se z = 2 + 2i si ha
 
π π π
ez = e2+ 2 i = e2 cos( ) + i sin( ) = ie2 .
2 2
Il prodotto fra numeri complessi, in forma esponenziale, assume allora una
forma particolarmente semplice
  
r1 eiθ1 r2 eiθ2 = r1 r2 ei(θ1 +θ2 ) .

Esempio 1.35 Cerchiamo di dare una parziale giustificazione (per i dettagli oc-
corrono delle competenze relative al corso di analisi) della definizione di esponen-
ziale di un numero complesso. Si può dimostrare che, nel caso reale, la funzione
esponenziale e le funzioni trigonometriche coseno e seno possono essere definite
mediante serie convergenti:
X∞ ∞
X ∞
X
xn x 2n x 2n+1
ex = , cos(x) = (−1)n , sin(x) = (−1)n
n=0
n! n=0
(2n)! n=0
(2n + 1)!

dove, per n > 0, n! = 1 · 2 · · · · n è il fattoriale del numero n mentre, per


definizione, 0! = 1. Si ha allora
x2 x3 x4 x5
ex = 1 + x + + + + ...,
2 6 24 120

x2 x4 x3 x5
cos(x) = 1 − + + ..., sin(x) = x − + + ...
2 24 6 120
Si definiscono le corrispondenti funzioni complesse sostituendo alla variabile reale
x la variabile complessa z:
X∞ ∞
X ∞
X
zn z2n z2n+1
ez = , cos(z) = (−1)n , sin(z) = (−1)n
n=0
n! n=0
(2n)! n=0
(2n + 1)!
20 Capitolo 1 Insiemistica e Algebra

Si può dimostrare che tali serie risultano convergenti per ogni z ∈ C. Ovviamente
le funzioni complesse coincidono con quelle reali se z ∈ R ⊂ C e si può provare
che ogni identità che valga per le funzioni reali, continua a valere per le funzioni
complesse. Ad esempio

ez1 +z2 = ez1 ez2 , cos(z)2 + sin(z)2 = 1

così come tutte le identità trigonometriche. Valutando la funzione ez per z = i x,


con x ∈ R si trova
x2 x3 x4 x5
eix = 1+ix − −i + +i + ... =
2 6 24 120
x2 x4 x3 x5
= (1 − + + . . .) + i (x − + + . . .) =
2 24 6 120
= cos(x) + i sin(x).

Che è l’identità che volevamo giustificare. Valendo per x reale si ha anche l’equi-
valente complesso
ei z = cos(z) + i sin(z)

e, valendo cos(−z) = cos(z), sin(−z) = − sin(z), si ha


1  iz  1  iz 
cos(z) = e + e−i z , sin(z) = e − e−i z .
2 2i
Seno e coseno risultano essere funzioni periodiche, con periodo 2π , e da questo se-
gue che anche l’esponenziale è una funzione periodica, ma con periodo complesso
2π i. Concludiamo osservando che, in analogia col caso reale, si possono definire
anche le funzioni iperboliche:
1 z  1 z
cosh(z) = e + e−z , sinh(z) = (e − ez ) .
2 2
legate alle funzioni trigonometriche da

cosh(z) = cos(i z), sinh(z) = −i sin(i z).

Dalla definizione seguono facilmente alcune proprietà delle funzioni trigonome-


trichei, formalmente uguali a quelle soddisfatte nel caso reale. Ad esempio, per
ogni z ∈ C:
cos(z)2 + sin(z)2 = 1,

Il fatto che valgano queste proprietà è, in realtà, conseguenza di un fatto generale


relativo alle funzioni di una variabile complessa che ammettono una espansione
in serie di potenze (come è il caso di esponenziale, seno e coseno): ogni identità
Forma polare ed esponenziale §1.6 21

che risulti valida nel caso reale, ovvero sostituendo a z ∈ C, x ∈ R, è anche valida
per ogni z ∈ C. Ad esempio, dato che valgono

cos(x1 + x2 ) = cos(x1 ) cos(x2 ) − sin(x1 ) sin(x2 )

sin(x1 + x2 ) = sin(x1 ) cos(x2 ) + sin(x2 ) cos(x1 )

per ogni x1 , x2 ∈ R, si ha che valgono anche

cos(z1 + z2 ) = cos(z1 ) cos(z2 ) − sin(z1 ) sin(z2 )

sin(z1 + z2 ) = sin(z1 ) cos(z2 ) + sin(z2 ) cos(z1 )

per ogni z1 , z2 ∈ C.

Esempio 1.36 Risolviamo l’equazione

ez = −4

posto z = x + iy si ha
ex (cos(y) + i sin(y)) = −4

da cui, separando la parte reale e la parte immaginaria


(
ex cos(y) = −4
ex sin(y) = 0

quindi sin(y) = 0 e, essendo ex > 0, si deve avere cos(y) = −1. Quindi y =


π + 2kπ e x = ln(4)

Esercizio 1.20 Determinare il modulo e l’argomento principale dei seguenti nu-


meri complessi

3 1 1 3
i) 4 + i, ii) − − i, iii) − 1 + 2i, iv) − + .
2 2 2 2

Esercizio 1.21 Determinare la forma polare dei seguenti numeri complessi



p p (1 + i)5 (1 − 3i)5
i) (1 + i)(1 + 3i)( 3 − i), ii) √ .
( 3 + i)4
π π
Esercizio 1.22 Posto z = 2e 4 i , w = 3e 6 i , determinare la forma polare e la forma
esponenziale dei seguenti numeri complessi

z w z5
i) zw, ii) , iii) , iv) .
w z w2
22 Capitolo 1 Insiemistica e Algebra

Esercizio 1.23 Provare che si ha


     
π π 7π 7π π π
3 cos( ) + i sin( ) 4 cos( ) + i sin( ) = 12 cos( ) + i sin( )
3 3 4 4 12 12

Esercizio 1.24 Risolvere l’equazione e3z−1 = 1.

π
Esercizio 1.25 Provare che, per z ∈ C vale cos(z + 2) = − sin(z).

Esercizio 1.26 Provare che, per x, y ∈ R vale

cos(x + iy) = cos(x) cosh(y) − i sin(x) sinh(y)

e derivare una formula analoga per la funzione seno.

Esercizio 1.27 Determinare tutte le soluzioni complesse dell’equazione sin(z) = 0.

Radici di un numero complesso


Nel campo reale è possibile determinare una radice di x 2 = a se e solo se
a ≥ 0. Nel campo complesso questa limitazione non è necessaria. Si prova che
l’equazione zn = a, con a ∈ C ammette sempre n soluzioni (distinte se a ≠ 0).
Iniziamo dal caso particolare dell’equazione zn = 1. Passando ai moduli
abbiamo |z|n = 1 la cui unica soluzione accettabile (essendo |z| ≥ 0 un nu-
mero reale) è |z| = 1. Quindi z, espresso in forma polare è del tipo z =
cos(θ) + i sin(θ). D’altro canto utilizzando i risultati del paragrafo precedente,
sappiamo che l’equazione diventa

cos(nθ) + i sin(nθ) = 1
2kπ
che ha soluzione nθ = 2kπ , ovvero θ = n , con k ∈ Z. Quindi le soluzioni
2kπ kπ
sono della forma zk = cos( n ) + i sin(2 n ). Si prova
facilmente che i valori zk
e zk+n coincidono, quindi si hanno esattamente n radici distinte date da zk =
2kπ 2kπ
cos( n ) + i sin( n ), k = 0, . . . , n − 1.

Esempio 1.37 Nel caso n = 2 la formula porta le soluzioni z0 = cos(0)+i sin(0) =


1 e z0 = cos(π ) + i sin(π ) = −1. Si noti che le soluzioni si possono descrivere
nel seguente modo: z0 = 1 è una soluzione ovvia. A partire dal punto 1 della
circonferenza si divide la circonferenza in 2 parti uguali (dato che n = 2), l’altro
punto che si trova è z = −1, ovvero la seconda radice. √
2 2 1 3
Nel caso n = 3 si hanno le soluzioni z0 = 1, z1 = cos( 3 π )+i sin( 3 π ) = − 2 + 2 i

4 4 1 3
e z2 = cos( 3 π ) + i sin( 3 π ) = − 2 − 2 i. Dividendo la circonferenza in tre parti
uguali a partire dal punto 1 si trovano esattamente i punti z1 e z2 . La costruzione
Radici di un numero complesso §1.7 23

si può generalizzare. Per determinare le radici n-esime si divide la circonferenza


in n parti uguali a partire dal punto 1.

Ne segue che, in C il polinomio zn − 1 si fattorizza nel prodotto di fattori di


primo grado (cosa che non sempre avviene nel caso reale, ad esempio nel caso
n = 3)
zn − 1 = (z − 1) · (z − z1 ) · · · (z − zn−1 ).

Determiniamo ora le radici n-esime di un qualsiasi numero complesso a qual-


siasi, ovvero le soluzioni di zn = a. Se a = 0 l’unica soluzione è z = 0. Sup-
poniamo quindi a ≠ 0. Scrivendo a in forma ppolare, ha a = |a| eiα dove α è
α
l’argomento principale di a. Poniamo w0 = n |a| e n i (il simbolo di radice n-
esima indica la funzione radice n-esima reale che ha un’unico valore dato che
|a| ≥ 0). Sostituendo si verifica immediatamente che w0 è una soluzione, ov-
vero w0n = a. Sostituendo nell’equazione originaria si ha che questa diventa
 n
zn = z0n , ovvero wz0 = 1. Quindi wz0 è una delle radici dell’unità che abbiamo
z
determinato sopra : w0
= zk , da cui z = w0 zk . Possiamo utilizzare le formule
2k
precedenti ottenendo che wk = w0 e n π i , sono le soluzioni dell’equazione. Più
esplicitamente
q α+2kπ
wk = |a| e n i ,
n
k = 0, . . . , n − 1.

Anche in questo caso le soluzioni rappresentano p n punti distinti ed equispaziati


n
sulla circonferenza di centro l’origine e raggio |a|.

Esempio 1.38 Determiniamo le soluzioni di z3 = i. Occorre innanzi tutto determi-


nare la forma polare di i, si ha |i| = 1 e Arg(i) = π2 . Quindi la soluzione generale
π +4kπ
√ √
i 3 1 3 1
è zk = e 6 con k = 0, 1, 2. Si trova allora z0 = 2 + 2 i, z1 = − 2 + 2 i, z2 = −i.

Concludiamo accennando al fatto che ogni polinomio di grado n in C ammette


sempre n radici e si decompone nel prodotto di fattori di primo grado

Teorema 1.39 [Teorema fondamentale dell’algebra] Dato un polinomio

p(z) = an zn + an−1 zn−1 + . . . + a1 z + a0

con ai ∈ C, an ≠ 0 e n ≥ 1, esiste z ∈ C tale che p(z) = 0.

Utilizzando il metodo di Ruffini è possibile allora decomporre p(z) nel pro-


dotto di un fattore di primo grado ed un polinomio di grado n − 1. D’altro canto
tale polinomio, ancora per il Teorema precedente, ammette almeno una radice
reale. In questo modo si decompone il polinomio nel prodotto di fattori di primo
grado.
24 Capitolo 1 Insiemistica e Algebra

Esercizio 1.28 Risolvere le seguenti equazioni in C



i) z2 = 1 + 3i, ii) z4 = i, iii) z3 = −8i, iv) z4 = 2 − 2i.

Esercizio 1.29 Decomporre in fattori di primo grado il polinomio 2x 3 − x + 1.

Esercizio 1.30 Verificare che, per n ∈ N, n ≥ 1, le radici n-esime dell’unità


formano un gruppo rispetto all’operazione di prodotto.
Le matrici sono uno strumento essenziale in geometria. Della vasta teoria
che le riguarda tratteremo solo alcune delle operazioni elementari, funzionali ad
altre parti del corso. In questo capitolo definiamo alcune operazioni elementari.
Riprenderemo lo studio delle matrici in un capitolo successivo, quando avremo
a disposizione gli strumenti della teoria degli spazi vettoriali.

Matrici

Definizione 2.1 Una matrice di tipo m × n a coefficienti in un campo K è un


insieme ordinato di m × n elementi di K disposti su m righe e n colonne. Se
m = n la matrice si dice quadrata e n è detto ordine della matrice.

Una matrice A è quindi un oggetto rappresentabile nella forma

 
a11 a12 ··· a1n
a a22 ··· a2n 
 21 
A=
 .. .. 
 . .
..
. ... 

am1 am2 ··· amn

dove si indica con aij (o, a volte, con (A)ij ) l’elemento di K posto all’interse-
zione della i-esima riga con la j-esima colonna. Utilizzeremo convenzionalmente
lettere maiuscole per denotare le matrici e le corrispondenti minuscole per de-
notarne gli elementi. Nell’elencare le proprietà delle matrici spesso non faremo
riferimento al campo K quando i risultati sono validi qualunque esso sia.

Esempio 2.2 Le matrici


 
! ! 1 0 0
1 2 0 0 0  
A= , B= , C = 0 1 1 .
0 1 2 −1 1
0 0 2

Sono matrici reali di tipo 2 × 2, 2 × 3, 3 × 3 rispettivamente. L’elemento a22 della


matrice A è uguale a 1, l’elemento b21 della matrice B è uguale a 2, l’elemento
26 Capitolo 2 Matrici e Determinanti

c32 della matrice C è uguale a 0. Le matrici A e C sono quadrate, di ordine 2 e 3


rispettivamente.

Definizione 2.3 L’insieme delle matrici di tipo m × n a coefficienti in un campo K


si indica con M(m × n, K) o con M(n, K) se le matrici sono quadrate.

Utilizzando le operazioni definite nel campo K è possibile definire alcune ope-


razioni tra matrici. Noi prenderemo in considerazione la trasposizione, somma,
il prodotto di una matrice per uno scalare ed il prodotto tra matrici.

Definizione 2.4 Sia K un campo e sia A ∈ M(m × n, K). La trasposta di A è una


matrice, che indichiamo con B = AT , di tipo n × m a coefficienti in K i cui elementi
sono definiti da bij = aji .

L’operazione di trasposizione consiste quindi nello scambiare le righe con le


colonne.
!
1 2 0
Esempio 2.5 Sia A = . Allora
−1 1 1
 
1 −1
 
AT = 2 1  .
0 1

Tramite la trasposta definiamo due classi di matrici che utilizzereremo spesso


nel seguito

Definizione 2.6 Sia K un campo. Una matrice A ∈ M(n, K) si dice simmetrica se


A = At . Si dice antisimmetrica se A = −At .

Esempio 2.7 Date le matrici


   
1 2 3 0 1 3
   
A1 = 2 1 4 , A2 = −1 0 2
3 4 0 −3 −2 0

si ha che A1 è simmetrica mentre A2 è antisimmetrica.

Definizione 2.8 Sia K un campo e siano A, B ∈ M(m × n, K). Si definisce la


matrice somma C di A e B, che indicheremo con C = A + B, come la matrice in
M(m × n, K) i cui elementi sono definiti da cij = aij + bij.

Si sommano quindi gli elementi che occupano la stessa posizione nelle matrici.
E’ possibile effettuare la somma tra matrici solo se queste sono dello stesso tipo.
Matrici §2.1 27

Esempio 2.9 Siano


! !
1 2 1 0
A= , B= .
3 4 1 0

La matrice A + B sarà allora


!
2 2
A+B = .
4 4

Osserviamo alcune proprietà elementari della somma che si possono provare


facilmente osservando che quelle proprietà valgono nel campo K

Proposizione 2.10 Sia K un campo e siano A, B, C ∈ M(m × n, K), allora

(i) Esiste un elemento neutro, che indichiamo con 0, per la somma tra matri-
ci. E’ la matrice i cui elementi sono tutti nulli (ovvero uguali all’elemento
neutro della somma in K). Questa è l’unica matrice che verifica

0 + A = A + 0 = A.

(ii) La somma tra matrici è commutativa, cioè

A + B = B + A.

(iii) Ogni matrice A ammette un opposto rispetto alla somma, che indichia-
mo con −A. E’ la matrice i cui elementi sono dati dagli opposti dei
corrispondenti elementi di A. Chiaramente questa verifica

A + (−A) = 0.

(iv) La somma tra matrici gode della proprietà associativa, cioè

A + (B + C) = (A + B) + C.

Ne segue, in particolare, che l’insieme delle matrici di un tipo fissato m × n ha


una struttura di gruppo commutativo rispetto alla somma.

Definizione 2.11 Sia K un campo e sia A ∈ M(m × n, K). Se λ un elemento di K,


il prodotto di λ per la matrice A è la matrice B = λ A ∈ M(m × n, K) i cui elementi
sono definiti da bij = λ aij .

Per calcolare il prodotto di una matrice per uno scalare (cioè un elemento di
K) si moltiplicano tutti gli elementi della matrice per quel numero.
28 Capitolo 2 Matrici e Determinanti

!
−1 2
Esempio 2.12 Sia λ = −2 e A = . Si ha
2 0
!
2 −4
−2 A = .
−4 0

Elenchiamo anche alcune proprietà del prodotto per uno scalare, anche queste
di facile dimostrazione

Proposizione 2.13 Sia K un campo e siano A, B ∈ M(m × n, K), λ, λ1 , λ2 ∈ K.


Allora

(i) Indicato con 1 l’elemento neutro del prodotto in K si ha 1 · A = A.


(ii) (λ1 λ2 ) · A = λ1 · (λ2 · A)
(iii) (λ1 + λ2 ) · A = λ1 · A + λ2 · A
(iv) λ · (A + B) = λ · A + λ · B

Queste proprietà, insieme a quelle della somma, caratterizzano la classe di


insiemi che costituisce l’oggetto principale di studio del corso, ovvero gli spazi
vettoriali. L’ultima operazione tra matrici che definiamo è il prodotto, ed è di
gran lunga la più complessa.

Definizione 2.14 Sia K un campo e siano A ∈ M(m × n, K)., B ∈ M(n × k, K). Il


prodotto di A per B è la matrice C = A · B ∈ M(m × k, K), i cui elementi sono
definiti da
n
X
cij = ais bsj .
s=1

Al variare di s, ais descrive tutti gli elementi della riga i-esima della matrice A.
Ciascuno di essi viene moltiplicato per bsj , ovvero l’elemento che occupa, nella
colonna j-esima di B, la stessa posizione. Il prodotto si effettua quindi mettendo
al posto cij la somma dei prodotti degli elementi della i-esima riga di A per i
corrispondenti elementi della j-esima colonna di B. Tale prodotto è anche detto
prodotto righe per colonne. Si osservi che il numero di colonne di A deve essere
uguale al numero di righe di B.

Esempio 2.15 Siano


 
! 1 2 −1
1 1 −1  
A= , B = 3 1 0 .
2 0 −1
0 −1 0
Matrici §2.1 29

Si ha allora
!
4 4 −1
A·B = .
2 5 −2

Enunciamo alcune proprietà del prodotto tra matrici. Sia K un campo

(i) Il prodotto tra matrici gode della proprietà distributiva rispetto alla som-
ma, se A ∈ M(m × n, K), B, C ∈ M(n × k, K), si ha

A · (B + C) = A · B + A · C.

(ii) Il prodotto gode della proprietà associativa. Se A ∈ M(m × n, K), B ∈


M(n × k, K) e C ∈ M(k × r , K) si ha

A · (B · C) = (A · B) · C.

A titolo di esempio diamo la dimostrazione di questa proprietà. Le altre


proprietà qui elencate si dimostrano in modo simile. Per far vedere che
due matrici sono uguali (sapendo che sono dello stesso tipo) si mostra
che gli elementi che occupano la stessa posizione coincidono. Dato che è
possibile effettuare il prodotto B · C si ha che B deve essere di tipo n × p
e C di tipo p × q. Dato che è possibile effettuare il prodotto A · B si ha che
A deve essere di tipo m × n. Quindi B · C è di tipo n × q e A · (B · C) di
tipo m × q. Si verifica facilmente che lo stesso avviene per la matrice al
secondo membro Consideriamo quindi l’elemento di posto (ij) al primo
membro
n n p
X X X
(A · (B · C))ij = aih (B · C)hj = aih bhk ckj =
h=1 h=1 k=1
p
n X p n
X X X
= aih bhk ckj = ( aih bhk )ckj =
h=1 k=1 k=1 h=1
p
X
= (A · B)ik ckj = ((A · B) · C)ij .
k=1

dove abbiamo unicamente utilizzato proprietà elementari dei campi, quali


la commutatività della somma. Quindi l’uguaglianza è provata.
(iii) Sia A ∈ M(n, K) una matrice quadrata di ordine n. Esiste una matrice, che
indichiamo con In , tale che

A · In = In · A = A.
30 Capitolo 2 Matrici e Determinanti

Tale matrice costituisce l’elemento neutro rispetto al prodotto. E’ definita


da (In )ij = 1 se i = j e (In )ij = 0 altrimenti, cioè
 
1 0 ··· 0
0 1 ··· 0
 
In = 
 .. .. .. .. 

. . . .
0 0 ··· 1

gli unici elementi diversi da zero sono quelli sulla diagonale, tutti uguali
ad 1, elemento neutro del prodotto in K. Tale matrice è detta matrice
identità di ordine n.
(iv) Siano A e B due matrici quadrate di ordine n, in tal caso è possibile effet-
tuare i prodotti A·B e B ·A. In generale questi sono diversi, cioè il prodotto
fra matrici non gode della proprietà commutativa (Cfr. Esercizio 2.3).
(v) L’aver definito, dopo la somma, il prodotto fra matrici, potrebbe sug-
gerire che esista una struttura di campo su qualche insieme di matri-
ci. In generale questo non avviene, come suggerito dalla mancanza di
commutatività.

Esempio 2.16 Sia K un campo e sia In ∈ M(n, K) la matrice identica di ordine n


e siano A ∈ M(m × n, K) e B ∈ M(n × k, K). Si può dimostrare che si ha

A · In = A, In · B = B.

Diamo due ultime definizioni, che verranno utilizzate nel seguito:

Definizione 2.17 Sia K un campo e sia A ∈ M(n, K). Se k è un numero naturale,


si definisce la potenza k-sima di A come il prodotto di k copie di A

Ak = A · A · . . . · A.

Esempio 2.18 Sia p(x) = an x n + an−1 x n−1 + . . . + a1 x + a0 un polinomio a


coefficienti in K. Visto che abbiamo definito le potenze di una matrice quadrata, il
prodotto per uno scalare e la somma tra matrici possiamo ’valutare’ il polinomio
p(x) su una qualsiasi matrice A ∈ M(m, K). Si definisce

p(A) = an An + an−1 An−1 + . . . + a1 A + a0 Im .

Ad esempio se p(x) = x 2 − 1 e
!
1 3
A=
−3 2
Matrici §2.1 31

si ha
!
−9 9
p(A) = .
−9 −6

Torneremo su questa definizione in un capitolo successivo.

Definizione 2.19 Sia K un campo e sia A ∈ M(n, K). Si definisce la diagonale


principale di A, come l’insieme degli elementi aij in A tali che i = j.

Spesso faremo riferimento alla diagonale principale di A come ’diagonale’ di


A.

Definizione 2.20 Sia K un campo e sia A ∈ M(n, K). Si definisce la traccia di A,


indicata con tr(A), come la somma degli elementi della diagonale principale di A.

Esempio 2.21 Sia


 
3 0 1
 
A = 2 2 4
1 0 1

si ha allora tr(A) = 3 + 2 + 1 = 6.

Esempio 2.22 Verifichiamo che si ha, per A, B ∈ M(n, K)

tr(A · B) = tr(B · A).

Infatti
n
X X n
n X n X
X n
tr(A · B) = (A · B)ii = aij bji = bji aij =
i=1 i=1 j=1 i=1 j=1

X n
n X n
X
= bji aij = (B · A)jj = tr(B · A)
j=1 i=1 j=1

Concludiamo questo paragrafo con un semplice esempio di applicazione del


calcolo matriciale:

Esempio 2.23 In una città vi sono 100.000 persone in età lavorativa di cui 80.000
attualmente impiegate. Ogni anno il 10% dei lavoratori perde il lavoro mentre il
70% dei disoccupati trova un nuovo posto. Supponendo che la popolazione lavo-
rativa rimanga costante vogliamo calcolare il numero di persone impiegate dopo
3 anni.
32 Capitolo 2 Matrici e Determinanti

Indichiamo rispettivamente con xn e yn il numero di persone occupate e disoc-


cupate dopo n anni. Vale:
( 1 7 9 7
xn+1 = xn − 10 xn + 10 yn = 10 xn + 10 yn
1 3
yn+1 = 10 xn + 10 yn
Posto
! !
xn 0.9 0.7
Xn = , A=
yn 0.1 0.3

la relazione precedente può essere scritta come

Xn+1 = A · Xn

ne segue X1 = A · X0 , X2 = A · X1 = A · (A · X0 ) = A2 · X0 . Si verifica facilmente


(per induzione) che vale
Xn = An · X0 .

Nel nostro caso dobbiamo calcolare A3 · X0 , si ha


! !
80.000 0.876 0.868
X0 = , A3 = .
20.000 0.124 0.132

Effettuando il prodotto si trova che il numero di persone impiegate dopo 3 anni


è pari a 87.440, mentre i disoccupati sono 12.560. Lo studio dell’evoluzione nel
tempo del numero delle persone impiegate è un semplice esempio dei cosiddetti
processi di Markov, che vengono studiati in ambito probabilistico.

Esercizio 2.1 Si definisce la matrice A ∈ M(3, R) mediante aij = (−1)i+j (i − j)


determinare a32 .
 
  0 1
1 0 1 0 2
   3
Esercizio 2.2 Siano A = −1 0 2 0 e B =  . Calcolare A · B.
−1 −2
0 0 1 1
−3 −4
! !
1 1 2 1
Esercizio 2.3 Siano A = ,B= . Calcolare i prodotti A · B e B · A.
0 2 1 −1
!
1 0
Esercizio 2.4 Sia A = . Calcolare A2 .
2 1
!
1 1
Esercizio 2.5 Sia A = . Calcolare Ak , dove k è un numero naturale.
0 1
Matrici §2.1 33

!
2 2 1
Esercizio 2.6 Sia p(x) = 2x − x + 3 e sia A = . Calcolare p(A).
1 −1
 
Esercizio 2.7 Sia A = 1 1 −1 . Calcolare A · AT . Provare che se A è una
matrice di tipo 1 × n, si ha A · AT = 0 se e solo se A è la matrice nulla.

Esercizio 2.8 Risolvere la seguente equazione matriciale nel campo reale


   
1   0
   
3 X ·  2  = 1 0 1 · −1 .
−1 3
! !
1 0
Esercizio 2.9 Siano V1 = e V2 = . Calcolare A · V1 e A · V2 dove A è la
0 1
matrice

!  √ √  ! !
2 2
2 0  2√ √2  ,
0 1 −1 0
1) , 2) 3) , 4) .
0 2 − 22 2 −1 0 0 −1
2
!
x
Associando ad una matrice X = l’elemento di coordinate (x, y) del piano
y
cartesiano R2 , è possibile pensare alla funzione X → A · X come ad una funzione
R2 → R2 . Considerare, per ogni scelta della matrice A, i punti del piano corrispon-
denti a V1 e V2 e le loro immagini. Cercare di dedurne il comportamento globale
della funzione.

Esercizio 2.10 Provare le seguenti proprietà della trasposta, dove A, B sono ma-
trici a coefficienti in un campo K:
(i) (At )t = A
(ii) (A + B)t = At + B t
(iii) (λA)t = λAt
(iv) (A · B)t = B t · At

Esercizio 2.11 Date tre matrici quadrate di ordine 2 a coefficienti reali, giustifica-
re o trovare un controesempio alle seguenti uguaglianze:

tr(A · B · C) = tr(B · C · A), tr(A · B · C) = tr(B · A · C).

Esercizio 2.12 Provare le proprietà della somma e del prodotto per uno scalare
elencate nelle Proposizioni 2.10 e 2.13.
34 Capitolo 2 Matrici e Determinanti

Esercizio 2.13 Provare che l’insieme


( ! )
a −b
C= , a, b ∈ R
b a

ha una struttura di campo rispetto alle operazioni di somma e prodotto tra matrici
definite sopra.

Esercizio 2.14 Provare che gli elementi sulla diagonale principale di una matrice
antisimmetrica sono nulli.

Determinante di una matrice


Introduciamo in questo paragrafo il concetto, fondamentale, di determinante
di una matrice. Qui vedremo la definizione ed enunceremo alcune proprietà la
cui dimostrazione è rimandata ad un capitolo successivo in cui riprenderemo in
considerazione le matrici in modo più approfondito.
Sia A una matrice quadrata di ordine n a coefficienti in un campo K. E’ pos-
sibile associare ad A un elemento di K, detto determinante della matrice A,
che indichiamo con det(A). La sua definizione è piuttosto elaborata. Trattiamo
dapprima i casi più semplici  
Se n = 1 la matrice A è della forma A = a . Si definisce in tal caso det(A) = a.
!
a11 a12
Se n = 2 la matrice A è della forma A = . Si definisce in tal caso
a21 a22

det(A) = a11 a22 − a12 a21 .


!
2 1
Esempio 2.24 Sia A = . Il suo determinante è
3 1

det(A) = 2 · 1 − 1 · 3 = −1.

Vediamo questa espressione in un modo che consente di generalizzarla. Sce-


gliamo una riga, ad esempio la prima. Per ogni elemento aij di tale riga conside-
riamo la matrice che
 siottiene cancellando la riga e la colonna chelo contengono.

Questa matrice è a22 se stiamo considerando l’elemento a11 e a21 se stiamo
considerando a12 . Quindi moltiplichiamo aij per il determinante della matrice
corrispondente (che in questo caso è di ordine 1). Cambiamo segno al risulta-
to se la somma degli indici i e j è dispari (questo equivale a moltiplicarlo per
(−1)i+j ). Otteniamo a questo punto le due quantità a11 a22 e −a12 a21 . La loro
somma è il determinante della matrice.
Formalizziamo questa costruzione
Determinante di una matrice §2.2 35

Definizione 2.25 Sia K un campo e A ∈ M(n, K). Sia aij un suo elemento e Aij
la matrice (di ordine n − 1) che si ottiene da A cancellando la i-esima riga e la
j-esima colonna (ovvero la riga e la colonna che contengono aij ). Il complemento
algebrico αij di aij è

αij = (−1)i+j det(Aij ).

 
1 0 2
 
Esempio 2.26 Sia A = 2 −1 1. Il complemento algebrico di a21 è
0 1 2
!
0 2
α21 = − det = 2.
1 2

Diamo ora la definizione generale di determinante di una matrice. Tale defini-


zione è induttiva, nel senso che si definisce il determinante di una matrice di or-
dine n supponendo di saper calcolare i complementi algebrici dei suoi elementi,
cioè (a meno del segno) dei determinanti di matrici di ordine n − 1.

Definizione 2.27 Sia K un campo e A ∈ M(n, K). Fissato un indice i tra 1 e n,


definiamo il determinante di A come:

n
X
det(A) = aij αij
j=1

dove i è un qualsiasi indice compreso tra 1 e n.

Si può provare che il determinante di una matrice non dipende dalla scelta (ar-
bitraria) dell’indice i, ovvero della riga secondo la quale svilupparlo. Il risultato
non cambierebbe se, anziché scegliere una riga, si fosse fissata una colonna. Si
può provare che si ha
n
X
det(A) = aij αij .
i=1

Torneremo sulla dimostrazione di questi fatti in un capitolo successivo. Questa


arbitrarietà può essere sfruttata per calcolare il determinante. In particolare
conviene sempre scegliere la riga (o la colonna) contenente il maggior numero di
elementi nulli.
36 Capitolo 2 Matrici e Determinanti

 
2 0 0
 
Esempio 2.28 Sia data la matrice A = 2 1 −1. Calcoliamo il determinante
1 1 2
di A sviluppandolo secondo la prima riga. Si ha
! ! !
1 −1 2 −1 2 1
det(A) = 2 det − 0 det + 0 det =
1 2 1 2 1 1

e’ ovvio che non occorre calcolare dei determinanti che verranno moltiplicati per
0,
!
1 −1
= 2 det = 2 · (2 + 1) = 6.
1 2

 
1 0 1 1
−1 1 2 0
 
Esempio 2.29 Calcoliamo il determinante di A =   sviluppandolo
2 0 1 1
1 −1 1 1
secondo la seconda colonna. Si ha
   
1 1 1 1 1 1
   
det(A) = det 2 1 1 − det −1 2 0 = 0 − (−2) = 2
1 1 1 2 1 1

 
1 2 3
 
Esempio 2.30 Sia A = 4 5 6. Si ha
8 8 9
! ! !
5 6 4 6 4 5
det(A) = det −2 +3 =
8 9 8 9 8 8
= −3 + 24 − 24 = −3.

Enunciamo, senza dimostrarle qui, alcune proprietà del determinante. Sia K


un campo

(i) Siano A, B ∈ M(n, K). Si ha

det(A · B) = det(A) · det(B).

(ii) Sia A ∈ M(n, K), allora


det(A) = det(AT ).

(iii) Se in una matrice A ∈ M(n, K) uno riga o una colonna è composta da soli
0, si ha det(A) = 0.
Determinante di una matrice §2.2 37

Altre utili proprietà del determinante verranno provate in un capitolo succes-


sivo quando daremo una interpretazione geometrica del determinante. Conside-
riamo ora una particolare classe di matrici per la quale il calcolo del determinante
risulta semplificato, iniziamo con un esempio

Esempio 2.31 Data la matrice


 
1 2 −1 3 1
 
−2 3 4 −1 2
 
A=
0 0 2 −1 0
0 0 3 0 1
 
0 0 1 1 −1

possiamo considerarla come composta da dei blocchi, ovvero delle sottomatrici,


del tipo
!
B11 B12
A=
0 B22

dove le matrici B11 e B22 sono quadrate di ordine 2 e 3 rispettivamente, mentre


la matrice B12 è di tipo 2 × 3. Calcoliamo il determinante di A secondo la prima
colonna
   
3 4 −1 2 2 −1 3 1
0 2 −1 0 0 2 −1 0
   
det(A) = 1 · det   + 2 · det  =
0 3 0 1 0 3 0 1
0 1 1 −1 0 1 1 −1
   
2 −1 0 2 −1 0
   
= 1 · 3 · det 3 0 1  − (−2) · 2 · det 3 0 1 =
1 1 −1 1 1 −1
 
2 −1 0
 
= (1 · 3 − (−2) · 2) · det 3 0 1 =
1 1 −1
= det(B11 ) · det(B22 )

ovvero il determinante è dato dal prodotto dei soli determinanti dei blocchi diago-
nali.

Vediamo come l’esempio precedente corrisponda ad un fatto generale.


38 Capitolo 2 Matrici e Determinanti

Proposizione 2.32 Sia K un campo e sia A ∈ M(n, K) una matrice triangolare


superiore a blocchi della forma
 
B11 B12 . . . B1k
 0 B22 . . . B2k 
 
 . .. 
 . 
 . . 
0 ... 0 Bkk
dove Bii è una matrice quadrata per i = 1, . . . , k. Allora

det(A) = det(B11 ) · det(B22 ) · . . . · det(Bkk ).

Dim. Procediamo per induzione sull’ordine n della matrice. Per n = 2 il risultato


è ovvio. Supponiamo allora vero il risultato per matrici di ordine n − 1. Dallo
sviluppo del determinante secondo la prima colonna di A abbiamo

det(A) = a11 det(A11 ) + . . . + am1 (−1)m+1 det(Am1 )

se l’ordine di A11 è k abbiamo ai1 = 0 per i > k quindi

det(A) = a11 det(A11 ) + . . . + ak1 (−1)k+1 det(Ak1 ).

Le matrici Ai1 sono ottenute cancellando in A la i-esima riga e la prima colonna


quindi
 
Bi i
B12 ... i
B1k
 11 
 0 B22 ... B2k 
 
Ai1 =  . .. 
 .. . 
 
0 ... 0 Bkk
i
dove B1j si ottiene da Bij cancellando la i-esima riga e, solo nel caso i = 1, anche
la prima colonna (si noti che tali matrici potrebbero essere vuote se B11 è una
matrice 1 × 1 ma, in questo caso il risultato è ovvio). Ne segue che la matrice
i
B11 è ancora quadrata e le matrici A1i sono di ordine n − 1. Possiamo quindi
applicare l’ipotesi induttiva e
i
det(A1i ) = det(B11 ) · det(B22 ) · . . . · det(Bkk ).

Sostituendo nell’espressione precedente del determinante e raccogliendo i ter-


mini det(B22 ) · . . . · det(Bkk ) si ottiene
k
1
det(A) = (a11 det(B11 ) + . . . + ak1 (−1)k+1 det(B11 )) · det(B22 ) . . . · det(Bkk ).
Determinante di una matrice §2.2 39

i
Dato che B11 è ottenuta da B11 cancellando la prima colonna e la i-esima riga, si
ha
k
1
det(B11 ) = (a11 det(B11 ) + . . . + ak1 (−1)k+1 det(B11 ))

da cui la tesi.

Concludiamo questo paragrafo con un caso particolare. Nel caso delle matrici
quadrate di ordine 3, esiste un metodo alternativo di calcolo del determinante,
noto come regola di Sarrus. Lo mostriamo con un esempio

1 0 3
 
Esempio 2.33 Sia A = −2 0 1. A partire da A costruiamo una seconda
3 1 2
matrice B, ottenuta da A aggiungendo, dopo la terza colonna, copie della prima e
della seconda colonna
 
1 0 3 1 0
 
B = −2 0 1 −2 0 .
3 1 2 3 1

Nella matrice B possiamo considerare 3 ’diagonali sinistre’


     
1 . . . . . 0 . . . . . 3 . .
     
 . 0 . . .  , . . 1 . .  , . . . −2 .,
. . 2 . . . . . 3 . . . . . 1

e 3 ’diagonali destre’
     
. . . . 0 . . . 1 . . . 3 . .
     
. . . −2 ., . . 1 . . , . 0 . . . .
. . 2 . . . 1 . . . 3 . . . .

Il determinante di A si ottiene moltiplicando tra loro gli elementi delle diagonali,


sommando i prodotti ottenuti dalle ’diagonali sinistre’ e sottraendo la somma dei
prodotti delle ’diagonali destre’

det(A) = 0 + 0 + (−6) − 0 − 1 − 0 = −7.

Si ricordi che tale regola può essere applicata esclusivamente al caso di matrici
di ordine 3.
 
1 1 2 1
3 1 4 5
 
Esercizio 2.15 Calcolare il determinante della matrice A =  .
7 6 1 2
1 1 3 4
40 Capitolo 2 Matrici e Determinanti

Esercizio 2.16 Determinare


 valori del parametro A per i quali il determinante
i
1 −2 3
 
della matrice A = a 3 2  si annulla.
6 1 a
   
1 −1 2 0 1 1
   
Esercizio 2.17 Siano A = 0 2 1 , B = −1 0 1. Verificare che det(A ·
1 −1 0 0 1 2
B) = det(B · A).

Esercizio 2.18 Siano


   
λ1 0 0 ··· 0 λ1 a12 a13 ··· a1n
   
 0 λ2 0 ··· 0 0 λ2 a23 ··· a2n 
   
 0 λ3 ··· 0  λ3 ··· a3n 
A=0 , B=0 0 .
 . .. .. ..   . .. .. 
 .
 . . .
..
. 
. 
 .
 . . .
..
. ... 

0 0 0 ··· λn 0 0 0 ··· λn
La matrice A è detta diagonale e indicheremo anche, per brevità

A = diag(λ1 , . . . , λn ).

La matrice B è detta triangolare superiore. Calcolare il determinante di A e B.

Esercizio 2.19 Provare che gli insiemi delle matrici triangolari (superiori e infe-
riori) sono chiusi rispetto al prodotto.
I vettori liberi rappresentano un esempio elementare di spazio vettoriale. Trat-
tandosi di un esempio abbastanza concreto e ’visualizzabile’, lo si introduce per
facilitare la comprensione del caso generale, altrimenti molto astratto. Ne verrà
studiata, in particolare, una corrispondenza con R3 , che fornirà il primo esempio
di applicazione lineare. Utilizzando questa corrispondenza arriveremo a trattare
la geometria analitica dello spazio tridimensionale mostrando come dei problemi
riguardanti oggetti geometrici possono essere trattati con strumenti dell’algebra.

Vettori liberi
Indichiamo con E 3 lo spazio Euclideo. Definiamo vettore applicato una coppia
ordinata di punti (p, q) ∈ E 3 × E 3 . Se i punti sono distinti individuano una
retta e, considerando la successione dei due punti, un orientamento sulla retta.
Chiamiamo p primo estremo (o punto di applicazione) del vettore e q secondo
estremo del vettore. Fissata una unità di misura, la distanza di p da q è detta
modulo (o lunghezza) del vettore. Se p = q il vettore è detto vettore nullo .
E’ comodo dare una rappresentazione grafica di un vettore con una freccia che
congiunge i punti p e q.
Nell’uso pratico può essere conveniente adottare la simbologia q − p in sosti-
tuzione di (p, q).
Dati due vettori applicati non nulli, si dice che questi hanno la stessa dire-
zione se le rette su cui giacciono sono pa- s
t
rallele o coincidenti. In tal caso diremo che
hanno lo stesso verso se inducono la stessa r p
orientazione sulle rette parallele (più rigo-
u
rosamente, se si trasla una delle due rette,
muovendola parallelamente a se stessa, fi-
no a far coincidere i primi estremi, i secon-
q
di estremi si trovano sulla stessa semiretta
con origine nel primo estremo). Con riferi-
mento alla Fig. 3.1 i vettori (t, u) e (p, q) Fig. 3.1 Vettori con la stessa direzione

hanno lo stesso verso mentre (t, u) e (r , s) hanno verso opposto. Diciamo che
42 Capitolo 3 Calcolo Vettoriale

un vettore nullo ha, per convenzione, la stessa direzione e lo stesso verso di


qualsiasi altro vettore applicato.
Nell’insieme V dei vettori applicati definiamo una relazione (V , R, V ) dove
(p, q)R(r , s) se i due vettori sono entrambi nulli oppure hanno la stessa di-
rezione, lo stesso verso e lo stesso modulo. In pratica due vettori applicati sono
in relazione se la traslazione che porta a coincidere i loro primi estremi fa coinci-
dere anche i secondi estremi, ovvero i vettori applicati differiscono solo per una
traslazione nello spazio. Quella che abbiamo definito risulta essere una relazio-
ne di equivalenza (lo si verifica facilmente in quanto la relazione utilizza sempre
il concetto di uguaglianza) e il corrispondente spazio quoziente V = V /R è det-
to spazio dei vettori liberi e i suoi elementi sono detti vettori liberi . Un vettore
libero è quindi un insieme di vettori applicati aventi la stessa direzione, lo stesso
verso e lo stesso modulo.
Nel caso dei vettori liberi si possono incontrare notazioni diverse, a seconda
del testo adottato. Anche qui, in qualche caso, utilizzeremo notazioni diverse da-
to che alcune di queste si adattano meglio a descrivere la situazione geometrica
trattata.
Un generico elemento di V verrà usualmente denotato con una sottolinea-
tura, ad esempio v. Si userà anche la no-
---→
- t r
tazione pq in sostituzione di [(p, q)] per
indicare l’insieme dei vettori equivalenti al
vettore applicato (p, q). Quando sia chiaro
u s
il contesto si utilizzerà, con abuso di no- p
tazione, la scrittura q − p. Per il vettore
nullo verrà usata la notazione 0. Dato un
vettore libero v ≠ 0, risultano ben definiti q
la sua direzione (che è la direzione di una
retta sulla quale giaccia un rappresentan- Fig. 3.2 Vettori equivalenti

te di v), il suo verso ed il suo modulo |v| (calcolabili scegliendo un qualsiasi


rappresentante).

Lemma 3.1 Dato un punto p ed un vettore libero v esiste ed è unico il


rappresentante di v applicato in p .

Dim. Se v = 0 il rappresentante cercato è (p, p). Altrimenti si considera la


retta passante per p e parallela alla direzione di v. Il verso di v permette di
scegliere una delle semirette di origine p. Su questa esiste un solo punto q la
cui distanza da p è uguale al modulo di v. Il rappresentante di v applicato in
p è allora dato da (p, q). L’unicità del rappresentante segue dall’univocità della
costruzione.
Operazioni elementari §3.2 43

Operazioni elementari
Nell’insieme V dei vettori liberi è possibile definire delle operazioni. Conside-
riamo inizialmente due operazioni ’elementari’, la somma tra vettori ed il pro-
dotto di un vettore per un numero (prodotto per uno scalare). In seguito ne de-
finiremo altre, ma queste due prime operazioni le ritroveremo nella definizione
di spazio vettoriale.
Dati due vettori v, w di definisce la loro somma v + w mediante la cosid-
detta ’regola del parallelogramma’. Si fissi
un punto o e si determini il rappresentan- q
te (o, p) di v avente il primo estremo in o, v +w
w
quindi il rappresentante (p, q) di w avente
il primo estremo in p. Il vettore applicato
o p
(o, q) è, per definizione, il rappresentan- v
te di v + w. La costruzione effettuata per
definire la somma di due vettori liberi di- Fig. 3.3 Somma tra vettori

pende dalla scelta (arbitraria) del punto o. Non è però difficile verificare che il
risultato di tale costruzione è lo stesso qualunque sia il punto o. In particolare
è possibile considerare i rappresentanti dei vettori v e w applicati nello stes-
so punto o. In tal caso il secondo estremo di v + w è il vertice opposto ad o
nel parallelogramma che ha per lati i due rappresentanti (tale parallelogramma
degenera in un segmento se i due vettori sono paralleli!).
Il vertice opposto ad o può essere raggiunto seguendo due diversi percorsi
lungo il perimetro del parallelogramma. U-
no di tali percorsi (per i vertici o,p,q nella r v q
Fig. 3.4) rappresenta, secondo la definizio-
w
ne data sopra della somma di vettori liberi,
w
il vettore v + w, l’altro (per i vertici p, r , q)
rappresenta invece w + v. Quindi o p
v
v +w =w +v (3.1)
Fig. 3.4 Commutatività della somma

cioè l’operazione di somma tra vettori liberi è commutativa (così come lo è la


somma tra numeri reali).
Dalla definizione segue immediatamente che, qualunque sia v,

v + 0 = v. (3.2)

Cioè il vettore nullo è l’elemento neutro nella somma tra vettori liberi (svolge lo
stesso ruolo di 0 nella somma di numeri reali).
Dato un vettore v si consideri un suo rappresentante (p, q). Sulla semiretta
avente origine in p, con la stessa direzione di v ma verso opposto, si consideri
il punto q′ avente la stessa distanza di q da p. La coppia (p, q′ ) rappresenta un
44 Capitolo 3 Calcolo Vettoriale

vettore libero e si verifica immediatamente che la somma di v con tale vettore ha


come risultato il vettore nullo. Tale vettore si indica con −v ed è detto opposto
di v.
v + (−v) = 0. (3.3)
Si osservi che −v è l’unica soluzione della equazione vettoriale
x + v = 0.
In questo modo risulta definita la differenza fra due vettori. Considerando
dei rappresentanti applicati in uno stesso punto
di due vettori non paralleli v e w, la loro differen- w v −w
za v −w è rappresentata dalla diagonale del paral-
lelogramma che li ha come lati diversa da quella
che ne rappresenta la somma, orientata dal secon- v
do estremo del rappresentante di w al secondo
Fig. 3.5 Differenza tra vettori
estremo del rappresentante di v. Nel caso di vet-
tori paralleli il parallelogramma degenera in un segmento. Si può provare che la
somma tra vettori gode anche della proprietà associativa, cioè
(v + w) + t = v + (w + t). (3.4)
Questo implica che non è necessario indicare l’ordine in cui si effettuano le som-
me ed è possibile omettere le parentesi nella somma di più vettori scrivendo
semplicemente v + w + t.

Esempio 3.2 Siano v e w due vettori liberi. Esiste sempre (ed è unico) un vettore x
tale che x + v = w. Geometricamente la sua costruzione si effettua considerando
due rappresentanti (o, p) e (o, q) dei due vettori (n.b. uno o entrambi i vettori po-
trebbero essere nulli). Il vettore (p, q) è, per costruzione, soluzione dell’equazione.
Per una soluzione algebrica: supponiamo che x sia una soluzione dell’equazione.
Essendo vera l’uguaglianza x +v = w questa resterà vera se si aggiunge a ciascu-
no dei due membri il vettore −v (cfr. Esercizio 3.1). Si ottiene x = w −v. Viceversa
si prova, per sostituzione, che il vettore trovato è effettivamente una soluzione.
Definiamo adesso la seconda operazione elementare sui vettori liberi. Sia v ∈
V e λ ∈ R. Il prodotto di v per lo scalare λ è un vettore libero, che indichiamo
con λv definito come segue:
(i) se v = 0 o λ = 0 si pone λv = 0;
(ii) altrimenti, λv è un vettore avente la stessa direzione di v, lo stesso verso
se λ > 0 (verso opposto se λ < 0) e modulo pari a |λ||v | (il simbolo | |
ha nel primo caso il significato di valore assoluto di un numero reale, nel
secondo quello di modulo di un vettore).
Operazioni elementari §3.2 45

Il prodotto di un vettore per uno scalare gode delle seguenti proprietà: se


v, w ∈ V , λ, µ ∈ R,

1 v = v; (3.5)
v
λ(µv) = (λµ)v; (3.6)
2v
(λ + µ)v = λv + µv; (3.7)
−v
λ(v + w) = λv + λw. (3.8)

In molti altri insiemi, oltre a quello dei vet-


Fig. 3.6 Prodotto per uno scalare
tori liberi, è possibile definire le operazioni
di somma e prodotto per uno scalare (che, in generale sarà un elemento di un
campo K) in modo che siano soddisfatte le proprietà 3.1-3.4 e 3.5-3.8. Gli insiemi
che godono di tali proprietà si chiamano spazi vettoriali (sul campo K) e costitui-
scono un argomento centrale nella geometria di base. Per analogia col caso dei
vettori liberi gli elementi di uno spazio vettoriale si chiamano ancora vettori .

Esempio 3.3 Sia K un campo. Indichiamo con Kn [x] l’insieme dei polinomi di
grado non superiore a n (a coefficienti nel campo K) nell’indeterminata x. Ogni
elemento p(x) ∈ K3 [x] si potrà scrivere nella forma

p(x) = a x 3 + b x 2 + c x + d.

La somma di due polinomi p(x) + q(x) e il prodotto di un polinomio per uno sca-
lare λ p(x) sono operazioni ben definite che soddisfano tutte le proprietà richieste
a uno spazio vettoriale. La dipendenza dal grado è del tutto ininfluente, in modo
del tutto analogo si può definire l’insieme K[x] dei polinomi nell’indeterminata
x (qualunque sia il loro grado). Proveremo che tutti questi insiemi sono spazi
vettoriali.

Esempio 3.4 Sia K un campo, si definisce Kn come l’insieme delle n-uple ordinate
di elementi di K. Un elemento di Kn sarà quindi della forma (x1 , . . . , xn ). Si
definiscono in Kn le operazioni di somma e prodotto per uno scalare nel modo più
naturale
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ),

λ (x1 , . . . , xn ) = (λ x1 , . . . , λ xn ).

Si verifica facilmente che, con queste definizioni, Kn è uno spazio vettoriale. Que-
sto esempio sarà fondamentale nel resto del corso ma ci limiteremo perlopiù al
caso K = R.
46 Capitolo 3 Calcolo Vettoriale

Le notazioni del calcolo sui vettori liberi si possono applicare alla soluzioni di
problemi nello spazio euclideo, considerando i vettori applicati.

Esercizio 3.1 Provare che se a, b, c sono tre vettori liberi che verificano a + b =
c + b allora a = c.

Esercizio 3.2 Dimostrare, usando la definizione di somma tra vettori, che tale
operazione gode della proprietà associativa (3.4).

Esercizio 3.3 Provare che 0 v = 0 e (−1) v = −v qualunque sia il vettore v.

Esercizio 3.4 Provare che se λ v = 0 si deve avere v = 0 o λ = 0.

Esercizio 3.5 L’insieme K03 [x] dei polinomi di grado non superiore a 3 e tali che
p(0) = 0 per ogni p(x) ∈ K03 [x] è uno spazio vettoriale?

Esercizio 3.6 Provare che l’insieme C 1 [0, 1] delle funzioni derivabili con derivata
continua nell’intervallo [0, 1] è uno spazio vettoriale. Il suo sottoinsieme costituito
dalle funzioni f (x) t.c. f (0) = 1 è ancora uno spazio vettoriale?

Esercizio 3.7 Provare che se x è il punto medio del segmento ab e o è un punto


qualsiasi, si ha
1 
v= v1 + v2 .
2
dove v = [(o, x)], v 1 = [(o, a)] e v 2 = [(o, b)].

Parallelismo e complanarità
Ad ogni vettore non nullo v possiamo associare un altro vettore, detto versore
di v, definito da

1
vers v = v.
|v|
Il versore di v è un vettore che ha la stessa direzione e lo stesso verso di v
(infatti si moltiplica v per un numero positivo) e modulo pari a 1.
Definiamo ora il parallelismo fra vettori liberi.

Definizione 3.5 Due vettori liberi non nulli v e w si dicono paralleli se hanno la
stessa direzione .
Parallelismo e complanarità §3.3 47

Il vettore nullo 0 è parallelo, per definizione, a qualsiasi altro vettore. Se v e w


sono non nulli possiamo considerare i corrispondenti versori, vers v e vers w,
segue immediatamente dalla definizione che vers v = vers w oppure vers v =
− vers w a seconda che i due vettori abbiano o meno lo stesso verso. Quindi

|w|
w = |w| vers w = ±|w| vers v = ± v.
|v|

Si può quindi dare una condizione necessaria e sufficiente affinché due vettori
siano paralleli, uno deve essere ’multiplo’ dell’altro:

Proposizione 3.6 Due vettori liberi v ≠ 0 e w sono paralleli se e solo se esiste


un numero reale λ tale che w = λ v .

Dim. Se i due vettori sono paralleli, da quanto osservato precedentemente,


|w|
segue che basta scegliere λ = ± |v| , dove la scelta del segno dipende dal fatto
che i vettori abbiano o meno lo stesso verso (cfr. Esercizio 3.3).
Se w = λ v si ha, dalla definizione, che λ v (quindi w) è un vettore parallelo a
v.

Definizione 3.7 Tre vettori liberi v, w, t si dicono complanari se, considerando


tre loro rappresentanti (o, p), (o, q), (o, r ), applicati in uno stesso punto o, i punti
o, p, q, r giacciono tutti su di uno stesso piano.

La definizione data di complanarità sfrutta la scelta arbitraria di un punto o. Si


verifica facilmente che la dipendenza dal punto o è in realta ininfluente.
Come nel caso del parallelismo è possibile dare una semplice condizione ne-
cessaria e sufficiente per la complanarità di tre vettori. E’ però conveniente
introdurre due nuove nozioni, più generali, che ne faciliteranno la definizione.

Definizione 3.8 Siano dati dei vettori liberi v 1 , . . . , v n e degli scalari λ1 , . . ., λn . Si


dice combinazione lineare di v 1 , . . . , v n con coefficienti λ1 , . . . , λn il vettore

v = λ1 v 1 + . . . + λn v n .

Esaminiamo più in dettaglio questa condizione.


Se n = 1 la combinazione lineare di v 1 con coefficiente λ1 è il vettore v =
λ1 v 1 che è, per la Proposizione 3.6, un vettore parallelo a v. Tale Proposizione
potrebbe quindi essere riformulata come segue
48 Capitolo 3 Calcolo Vettoriale

Proposizione 3.9 Se v è un vettore libero non nullo, i vettori paralleli a v


sono tutte e sole le combinazioni lineari di v .

Se n = 2 la combinazione lineare di v 1 e v 2 con coefficienti λ1 , λ2 è il vettore


v = λ1 v 1 + λ2 v 2 . Questa rappresenta la
somma, effettuata con la regola del paral-
lelogramma, dei due vettori λ1 v 1 e λ2 v 2 ,
che sono paralleli rispettivamente a v 1 e
v 2 . Essendo il parallelogramma una figu- 3v + 2w
ra piana si ha che ogni combinazione linea-
re di due vettori v 1 e v 2 è un vettore an- w
cora complanare a v 1 e v 2 . Questo sug- v
gerisce il seguente criterio per verificare la
complanarità Fig. 3.7 Combinazione lineare

Proposizione 3.10 Dati due vettori liberi v , w non paralleli. I vettori compla-
nari con v e w sono tutte e sole le combinazioni lineari di v e w .

Dim. Se v è combinazione lineare di v 1 e v 2 abbiamo già osservato che è com-


planare ai due vettori. Supponiamo adesso che v sia complanare a v 1 e v 2 e
proviamo che può essere scritto come combinazione lineare dei due vettori. Il
caso in cui v è parallelo a v 1 o v 2 è elementare ed è lasciato come esercizio (cfr.
Esercizio 3.8). Consideriamo tre rappresentanti (o, p), (o, q), (o, r ) dei vettori
v 1 , v 2 e v. La retta parallela alla direzione di v 1 e passante per r interseca la
retta passante per o e q in un punto q′ . Il vettore applicato (o, q′ ) è parallelo
ad (o, q) quindi rappresenta un vettore v ′2 = λ2 v 2 per un opportuno λ2 ∈ R.
Analogamente, la retta parallela alla direzione di v 2 e passante per r interseca la
retta passante per o e p in un punto p ′ . Il vettore applicato (o, p ′ ) rappresenta
quindi un vettore v ′1 = λ1 v 1 per un opportuno λ1 ∈ R. Essendo o, p ′ , r , q′ un
parallelogramma si ha v = v ′1 + v ′2 = λ1 v 1 + λ2 v 2 .

Insistiamo su altri modi di guardare alle condizioni di parallelismo e compla-


narità.
Abbiamo visto che, se v è non nullo e w è parallelo a v si ha w = λ v quindi

w − λ v = 0. (3.9)

Analogamente la condizione che t sia complanare a v e w può essere scritta


come
t − λ1 v − λ2 w = 0. (3.10)
Parallelismo e complanarità §3.3 49

Quindi esiste una combinazione lineare (i cui coefficienti sono non tutti nulli,
in quanto quello di v nella (3.9) e quello di t nella (3.10) sono uguali ad 1) dei
vettori in esame che ha come risultato il vettore nullo. Questo suggerisce la
seguenti definizioni

Definizione 3.11 Dei vettori liberi v 1 , . . . , v n si dicono linearmente dipendenti se


esiste una loro combinazione lineare, i cui coefficienti non siano tutti nulli, che ha
come risultato il vettore nullo. Se si ha invece che

λ1 v 1 + . . . + λn v n = 0
implica necessariamente λ1 = . . . = λn = 0 i vettori si dicono linearmente indipen-
denti .
Si osservi che se, nella precedente definizione, n = 1, il vettore v 1 è linearmen-
te dipendente se e solo se è il vettore nullo infatti si deve avere λ1 v 1 = 0 con
λ1 ≠ 0 (cfr. Esercizio 3.4). Se uno tra i vettori v 1 , . . . , v n , ad esempio v 1 , è nullo,
i vettori sono linearmente dipendenti infatti la loro combinazione lineare
v1 + 0 v2 + . . . + 0 vn
è nulla ma il coefficiente di v 1 è diverso da 0.

Esempio 3.12 I vettori v, w e 2 v − w sono linearmente dipendenti in quanto il


terzo è combinazione lineare dei primi due.

Esempio 3.13 Siano v e w due vettori linearmente indipendenti. Allora v e v + w


sono linearmente indipendenti. Dal punto di vista geometrico questo è ovvio, se
fossero linearmente dipendenti dovrebbero essere paralleli, mentre, fissando dei
rappresentanti, v +w è la diagonale di un parallelogramma di cui v è lato, quindi
il parallelismo è impossibile.
Verifichiamo il risultato anche per via algebrica. Se, per assurdo, fossero linear-
mente dipendenti, esisterebbe una loro combinazione lineare nulla

λ1 v + λ2 (v + w) = 0
dove almeno uno tra λ1 e λ2 è non nullo. Applicando le proprietà della somma
e del prodotto per scalari si ricava immediatamente

(λ1 + λ2 ) v + λ2 w = 0.
Poiché i vettori v e w sono supposti linearmente indipendenti, i coefficienti della
combinazione lineare scritta sopra devono essere nulli. Cioè λ1 + λ2 = 0 e λ2 = 0.
50 Capitolo 3 Calcolo Vettoriale

Questo implica λ1 = λ2 = 0 contro l’ipotesi che almeno uno dei coefficienti non
fosse nullo.

Esempio 3.14 Siano v 1 , . . . , v n dei vettori linearmente indipendenti. Ogni sottoin-


sieme di {v 1 , . . . , v n ) è composto da vettori linearmente indipendenti. E’ possibile
verificarlo ragionando per assurdo. Supponiamo che vi sia un sottoinsieme com-
posto da vettori linearmente dipendenti, ad esempio v 1 , . . . , v r . Esiste allora una
loro combinazione lineare nulla

µ1 v 1 + . . . + µn v n = 0.

A partire da questa è possibile costruire una combinazione lineare nulla, ma con


coefficienti non tutti nulli, di v 1 , . . . , v n , il che è assurdo. Indicato infatti con λi il
coefficiente di v i , si pone λi = µi se i ≤ r e λi = 0 se i > r .

Esempio 3.15 Siano a, b, c tre punti distinti e allineati dello spazio euclideo ed o
un punto qualsiasi. Si può provare che esistono tre scalari non tutti nulli λ1 , λ2 , λ3
tali che λ1 + λ2 + λ3 = 0 e, indicati con v 1 , v 2 , v 3 i vettori liberi rappresentati,
rispettivamente, da (o, a), (o, b), (o, c), si abbia

λ1 v 1 + λ2 v 2 + λ3 v 3 = 0.

Infatti, i vettori liberi v e w rappresentati da (a, b) e (a, c) sono non nulli e


paralleli, quindi linearmente dipendenti. Esistono allora due numeri, λ, µ, non
nulli, tali che

λ v + µ w = 0.

Dalla regola del parallelogrammo si ha che v = v 2 −v 1 e w = v 3 −v 1 . Sostituendo


si ottiene

0 = λ (v 2 − v 1 ) + µ (v 3 − v 1 ) = −(λ + µ) v 1 + λ v 2 + µ v 3

da cui si ricava λ1 = −(λ + µ),λ2 = λ,λ3 = µ.

La definizione di lineare dipendenza e lineare indipendenza è identica quando


si consideri, invece dello spazio dei vettori liberi, un qualsiasi spazio vettoriale.

Esempio 3.16 Si consideri l’insieme R3 [x] dei polinomi di grado non superiore
a 3 (cfr. Esempio 3.3). I vettori (cioè i polinomi) 1 + x, 2x − 1 sono linearmente
indipendenti. Se una loro combinazione lineare

λ1 (1 + x) + λ2 (2x − 1)
Parallelismo e complanarità §3.3 51

fosse nulla (il vettore nullo è in questo caso il polinomio che assume il valore
costante 0), si dovrebbe avere

(λ1 + 2λ2 )x + λ1 − λ2 = 0

per ogni x ∈ R. Poiché un polinomio è identicamente nullo se e solo se tutti i suoi


coefficienti sono nulli si deve avere λ1 + 2λ2 = λ1 − λ2 = 0. Questo è possibile solo
se λ1 = λ2 = 0.

Esempio 3.17 Si consideri lo spazio vettoriale R3 (cfr. Esempio 3.4) e i seguenti


vettori v1 = (1, 0, 0) , v2 = (1, 0, 1) , v3 = (−1, 0, 1). Questi sono linearmente
dipendenti infatti, supponendo nulla una loro combinazione lineare

λ1 (1, 0, 0) + λ2 (1, 0, 1) + λ3 (−1, 0, 1) = (0, 0, 0),

cioè
(λ1 + λ2 − λ3 , 0, λ2 + λ3 ) = (0, 0, 0),

si ricava il sistema λ1 +λ2 −λ3 = 0 e λ2 +λ3 = 0. Dalla seconda equazione si ricava


λ2 = −λ3 , sostituendo nella prima si ricava λ1 = 2λ3 . Questo sistema ammette
quindi infinite soluzioni (per ogni valore del parametro λ3 si possono ricavare λ1
e λ2 in modo che tutte le equazioni siano verificate). In particolare la soluzione
λ1 = −2, λ2 = 1, λ3 = −1 è una soluzione non nulla.

Esercizio 3.8 Completare la dimostrazione della Proposizione 3.10 nel caso in cui
il vettore v è parallelo a v 1 .

Esercizio 3.9 Siano v, w e t tre vettori non complanari. Provare che i vettori v +t,
v + 2w, w + t sono linearmente indipendenti.

Esercizio 3.10 Siano u e v due vettori linearmente indipendenti. Si determinino


tutti i sottoinsiemi composti da vettori linearmente indipendenti in

(i) u, −u, 0, v ;

(ii) u, 2 u, 0, v, 2 v ;

(iii) u, u + v, u + 2 v, u + 3 v .

Esercizio 3.11 Siano a1 , a2 , a3 , a4 dei punti complanari dello spazio euclideo ed o


un punto qualsiasi. Si provi che esistono degli scalari λi , la cui somma sia nulla e
sia verificata
λ1 v 1 + λ2 v 2 + λ3 v 3 + λ4 v 4 = 0.

Dove v i è il vettore libero rappresentato da (0, ai ) per i = 1, . . . , 4.


52 Capitolo 3 Calcolo Vettoriale

Esercizio 3.12 Siano u, v, t tre vettori linearmente indipendenti. Provare che i


vettori

u + t, v + t, 2 v − t, 3 u

sono linearmente dipendenti.

Esercizio 3.13 Siano u e v due vettori linearmente indipendenti. Verificare che i


vettori t 1 = v − 2 u e t 2 = 3 u − v sono linearmente indipendenti. Scrivere u e −v
come combinazione lineare di t 1 e t 2 .

Esercizio 3.14 Siano v 1 , . . . , v n dei vettori complanari (n ≥ 3). Da quanti elementi


è composto, al più, un loro sottoinsieme di vettori linearmente indipendenti?

Esercizio 3.15 Si provi che i polinomi 1, x, x 2 , x 3 di R3 [x] sono linearmente


indipendenti.

Esercizio 3.16 Si consideri lo spazio vettoriale R3 [x] (cfr. Esempio 3.3) e i seguenti
polinomi: p(x) = x 2 − x + 1, q(x) = 2x + 1, r (x) = x 2 + x + 2, s(x) = x 2 + x + 1.
Provare che
(i) p(x) e q(x) sono linearmente indipendenti;
(ii) p(x), q(x) e r (x) sono linearmente dipendenti;
(iii) p(x), q(x) e s(x) sono linearmente indipendenti.
Si esprima quindi q(x) come combinazione lineare di p(x) e r (x).

Esercizio 3.17 Si consideri lo spazio vettoriale R4 (cfr. Esempio 3.4) e i seguenti


vettori v1 = (1, 1, 0, 0) , v2 = (1, 0, 1, 0) , v3 = (0, 1, 1, 0) , v4 = (1, 0, 0, 1). Dire se
sono linearmente indipendenti e, se è possibile, esprimere v = (1, 0, 0, −1) come
combinazione lineare di v1 , . . . , v4 .

Basi dello spazio dei vettori liberi


Introduciamo ora il concetto di base. Questo sarà lo strumento che ci permet-
terà di studiare problemi di natura geometrica utilizzando strumenti algebrici.
Nel caso dei vettori liberi dimostriamo il seguente Teorema, noto come Teo-
rema della Base , ma vedremo in seguito come questo sia un caso particolare
dell’esistenza di una base per uno spazio vettoriale.

Teorema 3.18 Siano v 1 , v 2 , v 3 tre vettori liberi linearmente indipendenti.


Ogni vettore libero si esprime in modo unico come combinazione lineare di
v 1, v 2, v 3.
Basi dello spazio dei vettori liberi §3.4 53

Dim.
I tre vettori v 1 , v 2 , v 3 non sono complanari (si veda l’equazione (3.10)). Consi-
deriamo quindi tre loro rappresentanti (o, p), (o, q), (o, r ) applicati in uno stesso
punto o. I punti o, p, q, r non sono quindi complanari. Indichiamo invece con π
il piano individuato dai punti o, p, q.
Sia ora v un qualsiasi vettore libero e (o, s) il suo rappresentante applicato nel
punto o. La retta passante per s e parallela alla
direzione di (o, r ) interseca π in un punto s ′ , il
vettore applicato (s ′ , s) è, per costruzione, pa- r
v3
rallelo a (o, r ), quindi rappresenta un vettore s
w 3 parallelo a v 3 . Esiste allora uno scalare λ3 q
tale che w 3 = λ3 v 3 . Il vettore applicato (o, s ′ ) w3
v2

rappresenta un vettore w complanare con v 1 v


w2
e v 2 . Poiché v 1 e v 2 sono non paralleli (cfr. s′
Esempio 3.14), dalla Proposizione 3.10 segue
w1 v1 p
allora che w = λ1 v 1 + λ2 v 2 . I vettori v, w o
e w 3 sono complanari e, dalla costruzione, ri-
Fig. 3.8 Il Teorema della base
sulta chiaro che v = w + w 3 . Sostituendo le
espressioni trovate si ha la prima parte della tesi. Proviamo che l’espressione
trovata è unica. Se si avesse anche

v = µ1 v 1 + µ2 v 2 + µ3 v 3

uguagliando le due espressioni trovate si avrebbe

λ1 v 1 + λ2 v 2 + λ3 v 3 = µ1 v 1 + µ2 v 2 + µ3 v 3

portando i termini del secondo membro al primo membro

(λ1 − µ1 ) v 1 + (λ2 − µ2 ) v 2 + (λ3 − µ3 ) v 3 = 0.

Essendo i tre vettori v 1 , v 2 e v 3 linearmente indipendenti i coefficienti della


combinazione lineare devono essere tutti nulli, cioè l’espressione di v come
combinazione lineare di v 1 , v 2 e v 3 è unica.

Diamo quindi la definizione di base

Definizione 3.19 Si definisce base dello spazio dei vettori liberi una terna di
vettori liberi linearmente indipendenti.

In particolare ogni base dello spazio dei vettori liberi è composta da 3 elementi.
Dal Teorema della base segue che, data una base, qualsiasi altro vettore può
essere scritto come combinazione lineare degli elementi della base. Sia v 1 , v 2 ,
v 3 una base, se le si aggiunge un quarto vettore v 4 questa proprietà continua ad
54 Capitolo 3 Calcolo Vettoriale

essere valida, cioè ogni vettore v può essere scritto come combinazione lineare
di v 1 , v 2 , v 3 e v 4 , solo che questa scrittura non è più univoca. Infatti essendo
v 1 , v 2 , v 3 una base i vettore v e v 4 si potranno esprimere come combinazione
lineare
v = λ1 v 1 + λ2 v 2 + λ3 v 3

v 4 = µ1 v 1 + µ2 v 2 + µ3 v 3 .

Si hanno quindi le seguenti due possibili espressioni di v come combinazione


lineare di v 1 , v 2 , v 3 e v 4

v = λ1 v 1 + λ2 v 2 + λ3 v 3 + 0 v 4

e
v = (λ1 − µ1 ) v 1 + (λ2 − µ2 ) v 2 + (λ3 − µ3 ) v 3 + v 4 .

Le due espressioni sono distinte in quanto i coefficienti di v 4 sono rispettiva-


mente uguali a 0 e 1.
Alla luce di quanto visto è possibile dare una definizione equivalente di base

Definizione 3.20 Una base di V è un insieme B di vettori liberi linearmente in-


dipendenti tali che ogni vettore di V possa essere espresso come combinazione
lineare di elementi di B.

Questa definizione è apparentemente ridondante ma ha il pregio di essere la


giusta generalizzazione della definizione di base per gli spazi vettoriali.

Esempio 3.21 Si consideri lo spazio vettoriale R3 [x]. Dall’Esercizio 3.15 si ricava


che i polinomi 1, x, x 2 , x 3 sono linearmente indipendenti. D’altro canto ogni po-
linomio di R3 [x] si può scrivere come p(x) = ax 3 + bx 2 + cx + d ed è quindi
combinazione lineare, con coefficienti d, c, b, a dei polinomi considerati. Ne segue
che B = {1, x, x 2 , x 3 } è una base di R3 [x]. In particolare per uno spazio vettoriale
generico non è detto che una base sia composta da 3 elementi.

Esercizio 3.18 Sia B = {v 1 , v 2 , v 3 } una base di V . Provare che B′ = {v 1 +


v 2 , −v 3 , v 1 + v 3 } è ancora una base di V . Si esprima v 1 come combinazione
lineare degli elementi della nuova base.

Esercizio 3.19 Sia B = {v 1 , v 2 , v 3 } una base di V . Per quali valori del parametro
h, i seguenti insiemi

B′ = {v 1 + v 2 , h v 1 + v 2 − v 3 , v 1 − v 2 + 3 v 3 }
Prodotto scalare e ortogonalità §3.5 55

B′′ = {(h − 2) v 1 + v 2 + v 3 , h v 1 + v 2 + 2v 3 , h v 1 + (h − 1) v 3 }

costituiscono ancora basi di V .

Esercizio 3.20 Si provi che B = {1 + x, 1 − x, 1 − x 2 , 1 − x 3 } è una base dello


spazio vettoriale R3 [x].

Prodotto scalare e ortogonalità


Si definiscono ora delle operazioni più complesse sui vettori, che risultano
utili quando si utilizzano i vettori come modello per una situazione geometrica
o fisica. Preliminarmente occorre definire l’angolo tra due vettori liberi. Dati
due vettori liberi non nulli consideriamo due loro rappresentanti applicati in
uno stesso punto o. Questi individuano un piano e, su tale piano, le semirette
contenenti i vettori, individuano due angoli. Dobbiamo effettuare una scelta fra
i due angoli. Diciamo che un sottoinsieme dello spazio Euclideo è convesso se,
comunque si scelgano due suoi punti, il segmento che li congiunge è interamente
contenuto nell’insieme. Definiamo allora:

Definizione 3.22 L’angolo fra due vettori liberi non nulli u e v è l’angolo convesso,
indicato con udv, formato da due semirette contenenti due loro rappresentanti
applicati in uno stesso punto.

E’ evidente che la definizione di angolo è ben


posta, ovvero non dipende dalla scelta del pun- q
to o. Volendo assegnare un segno all’angolo ab-
biamo che la definizione necessita della scelta d
u v
di un verso di rotazione positivo sul piano con-
tenente i due rappresentanti dei vettori (si defi-
o p
d
nisce quindi positivo l’ angolo u v se la rotazio-
ne che porta la semiretta contenente il rappre- Fig. 3.9 Angolo tra vettori
sentante di u sulla seconda semiretta avviene
nel verso positivo). Avremo allora v d u = −d uv. Ma, per quanto riguarda la no-
stra trattazione, tutte le volte che utilizzeremo gli angoli, l’eventuale scelta di
un segno non avrà nessuna influenza. La condizione di convessità implica che
−π ≤ u dv ≤ π.

Esempio 3.23 Siano u e v due vettori paralleli non nulli. L’angolo da essi formato
è 0 se i vettori hanno lo stesso verso, π se hanno verso opposto.

uv) =
Definizione 3.24 Due vettori liberi non nulli u e v si dicono ortogonali se cos(d
0. Il vettore nullo è, per definizione, ortogonale a qualsiasi altro vettore.
56 Capitolo 3 Calcolo Vettoriale

Nella pratica non utilizzeremo il calcolo di un coseno per verificare l’ortogonali-


tà tra due vettori. La seguente definizione, apparentemente più complessa,
fornisce un semplice modo di verificare se due vettori sono ortogonali.

Definizione 3.25 Dati due vettori liberi u e v, si definisce il loro prodotto scalare
come
u · v = |u| |v| cos(d
uv).

E’ quindi immediato il seguente criterio di ortogonalità

Proposizione 3.26 Due vettori liberi sono ortogonali se e solo se il loro pro-
dotto scalare è nullo.

Siano u e v due vettori liberi non paralleli. Consideriamo due loro rappresen-
tanti (o, p) e (o, q) applicati in uno stesso punto o. I punti o, p, q individuano un
piano. Possiamo considerare la retta passante per q e ortogonale alla direzione
di u. Questa intersecherà la retta passante per o e p in un punto q′ . Conside-
riamo il vettore v 1 rappresentato da (o, q′ ). Questo è parallelo al vettore u (ma
potrebbe essere nullo, nel caso il vettore v fosse ortogonale a u).
Applicando elementari teoremi di trigonometria al triangolo rettangolo di ver-
tici o, q, q′ si ha che |v 1 | = | cos(d
uv)| |v | de-
scrive la lunghezza della proiezione ortogonale q
di v nella direzione del vettore u. Osservando
che v 1 ha lo stesso verso di u se e solo se il co- v
seno dell’angolo da essi formato è positivo, si
prova facilmente (mostrando che i due vettori
hanno stessa direzione, modulo e verso) che si o v1 q′ u p
ha
Fig. 3.10 Proiezione ortogonale
u·v
v 1 = cos(d
uv)|v| vers u = u. (3.11)
|u|2
Il vettore v 1 così definito è detto proiezione ortogonale di v nella direzione di u.
Lo scalare cos(d uv) |v| è invece detto componente orientata di v nella direzione
di u. In particolare il prodotto scalare di u e v è il prodotto del modulo di u per
la componente di v nella direzione di u.
Il seguente Lemma sarà utile nella dimostrazione di alcune proprietà del pro-
dotto scalare.

Lemma 3.27 Siano dati dei vettori liberi v e v 1 , . . . , v n . La proiezione ortogo-


nale di v 1 + . . . + v n su v coincide con la somma delle proiezioni ortogonali
di v 1 , . . . , v n .
Prodotto scalare e ortogonalità §3.5 57

Dim. Si consideri un punto a0 e siano (a0 , a) e (a0 , a1 ) i rappresentanti di v e v 1


applicati in a0 . Per 1 < i ≤ n si consideri quindi il rappresentante (ai−1 , ai ) di v i .
Dalla definizione di somma segue che (a0 , an ) è il rappresentante di v 1 + . . .+ v n
applicato in a0 . Si indichi, per 1 ≤ i ≤ n, con a′i la proiezione ortogonale di ai
sulla retta per (a0 , a). Si ha allora che la proiezione di v i è rappresentata da
(a0 , a′i ) e la proiezione di v 1 +. . .+v n è rappresentata da (a0 , a′n ). Considerando
la somma delle proiezioni si ha la tesi.

Soffermiamoci su alcune proprietà del prodotto scalare.

(i) Dalla definizione segue immediatamente che il prodotto scalare è commu-


tativo
u · v = v · u;

(ii) Il prodotto u · u è dato da |u|2 quindi

u·u≥0 e u·u=0 se e solo se u = 0;

(iii) Vale la seguente proprietà distributiva

u · (v + w) = u · v + u · w.

Questa è una conseguenza immediata della interpretazione in termini di


proiezione del prodotto scalare e del Lemma 3.27.
(iv) Si verifica facilmente (cfr. Esercizio 3.21) che vale

(λ u) · v = λ u · v.

Esempio 3.28 Siano u e v due vettori di modulo 1 e 2 rispettivamente. Sapendo


che u + v è ortogonale a 2 u − v, si può determinare l’ angolo tra u e v.
La condizione di ortogonalità fra i due vettori può essere scritta come

0 =(u + v) · (2 u − v) =
=2u · u − u · v + 2v · u − v · v =
=2 + u · v − 4.

Da questa relazione si ricava u · v = 2 e dalla definizione di prodotto scalare


uv) = 1. Quindi l’angolo tra i due vettori è nullo.
cos(d

π
d
Esempio 3.29 Dati due versori noti u e v, tali che u v = 2 . determiniamo un
π
terzo versore, complanare con u e v che formi un angolo di 3 con u.
58 Capitolo 3 Calcolo Vettoriale

Tale versore, che indichiamo con t, dovendo essere complanare con u e v, deve
essere una loro combinazione lineare, sarà cioè della forma
t = x u + y v.
Dovendo avere modulo uguale ad 1 deve verificare
t · t = 1,
π
la condizione che formi un angolo di 3 con u equivale a
π
t · u = |u| |t| cos( ).
3
Queste due equazioni devono permettere di determinare le incognite x e y quindi
il vettore t. Si ottiene il sistema
 2 2

x + y = 1
 1
x =
2

3
La sola soluzione accettabile per la y è 2
(Cfr. Esercizio 3.22). Quindi

1 3
t = u+ v.
2 2
Questo esercizio poteva essere risolto in più modi, sfruttando ad esempio rela-
zioni note sui triangoli rettangoli. In generale questa classe di problemi si presta
a molte soluzioni alternative.
Due vettori ortogonali e non nulli sono linearmente indipendenti (altrimenti
dovrebbero essere paralleli). Analogamente presi tre vettori non nulli, a due a
due ortogonali, questi sono non complanari, sono quindi linearmente indipen-
denti (e costituiscono una base). La scelta di vettori ortogonali può quindi co-
stituire un buon modo di costruire basi. Questo ha il vantaggio di poter essere
facilmente descritto algoritmicamente e implementato su computer. Vediamo in
dettaglio come è possibile, a partire da due vettori liberi non paralleli, costruire
due vettori ortogonali.
Consideriamo due vettori linearmente indipendenti u e v e ripetiamo la costru-
zione che ha condotto alla formula (3.11). Il vettore v 2 rappresentato da (q′ , q)
è ortogonale a u. D’altro canto si ha, per costruzione v = v 1 + v 2 , quindi

v 2 = v − cos(d
uv)|v| vers u.
Ne segue che, partendo da due qualsiasi vettori non paralleli u e v, abbiamo
potuto costruire i due vettori ortogonali
u, v 2 = v − cos(d
uv)|v| vers u.
Prodotto scalare e ortogonalità §3.5 59

Tale costruzione si effettua semplicemente sottraendo a v la sua proiezione or-


togonale lungo u. E’ possibile ripetere questa costruzione nel caso di 3 vettori
linearmente indipendenti. Si considerano dei loro rappresentanti applicati in uno
stesso punto o. Due qualsiasi di loro individuano un piano. Se si ’sottrae’ al terzo
vettore la sua proiezione ortogonale su tale piano (non abbiamo definito rigoro-
samente la proiezione di un vettore su un piano, lasciamo questo all’intuizione
del lettore) otteniamo un vettore ortogonale al piano. Per i due vettori sul piano
possiamo procedere come nel paragrafo precedente. Questo procedimento è so-
lo accennato in quanto per ottenere una terna di vettori ortogonali, procederemo
in modo differente, utilizzando un’altra operazione sui vettori liberi.
La definizione di prodotto scalare ammette una estensione anche al caso ge-
nerale degli spazi vettoriali, utilizzandone le proprietà 1), .., 4) . Di conseguenza
risulta anche esteso il concetto di ortogonalità.

Esempio 3.30 Nello spazio vettoriale R3 [x] definiamo


Z1
p(x) · q(x) = p(x) q(x) dx. (3.12)
−1

Con questa definizione le proprietà 1), .., 4) sono di facile verifica. Determiniamo
i polinomi ortogonali a p(x) = x. Questi sono esprimibili nella forma q(x) =
a x 3 + b x 2 + c x + d. Deve quindi essere
Z1
2 2
0= (a x 4 + b x 3 + c x 2 + d x) dx = a + c.
−1 5 3
Si tratta quindi dei polinomi della forma
3
q(x) = a x 3 + b x 2 − a x + d.
5

Esempio 3.31 Si consideri lo spazio vettoriale Kn . E’ possibile definire un prodotto


scalare mediante
n
X
(x1 , . . . , xn ) · (y1 , . . . , yn ) = xi yi . (3.13)
i=1

Anche in questo caso valgono le proprietà i), .., iv) viste nel caso dei vettori liberi
(omettiamo la facile verifica). Si può interpretare la definizione di prodotto scalare
in termini di prodotti fra matrici, si ha infatti
 
y
   T    1
.
x1 . . . xn · y1 . . . yn = 
x1 . . . xn ·  ..  =
yn
= (x1 , . . . , xn ) · (y1 , . . . , yn ).
60 Capitolo 3 Calcolo Vettoriale

Questa definizione, utilizzando l’analogia col caso dei vettori liberi, definisce la
norma di un vettore:
v
q uX
un 2
||(x1 , . . . , xn )|| = (x1 , . . . , xn ) · (x1 , . . . , xn ) = t xi
i=1

e, di conseguenza l’angolo tra due vettori. Determiniamo, ad esempio, l’angolo α


tra (0, 1, −1) e (2, 1, 2) in R3 . Il prodotto scalare tra questi due vettori è −1. Il
modulo del primo vettore (cioè la radice quadrata del prodotto scalare del vettore
√ √
con se stesso) è 2, quello del secondo è 3 ne segue 3 2 cos(α) = −1 da cui
1
α = arccos(− 3 √ 2
).

Esercizio 3.21 Si provi la seguente proprietà del prodotto scalare

(λ u) · v = λ u · v.

Esercizio 3.22 Giustificare, nell’esempio 3.29, la scelta del valore dell’incognita y.



Esercizio 3.23 Siano u, v, t tre vettori ortogonali di modulo 1, 2, 1 rispettiva-
mente. Determinare i moduli dei seguenti vettori.

1) u − v, 2) u + v − t,
3) − u + 2 t, 4) 2 u − 2v + t.

π
d
Esercizio 3.24 Siano u e v due vettori di modulo 1 e 2 tali che u v= 4. Calcolare

1) u · v, 2) (u − v) · v,
3) (2 u − v) · (u + v), 4) (v − 2u) · (2 u + v).

Esercizio 3.25 Siano u, v due versori ortogonali. Determinare tutti i vettori


complanari con u e v che siano ortogonali a

1) u, 2) u + v,
3) − u + 2 v, 4) u−v e u + 2 v.

Esercizio 3.26 Dati due versori ortogonali u e v, determinare un vettore t, com-


planare a u e v, che formi con u un angolo rispettivamente di
π π π 2
1) , 2) , 3) , 4) π,
6 4 3 3
e tale che l’area di un parallelogramma che abbia per lati due rappresentanti di
u e t sia 2.
Prodotto vettoriale e prodotto misto §3.6 61

Esercizio 3.27 Siano u, v, t tre versori ortogonali. Determinare i valori del


parametro h per il quale le seguenti coppie sono formate da vettori ortogonali

1) u + 2 v + 3 t, u + h v + t 2) − u + 2 v − t, h u + v + (h − 1) t
3) u + t, 2h u + h v + h t 4) h u + (1 − h) v + t, h u + 2 v − t.

Esercizio 3.28 Siano u e v due versori. Determinare l’angolo tra u e v sapendo



che |2u − v| = 3.

Esercizio 3.29 Sia B = {u, v, t} una base costituita da vettori ortogonali di modulo

2.

(i) Determinare i vettori ortogonali a u − v + t;


(ii) Determinare i vettori ortogonali a u − v + t e u + v + t;
(iii) Determinare i vettori ortogonali a u − v + t, u + v + t e 2 v;
(iv) Determinare i vettori ortogonali a u − v + t, u + v + t e u − 2 v;
(v) Interpretare geometricamente i risultati ottenuti;
(vi) Provare che se un vettore è ortogonale agli elementi di una base è ortogo-
nale a qualsiasi vettore. Dedurne che l’unico vettore con questa proprietà è
il vettore nullo;
(vii) Provare che se si ha u · v = t · v qualunque sia il vettore v, allora u = t.

Esercizio 3.30 Determinare, nello spazio vettoriale R3 [x] munito del prodotto √
scalare definito nell’Esempio 3.30, i vettori ortogonali a p(x) = √12 e q(x) = √32 x.
Si verifichi inoltre che p(x) e q(x) sono versori ortogonali.

Esercizio 3.31 Si consideri lo spazio R3 munito del prodotto scalare definito nel-
2 1 2 1 2 2
l’Esempio 3.31. Dati i vettori ( 3 , 3 , 3 ) e ( 3 , 3 , − 3 ), determinare un terzo versore
in modo da ottenere una base ortogonale.

Esercizio 3.32 Si consideri lo spazio R3 munito del consueto prodotto scalare. De-
terminare, nel piano contenente i vettori (1, 1, 0) e (1, 0, 1), un vettore ortogonale
a (1, 1, 0).

Prodotto vettoriale e prodotto misto


Abbiamo visto che l’ortogonalità tra vettori può essere valutata utilizzando il
prodotto scalare. Introduciamo due nuove operazioni tra vettori che permettono
di stabilire rispettivamente relazioni di parallelismo e di complanarità tra coppie
e terne di vettori.
62 Capitolo 3 Calcolo Vettoriale

Prima di dare le definizioni occorre precisare un criterio di scelta nell’orienta-


zione dello spazio. Problema al quale già abbiamo accennato al momento di
definire l’angolo tra due vettori.
Siano dati, nell’ordine, tre vettori linearmente indipendenti (cioè una base) v 1 ,
v 2 , v 3 . Si considerino tre loro rappresentanti (o, p), (o, q), (o, r ), applicati in
uno stesso punto o. I vettori applicati (o, p) e (o, q) individuano un piano, il
punto r starà in uno dei due semispazi definiti da tale piano. Un osservatore
che si trovi nel semispazio contenente r , per sovrapporre la semiretta di origine
o contenente p a quella contenente q, secondo un angolo convesso, deve farle
effettuare una rotazione in senso orario oppure antiorario.
Si noti che la scelta di r nel semispazio opposto ha l’effetto di invertire tale
verso, analogamente accade se si scambia il ruolo di v 1 con quello di v 2 .

Definizione 3.32 Una terna ordinata di vettori liberi linearmente indipendenti


si dice positivamente orientata se, applicati i tre vettori in uno stesso punto, un
osservatore posto nel semispazio individuato dal rappresentante del terzo vettore
può sovrapporre la direzione del rappresentante del primo vettore su quella del
secondo con una rotazione di un angolo convesso in senso antiorario. In caso
contrario si dice Negativamente orientata

Come nei casi precedenti la definizione non dipende dalla scelta del punto di
applicazione o. Invece, da quanto osservato sopra, segue che la definizione di
terna positivamente orientata dipende sostanzialmente dall’ordine dei vettori in
gioco. In particolare

(i) Se si scambia un vettore col suo opposto la terna, se positivamente orien-


tata, diviene negativamente orientata (e viceversa). Più in generale questo
avviene se si moltiplica uno dei vettori per uno scalare negativo, se lo
scalare è positivo tutto resta invariato.
(ii) Scambiando l’ordine di due dei vettori componenti la terna questa, se
positivamente orientata, diviene negativamente orientata (e viceversa).
(iii) Effettuando un numero pari di operazioni di cui ai punti precedenti la
positività o negatività della terna resta invariata.

Un modo per verificare la positività di una terna di vettori non complanari


è considerare dei loro rappresentanti e utilizzare la "regola della mano destra"
nota dalla fisica.

Esempio 3.33 Sia u, v, t una base positivamente orientata (per brevità useremo
anche la terminologia "base positiva"). La terna u, v, 2 u−v +2t è ancora positiva.
L’aver sostituito t con 2 u−v +2t non cambia il segno della terna in quanto questo
Prodotto vettoriale e prodotto misto §3.6 63

dipende solo dal semispazio in cui si trova il secondo estremo di un rappresentante


del terzo vettore. Questo è lo stesso per entrambe le terne in quanto è determinato
dal segno del coefficiente di t, che è positivo in entrambi i casi.

Possiamo ora definire una nuova operazione tra vettori, che ha come risultato
un terzo vettore.

Definizione 3.34 Siano u e v due vettori liberi non paralleli. Si definisce prodotto
vettoriale di u e v il vettore t = u ∧ v così definito
(i) La direzione di t è ortogonale a quella di u e v;
(ii) Il verso di t è scelto in modo che la terna ordinata u, v, t sia positivamente
orientata;
(iii) Il modulo di t è dato da |u| |v| | sin(d
uv)|.
Se i due vettori sono paralleli (in particolare se uno dei due è nullo) si definisce
u ∧ v = 0.

Nella definizione di prodotto vettoriale è, in principio, poco chiaro il signi-


ficato della definizione data per il modulo. In
realtà questa ha un significato geometrico. Se
u∧v
si considerano i vettori u, v e u + v, rappresen-
tati da (o, p), (o, q) e (o, r ), il modulo di u ∧ v
rappresenta l’area del parallelogramma di verti- v
ci o, p, r , q. Se, in particolare, u è parallelo a v,
il parallelogramma degenera in un segmento e u
l’area è ovviamente nulla. Il prodotto vettoriale
Fig. 3.11 Prodotto vettoriale
è lo strumento che utilizzeremo per verificare il
parallelismo tra vettori

Teorema 3.35 Due vettori liberi u e v sono paralleli se e solo se u ∧ v = 0.

Dim. Se u e v sono paralleli il risultato segue dalla definizione. Se invece


u ∧ v = 0, il suo modulo deve essere nullo. Se uno tra u e v è nullo il risultato
è ovvio in quanto il vettore nullo è parallelo a qualsiasi altro vettore. In caso
uv) = 0, quindi u
contrario deve essere sin(d dv=0ou d v = π . In entrambi i casi i
vettori sono paralleli.

Analizziamo alcune proprietà del prodotto vettoriale

(i) Il prodotto vettoriale è anticommutativo

u ∧ v = −v ∧ u.
64 Capitolo 3 Calcolo Vettoriale

Infatti scambiando il ruolo di u e v e applicando i vettori in un punto o,


si ha che cambia il semispazio nel quale si deve trovare il rappresentante
di v ∧ u affinché la terna u, v, v ∧ u risulti positiva. Modulo e direzione
risultano invece invariati (segue dalle proprietà della funzione seno).
(ii) Qualunque sia lo scalare λ si ha

λ (u ∧ v) = (λ u) ∧ v = u ∧ (λ v).

Proviamo la prima delle due uguaglianze. Se λ = 0 entrambi i membri


sono nulli e l’uguaglianza è ovvia. Supponiamo ora λ > 0. In tal caso la
direzione e il verso sono gli stessi per i due vettori. Per quanto riguarda il
modulo, nel caso del primo membro questo è dato da λ |u| |v| | sin(d uv)|,
per il secondo membro, essendo l’angolo tra λ u e v ancora uguale a u d v
(segue dal fatto che λ > 0), si ha |λ u| |v| | sin(d
uv)|. Essendo λ > 0 si ha
|λ u| = λ |u| (dalla definizione di prodotto per uno scalare) e quindi la tesi.
Il caso λ < 0 si tratta in modo analogo.
(iii) Valgono le proprietà distributive (destra e sinistra) rispetto alla somma

u ∧ (v + t) = u ∧ v + u ∧ t;

(u + v) ∧ t = u ∧ t + v ∧ t.

Non dimostriamo quest’ultima proprietà. Una possibile strategia di dimo-


strazione sfrutta la proprietà al punto 7) dell’esercizio 3.29.
(iv) Il prodotto vettoriale non gode, in generale, della proprietà associativa. E’
infatti possibile determinare dei vettori u, v e t tali che

(u ∧ v) ∧ t ≠ u ∧ (v ∧ t).

Si cosiderino ad esempio due vettori non paralleli u, v. Si scelga quindi


t = v. Il secondo membro dell’uguaglianza è nullo, infatti v e t sono
paralleli. Il primo membro non è invece nullo. Potrebbe esserlo solo se
u ∧ v fosse parallelo a v (Cfr. Teorema 3.35), ma essendo u e v non
paralleli, u ∧ v è ortogonale a v.

Esempio 3.36 Oltre a stabilire un criterio per il parallelismo tra vettori, il prodotto
vettoriale può essere utilizzato per costruire terne ortogonali. Dati due vettori non
paralleli abbiamo visto, nel paragrafo precedente, come sostituirli con una coppia
di vettori ortogonali u e v. Per ottenere una base ortogonale dello spazio dei
vettori liberi è allora sufficiente aggiungere il vettore u ∧ v. In generale, dati due
vettori linearmente indipendenti u e v, la terna u, v e u ∧ v costituisce una base.
Prodotto vettoriale e prodotto misto §3.6 65

Esempio 3.37 Siano u e v due vettori tali che (u∧v)∧u = 3 (v ∧u)∧u. Portando
tutto al primo membro e utilizzando la proprietà antisimmetrica si ottiene

4 (u ∧ v) ∧ u = 0.

Quindi i vettori u∧v e u devono essere paralleli. Se u∧v non è nullo è ortogonale
a u, quindi deve essere u ∧ v = 0. Ne segue che i vettori u e v sono paralleli.

Esempio 3.38 Sia u, v, t una terna positivamente orientata di versori ortogonali.


1 1
Consideriamo i vettori v 1 = √3 (u + v + t) e v 2 = √2 (u − t). Si verifica facilmente
che questi sono due versori ortogonali. Calcoliamone il prodotto vettoriale. Poiché
il prodotto vettoriale si annulla se due vettori sono paralleli si ha u ∧ u = 0 e così
anche per gli altri due componenti della base. Ne segue, utilizzando le proprietà
distributive del prodotto vettoriale
1
v 1 ∧ v 2 = √ (−u ∧ t + v ∧ u − v ∧ t + t ∧ u) =
6
utilizzando la proprietà antisimmetrica del prodotto vettoriale
1
= √ (v ∧ u − v ∧ t + 2 t ∧ u) =
6
per semplificare ulteriormente questa espressione, valutiamo il prodotto u ∧ v.
Questo deve essere un vettore ortogonale sia a u che a v. Siccome u e v sono
versori ortogonali, il suo modulo deve essere 1 (si tratta cioè di un versore), inoltre
la terna u, v, u ∧ v deve essere positivamente orientata. Ne segue che u ∧ v = t.
Allo stesso modo (si pensi alla regola della mano destra) si prova che v ∧ t = u e
t ∧ u = v. Utilizzando ancora l’antisimmetria del prodotto vettoriale ci si riduce a
1
= √ (−u + 2 v − t).
6
Si osservi che nei paragrafi precedenti avevamo mantenuto un parallelismo fra
le definizioni date per i vettori liberi e il caso più generale degli spazi vettoriali.
Nel caso del prodotto vettoriale l’evidenza di questo parallelismo viene meno in
quanto la definizione è strettamente legata alla scelta di una orientazione, fatto
ben visualizzabile solo nel caso dello spazio Euclideo tridimensionale. Conside-
riamo allora lo spazio vettoriale R3 che, come vedremo, è in stretto legame con
lo spazio dei vettori liberi.

Esempio 3.39 Nello spazio vettoriale R3 definiamo il prodotto vettoriale con la


seguente formula

(x1 , x2 , x3 ) ∧ (y1 , y2 , y3 ) = (x2 y3 − x3 y2 , x3 y1 − x1 y3 , x1 y2 − x2 y1 ).


66 Capitolo 3 Calcolo Vettoriale

Questo prodotto gode di tutte le proprietà del prodotto vettoriale definito per i
vettori liberi. Può ad esempio essere utilizzato per verificare il parallelismo o per
determinare un vettore ortogonale a due vettori dati.
La formula che definisce il prodotto vettoriale in R3 , può apparire ’incompren-
sibile’ e difficile da memorizzare. Come nel caso del prodotto scalare si ottiene
una sua rappresentazione in termini di matrici che può rendere più semplice il
suo calcolo
! ! !
x2 x3 x3 x1 x1 x2
(x1 , x2 , x3 ) ∧ (y1 , y2 , y3 ) = (det , det , det ).
y2 y3 y3 y1 y1 y2

Questo approccio condurrà ad un ulteriore miglioramento della formula, una


volta introdotto il metodo delle coordinate.

Definiamo ora un’altra operazione tra vettori liberi

Definizione 3.40 Sia data una terna ordinata di vettori liberi u, v e t. Si definisce
loro prodotto misto lo scalare
u ∧ v · t. (3.14)

Per calcolare il prodotto misto di tre vettori si calcola dapprima il prodotto


vettoriale tra i primi due. Questo ha come risultato un vettore e se ne calcola il
prodotto scalare col terzo vettore.
Diamo una interpretazione geometrica del prodotto misto. Abbiamo già visto
(Cfr. le osservazioni relative alla formula (3.11)) che il prodotto scalare in (3.14)
può essere interpretato come il prodotto fra il modulo di u ∧ v e la componente
orientata di t lungo u ∧ v. Supponiamo che i tre vettori non siano complanari.
In tal caso il modulo di u ∧ v è interpretabile come l’area di un parallelogramma
che abbia come lati due rappresentanti di u e v, u ∧ v è rappresentato da un
vettore ortogonale al piano del parallelogramma e la componente di t lungo tale
vettore,a meno del segno, non è altro che l’altezza del prisma che ha per lati i
rappresentanti di u, v, t. Il prodotto misto è quindi, se considerato in valore
assoluto, il volume di tale prisma. L’annullarsi del prodotto misto equivale al-
l’annullarsi di tale volume. Questo avviene se il prisma degenera in una figura
piana, ovvero se e solo se i tre vettori sono complanari. Ne segue

Teorema 3.41 Tre vettori liberi u, v e t sono complanari se e solo se il loro


prodotto misto è nullo.

Il prodotto misto è quindi lo strumento che utilizzeremo per verificare la


complanarità di tre vettori. Dimostriamo due utili proprietà del prodotto misto
Prodotto vettoriale e prodotto misto §3.6 67

Proposizione 3.42 Una terna ordinata di vettori liberi non complanari u, v ,


t è positiva (negativa) se e solo se il prodotto misto dei vettori è positivo
(negativo).

Dim. Sappiamo che la terna u, v, u ∧ v è positiva. La terna u, v, t è positiva se


e solo se, considerando i vettori applicati in uno stesso punto, i rappresentanti
di t e u ∧ v si trovano nello stesso semispazio individuato dal piano contenente
i rappresentanti di u e v. Questo avviene se e solo se l’angolo α tra u ∧ v e t è
π π
compreso tra − 2 e 2 , cioè se e solo se cos(α) > 0. Per definizione di prodotto
scalare si ha
u ∧ v · t = |u ∧ v| |t| cos(α).

Ne segue che il prodotto misto e cos(α) hanno lo stesso segno, da cui la tesi.

Proposizione 3.43 Siano u, v , t tre vettori liberi. Si ha

u ∧ v · t = v ∧ t · u = t ∧ u · v.

Dim. In tutti e tre i casi possiamo interpretare il valore assoluto del prodotto mi-
sto come volume di un prisma. I tre prismi in questione sono uguali, avendo gli
stessi spigoli. Basta quindi provare che i segni dei tre prodotti misti sono uguali.
Per la Proposizione precedente questo equivale a provare che le terne {u, v, t},
{v, t, u},{t, u, v} sono tutte positive o tutte negative. Poiché una qualsiasi di tali
terne si ottiene da un’altra mediante due scambi nella posizione dei vettori (ad
esempio {u, v, t} → {v, u, t} → {v, t, u}) il risultato segue dalla osservazione 3.
relativa alla Definizione 3.32.

Esempio 3.44 Sia u, v, t una base positiva. La terna u − v, 2 u + t, v + t è ancora


positiva, si ha infatti

(u − v)∧(2 u + t) · (v + t) = (u ∧ t − 2 v ∧ u − v ∧ t) · (v + t) =
= u ∧ t · v − 2 v ∧ u · t = −v ∧ u · t = u ∧ v · t > 0.

Nel primo passaggio abbiamo utilizzato le proprietà distributive del prodotto vet-
toriale e il fatto che questo si annulla se i due vettori sono paralleli. Nel secondo
passaggio si sfrutta la proprietà distributiva del prodotto scalare e il fatto che il
prodotto misto si annulla se due vettori sono complanari. Nel terzo passaggio si
sfrutta la Proposizione 3.43 e quindi l’antisimmetria del prodotto vettoriale.
68 Capitolo 3 Calcolo Vettoriale

Continuiamo nel definire operazioni analoghe a quelle date per i vettori liberi,
nel caso di R3 .

Esempio 3.45 Nello spazio vettoriale R3 , in analogia al caso dei vettori libe-
ri, possiamo definire il prodotto misto fra tre vettori (x1 , x2 , x3 ), (y1 , y2 , y3 ),
(z1 , z2 , z3 ) mediante il prodotto scalare ed il prodotto vettoriale che abbiamo
definito precedentemente. Si verifica che

 
x1 x2 x3
 
(x1 , x2 , x3 ) ∧ (y1 , y2 , y3 ) · (z1 , z2 , z3 ) = det y1 y2 y3  . (3.15)
z1 z2 z3

Ad esempio

 
1 0 1
 
(1, 0, 1) ∧ (2, 1, 1) · (1, 1, 0) = det 2 1 1 = 0.
1 1 0

Poiché il prodotto misto in R3 gode delle stesse proprietà di quello definito per
i vettori liberi, si può affermare che i vettori (1, 0, 1), (2, 1, 1), (1, 1, 0) sono com-
planari, cioè linearmente dipendenti. Questo può essere valutato nella direzione
opposta. Se tre vettori di R3 sono linearmente dipendenti, la matrice che si può
costruire mettendo nelle righe le loro componenti, ha determinante nullo.

Le conclusioni tratte da quest’ultimo esempio sono particolarmente importanti


e completano le fondamentali proprietà del determinante già definite nel capitolo
2 e sono valide non solo in R3 ma più in generale, come proveremo in un capitolo
successivo, si ha

Proposizione 3.46 Sia A una matrice quadrata di ordine n. Il suo determi-


nante è nullo se e solo se le sue righe, interpretate come vettori di Rn sono
linearmente dipendenti.

Esempio 3.47 Riprendiamo la matrice esaminata nell’esempio 3.44. In questo


caso la terza riga è ottenuta sottraendo alla prima riga la seconda. Equivalente-
mente
(1, 1, 0) = −(1, 0, 1) + (2, 1, 1).

Cioè il terzo vettore è combinazione lineare dei primi due con coefficienti −1 e 1.
Prodotto vettoriale e prodotto misto §3.6 69

Esercizio 3.33 Sia u, v, t una base ortogonale positiva formata da versori. Dati i
vettori w 1 = 2 u − 2 v, w 2 = u + v − t, determinare un terzo vettore w 3 in modo
che w 1 , w 2 , w 3 sia una base ortogonale.

Esercizio 3.34 Sia u, v, t una base ortogonale positiva formata da versori. Dati i
vettori w 1 = u − v + t, w 2 = 2 u − v − t, determinare, se possibile, un terzo vettore
w 3 tale che w 1 ∧ w 3 = w 2 .

Esercizio 3.35 Sia u, v, t una base ortogonale positiva formata da versori. Cal-
colare

1) (−u + 2 v) ∧ (u + v), 2) (u + v − t) ∧ (u + v − t)
3) (−u − v + t) ∧ (u + v), 4) (u + 2 t) ∧ (−u − 2 t)
5) (−u + v) ∧ (u + v + 2 t), 6) (2 u + 2 v − t) ∧ (−t + v).

Esercizio 3.36 Nello spazio vettoriale R3 calcolare i seguenti prodotti vettoriali

1) (−1, 2, 0) ∧ (1, 1, 0), 2) (1, 1, −1) ∧ (1, 1, −1)


3) (−1, −1, 1) ∧ (1, 1, 0), 4) (2, −1, 1) ∧ (−1, 0, 2)
5) (−1, 3, 3) ∧ (0, 0, 1), 6) (0, 3, 1) ∧ (1, 1, 1).

Esiste qualche collegamento fra la soluzione dei primi tre esercizi e quella dei
primi tre dell’esercizio precedente?

Esercizio 3.37 Sia u, v, t una base ortogonale positiva formata da versori. Cal-
colare
1) (u + 2 v + 3 t) ∧ (u + v + t) · (u − v − 2 t)
2) (−u + 2 v − t) ∧ (2 u + v − t) · (v + t)
3) (u + t) ∧ (2 u + v + t) · (−u + v)
4) (u + v + t) ∧ (u + 2 v − t) · t.

Esercizio 3.38 Sia u, v, t una base ortogonale positiva formata da versori. Deter-
minare i valori del parametro h tale che i vettori w 1 = 2 u − 2 v, w 2 = u + h v − t,
w 3 = h u − 2 t siano linearmente dipendenti.

Esercizio 3.39 Calcolare i seguenti prodotti misti in R3 .

1) (0, 1, 0) ∧ (1, 0, 0) · (0, 0, 1), 2) (1, 0, −1) ∧ (1, 1, −1) · (2, 0, 1)


3) (−1, −1, 0) ∧ (1, 1, 0) · (2, 3, 1), 4) (1, −1, 1) ∧ (−1, 0, 1) · (0, −1, 2)
5) (−1, 1, 3) ∧ (1, 0, 1) · (2, 0, 1), 6) (1, 3, 2) ∧ (1, −1, 1) · (3, 0, 0).
70 Capitolo 3 Calcolo Vettoriale

Esercizio 3.40 Determinare il valore del parametro h per il quale si annulla il


prodotto misto
(2, −2, 0) ∧ (1, h, −1) · (h, 0, −2).

Esiste qualche analogia fra la soluzione di questo esercizio e quella dell’esercizio


3.38?

Esercizio 3.41 Dati i vettori v1 = (1, 2, −1), v2 = (0, 1, 2) nello spazio vettoriale
R3 . Determinare i versori v3 e v4 ad essi perpendicolari e stabilire quale fra le
basi {v1 , v2 , v3 } e {v1 , v2 , v4 } è positivamente orientata.

Il metodo delle coordinate


Dallo svolgimento degli esempi e dagli esercizi proposti dovrebbe risaltare la
frequenza con la quale si cerca di lavorare con una terna composta da versori
mutuamente ortogonali. La scelta di una tale base porta a grandi semplificazioni
nei calcoli

Definizione 3.48 Una base ortonormale di V è un base composta da versori a


due a due ortogonali.

Abbiamo visto che, data una qualsiasi base, è sempre possibile costruirne
un’altra ortonormale. Supporremo quindi di fissarne una e, per comodità, la
scegliamo positivamente orientata. Indichiamo una tale base con B = {i, j, k}.
Riassumiamone brevemente le proprietà

i · i = j · j = k · k = 1, i · j = j · k = k · i = 0,

i ∧ j = k, j ∧ k = i, k ∧ i = j.

L’uso più frequente, che implicitamente abbiamo utilizzato in molti degli eser-
cizi, è realizzare, tramite la scelta della base B, una corrispondenza tra lo spazio
dei vettori liberi V e R3 . Tale corrispondenza in realta può essere realizzata a
prescindere dal fatto che la base scelta sia ortonormale. Questa scelta permet-
te però grandi semplificazioni nei calcoli. Vediamo come può essere realizzata
questa corrispondenza.
Ogni vettore libero v può essere espresso come combinazione lineare degli
elementi della base B, in modo unico, si avrà v = x i + y j + z k, si pone allora
f : V → R3
f (v) = (x, y, z) (3.16)
Il metodo delle coordinate §3.7 71

tale corrispondenza è biunivoca e permette quindi una sostanziale identifica-


zione di V e R3 . Sottolineiamo che tale identificazione dipende in modo stretto
dalla scelta della base, sostituire la base cambia l’espressione delle componenti
del vettore v e, di conseguenza, f (v).
Enunciamo due proprietà basilari di questa identificazione

(i) f (v + w) = f (v) + f (w)


cioè alla somma di vettori in V corrisponde la somma dei corrispon-
denti vettori di R3 . Questo si verifica semplicemente, se v = x1 i + y1 j +
z1 k, w = x2 i + y2 j + z2 k si ha, per le proprietà distributive della somma,
v + w = (x1 + x2 ) i + (y1 + y2 ) j + (z1 + z2 ) k. Quindi

f (v + w) = (x1 + x2 , y1 + y2 , z1 + z2 ) =
= (x1 , y1 , z1 ) + (x2 , y2 , z2 ) = f (v) + f (w).

(ii) f (λ v) = λ f (v).
Cioè al prodotto di un vettore libero per uno scalare corrisponde il
prodotto del vettore corrispondente di R3 per lo stesso scalare.

Queste proprietà evidenziano che le strutture di spazio vettoriale di V e R3


sono sostanzialmente identiche.
La corrispondenza che abbiamo definito permette soprattutto di semplificare
il calcolo dei prodotti che abbiamo definito sui vettori liberi. In pratica, cono-
scendo l’espressione di un vettore libero come combinazione lineare di elementi
di B, vedremo come possiamo, di fatto, utilizzare le regole di calcolo di R3 . Il
vantaggio pratico e’ enorme (ad esempio per calcolare il prodotto vettoriale in R3
non occorre utilizzare la regola della mano destra). Tutte le difficoltà insite nel
calcolo dei prodotti vengono superate una volta che si faccia l’ipotesi di cono-
scere l’espressione di un vettore in termini di combinazioni lineare di elementi
di B.
Siano u, v e w due vettori liberi. Possiamo esprimerli come combinazione
lineare degli elementi della base

u = x1 i + x2 j + x3 k, v = y1 i + y2 j + y3 k w = z1 i + z2 j + z3 k.

(i) Per il prodotto scalare si ha

u · v = x1 y1 + x2 y2 + x3 y3 = (x1 , x2 , x3 ) · (y1 , y2 , y3 ).

Quindi per calcolare il prodotto scalare fra u e v è sufficiente calcolare


quello fra f (u) e f (v).
(ii) Per il prodotto vettoriale la cosa è leggermente più delicata, in quanto
quello che vogliamo ottenere non è un numero (che può quindi essere
72 Capitolo 3 Calcolo Vettoriale

calcolato sia a partire da R3 che da V ) ma un vettore libero. Si ha, con


semplici calcoli

u ∧ v = (x2 y3 − x3 y2 ) i + (x3 y1 − x1 y3 ) j + (x1 y2 − x2 y1 ) k.

Anche in questo caso si ha quindi f (u ∧ v) = f (u) ∧ f (v). Questa


quantità può essere calcolata più semplicemente con
 
i j k
 
u ∧ v = det x1 x2 x3  .
y1 y2 y3

(iii) Per il prodotto misto, utilizzando la precedente formula, si prova che si ha

u ∧ v · w = f (u) ∧ f (v) · f (w).

Quest’ultimo può essere calcolato con la formula (3.15).

Esempio 3.49 Sia B = {i, j, k} una base ortonormale positiva di V . Consideriamo


i vettori u = i − j + 2 k, v = 2 i − j + k, w = j + k. Si ha

u · v = (1, −1, 2) · (2, −1, 1) = 5.

 
i j k
 
u ∧ v = det 1 −1 2 = i + 3 j + k.
2 −1 1

 
1 −1 2
 
u ∧ v · w = det 2 −1 1 = 4.
0 1 1

Esempio 3.50 Per sapere se una data terna di vettori, espressi in termini di una
base ortonormale B, costituisce o meno una base, bisogna controllare se questi
sono o meno complanari, ovvero se il loro prodotto misto è non nullo.
I vettori i + j − 2 k, a i − j, i + 3 j formano una base se e solo se a ≠ − 13 . Infatti
il loro prodotto misto, calcolato come determinante, risulta pari a −2 (3 a + 1).

Esercizio 3.42 Dire se le seguenti terne di vettori costituiscono delle basi


(i) i + 4 j + 3 k, −i + 2 j − k, 6 j + 4 k.
(ii) 2 i − 7 j + 2 k, 2 j + 4 k, 2 i − j + 5 k.
(iii) 2 i + 3 j − k, i, 3 j − k.
Il metodo delle coordinate §3.7 73

Esercizio 3.43 In R3 sono dati i vettori v 1 = (1, 1, 1) e v 2 = (0, 1, 2). Determinare


altri due vettori v 3 e v 4 tali che {v 1 , v 2 , v 3 } siano linearmente dipendenti mentre
{v 1 , v 2 , v 4 } formino una base.

Esercizio 3.44 Sono dati i vettori v 1 = i + 2 j, v 2 = a i + b k e v 3 = c j + k. E’


possibile determinare a, b, c in modo che {v 1 , v 2 , v 3 } formino una base?

Esercizio 3.45 Dire per quali valori del parametro a i vettori (di V e R3 )
(i) i + j + k, i + 2 j + 3 k, a i + j + k.
(ii) (1, 1, a), (2, 1, 4), (4, 2, 8)
sono linearmente indipendenti.

Esercizio 3.46 Siano v 1 = i − 2 j + 2 k, v 2 = −2i + 2 j + 3 k. Determinare un terzo


vettore in modo da formare una terna ortogonale positiva.

Esercizio 3.47 Calcolare


1) (−i + 2 j + 3 k) · (i − k)
2) (2 i + 2 j − 2 k) · (−3 i + 3 j − k)
3) (i + k) · (i − k)
4) (i + j + k) · (−i − j − k)
5) (−i + 2 j + 3 k) ∧ (i − k)
6) (2 i + 2 j − 2 k) ∧ (−3 i + 3 j − k)
7) (i + k) ∧ (i − k)
8) (i + j + k) ∧ (−i − j − k)
9) (−i + 2 j + 3 k) ∧ (i − k) · (i + 2 j)
10) (2 i + 2 j − 2 k) ∧ (−3 i + 3 j − k) · (3 j − 2 k)
11) (i + k) ∧ (i − k) · (i + 2 k)
12) (i + j + k) ∧ (−i − j − k) · (i + j + k)

Esercizio 3.48 Siano v = 2 i + j e w = i + j − 2 k. Determinare la componente di


v lungo w e la sua proiezione ortogonale su w.
√ √
Esercizio 3.49 Determinare l’angolo tra i vettori 3i + k e i + 3 k.

Esercizio 3.50 Determinare i vettori ortogonali a i − 2 j − k e complanari con i − k


e i + j.

Esercizio 3.51 Determinare, se esistono, dei valori di λ per i quali i−λ j è parallelo
a i + j + k.
74 Capitolo 3 Calcolo Vettoriale

Esercizio 3.52 Determinare, se esistono, dei valori di λ per i quali i + j + λ k è


complanare con i − j + k e i − 2j + k.

Equazioni vettoriali
Consideriamo, in questo paragrafo, delle equazioni vettoriali. Queste sono
equazioni nelle quali l’incognita da determinare è un vettore. Ne consideriamo
due classi, relative a operazioni che abbiamo definito sui vettori liberi
La prima equazione che consideriamo è

x · v = λ.

In questa equazione sono assegnati il vettore v e lo scalare λ. Cominciamo col


considerare alcuni casi particolari.
Se v = 0 l’equazione diventa 0 = λ. Ha soluzione se e solo se il valore asse-
gnato a λ è effettivamente 0. In tal caso l’incognita x è indeterminata, nel senso
che qualsiasi vettore libero verifica l’equazione.
Supponiamo d’ora innanzi v ≠ 0. Se λ = 0, l’equazione diventa x · v = 0. Per
la caratterizzazione dell’annullarsi del prodotto scalare data dal Teorema 3.26 si
ha che l’insieme delle soluzioni x coincide con l’insieme dei vettori ortogonali a
v.

Esempio 3.51 Sia u, v, t una terna ortogonale composta da versori. Consideriamo


l’equazione
x · (u − v) = 0.

Descriviamo esplicitamente l’insieme dei vettori ortogonali a u−v. Ogni soluzione


x è esprimibile come combinazione lineare di u, v e t. Sarà x = a u + b v + c t.
L’equazione diventa

0 = (a u + b v + c t) · (u − v) = a − b.

Ne segue che le soluzioni possono essere descritte da x = a u + a v + c t, al variare


di a e c in R. Più in dettaglio si ha x = a (u + v) + c t. Cioè x è combinazione
lineare dei vettori u + v e t. L’insieme delle combinazioni lineari di due vettori
non paralleli descrive l’insieme dei vettori complanari con tali vettori. Questo
corrisponde al fatto che, applicando i vettori considerati in un punto o, l’insieme
dei vettori ortogonali ad un vettore dato è dato dai vettori che giacciono su di un
piano.

Supponiamo d’ora innanzi che λ non sia nullo. L’equazione vettoriale può es-
sere riscritta come |v| |x| cos(d
v x) = λ. Questo
Equazioni vettoriali §3.8 75

q
significa che la componente di x lungo v deve
λ
essere uguale a |v| . Il componente di x lungo
q
v, ovvero la proiezione di x su v, deve quin-
λ λ
di essere il vettore v 1 = |v| vers(v) = |v|2 v. A

soddisfare questa condizione sono tutti e soli p


i vettori x che si possono scrivere nella forma o q
v 1 + v 2 dove v 2 è un vettore ortogonale a v.
Fig. 3.12 soluzioni di x · v = λ

Esempio 3.52 Consideriamo una variante dell’esempio precedente

x · (u − v) = 2.

Si ha |u − v|2 = 2. Da quanto visto la soluzione può essere scritta nella forma


x = u − v + v 2 , dove v 2 è ortogonale a u − v. Dall’esempio precedente ricaviamo
quindi
x = u − v + a u + a v + c t = (a + 1) u + (a − 1) v + c t.

Il secondo tipo di equazione che consideriamo è

x ∧ v = w,

dove v e w sono due vettori assegnati.


Cominciamo anche in questo caso da alcuni casi particolari.
Se v = 0, l’equazione diventa 0 = w ed è risolubile solo se w = 0. In tal caso
l’incognita x è indeterminata.
Supponiamo v ≠ 0. Se w = 0, l’equazione diventa x ∧ v = 0. Per la caratteriz-
zazione dell’annullarsi del prodotto vettoriale data dal Teorema 3.35, sappiamo
che le soluzioni sono tutte e sole quelle della forma x = λ v.
Supponiamo ora anche w ≠ 0. In tal caso osserviamo che (dalla stessa defini-
zione di prodotto vettoriale) condizione necessaria per l’esistenza di soluzioni
è che v sia ortogonale a w. Se questo avviene, ogni soluzione x dell’equazione
è necessariamente ortogonale a w. Come osservato nell’Esempio 3.51, l’insieme
dei vettori ortogonali ad un vettore non nullo è l’insieme delle combinazioni
lineare di due qualsiasi vettori non paralleli ortogonali al vettore dato. Poiché
sia v che v ∧ w sono ortogonali a w, ogni soluzione della nostra equazione sarà
della forma
x = a v + b v ∧ w.

Non tutti i vettori di questo tipo sono però soluzioni. Però abbiamo ridotto il
problema a determinare due coefficienti scalari, a e b. Sostituiamo l’espressione
trovata per x nell’equazione di partenza

w = (a v + b v ∧ w) ∧ v = b (v ∧ w) ∧ v.
76 Capitolo 3 Calcolo Vettoriale

Utilizzando la regola della mano destra è facile convincersi che (v ∧ w) ∧ v


è un vettore che ha la direzione ed il verso di w. Valutiamo il suo modulo.
Per definizione di prodotto vettoriale, essendo v ∧ w,v, w ortogonali, questo è
b |v|2 |w|, cioè
(v ∧ w) ∧ v = b |v|2 |w| vers(w) = b |v|2 w.
1
Deve quindi essere 1 = b |v|2 da cui b = |v|2
. Le soluzioni dell’equazione sono
quindi tutte e sole quelle della forma
1
x = av + v ∧ w,
|v|2
dove a ∈ R è un parametro arbitrario.

Esempio 3.53 Sia i, j, k una terna ortogonale positiva composta da versori.


Consideriamo l’equazione
x ∧ (i − j) = 2 k.
La condizione necessaria che i − j sia ortogonale a k è soddisfatta, si ha allora
x = a (i − j) + (−j − i) = (a − 1) i − (a + 1) j,
dove a ∈ R può assumere qualsiasi valore.

Esercizio 3.53 Siano u e v due versori ortogonali. Determinare il modulo di una


soluzione del sistema di equazioni vettoriali
(
x·u=2
(x − 2 v) · v = −1.
che sia complanare con u e v.

π
d
Esercizio 3.54 Siano u e v due versori tali che u v= 3. Determinare x sapendo
che x · u = −1, x · (u ∧ v) = 0, x · (v − u) = 1.

Esercizio 3.55 Determinare le soluzioni del sistema di equazioni vettoriali in R3




 x · (1, 0, 1) = 2
x · (−1, 0, 0) = 1


x · x = 14

Esercizio 3.56 Sia u, v, t una terna positiva di versori ortonormali. Determinare


la soluzione del sistema (
x∧v =u
x∧u=t−v
In questo capitolo vediamo come sia possibile utilizzare i vettori liberi per
realizzare un modello matematico dello spazio Euclideo. Questo permetterà di
trattare con strumenti algebrici lo studio di oggetti geometrici. Lo studio dei
piani nello spazio fornirà inoltre un corrispondente geometrico per lo studio dei
sistemi lineari.

Coordinate nello spazio Euclideo


In questo capitolo applichiamo gli strumenti definiti nel capitolo precedente
allo studio della geometria analitica dello spazio. In particolare questi verran-
no utilizzati per lavorare con rette e piani. Preliminarmente occorre definire un
buon sistema di coordinate nello spazio. Per farlo utilizzeremo la corrisponden-
za f : V → R3 definita nel capitolo precedente dalla formula (3.16). Ricordiamo
che questa permette di identificare, una volta fissata una base (i, j, k) di V , il
vettore x i + y j + z k ∈ V con il vettore (x, y, z) ∈ R3 . Nel seguito useremo
costantemente questa identificazione, senza ulteriori segnalazioni.
Nello spazio euclideo E 3 fissiamo arbitrariamente un punto O che chiameremo
origine del sistema di coordinate. Fissiamo anche una base ortonormale positiva
B = {i, j, k} di V . Dato un qualsiasi punto P dello spazio, il vettore applicato
(O, P ) è l’unico rappresentante applicato in O di un vettore libero v. Questo
definisce una corrispondenza biunivoca, che indichiamo con g, fra E 3 e V :

g(P ) = v = [(O, P )].

Esprimendo v come combinazione lineare degli elementi della base B si avrà


v = x i + y j + z k. Ne risulta definita la composizione
g f
E -------------------→ - R3
- V -------------------→

P → v → (x, y, z).

Definizione 4.1 Le coordinate di un punto P dello spazio euclideo, rispetto all’origi-


ne O e alla base ortonormale B sono date dalla terna ordinata (x, y, z) di R3
ottenuta secondo la procedura descritta sopra.
78 Capitolo 4 Geometria Analitica

Dalla costruzione fatta sopra segue anche che, dato un vettore libero v, f (v)
fornisce le coordinate del secondo estremo del rappresentante di v applicato in
O.
Nel seguito supporremo di aver fissato una volta per tutte l’origine O e la base
B. Le coordinate di un punto dello spazio dipendono da queste scelte anche,
se fissata una nuova origine O ′ e un’altra base ortonormale B′ , non è difficile
descrivere il modo in cui variano le coordinate di P nel nuovo riferimento.
Consideriamo due punti P0 e P , di coordinate (x0 , y0 , z0 ) e (x, y, z) rispetti-
vamente. Il vettore applicato (P0 , P ) è il rappresentante di un vettore libero v
applicato nel punto P0 .
Vogliamo determinare le coordinate di un punto P ′ in modo che (O, P ′ ) sia
il rappresentante di v applicato in 0. Siano v 1
e v 2 i vettori liberi rappresentati da (O, P0 ) e P
(O, P ). Si ha v = v 2 − v 1 quindi, dalla defini-
zione della corrispondenza f : V → R3 , P′ v2
P0
f (v) = f (v 2 − v 1 ) = f (v 2 ) − f (v 1 ) =
v
= (x, y, z) − (x0 , y0 , z0 ) = v1
O
= (x − x0 , y − y0 , z − z0 ).
Fig. 4.1 Coordinate nello spazio

Cioè la differenza fra le coordinate di P e quelle


di P0 rappresenta le coordinate del secondo estremo del rappresentante di v
applicato in 0. Questo equivale inoltre al fatto che v = (x − x0 ) i + (y − y0 ) j +
(z − z0 ) k.

Esempio 4.2 Dati i punti P0 = (0, 1, 3), P = (1, 2, 1) il vettore (P0 , P ) è rappresen-
tante di un vettore libero che, applicato in 0, ha il secondo estremo in (1, 1, −2) e,
applicato in (1, 1, 1), ha il secondo estremo nel punto di coordinate (2, 2, −1).

Esempio 4.3 Si può procedere in modo analogo su un piano: consideriamo, nel


piano cartesiano (omettendo quindi la coordinata z), i punti di coordinate P =
(1, 1), P0 = (2, 0). Il vettore (P0 , P ) rappresenta un vettore che, applicato in 0, ha
il secondo estremo nel punto di coordinate (−1, 1).

Esercizio 4.1 Date le coppie di punti aventi coordinate


(1, 2, −1), (3, 2, −2); (1, 1, 0), (2, 0, −5); (0, 0, 0), (−2, −2, −2);
Determinare le coordinate del punto medio del segmento individuato da ciascu-
na di esse (cfr. Esercizio 3.7).

Esercizio 4.2 Siano dati due vettori liberi v 1 e v 2 tali che i secondi estremi dei
loro rappresentanti in O abbiano coordinate, rispettivamente, (1, 0, 2) e (2, −1, 1).
Rette nello spazio Euclideo §4.2 79

Quali coordinate ha il secondo estremo del rappresentante di −v 1 + 3 v 2 applicato


in O?

Esercizio 4.3 Dato il punto P di coordinate (2, −1, 3) ed il punto Q di coordinate


(0, 1, −2) determinare un punto P ′ tale che il rappresentante di (P , P ′ ), applicato
in O, abbia secondo estremo in Q.

Rette nello spazio Euclideo


Quello di retta è un concetto noto, definito nell’ambito della geometria eucli-
dea. Vediamo un possibile approccio allo studio delle rette che utilizzi i vettori
liberi. Supponiamo quindi di aver fissato una origine O ed una base ortonormale
positiva B di V .
Ogni coppia di punti non coincidenti P ,P0 definisce una retta r . Indichiamo con
(x0 , y0 , z0 ) le coordinate di P0 (questo corrisponde al fatto che il vettore (O, P0 )
è un rappresentante di v 1 = x0 i + y0 j + z0 k) e con (x1 , y1 , z1 ) le coordinate di
P.
Il vettore applicato (P0 , P ) rappresenta un vettore libero v 0 che, applicato in 0,
ha il secondo estremo nel punto P ′ di coordina-
te (x1 − x0 , y1 − y0 , z1 − z0 ). Per semplificare le
P
notazioni, poniamo v0
P′
v0
l = x1 − x0 , m = y1 − y0 , n = z1 − z0 . Q
v r

Indichiamo con (x, y, z) le coordinate di un pun- Qv P0
to Q. Questo punto appartiene alla retta r se O
e solo se (P0 , P ) e (P0 , Q) sono paralleli. Indi- Fig. 4.2 Retta per due punti

chiamo con v il vettore libero rappresentato da (P0 , Q). Il punto Q appartiene


alla retta se e solo se v è parallelo a v 0 cioè se esiste uno scalare t tale che
v = t v 0 . Sia ora Q′ il secondo estremo del rappresentante di v, applicato in
0. Le coordinate di Q′ sono date da (x − x0 , y − y0 , z − z0 ) e il parallelismo tra
v 0 = l i + m j + n k e v = (x − x0 )i + (y − y0 )j + (z − z0 )k si può esprimere come

(x − x0 , y − y0 , z − z0 ) = t (l, m, n).

Ovvero

 x = x0 + tl

y = y0 + tm (4.1)


z = z0 + tn

La formula (4.1) è detta equazione parametrica della retta.


80 Capitolo 4 Geometria Analitica

Esempio 4.4 Determiniamo l’equazione parametrica di una retta passante per i


punti di coordinate (1, 0, 2) e (2, 1, 1). Dalla costruzione effettuata nella definizio-
ne, risulta che le componenti (l, m, n) (che determinano un vettore parallelo alla
retta) sono date dalla differenza tra le coordinate dei due punti, ovvero (1, 1, −1).
La retta ha quindi equazione parametrica

 x = 1+t

y =t


z =2−t

Esempio 4.5 Dall’equazione parametrica di una retta si possono ricavare diretta-


mente delle informazioni. Data la retta di equazione


 x = −2 + 2t
y = 1+t


z = 1 − 3t
si ha che la retta passa per il punto di coordinate (−2, 1, 1) (ottenuto per t = 0) ed è
parallela al vettore 2i + j − 3k, infatti i coefficienti del parametro t nell’equazione
(che abbiamo indicato sopra con l, m, n) determinano un vettore parallelo alla
retta.

Oltre che dal passaggio per due punti distinti, una retta può essere anche deter-
minata dal passaggio per un punto e il parallelismo ad un vettore assegnato e
dall’esempio precedente si ricava un metodo per scriverne l’equazione:

Esempio 4.6 L’equazione parametrica della retta r passante per (0, 1, 1) e paral-
lela al vettore i − 2 j − 3 k è

 x=t

y = 1 − 2t


z = 1 − 3t
E’ importante osservare che l’equazione parametrica di una retta non è unica.
Consideriamo ad esempio il punto (1, −1, −2). Questo appartiene ad r infatti le
sue coordinate si ottengono assegnando il valore 1 al parametro t. Quindi la retta
r può anche essere descritta come la retta passante per (1, −1, −2) e parallela a
i − 2 j − 3 k ed ha quindi anche la seguente equazione parametrica

 x =1+t

y = −1 − 2 t


z = −2 − 3 t
Un ulteriore grado di libertà è dato dal fatto che, se consideriamo un vettore
parallelo a i − 2 j − 3 k, ad esempio −2 i + 4 j + 6 k, la retta r può ancora essere
Rette nello spazio Euclideo §4.2 81

descritta come la retta passante per (1, −1, −2) e parallela a −2 i + 4 j + 6 k ed ha


quindi equazione parametrica


 x = 1 − 2t
y = −1 + 4 t


z = −2 + 6 t

Per stabilire se due equazioni parametriche rappresentano la stessa retta è suffi-


ciente controllare che i due vettori che ne forniscono la direzione siano paralleli e
che un punto di una delle due rette appartenga anche all’altra.

L’equazione parametrica della retta è, in un certo senso, costruttiva, la si utiliz-


za quando si vogliono determinare dei punti sulla retta. Basta infatti assegnare
dei valori al parametro t e siamo certi di ottenere terne (x, y, z) che rappresen-
tano punti della retta, questo effettuando solo calcoli elementari. Supponiamo,
data una retta (individuata da un punto di coordinate (x0 , y0 , z0 ) e parallela al
vettore di componenti (l, m, n)) ed un punto di coordinate (x, y, z), di voler sta-
bilire se il punto appartiene alla retta. In questo caso l’equazione parametrica è
scomoda. Infatti bisogna stabilire se esiste un valore del parametro t tale che le
tre equazioni siano soddisfatte. In questo caso occorre ricavare t da una delle
equazioni e sostituirlo nelle rimanenti due. Se queste sono soddisfatte il punto
appartiene alla retta. Per evitare di dover risolvere un’equazione si preferisce a
volte usare un’altra descrizione, tramite l’equazione cartesiana della retta. Per
determinarla supponiamo dapprima che le componenti di (l, m, n) siano tutte
non nulle. In questo caso, ricavando t dalle tre equazioni si trova
x − x0 y − y0 z − z0
t= = = .
l m n
Che è equivalente ad un sistema di due equazioni:
( x−x y−y
l
0
= m0
y−y0
m
= z−z
n
0

Se una delle componenti (l, m, n) è nulla, ad esempio l, il parametro t non


può essere ricavato dalla prima componente dell’equazione parametrica, che è
necessariamente costante (cfr. Esempio 4.8). L’equazione si riduce a
(
x = x0
y−y0 z−z0
m = n

Se due delle componenti sono nulle, ad esempio l e m, l’equazione diventa


(
x = x0
y = y0
82 Capitolo 4 Geometria Analitica

Questa ultima equazione può essere interpretata come segue, la variabile z non
compare nell’equazione quindi non è vincolata. I punti della retta sono quindi
tutti e soli quelli della forma (x0 , y0 , z) e la retta risulta parallela all’asse delle z,
passante, ad esempio, per il punto (x0 , y0 , 0).

Esempio 4.7 Determiniamo l’equazione cartesiana della retta passante per il pun-
to di coordinate (1, 2, 1) e parallela al vettore −i+j−3 k. Le componenti del vettore
sono tutte non nulle, quindi l’equazione cartesiana è
1−z
1−x = y −2= .
3
Questa può anche essere scritta nella forma
(
x+y −3=0
3y + z − 7 = 0

Il punto di coordinate (2, 1, 4) appartiene alla retta in quanto le equazioni risul-


tano identicamente soddisfatte quando si sostituiscono le componenti a (x, y, z).
Il punto (0, 1, 2) invece non appartiene alla retta in quanto la prima delle due
equazioni non è soddisfatta.

L’equazione cartesiana della retta è sempre esprimibile nella forma


(
ax + by + cz + d = 0
a′ x + b ′ y + c ′ z + d′ = 0

non è però vero che ogni equazione di quella forma rappresenta una retta. Per
motivi che risulteranno chiari nel prossimo paragrafo, condizione necessaria e
sufficiente affinché l’equazione rappresenti una retta è che (a, b, c) e (a′ , b ′ , c ′ )
risultino non proporzionali.
E’ possibile dare un’altra espressione dell’equazione cartesiana della retta. Una
volta che siano note le coordinate di due punti P = (x0 , y0 , z0 ) e Q = (x1 , y1 , z1 )
che stiano sulla retta, dalla costruzione che abbiamo effettuato per definire la
retta abbiamo che l = x1 − x0 , m = y1 − y0 , z = z1 − z0 . Nel caso che le
componenti (l, m, n) siano tutte non nulle l’equazione cartesiana prende quindi
la forma

x − x0 y − y0 z − z0
= = .
x1 − x0 y1 − y0 z1 − z0

Esempio 4.8 Determiniamo l’equazione della retta passante per i punti di coordi-
nate (1, 2, 0) e (−3, 2, 1). La retta risulta parallela al vettore 4 i − k. In particola-
re la seconda componente di questo vettore è nulla l’equazione prende quindi la
forma
Rette nello spazio Euclideo §4.2 83

(
y =2
x+3
4 =1−z

E’ possibile risalire all’equazione parametrica di una retta a partire dall’equa-


zione cartesiana della stessa.

Esempio 4.9 Si consideri la retta di equazione cartesiana


(
x − 2y + z + 1 = 0
2x − y + 3 = 0

Osserviamo che l’incognita y appare in entrambe le equazioni. Ricaviamo x =


2y − z − 1 dalla prima equazione, sostituendo nella seconda si trova
(
x = 2y − z − 1
3 1
z = 2y − 2

da cui
(
x = 21 y − 23
z = 32 y − 12

Pensando alla variabile y, che non risulta determinata, come ad un parametro


possiamo scrivere

 1 3
 x = 2t − 2

y =t


 z = 3t − 1
2 2

che è l’equazione parametrica della retta. Tale retta risulta passante per il punto
3 1
di coordinate (− 2 , 0, − 2 ) e parallela al vettore i + 2 j + 3 k.

Definizione 4.10 Due rette si dicono parallele se i vettori che ne individuano la


direzione sono paralleli, si dicono ortogonali se tali vettori sono ortogonali.

Esempio 4.11 Sia data la retta r di equazione parametrica




 x = 2t − 2
y =t+1


z = −t − 1

Per determinare l’equazione della retta parallela ad r e passante per (0, 1, 1)


basta determinare un vettore che abbia la direzione di r , ad esempio 2 i + j − k ed
84 Capitolo 4 Geometria Analitica

imporre che la retta cercata abbia la stessa direzione. L’equazione parametrica


sarà allora


 x = 2t
y =t+1


z = −t + 1

Esempio 4.12 Determiniamo l’equazione di una retta che passi per (2, 0, 1) ed
abbia direzione ortogonale a quella delle rette
 
 x = 2t − 2
  x = −3s − 1

r : y = −t + 1 s: y =s

 

z = 3t − 2 z = −1

Le direzioni di r ed s sono date dai vettori v 1 = 2 i − j + 3 k e v 2 = −3 i + j.


La direzione della retta cercata deve essere ortogonale a v 1 e v 2 , quindi deve
essere parallela al loro prodotto vettoriale v 1 ∧ v 2 = −3 i − 9 j − k. L’equazione
parametrica è quindi

 x = −3t + 2

y = −9t


z = −t + 1

Esercizio 4.4 Data la retta di equazione




 x = 1 − 2t
y=3


z = 3t

scrivere un’equazione parametrica della stessa retta che evidenzi un punto per
cui passa la retta diverso da (1, 3, 0) ed un vettore a cui è parallela diverso da
−2i + 3k.

Esercizio 4.5 Determinare le equazioni parametriche e cartesiane delle rette pas-


santi per le seguenti coppie di punti

a) (1, 1, 1), (2, 0, 2), b) (2, 0, 1), (−3, −2, 1)


c) (0, 0, 0), (0, 0, 1), d) (2, 2, 2), (2, −1, 2).

Esercizio 4.6 Determinare le equazioni parametriche e cartesiane delle rette pas-


santi per il punto (−1, 2, −1) e parallele ai seguenti vettori

a) i + j − k, b) 2 i − k, c) − i + 2 j − k, d) k.
Piani nello spazio Euclideo §4.3 85

Esercizio 4.7 Determinare le equazioni cartesiane delle seguenti rette


 

 x = 1 − 2t 
 x=4
a) y = −3t b) y =1−t

 

z = −1 + t z =2+t

Esercizio 4.8 Determinare il parametro h in modo che la retta passante per


(1, 0, 1) e (2, −1, −2) passi anche per (8h, −2h, 0).

Esercizio 4.9 Determinare le equazioni cartesiane delle rette parallele alla retta
di equazione
(
x − 2y + 5 = 0
x − 2z = 0

passanti per

a) (1, 1, 1), b) (2, −1, 1), c) (−1, 3, 3), d) (0, 0, 0).

Esercizio 4.10 Tra le rette ortogonali alla retta di equazione


(
−x − y + z + 2 = 0
x − y − 2z = 0

determinarne una che sia incidente alla retta data e passante per (2, 1, −2).

Esercizio 4.11 Determinare l’equazione di una retta che passi per (1, 1, 0) e risulti
ortogonale alle rette di equazione
 

 x =1−t 
 x = 1+t
y = 2t y =2

 

z=1 z = −1 − t

Esercizio 4.12 Determinare l’equazione di una retta passante per (0, 1, −1) e per
il punto di intersezione delle rette
( (
x =z−1 x = 2y − 14
y = 3z + 4 z = −y + 8
86 Capitolo 4 Geometria Analitica

Piani nello spazio Euclideo


Possiamo applicare le metodologie introdotte per lo studio delle rette anche al-
lo studio dei piani nello spazio Euclideo in modo da ottenere due diversi modi di
identificare un piano, che porteranno agli analoghi delle equazioni parametriche
e cartesiane della retta.
Dalla geometria euclidea sappiamo che un piano risulta univocamente de-
terminato una volta che vengano
assegnati tre punti non allineati P1
P
che gli appartengano. Fissato un
sistema di coordinate, supponia-
mo che il piano passi per i punti P1′
P0
P0 = (x0 , y0 , z0 ), P1 = (x1 , y1 , z1 ) P2
ed un terzo punto non allineato v P′
v1
ai primi due P2 = (x2 , y2 , z2 ). Un
punto P , avente coordinate (x, y, z) O v2 P2′
appartiene al piano se e solo se
i tre vettori applicati (P0 , P ), (P0 , P1 ) Fig. 4.3 Piano per 3 punti

e (P0 , P2 ) sono complanari. Questi vettori rappresentano tre vettori liberi v,


v 1 , v 2 , che, una volta applicati in O hanno il secondo estremo nei punti P ′ =
(x − x0 , y − y0 , z − z0 ), P1 = (x1 − x0 , y1 − y0 , z1 − z0 ) e P2 = (x2 − x0 , y2 −
y0 , z2 − z0 ). La condizione di complanarità equivale al fatto che il primo vetto-
re sia combinazione lineare degli altri due, ovvero devono esistere t, s ∈ R tali
che v = t v 1 + s v 2 . Posto, in analogia con quanto fatto nel caso delle rette,
(l, m, n) = (x1 − x0 , y1 − y0 , z1 − z0 ) (l′ , m′ , n′ ) = (x2 − x0 , y2 − y0 , z2 − z0 ) la
condizione di complanarità si traduce come

(x − x0 , y − y0 , z − z0 ) = t (l, m, n) + s (l′ , m′ , n′ ).

Ovvero
 ′
 x = x0 + l t + l s

y = y0 + m t + m ′ s


z = z0 + n t + n′ s

Questa equazione è detta equazione parametrica del piano.

Esempio 4.13 Determiniamo l’equazione parametrica del piano passante per P0 =


(1, 1, 1), P1 = (2, 0, 1) e P2 = (3, 0, 3). Si ha, secondo le notazioni introdotte sopra,
(x0 , y0 , z0 ) = (1, 1, 1), (l, m, n) = (1, −1, 0), (l′ , m′ , n′ ) = (2, −1, 2). L’equazione
Piani nello spazio Euclideo §4.3 87

risulta quindi

 x = 1 + t + 2s

y = 1−t−s


z = 1 + 2s

Come nel caso della retta, l’equazione parametrica del piano non è univoca-
mente determinata. Nel modo in cui l’abbiamo definita, l’ordine nel quale si con-
siderano i punti P0 , P1 , P2 determina l’espressione formale dell’equazione. Con
un ordine diverso dei punti otteniamo un’equazione differente che, ovviamen-
te, descrive lo stesso piano. In particolare, dalla costruzione effettuata sopra,
abbiamo che (l, m, n) e (l′ , m′ , n′ ) rappresentano le componenti di due vettori
paralleli al piano. L’equazione parametrica del piano permette quindi di indivi-
duare le coordinate di un punto per il quale passa il piano (ponendo uguali a
zero i parametri) e due vettori paralleli al piano. Si ottiene l’equazione del pia-
no anche imponendo il passaggio per un punto diverso, oppure scegliendo una
diversa coppia di vettori paralleli al piano (purché non siano paralleli tra loro).

Esempio 4.14 Determiniamo l’equazione parametrica del piano passante per il


punto di coordinate (1, 0, 2) e parallelo ai vettori −i+2 k e i+j−2 k. Le componenti
di questi vettori sono (l, m, n) = (−1, 0, 2) e (l′ , m′ , n′ ) = (1, 1, −2). L’equazione
del piano risulta quindi

 x = 1−t+s

y=s


z = 2 + 2t − 2s

Possiamo arrivare all’equazione dello stesso piano in più modi. Abbiamo visto
che i punti P del piano sono tali che (P0 , P ) sia complanare ai rappresentanti di
v 1 e v 2 applicati in P0 . Il vettore v 1 ∧ v 2 , applicato in P0 rappresenta un vettore
che è ortogonale al piano. In particolare deve essere ortogonale a (P0 , P ) e, vice-
versa, ogni punto P con questa proprietà appartiene al piano. Un modo per veri-
ficare la complanarità tra tre vettori è, come abbiamo visto, dato dall’annullarsi o
meno del prodotto misto, dato che il vettore rappresentato da (P0 , P ), applicato
in 0, ha il secondo estremo nel punto di coordinate (x − x0 , y − y0 , z − z0 ) questa
condizione è equivalente a
 
x − x0 y − y0 z − z0
 
det  l m n  = 0.
′ ′ ′
l m n

Sviluppando questa espressione arriviamo ad una equazione della forma

ax + by + cz + d = 0 (4.2)
88 Capitolo 4 Geometria Analitica

dove a, b, c non sono tutti nulli. Questa si chiama equazione cartesiana del piano.
Cerchiamo di capire meglio il significato dei coefficienti che compaiono in questa
equazione. Il prodotto misto dal quale l’abbiamo ricavata è

(l, m, n) ∧ (l′ , m′ , n′ ) · (x − x0 , y − y0 , z − z0 ).

Se indichiamo (l, m, n) ∧ (l′ , m′ , n′ ) = (a, b, c), il punto di coordinate (a, b, c)


è il secondo estremo del rappresentan- (a, b, c)
te di v 1 ∧ v 2 applicato in O, rappresen-
ta quindi un vettore ortogonale al piano
(l′ , m′ , n′ )
che vogliamo descrivere. Utilizzando la
definizione di prodotto scalare si giunge
a

ax + by + cz − (ax0 + by0 + cz0 ) = 0. (l, m, n)

ponendo d = −(ax0 + by0 + cz0 ) si ot-


Fig. 4.4 Normale ad un piano
tiene l’espressione (4.2). In particolare
si osservi che i coefficienti delle incognite x,y,z individuano un vettore (a, b, c)
che è ortogonale al piano, il termine noto d invece è legato al passaggio del piano
per il punto (x0 , y0 , z0 ).

Esempio 4.15 Determiniamo l’equazione del piano passante per il punto (1, 0, 2)
e parallelo a 2 i − j + k e −i + k. L’equazione del piano è data quindi da
 
x−1 y z−2
 
det  2 −1 1 =0
−1 0 1

ovvero
x + 3y + z − 3 = 0.

Si osservi che l’equazione cartesiana del piano è determinata a meno di un coef-


ficiente non nullo di proporzionalità, ovvero i piani rappresentati dalle equazioni
ax + by + cz + d = 0 e λax + λby + λcz + λd = 0 coincidono (questo corrisponde
al fatto che se (a, b, c) è perpendicolare al piano, anche (λa, λb, λc) lo è).

Esempio 4.16 Abbiamo ricavato l’equazione parametrica del piano a partire dal-
la condizione di passaggio per tre punti non allineati P0 , P1 , P2 . Questa equivaleva
al fatto che (P0 , P ), (P0 , P1 ) e (P0 , P2 ) fossero complanari. Gli ultimi due vettori
rappresentano due vettori noti ai quali il piano è parallelo, quindi possiamo utiliz-
zarli anche per ricavare l’equazione cartesiana. Siano P0 = (1, 2, 1), P1 = (2, 0, 1)
Piani nello spazio Euclideo §4.3 89

e P2 = (1, 1, 1). L’equazione cartesiana del piano che passa per questi tre punti è
data da
 
x−1 y −2 z−1
 
det  1 −2 0 =0
0 −1 0
ovvero
z − 1 = 0.

Esempio 4.17 Determiniamo l’equazione cartesiana del piano passante per il pun-
to di coordinate (−1, 1, 2) ed ortogonale al vettore j − 2 k. Poiché i coefficienti
delle incognite che compaiono nell’equazione cartesiana del piano rappresenta-
no le componenti di un vettore ortogonale al piano, l’equazione del piano deve
necessariamente essere della forma

y − 2z + d = 0.

Il coefficiente d può essere determinato imponendo la condizione di passaggio per


il punto (−1, 1, 2). Le coordinate di questo punto devono soddisfare l’equazione
del piano, si ricava quindi d = 3.

Come avviene nel caso delle rette è possibile ricavare, partendo dall’ equa-
zione parametrica, l’equazione cartesiana del piano (che è di gran lunga più
maneggevole), eliminando i parametri.

Esempio 4.18 Sia dato il piano di equazione parametrica



 x =2+t−s

y = −t + s


z =6+t

Ricaviamo, dall’ultima equazione t = z − 6, sostituendo nelle rimanenti due equa-


zioni
(
x−z+4+s =0
y +z−6+s =0

ricavando s dalla prima equazione e sostituendo nell’ultima si trova l’equazione


cartesiana
x − y − z + 10 = 0.

Ricavare l’equazione parametrica a partire da quella cartesiana è più compli-


cato.
90 Capitolo 4 Geometria Analitica

Esempio 4.19 Sia dato il piano di equazione cartesiana x − y − z + 2 = 0. Per


ricavare l’equazione parametrica del piano possiamo determinare 3 punti che
appartengono al piano o un punto appartenente al piano e due vettori ad esso
paralleli. La prima via è senz’altro più semplice, basta assegnare due delle coordi-
nate e determinare la terza. Ad esempio, ponendo x = 0 e y = 0 si ricava z = 2,
quindi il punto (0, 0, 2) appartiene al piano, operando allo stesso modo si ricavano
altri due punti.
Un possibile modo per determinare vettori ortogonali al piano è osservare che
i − j − k è un vettore ortogonale al piano, quindi i vettori paralleli al piano sono
tutti quei vettori l i + m j + n k tali che (l i + m j + n k) · (i − j − k) = 0, ovvero
quelli della forma l i + m j + (l − m) k. Assegnando valori ad l e m si ottengono
vettori ortogonali al piano.

Concludiamo questo paragrafo osservando che l’equazione cartesiana della


retta che abbiamo definito nel precedente paragrafo non è altro che la rappre-
sentazione della retta come intersezione di due piani non paralleli.

Esempio 4.20 La retta di equazione cartesiana


(
x+y +z+1=0
2x + y − z = 0

giace su entrambi i piani x + y + z + 1 = 0 e 2x + y − z = 0. In parti-


colare sarà parallela ad un vettore che è ortogonale alle normali dei due pia-
ni. Di conseguenza è parallela al prodotto vettoriale di tali normali, ovvero a
(1, 1, 1) ∧ (2, 1, −1) = (−2, 3, −1).

Esercizio 4.13 Determinare l’equazione cartesiana dei piani passanti per le terne
di punti

a) (1, 1, 1), (2, 0, 1), (−1, 2, 2), b) (3, 0, 0), (1, 1, 0), (3, 1, 1)
c) (0, 0, 0), (1, 1, 0), (1, 0, 0).

Esercizio 4.14 Determinare l’equazione cartesiana dei piani passanti per il punto
di coordinate (2, 0, −1) e paralleli ai vettori

a) 2 i − k, i + k, b) − i + j + k, −i, c) j + 3 k, i − 2 j + k.

Esercizio 4.15 Determinare le equazioni dei piani passanti per (2, 1, 1) ed ortogo-
nali ai vettori

a) i + k, b) i − j + 2 k, c) i.
Posizione reciproca di rette e piani nello spazio §4.4 91

Esercizio 4.16 Determinare le coordinate dei punti di intersezione del piano di


equazione 2x + y − 3z + 5 = 0 con gli assi coordinati.

Esercizio 4.17 Determinare gli eventuali punti comuni ai piani


a) 2x − y + z + 1 = 0, x − y − z + 1 = 0, x + y = 0,
b) x − 4y − 2z + 3 = 0, 3x + y + z − 5 = 0, −3x + 12y + 6z − 7 = 0,
c) 5x + 8y − z − 7 = 0, x + 2y + 3z − 1 = 0, 2x − 3y + 2z − 9 = 0.

Posizione reciproca di rette e piani nello spazio


Abbiamo già osservato che, per determinare la posizione reciproca di due rette
nello spazio è conveniente averle descritte mediante l’equazione parametrica.
Supponiamo quindi di avere le rette
  ′
 x = x0 + tl
  x = x1 + sl

r : y = y0 + tm , s: y = y1 + sm′

 

z = z0 + tn z = z1 + sn′
Consideriamo inizialmente le alternative: le rette sono complanari o non lo
sono (in questo caso le rette vengono
dette sghembe ). Per capire in quale di
queste situazioni ci troviamo osservia-
mo che, quando le rette sono complana- r
ri, prendendo un punto P su r e un pun- s
to Q su s, aventi coordinate (x0 , y0 , z0 )
e (x1 , y1 , z1 ) rispettivamente, i vettori di
componenti (x1 − x0 , y1 − y0 , z1 − z0 ),
(l, m, n) e (l′ , m′ , n′ ) devono essere
complanari. Questa condizione si con-
trolla calcolando il loro prodotto misto. Fig. 4.5 Rette sghembe
Quindi r e s sono complanari se e solo se
 
x1 − x0 y1 − y0 z1 − z0
 
det  l m n =0
l′ m′ n′
e sghembe in caso contrario. Supponiamo che le rette siano complanari. Abbia-
mo altre due alternative: le rette si intersecano o sono parallele. Sono parallele
se e solo se (l, m, n) e (l′ , m′ , n′ ) sono proporzionali, ovvero se e solo se

(l, m, n) ∧ (l′ , m′ , n′ ) = (0, 0, 0)

(in realtà la proporzionalità fra due vettori è abbastanza evidente da poter essere
verificata facilmente senza calcolare il prodotto vettoriale).
92 Capitolo 4 Geometria Analitica

Esempio 4.21 Determiniamo la posizione reciproca delle rette r1 , r2 , r3 di equazio-


ne parametrica
  
 x = 1−t
  x=1
  x = −u

r1 : y = −t , r2 : y = −1 + s , r3 : y = −1 + u

 
 

z = −1 − 2 t z = −2 − 2 s z = −3 + u
Per stabilire la posizione reciproca di r1 e r2 si calcola
 
0 1 1
 
det −1 −1 −2 = −3.
0 1 −2
Ne segue che le due rette sono sghembe. Procedendo allo stesso modo per r1 e r3
dobbiamo calcolare
 
1 1 2
 
det −1 −1 −2 = 0
−1 1 1
quindi le rette sono complanari. Essendo parallele, rispettivamente, ai vettori
(−1, −1, −2) e (−1, 1, 1) sono non parallele, quindi incidenti. Le rette r2 e r3
sono sghembe infatti
 
1 0 1
 
det  0 1 −2 = 4.
−1 1 1
Consideriamo ora le possibili posizioni reciproche di una retta r di equazione
parametrica


 x = x0 + tl
r : y = y0 + tm


z = z0 + tn
e di un piano π di equazione cartesiana ax + by + cz + d = 0.
Basiamo questa classificazione sul’analisi di un vettore (l, m, n) che sia pa-
rallelo alla retta r e un vettore (a, b, c)
che sia perpendicolare a π . Se questi
due vettori sono perpendicolari cioè se r
si annulla il loro prodotto scalare

al + bm + cn = 0,
π
la retta r risulta essere parallela al pia-
no π . A questo punto abbiamo due casi
possibili: la retta giace sul piano oppure
non lo interseca. Fig. 4.6 Retta e piano paralleli
Posizione reciproca di rette e piani nello spazio §4.4 93

In generale una retta giace su un piano se ha in comune almeno due punti


col piano. Ma sapendo già che la retta
è parallela a π , abbiamo che giace su π r
non appena un suo punto gli appartiene.
Quindi r giace su π se e solo se
(
al + bm + cn = 0
r :
ax0 + by0 + cz0 + d = 0 π

Il caso rimanente è che i vettori (a, b, c)


e (l, m, n) non siano perpendicolari. In
tal caso r e π hanno un solo punto di Fig. 4.7 Retta incidente il piano

intersezione e questo si verifica se

al + bm + cn ≠ 0.

Esempio 4.22 Determiniamo le posizioni reciproche della retta




 x =1+t
r : y =k−t


z = −1 + ht

e del piano 2x − y + z + 1 = 0, al variare dei parametri h, k. La retta è parallela al


piano se (1, −1, h) e (2, −1, 1) sono ortogonali. Questo accade se e solo se h = −3.
In questo caso la retta giace sul piano se e solo se (1, k, −1) gli appartiene, ovvero
se k = 2. Se h ≠ −3 la retta interseca il piano in un punto.

Determinare la posizione reciproca di due piani è particolarmente semplice.


Se le equazioni dei piani sono ax + by +
cz+d = 0 e a′ x+b ′ y +c ′ z+d′ = 0, que-
sti sono paralleli se e solo se le loro nor-
mali lo sono, ovvero se e solo se (a, b, c)
è proporzionale a (a′ , b ′ , c ′ ), ovvero se

(a, b, c) ∧ (a′ , b ′ , c ′ ) = (0, 0, 0).

I due piani sono coincidenti se le due


equazioni che li rappresentano differis-
cono solo per un coefficiente di propor- Fig. 4.8 Piani paralleli

zionalità, ovvero se anche i due vettori (a, b, c, d) e (a′ , b ′ , c ′ , d′ ) sono propor-


zionali. Se due piani non sono paralleli si intersecano secondo una retta.

Esempio 4.23 I piani di equazione 2x − y + 2 = 0 e x + hy + (2 + 4h)z + 5 = 0


1
sono paralleli (non coincidenti) se e solo se h = − 2 , infatti questo è l’unico valore
94 Capitolo 4 Geometria Analitica

di h che rende proporzionali le terne (2, −1, 0) e (1, h, 2 + 4h). Per altri valori di
h i piani si intersecano secondo una retta.

Più complesso è stabilire la posizione reciproca di tre piani. Esistono vari modi
di determinare tale posizione, per limitare il numero di strumenti matemati-
ci necessari, seguiamo un metodo che forse è più involuto ma coinvolge solo
strumenti già acquisiti.
Dati i piani π1 , π2 , π3 di equazione ax+by +cz+d = 0, a′ x+b ′ y +c ′ z+d′ = 0
e a′′ x + b ′′ y + c ′′ z + d′′ = 0, esami-
nando le rispettive normali possia-
mo facilmente stabilire se due o più
piani sono paralleli tra loro e, con-
frontando i termini noti, verificare
se sono o meno coincidenti.
Consideriamo quindi solo il caso in
cui tra π1 , π2 e π3 non vi siano due
piani paralleli. In questo caso due
qualunque tra loro, ad esempio π1
e π2 , si interesecano secondo una
retta r . Fig. 4.9 Due piani paralleli

La posizione reciproca dei tre piani può essere studiata stabilendo la posizio-
ne reciproca di r e π3 , con gli stru-
menti definiti nel paragrafo prece-
dente. Si possono presentare i se-
guenti casi 1) La retta r non è pa-
rallela a π3 . In tal caso lo interse-
ca in un unico punto. 2) La retta
r è parallela a π3 . La retta r , gia-
cendo sia su π1 che su π2 , ha una
direzione ortogonale ad entrambe
le normali ai due piani, ha quindi
la direzione del prodotto vettoriale
(a, b, c) ∧ (a′ , b ′ , c ′ ). Se la retta r è
parallela a π3 , la sua direzione de-
ve essere ortogonale alla normale a
π3 , deve quindi essere Fig. 4.10 Tre piani non paralleli

(a, b, c) ∧ (a′ , b ′ , c ′ ) · (a′′ , b ′′ , c ′′ ) = 0

quindi il prodotto misto delle tre normali deve essere nullo, ovvero le normali ai
Posizione reciproca di rette e piani nello spazio §4.4 95

tre piani sono complanari. Questa condizione si verifica utilizzando la formula


 
a b c
 
det  a′ b′ c′  = 0 (4.3)
a′′ b ′′ c ′′

Nel caso che la retta r sia parallela al piano π3 , si hanno due ulteriori sottocasi,
r può giacere o meno su π3 . La retta r , essendo parallela a π3 , giace su tale piano
se e solo se un suo punto gli appartiene. Conviene allora determinare un punto
di r determinando una soluzione particolare del sistema
(
ax + by + cz + d = 0
r :
a′ x + b ′ y + c ′ z + d′ = 0

e controllando se questa verifica o meno l’equazione di π3 . Se il determinante


nella formula (4.3) è diverso da 0, il piano π3 intereseca la retta r in un punto.

Esercizio 4.18 Stabilire quali tra le rette di equazione


  

 x = 1 + 2t 
 x = 1 + 4t 
 x = −2 + 3t
a) y = −3 − t , b) y = 7t , c) y = 5 + 4t

 
 

z = −2 + 5t z = 2 + 3t z = 10 + 24t

giacciono sul piano 4x + 3y − z + 3 = 0.

Esercizio 4.19 Determinare gli eventuali punti di intersezione fra le seguenti


coppie di rette e piani

 x = −1 + 2t

a) y = 3 + 4t , 3x − 3y + 2z − 5 = 0;


z = 3t

 

 x = 13 + 8t  x = 2−s+u
b) y = 1 + 2t , y = 2s − 3u

 

z = 4 + 3t z =2+u

(
2x + y − 3z = 0
c) , x + y + z + 1 = 0.
x + 2y + 3z + 1 = 0

Esercizio 4.20 Determinare l’equazione della retta passante per (2, 3, 1) e paral-
lela ai piani di equazione 6x − y + z − 2 = 0 e x + 3y − 2z + 1 = 0.
96 Capitolo 4 Geometria Analitica

Esercizio 4.21 Determinare la posizione reciproca delle rette di equazione


 

 x =1−t 
 x = 4 + 2s
a) y =3+t , y = −s

 

z = −6t z = 2s + 1
( (
x + 2y − z − 3 = 0 2x + 3y − 2z − 1 = 0
b) ,
3x − y + z + 1 = 0 x+y −2=0
 

 x = 2 + 4t 
 x = 7 − 6s
c) y = −6t , y = 2 + 9s

 

z = −1 − 8t z = 12s
 

 x = 1 + 2t 
 x = 6 + 3s
d) y = 7+t , y = −1 − 2s

 

z = 3 + 4t z = −2 + s

Esercizio 4.22 Determinare la posizione reciproca delle rette e dei piani di equa-
zione

 x = 12 + 4t

a) y = 9 + 3t , 3x + 5y − z − 2 = 0


z =1+t

 x = 13 + 8t

b) y = 1 + 2t , x + 2y − 4z + 1 = 0


z = 4 + 3t
(
2x + 3y + 6z − 10 = 0
c) , y + 4z + 17 = 0
x+y +z+5=0

Esercizio 4.23 Si dica quali tra i seguenti piani

x + y − 1 = 0, 2x + y − z + 3 = 0, x − z + 4 = 0, 4x + 2y − 2z = 0

sono paralleli.

Esercizio 4.24 Dati il punto P = (1, 1, 1), il piano π di equazione 2x − y + z = 0


e la retta r di equazione
(
2x − 3y = 0
y + 2z = 0

determinare
a) un piano passante per P e parallelo a π ;
Fasci di piani §4.5 97

b) Una retta s passante per P e parallela all’intersezione di π col piano yz;


c) Una retta per P parallela ad r .

Esercizio 4.25 Determinare l’equazione di una retta passante per (−1, 12 , 3), pa-
rallela al piano di equazione x − 3y − z − 1 = 0 ed incidente l’asse y.

Esercizio 4.26 Si determini, al variare di k, la posizione reciproca della retta


(
2kx − y + k = 0
2x + 2ky − z + 3 = 0
e del piano 6x + 24y + 6z + 18k = 0.

Esercizio 4.27 Si determinino i valori del parametro k per i quali le rette


( (
x − y + kz = 0 4x − y + 4z = 0
,
kx + y + 1 = 0 3x + 3y − kz + 4 = 0
risultano sghembe, incidenti o parallele.

Esercizio 4.28 Determinare i valori dei parametri h, k per i quali la retta di


equazione

 x = 2t − 1

y = h + kt


z=t
giace sul piano di equazione 2x − 3y + z − 1 = 0.

Fasci di piani
Ai fini pratici è conveniente studiare più approfonditamente due famiglie di
piani

Definizione 4.24 Si definisce fascio improprio di piani l’insieme dei piani paralleli
ad un piano dato. Se il piano ha equazione ax + by + cz + d = 0, a meno di un
coefficiente di proporzionalità tali piani hanno equazione della forma
ax + by + cz + d′ = 0
al variare di d′ ∈ R.

Definizione 4.25 Si definisce fascio proprio di piani con asse r , l’insieme dei piani
contenenti la retta r . Se r ha equazione cartesiana
(
ax + by + cz + d = 0
r :
a′ x + b ′ y + c ′ z + d′ = 0
98 Capitolo 4 Geometria Analitica

i piani del fascio hanno equazione della forma

k(ax + by + cz + d) + h(a′ x + b ′ y + c ′ z + d′ ) = 0

al variare di h, k ∈ R.

Il fatto che i piani di un fascio


proprio abbiano un equazione del
tipo riportato sopra non è ovvio: in-
dichiamo con n1 e n2 le normali ai
due piani π1 , π2 utilizzati per rap-
presentare la retta r in forma carte-
siana. Da quanto visto nel paragra-
fo precedente abbiamo che, se un
piano contiene la retta r , la sua nor-
male n dovrà essere perpendicola-
re alla direzione di r , ovvero esse-
re complanare a n1 e n2 . Dato che
queste non sono parallele possia-
Fig. 4.11 Fascio proprio
mo scrivere

n = hn1 + kn2 = (ha + ka′ )i + (hb + kb ′ )j + (hc + kc ′ )k

dove h, k sono coefficienti fissati i quali un piano contenente r è completamente


determinato. Possiamo utilizzare il fatto di conoscere la normale ad un piano
per determinare, almeno in parte, la sua equazione, che dovrà essere della forma

(ha + ka′ )x + (hb + kb ′ )y + (hc + kc ′ )z + p = 0

dove p è una quantità che deve essere nota una volta che siano assegnati h, k.
Per determinarla consideriamo un punto di coordinate (x0 , y0 , z0 ) ∈ r . Dato che
il punto appartiene alla retta deve appartenere ad ogni piano che la contiene, in
particolare le sue coordinate ne devono verificare l’equazione. Quindi si deve
avere

0 = (ha + ka′ )x0 + (hb + kb ′ )y0 + (hc + kc ′ )z0 + p =


= h(ax0 + by0 + cz0 ) + k(a′ x0 + b ′ y0 + c ′ z0 ) + p.

Dato che il punto appartiene in particolare a π1 si ha (ax0 + by0 + cz0 ) + d = 0


da cui d = −(ax0 + by0 + cz0 ), analogamente, per l’appartenenza a π2 , d′ =
−(a′ x0 + b ′ y0 + c ′ z0 ). Sostituendo nell’equazione precedente si trova p =
hd + kd′ e l’equazione del piano è effettivamente della forma riportata nella
definizione di fascio proprio.
Fasci di piani §4.5 99

I fasci di piani forniscono spesso dei metodi veloci per la soluzione degli eser-
cizi. Come in molti altri casi rappresentano solo uno dei possibili strumenti per
risolvere un esercizio. L’utilizzo dei fasci impropri è abbastanza ovvio, i fasci
propri richiedono invece più attenzione.

Esempio 4.26 Tra i piani paralleli al piano π : 2x + y − 2z − 5 = 0 determiniamo


quello passante per (1, 2, 2). Il piano deve appartenere al fascio improprio indivi-
duato da π , quindi ha equazione della forma 2x + y − 2z + d = 0. Imponendo il
passaggio per (1, 2, 2) si trova d = 0. Il piano risulta quindi passante per l’origine.

Esempio 4.27 Tra i piani contenenti la retta r di equazione


(
x − 2y + 3z + 1 = 0
2x − y + 4z + 3 = 0

determiniamo quello passante per (1, 1, 2). Il piano deve appartenere al fascio
proprio di asse r , quindi la sua equazione deve essere della forma

k(x − 2y + 3z + 1) + h(2x − y + 4z + 3) = 0.

Imponendo il passaggio per (1, 1, 2) si trova che fra k e h deve sussistere la


relazione k = −2h. L’equazione è quindi della forma

−2h(x − 2y + 3z + 1) + h(2x − y + 4z + 3) = 0.

Essendo definita a meno di un coefficiente di proporzionalità, possiamo eliminare


il parametro h. L’equazione del piano cercato è quindi 3y − 2z + 1 = 0.

Esempio 4.28 Tra i piani contenenti la retta di equazione


(
−y − z + 2 = 0
r :
x + 2y − z + 1 = 0

determiniamo, se esistono, un piano parallelo ed uno ortogonale alla retta


(
2x − y + z = 0
s:
x+y +z =0

La retta s è parallela al vettore 2 i + j − 3 k, il generico piano contenente la retta


r ha equazione del tipo

k(−y − z + 2) + h(x + 2y − z + 1) = 0

ovvero
hx + (2h − k)y − (h + k)z + 2k + h = 0
100 Capitolo 4 Geometria Analitica

e risulta quindi ortogonale a (h i + (2h − k) j − (h + k) k. La retta s è parallela al


piano se e solo se la sua direzione è ortogonale alla normale al piano, ovvero se

(2 i + j − 3 k) · (h i + (2h − k) j − (h + k) k) = 0.

Questo accade se k = − 27 h. L’equazione del piano parallelo alla retta s è quindi


2x + 11y + 5z − 12 = 0.
Un piano del fascio è ortogonale ad s se e solo se la sua direzione è parallela
alla normale al piano, ovvero se e solo se (2, 1, −3) e (h, 2h − k, −h − k) sono
proporzionali. Si verifica facilmente che questo non può avvenire.

Esempio 4.29 Siano dati il punto P di coordinate (2, 0, 1), la retta r di equazione

 x = 1−t

y = 2t


z =1+t

e il vettore v = i − j + k. Determiniamo una retta che sia incidente ad r , passante


per P ed ortogonale a v.
Osserviamo che, poiché P ∉ r , esiste un unico piano contenente r e passante
per P . La retta cercata deve giacere su questo piano dato che passa per P e per
un punto di r (ha quindi due punti a comune col piano). Il sapere che la retta
giace sul piano ci fornisce l’indicazione di una direzione, quella della normale n
al piano, che è ortogonale a quella della retta. Siccome la retta deve essere anche
ortogonale a v, deve essere parallela al prodotto vettoriale v ∧ n.
Ogni piano contenente r ha equazione della forma

k(2x + y − 2) + h(y − 2z + 2) = 0.

Dovendo passare per P ha equazione y − 2z + 2 = 0. La normale al piano sarà


quindi data da n = j − 2 k. La direzione della retta cercata è quindi data da
i + 2 j + k e la retta ha equazione parametrica

 x = 2+t

y = 2t


z =1+t

Concludiamo questo paragrafo osservando che due piani appartengono ad uno


stesso fascio proprio se e solo se non sono paralleli. Mentre la condizione di
appartenenza di tre piani ad uno stesso fascio è, di fatto, stata studiata nel para-
grafo precedente e corrisponde al fatto che le normali ai piani siano complanari
e che i piani passino per uno stesso punto.
Fasci di piani §4.5 101

Esercizio 4.29 Si determini, nel fascio di piani avente asse


(
x+y −1=0
2x − y + z = 0

un piano passante per (3, 0, −1) ed un piano parallelo alla retta di equazione
(
3x − 2y − 3 = 0
3z + y = 0

Esercizio 4.30 Determinare le equazioni dei piani contenenti la retta


(
2x − y + z = 0
x + y − 3z − 1 = 0

e paralleli agli assi coordinati

Esercizio 4.31 Determinare l’equazione di un piano parallelo al piano di equazio-


ne x + 2y − 3z − 4 = 0 che passi per il punto di coordinate (−1, −1, 1).

Esercizio 4.32 Determinare l’equazione del piano passante per (1, 2, 1) che inter-
sechi il piano z = 0 secondo la retta di equazione
(
y = 3x − 2
z=0

Esercizio 4.33 Determinare l’equazione del piano la cui proiezione ortogonale sul
piano z = 0 è data dalla retta di equazione
(
2x − 3y + 1 = 0
z=0

Esercizio 4.34 Determinare, se esiste, un piano comune ai fasci di asse


( (
x−z =0 −30x + 2y + z − 10 = 0
,
y − hz + 1 = 0 3y − z = 0

per qualche valore del parametro h.

Esercizio 4.35 Determinare l’equazione di una retta r le cui proiezioni ortogonali


sui piani z = 0 e y = 0 siano date rispettivamente da
( (
z=0 y =0
,
x+y −z =1 3x − y + 2z = 2
102 Capitolo 4 Geometria Analitica

Esercizio 4.36 Dati il punto P = (1, 0, 1), la retta r di equazione



 x =2−t

y =1+t


z=t
e il vettore v = 2 i − k. Determinare una retta che sia incidente ad r , passante per
P ed ortogonale a v.

Relazioni metriche
La definizione di modulo di un vettore presupponeva la scelta di una unità di
misura per le lunghezze nello spazio. La utilizziamo per stabilire le distanze fra
punti, rette e piani.
Il primo passo è stabilire una formula che dia la distanza fra punti nello spa-
zio una volta che siano note le loro coordinate. La distanza d(P , Q) fra due
punti P = (x1 , y1 , z1 ) e Q = (x2 , y2 , z2 ) è, per definizione, il modulo del vettore
libero v rappresentato da (P , Q). Abbiamo già visto come è possibile determi-

nare tale modulo utilizzando il prodotto scalare: |v| = v · v. Considerando il
rappresentante di v applicato in O, questo ha il secondo estremo applicato in
(x2 − x1 , y2 − y1 , z2 − z1 ), quindi, per la corrispondenza vista nel capitolo pre-
cedente fra prodotto scalare in V e prodotto scalare in R3 si ha che la distanza
fra P e Q è data da
q
d(P , Q) = (x2 − x1 )2 + (y2 − y1 )2 + (z2 − z1 )2 ) (4.4)

Esempiop4.30 Determiniamo la distanza tra P = (1, 1, 2) e Q = (1, 0, 3). Questa è



data da (1 − 1)2 + (1 − 0)2 + (2 − 3)2 = 2.

Stabiliamo ora una formula per la distanza d(P , r ) di un punto P = (x, y, z)


da una retta r di equazione parametrica


 x = x0 + lt
y = y0 + mt


z = z0 + nt
Questa distanza è, per definizione, la minima distanza d(P , P ′ ) al variare di P ′
sulla retta. Considerazioni geometriche elementari (in un triangolo rettangolo
l’ipotenusa è più lunga di un cateto) tale distanza viene realizzata dal punto
P ′ piede della perpendicolare condotta da P alla retta r . Determiniamo questa
distanza utilizzando il calcolo vettoriale.
La retta r passa per il punto di coordinate P0 = (x0 , y0 , z0 ) ed è parallela al
vettore v = l i + m j + n k. Consideriamo il rappresentante di v applicato in P0 .
Relazioni metriche §4.6 103

Questo avrà il secondo estremo in un punto Q e possiamo determinare un punto


R in modo che P , P0 , Q, R siano i vertici di un parallelogrammo. L’area di questo
parallelogrammo può essere calcolata in due modi: è data sia dal prodotto della
lunghezza della base P0 , Q per l’altezza P , P ′ (che vogliamo determinare), che
dal modulo del prodotto vettoriale dei vettori rappresentati da (P0 , P ) e (P0 , Q).
Ovvero
|(P0 , P ) ∧ (P0 , Q)|
d(P , r ) = |(P , P ′ )| =
|(P0 , Q)|
Essendo (P0 , P ) un rappresentante di (x −x0 ) i+(y −y0 ) j +(z−z0 ) k ed essendo
la lunghezza di (P0 , Q) data dal modulo di v si ha

|((x − x0 ) i + (y − y0 ) j + (z − z0 ) k) ∧ (l i + m j + n k)|
d(P , r ) = √ . (4.5)
l2 + m2 + n2

Esempio 4.31 Determiniamo la distanza di (1, 2, 1) dalla retta di equazione para-


metrica

 x = 1 + 2t

y = 2t


z =2+t

Abbiamo, con riferimento alla formula (4.5) (x − x0 ) i + (y − y0 ) j + (z − z0 ) k =


2j − k e l i + m j + n k = 2 i + 2 j + k. Quindi

|4 i − 2 j − 4k|
d(P , r ) = √ = 2.
9
La distanza fra due rette risulta ben definita se consideriamo i casi di due rette
parallele oppure di due rette sghembe.
Siano r ed s due rette parallele. La distanza di r da s è la distanza di un
qualsiasi punto di r da s (o viceversa) e può essere calcolata con la formula vista
sopra

Esempio 4.32 Consideriamo le rette


 
 x = 1−t
  x = −s

r : y =t , s: y =1+s

 

z = 1 + 2t z = −1 + 2s

Le rette in questione sono parallele, essendo entrambe parallele al vettore −i + j +


2 k. La distanza tra r ed s è la distanza di (1, 0, 1) ∈ r da s. Cioè

|(i − j + 2 k) ∧ (−i + j + 2 k)| 4 2 4
d(r , s) = = √ =√ .
| − i + j + 2 k| 6 3
104 Capitolo 4 Geometria Analitica

Il calcolo della distanza tra due rette sghembe è leggermente più complicato.
Per facilitarne la comprensione determiniamo prima la distanza di un punto P =
(x, y, z) da un piano π : ax + by + cz + d = 0.
La distanza d(P , π ) di P da π è, per definizione, il minimo delle distanze
d(P , Q) al variare di Q su π . Tale di-
stanza verrà realizzata dal punto Q pie- P
de della perpendicolare per P al piano π
e sarà pari al modulo di (Q, P ). Fissiamo
un qualsiasi punto P0 ∈ π , di coordina-
te (x0 , y0 , z0 ). La proiezione ortogonale Q
π P 0
di (P0 , P ) sulla direzione perpendicolare
al piano coincide con (Q, P ) e può esse-
re calcolata con la formula (3.11). Il suo
modulo è il valore assoluto della com- Fig. 4.12 Distanza punto-piano

ponente orientata di (P0 , P ) sulla direzione ortogonale al piano, che sappiamo


essere data da a i + b j + c k. Quindi

|((x − x0 ) i + (y − y0 ) j + (z − z0 ) k) · (a i + b j + c k)|
d(P , π ) = =
|a i + b j + c k|
|ax + by + cz − (ax0 + by0 + cz0 )| |ax + by + cz + d|
= √ = √ .
a +b +c
2 2 2 a2 + b 2 + c 2
Infatti, dato che P0 ∈ π , ax0 + by0 + cz0 + d = 0.

Esempio 4.33 La distanza del punto P = (1, 5, 1) dal piano π di equazione x −


2y + z − 4 = 0 è
|1 − 10 + 1 − 4| p
d(P , π ) = √ = 2 6.
6

Esempio 4.34 Determiniamo il luogo dei punti aventi distanza pari a 2 dal piano
di equazione x − 2y + 2z + 1 = 0. Le coordinate (x, y, z) dei punti cercati devono
verificare l’equazione
|x − 2y + 2z + 1|
= 2.
3
Ovvero
|x − 2y + 2z + 1| = 6.

Che ha soluzioni

x − 2y + 2z − 5 = 0, x − 2y + 2z + 7 = 0.

Il luogo cercato è dato quindi da due piani paralleli al piano assegnato.


Relazioni metriche §4.6 105

Vogliamo adesso calcolare la distanza tra due rette sghembe r ed s. Tale


distanza è definita come il minimo delle distanze d(P , Q) al variare di P su r e
di Q su s. Supponiamo che le due rette siano date in forma parametrica
  ′

 x = x0 + lt 
 x = x1 + l s
r : y = y0 + mt s: y = y1 + m ′ s

 

z = z0 + nt z = z1 + n′ s
Le due rette hanno direzione individuata dai vettori v 1 = l i + m j + n k e
v 2 = l′ i + m′ j + n′ k Possiamo considerare il piano π contenente la retta r
e ortogonale a v 1 ∧ v 2 .
Abbiamo più modi equivalenti di determinare la distanza fra le rette r ed s.
Un primo modo consiste nel determina-
Q
re un punto P sulla retta r ed un punto
Q sulla retta s tali che il vettore appli- s
cato (P , Q) sia ortogonale sia a v 1 che
a v 2 , cioè alle direzioni delle due ret- P
te. Infatti, dal fatto che l’ipotenusa di un π r
triangolo rettangolo ha lunghezza mag-
giore dei cateti, segue che il segmento
che realizza la distanza tra le due rette
deve essere ortogonale ad entrambe. Il Fig. 4.13 Distanza tra rette sghembe

modulo del vettore (P , Q) trovato realizza quindi la minima distanza fra r ed s.


Si tratta di risolvere il sistema

((x1 + l′ s, y1 + m′ s, z1 + n′ s) − (x0 + lt, y0 + mt, z0 + nt)) · (l, m, n) = 0
((x1 + l′ s, y1 + m′ s, z1 + n′ s) − (x0 + lt, y0 + mt, z0 + nt)) · (l′ , m′ , n′ ) = 0

nelle incognite t e s. Si può provare che il fatto che le rette siano sghembe
implica l’esistenza di un unica soluzione. Si determinano quindi un valore di t
ed uno di s che individuano i punti P su r e Q su s. La distanza tra P eQ è uguale
alla distanza tra r ed s.

Esempio 4.35
 
 x =1+t
  x = 2s

r : y = −1 + t s: y = −1 + s

 

z = 2+t z = 1 − 2s
Queste sono parallele ai vettori (1, 1, 1) e (2, 1, −2) rispettivamente. Il sistema
diventa allora (
−3t + s − 2 = 0
−t + 9s = 0
106 Capitolo 4 Geometria Analitica

9 1
ed ha soluzione t = − 13 , s = − 13 . Risultano quindi determinati i punti P =
4 22 17 2 14 15 2 √
( 13 , − 13 , 13 ) e Q = (− 13 , − 13 , 13 ). La distanza fra r ed s risulta quindi 13 26.

Un secondo modo si basa sulla seguente osservazione. Se si considera il piano


π contenente la retta r ed ortogonale a v 1 ∧v 2 , la normale a π risulta ortogonale
sia ad r che ad s (ed ha quindi la direzione del vettore (P , Q) che abbiamo deter-
minato col metodo precedente). In particolare s è parallela a π . La distanza di r
da s è la distanza di un qualsiasi punto di s da π infatti, dal metodo precedente,
sappiamo che esistono un punto P su r ed un punto Q su s tali che il vettore
(P , Q) è ortogonale a π e il cui modulo è uguale alla distanza fra r ed s. D’altro
canto questo coincide con la distanza di Q da π . Ma essendo s parallela a π tutti
i suoi punti hanno la stessa distanza da π .

Esempio 4.36 Consideriamo le rette dell’esempio precedente. Cerchiamo un piano


contenente r ed ortogonale a (1, 1, 1) ∧ (2, 1, −2) = (−3, 4, −1). Tale piano ha
equazione del tipo 3x − 4y + z + d = 0. Affinché contenga la retta r (dato che r è
parallela a tutti i piani con quella equazione) basta che un punto di r , ad esempio
(1, −1, 2), appartenga al piano. L’equazione del piano è quindi 3x−4y +z−9 = 0.
La distanza di un punto di s, ad esempio (0, −1, 1) dal piano è data da |−4| √
26
=
2 √
13 26.

Un terzo modo di determinare tale distanza sfrutta il fatto che questa è uguale
al valore assoluto della componente orientata di un qualsiasi vettore (P0 , Q0 ),
con P0 ∈ r e Q0 ∈ s, lungo la direzione v 1 ∧ v 2 perpendicolare sia ad r che ad
s (si pensi al modo in cui si è ottenuta la formula della distanza di un punto da
un piano e si consideri il piano contenente r e parallelo ad s determinato sopra).
Scegliendo, ad esempio P0 = (x0 , y0 , z0 ) ∈ r e Q0 = (x1 , y1 , z1 ) ∈ s, la distanza
è data da
|(l, m, n) ∧ (l′ , m′ , n′ ) · (x1 − x0 , y1 − y0 , z1 − z0 )|
d(r , s) = .
|(l, m, n) ∧ (l′ , m′ , n′ )|

Esempio 4.37 Consideriamo ancora le rette degli esempi precedenti. Si ha v 1 ∧


v 2 = (−3, 4, −1). Scegliamo P0 = (1, −1, 2) e Q0 = (0, −1, 1), dalla formula
precedente si ha
|((−3, 4, −1) · (−1, 0, −1)| 2 p
d(r , s) = √ = 26.
26 13

Esercizio 4.37 Determinare un piano parallelo alle rette


( (
2x − z − 2 = 0 x − 2z − 1 = 0
2y − z + 2 = 0 y +z+1=0
Relazioni metriche §4.6 107

che disti 1 dall’origine.

Esercizio 4.38 Siano date le rette


( (
x+y −1=0 x−z =0
r : s:
x + 2z = 0 x + 2y + z + 3 = 0
Determinare quale tra le due rette ha minor distanza dall’origine e l’equazio-
ne della retta passante per l’origine che incide ortogonalmente la retta trovata.
Si determini inoltre l’equazione del piano passante per l’origine e parallelo ad
entrambe le rette.

Esercizio 4.39 Dati i punti P1 = (1, 0, 1), P2 = (1, 2, 2), P3 = (0, 0, 0), determinare
il luogo dei punti equidistanti da P1 , P2 , P3 .

Esercizio 4.40 Determinare la distanza tra le rette di equazione


 
 x = 2t
  x=s

y =t+1 y = 2s − 1 .

 

z=t z=s

Esercizio 4.41 Determinare la posizione reciproca delle rette di equazione


 

 x = 1−t 
 x = −s
y = 2 − 2t y = 1 + 2s

 

z = 1+t z = −1 − s
e, nel caso siano sghembe, calcolare la loro distanza.

Esercizio 4.42 Determinare la distanza del punto (1, 1, 2) dal piano di equazione
x + y + z − 1 = 0.

Esercizio 4.43 Determinare il luogo dei punti aventi distanza 2 dal piano di
equazione x − y + 2z + 2 = 0.
In questo capitolo trattiamo il problema dell’esistenza e della determinazione
di soluzioni di sistemi lineari. Questi argomenti verranno ripresi e inseriti in
un contesto più generale nel capitolo successivo. Per semplificare le notazioni
introduciamo un’identificazione fra due spazi, con proprietà analoghe a quelle
dell’identificazione introdotta precedentemente tra lo spazio dei vettori liberi e
R3 . Consideriamo lo spazio delle matrici ’colonna’ di tipo n × 1 (in modo del
tutto analogo potremmo procedere per le matrici di tipo ’riga’, ovvero 1 × n) a
coefficienti in un campo K, e la seguente corrispondenza:

f : M(n × 1, K) → Kn
 
x1
x 
 2
f ( 
 .. ) = (x1 , x2 , . . . , xn ).
 . 
xn

E’ semplice verificare che, per come sono definite le operazioni nei due spazi,

f (A1 + A2 ) = f (A1 ) + f (A2 ), f (λA) = λf (A)

per ogni scelta di A, A1 , A2 ∈ M(n×1) e λ ∈ K. La corrispondenza è chiaramente


biunivoca e costituisce un’identificazione fra i due spazi, la useremo per trattare
indistintamente elementi di Kn e matrici colonna.

Sistemi lineari
Consideriamo un sistema di m equazioni in n incognite della forma


 a11 x1 + a12 x2 + . . . + a1n xn = b1



 a21 x1 + a22 x2 + . . . + a2n xn = b2
.. (5.1)

 .



 a x + a x + ... + a x = b
m1 1 m2 2 mn n m

dove aij , bi ∈ K per i = 1, . . . , m, j = 1, . . . , n. Tale sistema è detto lineare,


ed è caratterizzato dal fatto che, nelle equazioni, le incognite compaiono con
Sistemi lineari §5.1 109

grado non superiore a 1. Una soluzione del sistema è una n-pla (x1 , . . . , xn ) che
soddisfi tutte le equazioni, e definisce un vettore in Kn .

Esempio 5.1 Nella soluzione di sistemi lineari si possono presentare molte situa-
zioni. Un sistema può non avere soluzioni, come nel caso
(
x1 = 1
x1 = 2

Può avere una unica soluzione: nel caso di


(
x1 + x2 = 1
x1 − x2 = 2
3 1
si determina facilmente (x1 , x2 ) = ( 2 , − 2 ), che rappresenta un punto nel piano.
Oppure ne può avere infinite: nel caso di
(
x1 + x2 = 1
2x1 + 2x2 = 2

l’unica condizione imposta dalle equazioni è x2 = 1 − x1 quindi ogni coppia della


forma (x1 , x2 ) = (x1 , 1 − x1 ) è una soluzione del sistema e, al variare di x1 , si
ottengono infinite soluzioni. Si osservi che tali soluzioni possono essere scritte nella
forma (0, 1) + x1 (1, −1) ovvero sono date dalla somma di (0, 1) con un qualsiasi
vettore parallelo a (1, −1). Le soluzioni sono quindi interpretabili come punti che
appartengono ad una retta nel piano (x1 , x2 ) (quella che abbiamo scritto sopra è
la sua equazione parametrica).

Il legame fra sistemi lineari e geometria analitica, se si hanno al più tre incognite,
dovrebbe essere chiaro, ad esempio in un sistema del tipo


 2x + y − z + 1 = 0
−x − 5y + 2z − 3 = 0


x + 2y + z = 0

una eventuale soluzione rappresenta un punto di intersezione fra tre piani. Tale
intersezione può non esistere (ad esempio se i piani sono paralleli), può essere
data da un punto (se due piani si intersecano secondo una retta e il terzo piano
interseca in un punto questa retta), può essere data dai punti di una retta (se i
piani appartengono ad un fascio proprio), può essere data dai punti di un piano
(se i tre piani sono coincidenti). In quest’ultimo caso, andando a svolgere i cal-
coli per trovare la soluzione, possiamo determinare solo una delle incognite. Se
l’equazione è ax + by + cz + d = 0, supponendo c ≠ 0, il vettore delle soluzioni
a b d
sarà della forma (x, y, − c x − c y − c ), e fornisce l’equazione del piano in forma
110 Capitolo 5 Sistemi Lineari

parametrica come (0, 0, − dc ) + x (1, 0, − ac ) + y (0, 1, − bc ). La ricerca della soluzio-


ne ci porta sempre a descrivere il luogo (retta o piano) in forma parametrica. In
generale, con l’aumentare del numero delle incognite, perderemo la possibilità
di una rappresentazione grafica delle soluzioni. Per descrivere le soluzioni di
un sistema in modo migliore occorrono delle nozioni relative agli spazi vetto-
riali (o spazi affini) e il concetto di dimensione, che tratteremo in seguito (cfr.
Proposizione 6.55)
Il primo passo per lo studio dei sistemi lineari consiste nel descrivere un si-
stema mediante delle matrici. Osserviamo infatti che ogni sistema lineare può
essere scritto in forma più compatta: posto
     
a11 a12 ··· a1n x1 b1
a a22 ··· a2n  x  b 
 21   2  2
A=
 .. .. .. 
, x= 
 ..  , b= 
 ..  ,
 . . .   .   . 
am1 am2 ··· amn xn bm

il sistema è equivalente all’equazione

A · x = b.

La matrice A è detta matrice incompleta del sistema, il vettore b è invece detto


vettore dei termini noti. Definiamo inoltre
 
a11 a12 ··· a1n b1
a a22 ··· a2n b2 
 21 
à = 
 .. .. .. .. 

 . . . . 
am1 am2 ··· amn bm

detta matrice completa del sistema. Questa matrice differisce dalla matrice in-
completa solo per l’aggiunta della colonna dei termini noti del sistema. E’ chiaro
che, partendo dalla matrice completa del sistema, è possibile ricostruire il siste-
ma ad essa associato. E’ quindi equivalente dare il sistema in forma esplicita o
la matrice completa ad esso associata.

Esempio 5.2 Dato il sistema di quattro equazioni in tre incognite reali




 2x1 − x2 + 3x3 = 4


 x − x = −1
2 3

 x − 5x 2 + x3 = 0


1
 −x + x = 1
1 3
Sistemi ridotti ed equivalenti §5.2 111

Abbiamo che la matrice incompleta e quella completa associate al sistema sono


date da
   
2 −1 3 2 −1 3 4
 0 1 −1 0 1 −1 −1
   
A= , Ã =  .
 1 −5 1 1 −5 1 0 
−1 0 1 −1 0 1 1

Viceversa il sistema associato alla matrice completa


 
1 2 −1 0
 
à = −1 0 2 1 .
3 1 0 2

E’ un sistema di tre equazioni reali in tre incognite della forma




 x1 + 2x2 − x3 = 0
−x1 + 2x3 = 1


3x1 + x2 = 2

Le nozioni sulle matrici che abbiamo definito in precedenza ci permetteranno


di stabilire facilmente se un sistema lineare ammette soluzioni e, eventualmen-
te, di determinarle. Per farlo abbiamo bisogno di un procedimento che permetta
di trasformare un sistema lineare in uno equivalente (ovvero con le stesse so-
luzioni) che abbia una struttura ’più semplice’ , in modo che sia possibile dire
immediatamente se ammette o meno soluzioni.

Sistemi ridotti ed equivalenti


Definiamo le seguenti operazioni sui sistemi lineari e vediamo come queste si
riflettono sulle matrici associate:

Proposizione 5.3 L’insieme delle soluzioni di un sistema lineare non cambia


se:

(i) Si scambiano di posto due equazioni.


(ii) Si moltiplica un’equazione per uno scalare non nullo.
(iii) Si somma ad un’equazione un multiplo di un’altra equazione.

Dim. Con le tre operazioni considerate nell’enunciato si trasforma un sistema


lineare in un’altro sistema lineare, che ne differisce per al più una equazione.
Per provare che l’insieme delle soluzioni dei due sistemi non è cambiato basta
confrontare le soluzioni delle equazioni modificate:
112 Capitolo 5 Sistemi Lineari

1) Questo caso è ovvio, le soluzioni del sistema non dipendono dall’ordine in


cui si considerano le equazioni.
2) Se si sostituisce all’i-esima equazione

ai1 x1 + . . . + ain xn = bi

un suo multiplo
λai1 x1 + . . . + λain xn = λbi

con λ ≠ 0, l’insieme delle soluzioni non può variare in quanto

ai1 x1 + . . . + ain xn − bi = 0 ⇐⇒ λ(ai1 x1 + . . . + ain xn − bi ) = 0.

3) Se si sostituisce all’i-esima equazione

ai1 x1 + . . . + ain xn = bi

la sua somma con un multiplo della riga j-esima, si ottiene l’equazione

(ai1 + λaj1 )x1 + . . . + (ain + λajn )xn = bi + λbj . (5.2)

Per provare che le soluzioni dei due sistemi sono le stesse proviamo che vale la
doppia inclusione dei due insiemi di soluzioni. Una soluzione (x1 , . . . , xn ) del
sistema iniziale verifica sia la i-esima che la j-esima equazione, ovvero

ai1 x1 + . . . + ain xn = bi , aj1 x1 + . . . + ajn xn = bj (5.3)

sommando alla prima equazione la seconda equazione moltiplicata per λ si ot-


tiene che anche la (5.2) è verificata. Viceversa, se (x1 , . . . , xn ) è una soluzione del
nuovo sistema, verifica

ai1 x1 + . . . + ain xn = bi , (ai1 + λaj1 )x1 + . . . + (ain + λajn )xn = bi + λbj .

sottraendo alla seconda equazione la prima equazione moltiplicata per λ si ha


che (x1 , . . . , xn ) verifica anche (5.3) ovvero è soluzione del sistema iniziale.

Queste trasformazioni si riflettono in modo ovvio sulle matrici associate ai siste-


mi:
Corollario 5.4 L’insieme delle soluzioni di un sistema lineare associato al-
la matrice completa à coincide con quello di un sistema associato ad una
matrice ottenuta da Ã

(i) Scambiando due righe.


(ii) Moltiplicando una riga per uno scalare non nullo.
(iii) Sommando ad una riga un multiplo di un’altra riga.

e vengono dette operazioni elementari per riga.


Sistemi ridotti ed equivalenti §5.2 113

Vediamo come queste trasformazioni permettano di determinare un sistema


che abbia le stesse soluzioni del sistema dato, ma con una forma più semplice:

Esempio 5.5 Consideriamo il sistema in 4 incognite



 x1 − x2 + 3x3 + 3x4 = 2


 −4x − 2x + x − 3x = 2
1 2 3 4

 −3x − 5x + 3x − x4 = −2


1 2 3
 x + 2x − 2x = 0
1 2 3

La matrice completa del sistema, in cui separiamo l’ultima colonna dalle altre in
modo da identificare anche la matrice incompleta, è

 
..
1 −1 3 3 . 2
 .. 
 
−4 −2 1 −3 . 2
 .
 .. 
−3 −5 3 −1 . −2
 
 .. 
1 2 −2 0 . 0

Il primo passo consiste nel trasformare questo sistema in un altro sistema in cui
l’incognita x1 compaia unicamente nella prima equazione. Dato che i coefficienti
di x1 sono descritti dagli elementi della prima colonna della matrice associata,
vogliamo ottenere un sistema in cui la matrice associata abbia elementi nulli nella
prima colonna sotto quello di posto (1, 1). Sappiamo che l’insieme delle soluzioni
del sistema non cambia se sommiamo alla seconda riga un multiplo della prima
riga. Determiniamo il multiplo in modo tale che nella seconda riga, al posto (2, 1)
si abbia un elemento nullo. Per farlo basta moltiplicare per 4 la prima riga e
sommarla alla seconda. Si ottiene la matrice

 
..
1 −1 3 3 . 2
 .. 
 
0 −6 13 9 . 10 
 .
 .. 
−3 −5 3 −1 . −2
 
 .. 
1 2 −2 0 . 0

Procediamo allo stesso modo per rendere nullo l’elemento di posto (3, 1). Per farlo
114 Capitolo 5 Sistemi Lineari

basta sommare alla terza riga la prima riga moltiplicata per 3:


 
..
1 −1 3 3 . 2
 .. 
 
0 −6 13 9 . 10
 .
 .. 
0 −8 12 8 . 4
 
 .. 
1 2 −2 0 . 0

E, sottraendo la prima riga alla quarta otteniamo la matrice


 
..
1 −1 3 3 . 2
 .. 
 
0 −6 13 9 . 10 
 .
 .. 
0 −8 12 8 . 4
 
 .. 
0 3 −5 −3 . −2

Il sistema associato a questa matrice ha, per costruzione, le stesse soluzioni del
sistema iniziale. Continuiamo a semplificarne la struttura. Cerchiamo di ottenere
un sistema in cui la seconda incognita compaia solo nelle prime due equazioni (e la
prima continui ad apparire solo nella prima equazione). Per farlo operiamo sulla
seconda colonna in modo simile a quanto fatto per la prima, solo che non pos-
siamo più sommare alle righe successive un multiplo della prima riga, in quanto
otterremmo degli elementi non nulli nella prima colonna. Possiamo invece som-
mare alle righe successive alla seconda, dei multipli opportuni della seconda riga.
Procedendo in analogia a quanto fatto per la prima colonna dovremmo sommare
alla terza riga la seconda riga moltiplicata per − 43 , in modo da rendere nullo l’ele-
mento di posto (3, 2). In questo modo introduciamo delle frazioni e rendiamo più
complesse le operazioni, aumentando la probabilità di fare degli errori di calcolo.
Utilizziamo invece la possibilità di combinare due operazioni: possiamo simulta-
neamente sostituire ad una riga la somma di un suo multiplo (per uno scalare non
nullo) con un multiplo di un’altra riga. Moltiplichiamo quindi la terza riga per 3
e sommiamole la seconda riga moltiplicata per −4 (abbiamo, in pratica, cercato il
minimo comun multiplo fra 6 e 8). Otteniamo la matrice
 
..
1 −1 3 3 . 2 
 .. 
 
0 −6 13 9 . 10 
 .
 .. 
0 0 −16 −12 . −28
 
 .. 
0 3 −5 −3 . −2
Sistemi ridotti ed equivalenti §5.2 115

Procediamo in modo analogo per annullare l’elemento di posto (4, 2): moltipli-
chiamo la quarta riga per 2 e le sommiamo la seconda, ottenendo la matrice
 
..
1 −1 3 3 . 2 
 .. 
 
0 −6 13 9 . 10 
 .
 .. 
0 0 −16 −12 . −28
 
 .. 
0 0 3 3 . 6

Possiamo trasformare ancora il sistema in modo da ottenerne uno in cui la terza


incognita compaia solo nelle prime tre equazioni. In questo caso sommeremo alla
quarta riga (moltiplicata per 16) la terza riga moltiplicata per 3, in modo da non
trasformare le prime due colonne. Si ottiene la matrice
 
..
1 −1 3 3 . 2 
 .. 
 
0 −6 13 9 . 10 
 .
 .. 
0 0 −16 −12 . −28
 
 .. 
0 0 0 12 . 12

Il sistema associato a questa matrice è




 x1 − x2 + 3x3 + 3x4 = 2


 −6x + 13x + 9x = 10
2 3 4
 −16x3 − 12x4 = −28



 12x = 12
4

Nell’ultima equazione, per costruzione, non compaiono le prime tre incognite. Pos-
siamo quindi facilmente ricavare x4 = 1. Sostituendo nella terza equazione, in cui
non compaiono le prime due incognite, ricaviamo allora x3 = 1. Dalla seconda
equazione ricaviamo x2 = 2. Infine, dalla prima equazione, x1 = −2. Quella
trovata è anche l’unica soluzione del sistema di partenza.

Cerchiamo di formalizzare questo procedimento in modo da ottenere un algo-


ritmo utilizzabile per qualsiasi sistema lineare. Lo scopo è trasformare il si-
stema iniziale in un sistema che abbia la seguente proprietà: se xi è la prima
incognita che compare in un’equazione allora non deve apparire nelle equazioni
successive.
116 Capitolo 5 Sistemi Lineari

Esempio 5.6 Dei due sistemi


 
 2x1 − x2 − x3 + x4 = 1
  x1 − x2 − x3 − x4 = 0

2x3 − x4 = 3 x2 + x3 = −1

 

5x4 = −1 2x2 − 3x4 = 2

solo il primo verifica la proprietà enunciata sopra. Nel secondo abbiamo che
la prima incognita con coefficiente non nullo della seconda equazione è x2 , ma
questa compare anche nella terza equazione.

Formalizziamo questa proprietà anche nel linguaggio delle matrici

Definizione 5.7 Una matrice A ∈ M(m×n, K) si dice in forma ridotta se si verifica


che, comunque si scelga una riga in A, se aij è il primo elemento non nullo di tale
riga, allora per ogni h > i (ovvero nelle righe successive, se ve ne sono) si ha

ah1 = . . . = ahj = 0.

Il primo elemento non nullo di una riga (se esiste) è detto pivot della riga.

In altre parole la struttura di ogni riga influenza le successive, che devono conte-
nere una sequenza di zeri di lunghezza strettamente maggiore nella parte inizia-
le. Se in una riga il pivot occupa il posto j-esimo tutte le righe successive devono
avere elementi nulli (almeno) nelle prime j colonne.

Esempio 5.8 Date le matrici


   
1 2 0 0 2 0
   
A1 = 0 1 −2 , A2 = 0 0 −2
0 0 1 0 0 0

   
1 2 0 1 2 0
   
A3 = 0 0 −2 , A4 = 0 −2 0
0 0 0 0 2 0

si ha che le prime tre sono in forma ridotta. I pivot di A1 sono {1, 1, 1}, quelli di A2
sono {2, −2}, quelli di A3 sono dati da {1, −2}. La quarta matrice non è in forma
ridotta in quanto l’elemento della terza riga che si trova al di sotto del pivot della
seconda riga non è nullo.

Mostriamo ora che il procedimento descritto all’inizio del capitolo, consistente


nel trasformare una matrice in una matrice ridotta tramite delle operazioni sulle
righe, funziona su qualsiasi matrice.
Sistemi ridotti ed equivalenti §5.2 117

Esempio 5.9 Consideriamo il sistema associato alla matrice


 
1 1 1
 
 2 1 0
−1 2 2

Vogliamo portare questa matrice in forma ridotta. In particolare gli elementi


della prima colonna diversi dal primo devono ’diventare nulli’. Possiamo quindi
aggiungere alla seconda riga la prima riga moltiplicata per −2, ovvero (2, 1, 0) −
2 (1, 1, 1) = (0, −1, −2). Otteniamo la nuova matrice
 
1 1 1
 
 0 −1 −2 .
−1 2 2

Quello che abbiamo fatto è moltiplicare la prima riga per −a21 /a11 in modo che,
sommando alla seconda riga si ottenesse uno zero in a21 . Si osservi che questo è
possibile solo grazie al fatto che il pivot a11 non è nullo. Possiamo, con lo stesso
criterio, sommare alla terza riga la prima riga ottenendo la matrice
 
1 1 1
 
0 −1 2 .
0 3 3

Per avere la matrice in forma ridotta, dobbiamo ’annullare’ a32 . Per farlo basta
moltiplicare per 3 la seconda riga e sommarla alla terza (si osservi che questo
è possibile perché il pivot della seconda riga a22 di questa matrice è non nullo).
Otteniamo
 
1 1 1
 
0 −1 −2 .
0 0 −3

che è una matrice ridotta

Nell’esempio precedente abbiamo potuto trasformare la matrice data in forma


ridotta utilizzando solo due delle trasformazioni che abbiamo definito all’inizio
del capitolo. Questo è stato reso possibile grazie ai pivot, che sono non nulli.
Vediamo come, a volte, sia necessario scambiare due righe:

Esempio 5.10 Consideriamo la matrice


 
0 1 −1
 
1 2 2 .
−2 −3 −5
118 Capitolo 5 Sistemi Lineari

Il metodo che abbiamo utilizzato nel precedente esempio non è immediatamente


applicabile perche a11 = 0. Possiamo però scambiare la prima e la seconda riga.
Otteniamo quindi la matrice
 
1 2 2
 
0 1 −1
−2 −3 −5

Moltiplichiamo ora la prima riga per 2 e sommiamola alla terza. Otteniamo


 
1 2 2
 
0 1 −1 .
0 1 −1

Se, in questa matrice, sommiamo alla terza riga la seconda riga moltiplicata per
−1 (ovvero sottraiamo le righe), otteniamo
 
1 2 2
 
0 1 −1 .
0 0 0

Che è una matrice ridotta

Esempio 5.11 Consideriamo la matrice


 
2 1 −2
 
3 1 −1 .
2 2 −3

In questo caso per ’azzerare’ la prima colonna dovremmo moltiplicare la prima


3
riga per − 2 e sommarla alla seconda. Utilizzare le frazioni non è molto comodo,
possiamo allora moltiplicare la seconda riga per 2, in questo modo, moltiplicando
la prima riga per −3 e sommando si trova
 
2 1 −2
 
 0 −1 4 .
2 2 −3

Sottraiamo quindi la prima riga alla terza, ottenendo


 
2 1 −2
 
0 −1 4 .
0 1 −1
Sistemi ridotti ed equivalenti §5.2 119

Sommando la seconda e la terza riga si ottiene la matrice ridotta


 
2 1 −2
 
0 −1 4  .
0 0 3

Esempio 5.12 Consideriamo la matrice


 
1 −1 2 3
 
 2 −2 1 2
−1 1 1 −1
Iniziamo azzerando gli elementi della prima colonna. Moltiplichiamo la prima ri-
ga per −2 e sommiamola alla seconda, sommiamola quindi alla terza. Otteniamo
la matrice
 
1 −1 2 3
 
0 0 −3 −4 .
0 0 3 2
Il pivot della seconda riga è nel posto a23 , quindi procediamo, come sopra, lavo-
rando sulla terza colonna. Sommando la seconda e la terza riga otteniamo la
matrice
 
1 −1 2 3
 
0 0 −3 −4 .
0 0 0 −2
Descriviamo questo procedimento in forma algoritmica:

(i) Indichiamo con j l’indice della prima colonna della matrice A che non sia
identicamente nulla
(ii) Poiché questa colonna contiene un elemento non nullo è possibile, scam-
biando se necessario due delle righe, supporre che questo si trovi nella
prima riga, ovvero a1j ≠ 0.
(iii) Si azzerano gli elementi della colonna j-esima nelle righe successive alla
prima moltiplicando la prima riga per −aij /a1j e sommandola alla i-esima
(questo è equivalente a moltiplicare la prima riga per −aij , la i-esima riga
per a1j e sommarle).
(iv) Azzerati gli elementi sotto il pivot della colonna j-esima si applica nuova-
mente il procedimento alla sottomatrice che si ottiene non considerando
la prima riga di A

Questo procedimento è noto col nome di riduzione di Gauss e al suo termine la


matrice risultante è in forma ridotta e, per quanto dimostrato precedentemente,
corrisponde ad un sistema che ha lo stesso insieme di soluzioni del sistema
120 Capitolo 5 Sistemi Lineari

associato alla matrice iniziale. Abbiamo quindi il risultato principale di questa


sezione:

Proposizione 5.13 Dato un sistema lineare esiste un sistema lineare associato


ad una matrice in forma ridotta e avente lo stesso insieme di soluzioni.

Le operazioni elementari che permettono di portare una matrice in forma


ridotta possono essere descritte anche in un altro modo:

Esempio 5.14 Consideriamo una generica matrice di ordine 2


!
a11 a12
A=
a21 a22

e supponiamo di voler scambiare fra loro le prime due righe. Anziché effettuare
questa operazione sulla matrice A, la effettuiamo sulla matrice identica, ottenendo
! !
1 0 ′ 0 1
I2 = → I2 =
0 1 1 0

se moltiplichiamo la matrice A per I2′ si ottiene


! ! !
′ 0 1 a11 a12 a21 a22
I2 · A = · = .
1 0 a21 a22 a11 a12

che è la matrice ottenuta da A scambiando le prime due righe.

Quanto avviene nell’esempio precedente corrisponde ad un fatto generale, di cui


omettiamo la semplice dimostrazione:

Proposizione 5.15 Il risultato di una delle operazioni elementari per riga de-
scritte nel Corollario 5.4 su una matrice A ∈ M(m × n, K) può essere ottenuto
eseguendo la stessa operazione sulla matrice identica Im e moltiplicando A
per la matrice ottenuta.

Le matrici ottenute dalla matrice identica tramite operazioni elementari per ri-
ga sono dette matrici elementari . Il procedimento di riduzione di Gauss consiste
nell’applicare in successione delle operazioni elementari alla matrice associata
ad un sistema lineare. Ciascuna di esse è equivalente alla moltiplicazione per
una matrice elementare. Quindi abbiamo:

Corollario 5.16 Ogni matrice ridotta di un sistema lineare associato ad una


matrice A si ottiene da A tramite prodotto per matrici elementari.
Soluzione di sistemi lineari §5.3 121

Soluzione di sistemi lineari


Se la matrice completa di un sistema è in forma ridotta è particolarmente sem-
plice stabilire se un sistema ammette soluzioni e, eventualmente, determinarle:

Esempio 5.17 Consideriamo il sistema associato alla matrice ridotta:


 
1 1 −1 2 1
 
0 1 −1 3 6
0 0 1 −2 2
ovvero


 x1 + x2 − x3 + 2x4 = 1
x2 − x3 + 3x4 = 6


x3 − 2x4 = 2

Iniziamo a risolvere il sistema a partire dall’ultima equazione. Il pivot della terza


riga è 1, nel posto (3, 3) della matrice completa. Questo corrisponde al fatto che
il coefficiente di x3 nella terza equazione è non nullo. Quindi in tale equazione è
possibile ricavare x3 in funzione delle incognite rimanenti. Infatti si ha x3 = 2x4 +
2. Sostituendo tale valore nell’equazione precedente abbiamo che il pivot della
seconda riga, che corrisponde al coefficiente dell’incognita x2 , non viene alterato
ed è, per definizione, non nullo. Di conseguenza è possibile determinare x2 in
funzione delle incognite rimanenti. Abbiamo infatti x2 = −x4 + 8. Utilizzando il
fatto che il pivot della prima riga corrisponde all’incognita x1 possiamo ricavare,
dalla prima equazione, x1 = x4 − 5. Abbiamo quindi una famiglia di soluzioni
dipendenti da un parametro, in quanto l’incognita x4 non è determinata.

Esempio 5.18 Il sistema associato alla matrice ridotta:


 
1 1 −1 2 1
 
0 1 −1 3 6
0 0 0 0 2

è


 x1 + x2 − x3 + 2x4 = 1
x2 − x3 + 3x4 = 6


0=2

e, a causa della terza equazione, non esistono soluzioni. Questo è dovuto al fatto
che i coefficienti delle incognite nella terza equazione sono tutti nulli, mentre il ter-
mine noto non lo è. Questo accade quando il pivot di una riga si trova nell’ultima
colonna.
122 Capitolo 5 Sistemi Lineari

Esempio 5.19 Consideriamo il sistema in R4


x1 + 2x2 − x3 + x4 = 0
−8x2 + 3x3 − 2x4 = 0

questo è un sistema associato alla matrice


!
1 2 −1 1 0
0 −8 3 −2 0

Poiché il coefficiente di x2 nella seconda equazione è non nullo possiamo ricavare


x2 in funzione di x3 e x4 (essendo la matrice ridotta x1 non compare in questa
equazione.
3 1
x2 = x3 − x4
8 4
3
(abbiamo scritto quindi x2 = f2 (x3 , x4 ) con f2 (x3 , x4 ) = x
8 3
− 14 x4 ) sostituendo
il valore trovato di x2 nella prima equazione abbiamo
1 1
x1 − x3 + x4 = 0
4 2
essendo il coefficiente di x1 non nullo (non è variato dopo la sostituzione di x2 ),
possiamo ricavare
1 1
x1 = f1 (x3 , x4 ) = x3 − x4
4 2
quindi abbiamo espresso le soluzioni del sistema in funzione delle variabile x3 , x4 .
Ad ogni valore di x3 e x4 corrisponde una ed una sola soluzione, della forma
(f1 (x3 , x4 ), f2 (x3 , x4 ), x3 , x4 ) o, più esplicitamente,
1 1 3 1 1 3 1 1
( x3 − x4 , x3 − x4 , x3 , x4 ) = x3 ( , , 1, 0) + x4 (− , − , 0, 1).
4 2 8 4 4 8 2 4
In generale abbiamo

Proposizione 5.20 Un sistema lineare di m equazioni in n incognite, associato


ad una matrice in forma ridotta, ammette soluzioni se e solo se non sono
presenti pivot nell’ultima colonna. In tal caso, detto p il numero dei pivot della
matrice ridotta è possibile determinare le soluzioni esprimendo p incognite,
corrispondenti alle colonne in cui si trovano i pivot, in funzione delle restanti
n − p.

Dim. Se il pivot della riga i-esima della matrice completa si trova nell’ultima
colonna significa che una delle equazioni del sistema è della forma 0 = bi , dove
bi è non nullo. Quindi il sistema non può ammettere soluzioni. Proviamo che,
Soluzione di sistemi lineari §5.3 123

se questo non avviene, è sempre possibile determinare le soluzioni del sistema.


Procediamo per induzione sul numero m delle equazioni. Se m = 1 abbiamo una
sola equazione:

a11 x1 + . . . + a1n xn = b1

in cui, dato che il pivot della prima (e unica) riga della matrice associata non si
trova nell’ultima colonna, almeno uno degli aij è non nullo. Supponiamo che il
primo coefficiente non nullo sia a1i . Possiamo allora ricavare

a1(i+1) a1n
xi = − xi+1 − . . . − xn
a1i a1i

quindi esistono soluzioni del sistema, date da tutte e sole le n-ple (x1 , . . . , xn )
in cui la componente i-esima verifica la relazione precedente, ovvero è espressa
come funzione delle rimanenti incognite.
Supponiamo ora che un sistema di m − 1 equazioni la cui matrice completa sia
in forma ridotta e senza pivot nell’ultima colonna verifichi la tesi e consideriamo
un sistema di m equazioni (che sia sempre associato ad una matrice ridotta
con la stessa proprietà). Supponiamo che non esistano equazioni banali, della
forma 0 = 0, che corrisponderebbero a righe nulle nella matrice completa, in
quanto sarebbe possibile scartare tali equazioni senza alterare l’insieme delle
soluzioni e ridursi ad un sistema equivalente ma composto da m − 1 equazioni,
al quale si potrebbe subito applicare l’ipotesi induttiva. Abbiamo quindi m pivot
nella matrice ridotta, uno in ciascuna riga. Sia ami il pivot della m-esima riga,
possiamo allora ricavare

am(i+1) amn
xi = − xi+1 − . . . − xn . (5.4)
ami ami

Con questa condizione l’ultima equazione risulta soddisfatta e, sostituendo ta-


le espressione nelle restanti equazioni, otteniamo un sistema lineare di m − 1
equazioni in n − 1 incognite (in quanto l’incognita xi non compare più nelle
equazioni). La matrice completa associata al sistema è ancora in forma ridotta
e, poiché i pivot non sono stati alterati, non vi sono pivot nell’ultima colonna.
Di conseguenza il sistema ammette soluzioni per l’ipotesi induttiva e, dato che
il numero dei pivot è pari a m − 1, è possibile esprimere m − 1 incognite in
funzione delle restanti n − (m − 1). Sostituendo, se necessario, i valori delle
incognite determinate nella (5.4) abbiamo determinato m incognite in funzione
delle restanti n − m
124 Capitolo 5 Sistemi Lineari

Esempio 5.21 Consideriamo il sistema nelle incognite x1 , . . . , x5 :



 x2 + x3 − 2x4 + x5 = 3

x3 − 2x4 − x5 = −1


x4 + x5 = 2
La matrice associata al sistema è
 
0 1 1 −2 1 3
 
0 0 1 −2 −1 −1 ,
0 0 0 1 1 2
ed è in forma ridotta. I pivot si trovano nei posti (1, 2), (2, 3), (3, 4), corrispondono
quindi alle incognite x2 , x3 , x4 , che potranno essere determinate in funzione delle
rimanenti. Si ha infatti che le soluzioni sono della forma (x1 , −2x5 + 4, −x5 +
3, −x5 +2, x5 ). E’ stato possibile esprimere x2 , x3 , x4 come funzioni in cui compare
solo x5 , ma si osservi che queste possono essere considerate funzioni di x1 e x5 in
cui la dipendenza da x1 è costante e nulla.

In particolare abbiamo:

Corollario 5.22 Sia K un campo. E sia dato un sistema lineare associato ad


una matrice A ∈ M(m × n, K) che sia in forma ridotta. Allora

(i) Il sistema ammette un’unica soluzione se e solo se esiste un pivot in ogni


colonna tranne l’ultima.
(ii) Se il sistema ammette soluzioni e il numero dei pivot è inferiore al nume-
ro delle incognite allora la soluzione non è unica. Se il campo K contiene
infiniti elementi le soluzioni sono infinite.

Dim. 1) Sappiamo che non possono esistere soluzioni se c’è un pivot nell’ultima
colonna. Per la Proposizione precedente tutte le variabili sono determinate e
non dipendono da alcuna altra variabile. In altre parole sono costanti. Quindi la
soluzione è unica.
2) In questo caso esistono variabili che non sono determinate dalle equazioni.
E’ possibile quindi ottenere soluzioni distinte utilizzando la possibilità di dare
valori diversi a tali variabili.

Come conseguenza della Proposizione 5.13 abbiamo inoltre

Corollario 5.23 Dato un sistema lineare associato ad una matrice A. Ogni


matrice ridotta ottenibile da A mediante operazioni che non alterino l’insieme
delle soluzioni del sistema ammette lo stesso numero di pivot.
Soluzione di sistemi lineari §5.3 125

Dim. Abbiamo visto che, nella soluzione di un sistema, il numero di incognite


che è possibile esprimere in funzione delle incognite restanti è dato dal nume-
ro di pivot di una matrice ridotta che corrisponda ad un sistema equivalente a
quello dato. Quindi questo numero non può dipendere dalla particolare matrice
ridotta dato che l’insieme delle soluzioni, come sottoinsieme di Kn , è lo stesso
in quanto i sistemi risultanti sono equivalenti.

Nel capitolo successivo attribuiremo anche un significato geometrico al numero


di pivot di una matrice ridotta.

Esempio 5.24 Consideriamo il sistema in tre incognite




 x1 − 3x2 + x3 = 0
−x1 + 3x2 = 1


2x1 − 6x2 − 2x3 = −4

Il primo passo del procedimento di riduzione porta alla matrice


 .. 
1 −3 1 . 0
 .. 
 
0 0 1 . 1 .
 
..
0 0 −4 . −4

Continuando con la riduzione si arriva alla matrice


 . 
1 −3 1 .. 0
 . 
 
0 0 1 .. 1 .
 
..
0 0 0 . 0

Il sistema è quindi equivalente al sistema


(
x1 − 3x2 + x3 = 0
x3 = 1

Che ha soluzioni della forma (x1 , x2 , x3 ) = (3x2 − 1, x2 , 1).

Esempio 5.25 Consideriamo il sistema




 2x1 − x2 + x3 = 1
x1 + 2x2 + x3 = 1


3x1 − 4x2 + x3 = −2
126 Capitolo 5 Sistemi Lineari

La matrice completa associata al sistema è


 
2 −1 1 1
 
1 2 1 1  .
3 −4 1 −2
Con l’usuale procedimento di riduzione otteniamo che il sistema corrispondente a
questa matrice è equivalente a quello della matrice
 
2 −1 1 1
 
0 5 1 1  .
0 0 0 −6
Dato che esiste un pivot nell’ultima colonna il sistema non ha soluzione.

Esempio 5.26 Consideriamo il sistema di quattro equazioni in cinque incognite


associato alla matrice
 
1 1 2 3 4 1
1 1 2 5 4 −5
 
 
2 2 4 4 8 7
1 1 2 3 5 −1
Una matrice ridotta è della forma
 
1 1 2 3 4 1
0 0 0 2 0 −6
 
 
0 0 0 0 1 −2
0 0 0 0 0 −1
Anche in questo caso il sistema non ammette soluzioni.

A volte può essere conveniente, nel procedimento di riduzione, utilizzare lo


scambio di colonne all’interno della matrice incompleta. Si noti che questo cor-
risponde al fatto di scambiare il ruolo di due incognite nel sistema ma, a parte
questo, non altera l’insieme delle soluzioni:

Proposizione 5.27 Se, nella matrice incompleta associata ad un sistema linea-


re, si scambiano la colonna i-esima e la colonna j -esima, si ottiene un sistema
le cui soluzioni si ottengono da quelle del sistema iniziale scambiando i ruoli
delle variabili xi e xj .

E’ essenziale che, nello scambio, non venga coinvolta l’ultima colonna in quan-
to questa non corrisponde alle variabili e, nel caso si porti o si rimuova un pivot
dall’ultima colonna, si altera l’insieme delle soluzioni. Anche in questo caso
l’operazione di scambio di colonne può essere interpretata tramite il prodotto
Soluzione di sistemi lineari §5.3 127


per una matrice elmentare In ottenuta dalla matrice identica mediante lo stesso
scambio di colonne. Trattandosi di operazioni sulle colonne, l’ordine della ma-
trice identica dovrà essere pari al numero n delle colonne della matrice A del
sistema e il prodotto effettuato sarà A · In .

Esempio 5.28 Determiniamo, al variare del parametro reale k, il numero di


soluzioni del sistema in tre incognite

 x1 + kx2 + x3 = k

kx1 + x2 − kx3 = 1


x1 + x2 − x3 = 1

Dobbiamo studiare la matrice


 .. 
1 k 1 . k
 .. 
 
k 1 −k . 1 .
 
..
1 1 −1 . 1

Il primo passaggio del metodo di riduzione porta alla matrice


 .. 
1 k 1 . k 
 .. 
 2
0 1−k 2
−2k . 1−k .
 
..
0 1−k −2 . 1−k

Questa situazione non è ottimale in quanto vorremmo avere un pivot sulla secon-
da riga ma non sappiamo se 1 − k2 è nullo o meno. Dovremmo quindi distinguere
il caso k = ±1 dagli altri. Per evitare di dover procedere con troppi sottocasi,
scambiamo la seconda e la terza riga. Otteniamo la matrice
 
..
1 k 1 . k 
 .. 
 
0 1−k −2 . 1 − k .
 
..
0 1 − k2 −2k . 1−k 2

La situazione non è ancora ottimale perché abbiamo ancora al posto a22 una
quantità che può ancora essere nulla (anche se adesso gli unici casi da conside-
rare sarebbero k = 1 e k ≠ 1). Se siamo interessati solo a stabilire l’esistenza
delle soluzioni, senza determinarle, possiamo però scambiare la seconda e la ter-
za colonna. E’ importante notare che lo scambio avviene all’interno della ’matrice
128 Capitolo 5 Sistemi Lineari

incompleta’, quindi il risultato finale non viene falsato. Si ottiene


 .. 
 1 1 k . k 
 .. 
 
0 −2 1 − k . 1 − k .
 
.
0 −2k 1 − k2 .. 1 − k2

Proseguendo col metodo di riduzione arriviamo alla matrice


 .. 
 1 1 k . k 
 .. 
 
0 −2 1 − k . 1 − k .
 
..
0 0 1−k . 1−k

Se k ≠ 1 abbiamo pivot in tutte le colonne (tranne l’ultima) quindi esiste un’unica


soluzione. Se k = 1 la terza riga è identicamente nulla ed è possibile determinare
le prime due variabili in funzione della terza. Dato che abbiamo effettuato uno
scambio di colonne questo corrisponde a determinare x1 e x3 in funzione di x2 .

Consideriamo ora una particolare classe di sistemi lineari:

Definizione 5.29 Una sistema lineare è detto omogeneo se il vettore dei termini
noti è nullo.

Se il sistema è omogeneo, nella matrice completa associata al sistema gli elementi


dell’ultima colonna sono quindi tutti nulli e durante il procedimento di riduzione
della matrice resteranno tali. Ne segue che non vi potrà mai essere un pivot
nell’ultima colonna. Questo significa che un sistema omogeneo ammette sempre
almeno una soluzione. Infatti il vettore nullo (x1 , . . . , xn ) = (0, . . . , 0) è sempre
soluzione del sistema. Lo studio dei sistemi omogenei è quindi dedicato alla
ricerca di soluzioni non nulle.

Esempio 5.30 Consideriamo il sistema




 x1 − x2 − x3 = 0
x1 + x2 + 2x3 = 0


−x1 + 2x2 − 3x3 = 0

In questo caso la matrice completa è


 
1 −1 −1 0
 
1 1 2 0 .
−1 2 −3 0
Soluzione di sistemi lineari §5.3 129

Portando la matrice in forma ridotta otteniamo


 
1 −1 −1 0
 
0 2 3 0
0 0 11 0
Dato che esiste un pivot in ogni colonna della matrice incompleta la soluzione è
unica ed è data dalla soluzione nulla.

Esempio 5.31 Consideriamo il sistema




 x + 2y − z + 3t = 0
2x + 5y − 4z + 10t = 0


−x − 4y + 6z − 12t = 0
La matrice completa del sistema è
 
1 2 −1 3 0
 
 2 5 −4 10 0 .
−1 −4 6 −12 0
Si verifica facilmente che il sistema ammette infinite soluzioni, dipendenti da un
parametro, della forma (2z, −2z, z, z).

Esercizio 5.1 Stabilire l’esistenza ed il numero di soluzioni dei seguenti sistemi


lineari ( (
x1 + 3x2 − 2x3 = −1 2x1 + x2 = 1
a) , b)
3x1 + 9x2 − 6x3 = −3 4x1 + 2x2 = −1
 

 −2x1 + 2x2 − 4x3 + 6x4 = 0 
 2x1 − x2 + x3 + 1 = 0

 

 −5x + 2x − 7x + 10x = 0  x + 2x − x + 1 = 0
1 2 3 4 1 2 3
c) , d)

 4x + 5x + 7x = 0 
 4x + 3x − x 3+3=0


1 3 4 

1 2
 3x + x + 3x − 4x = 0  5x + x + 3 = 0
1 2 3 4 1 3

Esercizio 5.2 Determinare, al variare dei parametri a, b, il numero di soluzioni


dei sistemi


 4x1 + x2 = 8 


 3ax − 2x = 0  ax1 + x2 = 0

1 2
a) , b) x1 + ax2 = 0
 5x1 + 2x2 = 5
 


 2x1 + (1 + a)x2 = a
 −x + 7bx = 8
1 2

 

 x1 + ax2 + x3 = −a + 2 
 x1 + ax2 + x3 = a
c) x1 − x2 = 1 + a2 , d) ax1 + x2 − ax3 = 1

 

x2 − x3 = −a x1 + x2 − x3 = 1
130 Capitolo 5 Sistemi Lineari

 
 ax1 + 2x2 − bx3 = b
  5x1 − x2 − 3x3 + 4x4 − 8x5 = 5

e) x2 + ax3 = 0 , f) x1 − 5x2 − 15x3 + 4x4 − 8x5 = a

 

ax1 + bx3 = b 2x1 − 4x2 − 12x3 + x4 − 2x5 = 2

Struttura dello spazio delle soluzioni


Veniamo ora alla struttura dello spazio delle soluzioni di un sistema linea-
re. Questa sarà poi reinterpretata alla luce dei risultati del prossimo capitolo.
Iniziamo dal caso dei sistemi omogenei;

Proposizione 5.32 Sia S ⊂ Kn l’insieme delle soluzioni di un sistema lineare


omogeneo di m equazioni in n incognite. Allora la somma di elementi di S e
il prodotto di un elemento di S per uno scalare appartengono ancora ad S.

Dim. Sia A la matrice incompleta associata al sistema. Se x, y ∈ Kn apparten-


gono ad S si ha A · x = 0 e A · y = 0 da cui, per la proprietà distributiva,
A · (x + y) = A · x + A · y = 0
quindi x + y ∈ S. Se x ∈ S e λ ∈ K si ha
A · (λx) = λA · x = 0
da cui λx ∈ S.
Vedremo nel prossimo capitolo come, grazie alla precedente proprietà, sia pos-
sibile definire la dimensione di questo insieme (nella Proposizione 6.55). Intuiti-
vamente, in analogia a quanto visto nel caso dei vettori liberi, abbiamo che ogni
combinazione lineare di soluzioni di un sistema lineare omogeneo è ancora una
soluzione di tale sistema. Mostriamo ora come l’insieme delle soluzioni di un si-
stema lineare qualsiasi sia ottenibile mediante una traslazione dall’insieme delle
soluzioni del sistema omogeneo associato alla matrice incompleta del sistema:

Proposizione 5.33 Sia S ⊂ Kn l’insieme delle soluzioni di un sistema lineare


di m equazioni in n incognite della forma A · x = b . Supponiamo S ≠ ∅, se
x0 ∈ S è una qualunque soluzione del sistema e S0 è l’insieme delle soluzioni
del sistema omogeneo A · x = 0 allora

S = x0 + S0

ovvero gli elementi x di S sono tutti e soli quelli della forma

x = x0 + y

con y ∈ S0 .
Struttura dello spazio delle soluzioni §5.4 131

Dim. Proviamo l’uguaglianza tra i due insiemi mediante la doppia inclusione. Se


x ∈ S si ha A · x = b e A · x0 = b, quindi

A · (x − x0 ) = A · x − A · x0 = b − b = 0

e x − x0 appartiene a S0 . Posto y = x − x0 si ha y ∈ S0 e x = x0 + y. Quindi


S ⊆ x0 + S0 . Viceversa se y ∈ S0 si ha

A · (x0 + y) = A · x0 + A · y = b + 0 = b

e x0 + y ∈ S. Quindi x0 + S0 ⊆ S.

Intuitivamente una traslazione non altera la dimensione di un insieme (concetto


che definiremo meglio in seguito), questa è quindi pari alla ’dimensione’ del-
l’insieme delle soluzioni del sistema omogeneo associato. Quindi un sistema
ammette più di una soluzione solo se lo stesso avviene per il sistema omogeneo
associato.

Esempio 5.34 Consideriamo il sistema di tre equazioni in tre incognite:


(
x+y −z =1
−x − 2y + z = 4

Il luogo delle soluzioni del sistema può essere interpretato come intersezione di
due piani in R3 . Dato che le soluzioni risultano essere della forma

(6 + z, −5, z) = (6, −5, 0) + (z, 0, z) = (6, −5, 0) + z(1, 0, 1)

si ha che le soluzioni rappresentano i punti di una retta passante per (6, −5, 0)
e parallela a (1, 0, 1). Le soluzioni del sistema omogeneo associato sono della
forma z(1, 0, 1) e descrivono una retta passante per l’origine e parallela al vettore
(1, 0, 1). La traslazione che porta l’origine in (6, −5, 0) fa quindi coincidere le due
rette.

Esempio 5.35 Consideriamo il sistema omogeneo in tre incognite


(
x1 + 2x2 − x3 = 0
2x1 − 4x2 + x3 = 0

Sappiamo che questo sistema ammette almeno la soluzione nulla, ma il fatto che
il numero di incognite sia maggiore del numero delle equazioni implica non vi
possa essere un pivot in ogni colonna. Quindi le soluzioni sono sempre infinite.
Col metodo di riduzione si ottiene, già al primo passaggio, la matrice ridotta
!
1 2 −1 0
0 −8 3 0
132 Capitolo 5 Sistemi Lineari

Visto che il sistema è equivalente al sistema di partenza, determiniamo le soluzioni


di questo sistema:
(
x1 + 2x2 − x3 = 0
−8x2 + 3x3 = 0
Si osservi come, dalla struttura della matrice ridotta, si può dedurre che le inco-
gnite che corrispondono ad elementi non nulli sulla diagonale (in questo caso la
x1 e la x2 ), possono essere determinate in funzione delle rimanenti (in questo caso
la x3 ). Infatti, dalla seconda equazione ricaviamo x2 = 83 x3 e, sostituendo nella
prima equazione, si ottiene x1 = 14 x3 , fornendo l’equazione parametrica della ret-
ta. In particolare il sistema omogeneo ammette soluzioni diverse da quella nulla,
ottenibili attribuendo un valore diverso da zero all’incognita x3 .

Possiamo generalizzare quanto visto nell’esempio precedente:

Proposizione 5.36 Un sistema lineare omogeneo a coefficienti in un campo


K tale che il numero delle equazioni sia inferiore al numero delle incognite
ammette sempre una soluzione non nulla. Se il campo K non è finito il sistema
ammette infinite soluzioni.

Dim. Questo è un semplice corollario della Proposizione 5.20 in quanto queste


ipotesi implicano immediatamente quelle della Proposizione.
Lo studio degli spazi vettoriali è, insieme a quello delle funzioni lineari, lo
scopo principale del corso. Procediamo in analogia con quanto fatto nel caso
dei vettori liberi, approfondendo però l’aspetto teorico. Questo permetterà di
tornare sulla teoria delle matrici, definendone il rango, e permetterà un’altra
formulazione del criterio di esistenza delle soluzioni di sistemi lineari.

Spazi vettoriali
Nel terzo capitolo abbiamo accennato all’esistenza di insiemi V che hanno pro-
prietà simili a quelle dello spazio dei vettori liberi, e vengono, di conseguenza,
detti spazi vettoriali :

Definizione 6.1 Un insieme V ha una struttura di spazio vettoriale su un campo


K se sono definite in V due operazioni: la somma V × V → V e il prodotto per uno
scalare K × V → V in modo che si abbia
1) ∃0V ∈V : ∀v ∈ V , v + 0V = 0V + v = v;
2) ∀v ∈ V , ∃ − v ∈ V : v + (−v) = 0V ;
3) ∀v, w ∈ V : v + w = w + v;
4) ∀v, w, t ∈ V : v + (w + t) = (v + w) + t;
(6.1)
5) ∀v ∈ V : 1 v = v;
6) ∀v ∈ V , ∀λ, µ ∈ K : (λ + µ) v = λ v + µ v;
7) ∀v ∈ V , ∀λ, µ ∈ K : (λµ) v = λ (µ v);
8) ∀v, w ∈ V , ∀λ ∈ K : λ (v + w) = λ v + λ w.
Dove abbiamo indicato con 1 ∈ K l’elemento neutro del prodotto nel campo K.

Nel seguito, quando questo non genera confuzione, indicheremo spesso con 0
l’elemento neutro della somma 0V in V . Si noti che le prime proprietà forniscono
ad uno spazio vettoriale la struttura di gruppo commutativo rispetto alla somma.
In particolare l’elemento neutro è unico, così come l’opposto di un elemento dato
(si veda il Capitolo 10). Per quanto riguarda il prodotto per uno scalare abbiamo
che, indicati 0, 1 gli elementi neutri di somma e prodotto in K, si ha

0 v = 0V , (−1) v = −v
134 Capitolo 6 Spazi Vettoriali

per ogni v ∈ V . La dimostrazione di queste proprietà è molto simile a quella


dei Lemmi 10.26, 10.27 e la omettiamo. Nel seguito ometteremo anche, quando
non è necessario, il riferimento al campo K, intendendo con questo che i risultati
sono validi qualunque esso sia. Molti spazi comunemente usati in matematica
hanno una struttura di spazio vettoriale, fra questi

(i) Lo spazio n-dimensionale Kn , dove K è un campo e le operazioni sono


definite da

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )

λ (x1 , . . . , xn ) = (λx1 , . . . , λxn ).

(ii) Lo spazio M(m × n, K) delle matrici di tipo m × n a coefficienti in K, dove


le operazioni sono definite da
     
a11 ··· a1n b11 ··· b1n a11 + b11 ··· a1n + b1n
     
 . .   . .   . . 
 . .  + . .  = . . 
 . .   . .   . . 
am1 ··· amn bm1 ··· bmn am1 + bm1 ··· amn + bmn

   
a11 ··· a1n λa11 ··· λa1n
   
 . .   . . 
λ . .  = . . 
 . .   . . 
am1 ··· amn λam1 ··· λamn

(iii) Lo spazio Kn [x] dei polinomi a coefficienti in un campo K, di grado non


superiore a n, dove le operazioni sono definite, nel modo ovvio, da

(an x n + . . . + a0 ) + (bn x n + . . . + b0 ) = (an + bn )x n + . . . + a0 + b0

λ (an x n + . . . + a0 ) = λan x n + . . . + λa0

Grazie alle operazioni di somma e prodotto per uno scalare è possibile esten-
dere agli spazi vettoriali i concetti di combinazione lineare e di lineare indipen-
denza. Il primo ci porterà alla definizione di sottospazio di uno spazio vettoriale,
il secondo a quella di base di uno spazio vettoriale. Una prima costruzione, che
permette di ottenere nuovi spazi vettoriali a partire da esempi noti, è quella di
prodotto:

Definizione 6.2 Siano V , W due spazi vettoriali su di uno stesso campo K. Il


prodotto di V e W è il prodotto cartesiano V × W munito delle seguenti operazioni:

(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ), λ (v, w) = (λ v, λ w).

Esempio 6.3 Se K è un campo, il prodotto di Kn per Km è Kn+m .


Sottospazi vettoriali §6.2 135

Esercizio 6.1 Determinare l’elemento neutro della somma dello spazio R3 [x] dei
polinomi a coefficienti reali di grado non superiore a 3 e dello spazio M(4 × 2, R)
delle matrici di tipo 4 × 2 a coefficienti reali. Determinare quindi, nei rispettivi
spazi, gli inversi rispetto alla somma del polinomio x 2 + 2x − 3 e della matrice
 
2 1
1 3 
 
 
4 2 
1 −5

Esercizio 6.2 L’insieme dei numeri razionali, munito delle operazioni indotte da
R, è uno spazio vettoriale su Q?

Esercizio 6.3 Dire se R3 , munito delle seguenti operazioni

(x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (0, 0, 0),

λ(x, y, z) = (λx, λy, λz)

è uno spazio vettoriale.

Esercizio 6.4 Provare che il prodotto di due spazi vettoriali V e W ha una struttura
di spazio vettoriale rispetto alle operazioni introdotte nella definizione.

Esercizio 6.5 Sia V = R2 munito delle seguenti operazioni

(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ), λ (x1 , y1 ) = (λ x1 , 0)

dove λ ∈ R. Stabilire se, con questa struttura, V è uno spazio vettoriale su R.

Sottospazi vettoriali
Vogliamo cercare, all’interno di uno spazio vettoriale V , dei sottoinsiemi che
abbiano ancora la proprietà di essere spazi vettoriali rispetto alle stesse opera-
zioni definite in V . La definizione è la seguente:

Definizione 6.4 Sia V uno spazio vettoriale su un campo K. Un suo sottoinsieme


non vuoto W è un sottospazio vettoriale di V se sono verificate le seguenti proprietà
(i) ∀w1 , w2 ∈ W : w1 + w2 ∈ W ;
(ii) ∀w ∈ W , ∀λ ∈ K : λ w ∈ W .

Questo equivale a richiedere che la somma di elementi di W stia ancora in W e


così pure il prodotto di un elemento di W per uno scalare.
136 Capitolo 6 Spazi Vettoriali

Esempio 6.5 Consideriamo, in R4 l’insieme

W = {(x, y, z, t) : x + 2y + z − t = 0}.

Questo è un sottospazio vettoriale di R4 . Un modo di verificarlo è utilizzare la


relazione che definisce gli elementi di W per descrivere un suo elemento generico.
Ricavando t in funzione delle altre variabili si ha:

W = {(x, y, z, x + 2y + z), x, y, z ∈ R}. (6.2)

Gli elementi di W sono quindi quegli elementi di R4 la cui quarta componente è da-
ta dalla somma della prima e della terza col doppio della seconda. Se consideria-
mo due elementi w1 = (x1 , y1 , z1 , x1 +2y1 +z1 ) e w2 = (x2 , y2 , z2 , x2 +2y2 +z2 ),
essendo la definizione di somma in W la stessa che abbiamo in R4 , si ha

w1 + w2 = (x1 + x2 , y1 + y2 , z1 + z2 , (x1 + x2 ) + 2(y1 + y2 ) + (z1 + z2 )).

E questo è ancora un elemento della forma (6.2), cioè un elemento di W . Sia ora
λ ∈ K, si ha
λw1 = (λx1 , λy1 , λz1 , λx1 + 2λy1 + λz1 )

che è ancora un elemento della forma (6.2). Quindi è provato che W è un sotto-
spazio vettoriale di R4 .

Esempio 6.6 Consideriamo il seguente sottoinsieme di M(3 × 3).

W = {A ∈ M(3 × 3) : tr(A) = 0}.

Dove tr(A) è la traccia della matrice A, ovvero la somma degli elementi sulla
diagonale principale, nel nostro caso tr(A) = a11 + a22 + a33 . L’elemento generico
di W si può allora scrivere come
 
a11 a12 a13
 
a21 a22 a23 .
a31 a32 −(a11 + a22 )
Non è difficile verificare che la somma di elementi di questa forma è ancora in W ,
così come il prodotto di una tale matrice per uno scalare.

Esempio 6.7 Consideriamo il seguente sottoinsieme di R3

W = {(x, y, z) ∈ R3 : x + y − z = 1}.

In questo caso l’insieme non è un sottospazio vettoriale. E’ possibile verificarlo


anche nel seguente modo: osserviamo che se W è un sottospazio vettoriale di V ,
deve contenere 0V , l’elemento neutro della somma in V . Infatti, se w ∈ W si
deve avere (dalla seconda proprietà della definizione di sottospazio) 0 w ∈ W , ma
Sottospazi vettoriali §6.2 137

0 w = 0V . Nel caso del nostro esempio tale elemento è (0, 0, 0) ed è immediato


verificare che non appartiene a W .

I sottospazi vettoriali di K n sono legati alle soluzioni di sistemi (eventualmente


con una sola equazione) di equazioni lineari omogenee, cioè sistemi in cui le
incognite sono elevate ad un grado non superiore al primo e le equazioni sono
prive di termine noto. Il motivo per cui, nell’esempio precedente non si ottiene
un sottospazio vettoriale è proprio la presenza di un termine noto nell’equazione
che definisce W .

Esempio 6.8 Come immediata conseguenza della Proposizione 5.32 abbiamo che
l’insieme delle soluzioni di un sistema omogeneo di m equazioni in n incognite è
un sottospazio vettoriale di Kn . Torneremo su questo esempio in un paragrafo
successivo, dopo aver definito la dimensione di uno spazio vettoriale.

Un sottospazio vettoriale W ⊂ V , è, per definizione, un sottoinsieme di uno


spazio vettoriale V ed è possibile effettuarvi le operazioni di somma e prodotto
per uno scalare in quanto queste sono definite in V . Con queste operazioni,
’dimenticando’ l’inclusione in V , W è uno spazio vettoriale. Ad, esempio, il piano
in R3 dell’Esempio 6.5 è uno spazio vettoriale.

Proposizione 6.9 Sia W un sottospazio vettoriale di uno spazio vettoriale V


su un campo K. Allora W ha una struttura di spazio vettoriale su K.

Dim. Definiamo le operazioni di somma e prodotto per uno scalare in W sempli-


cemente come le operazioni indotte dal fatto che gli elementi di W appartengono
a V . Abbiamo che se w ∈ W , dalla seconda proprietà della definzione, 0 w ∈ W ,
ovvero 0V ∈ W . Questo è l’elemento neutro della somma in V e, per come sono
definite le operazioni in W , lo è anche in W . Dalle proprietà del prodotto per uno
scalare in V abbiamo che (−1) w = −w è l’opposto di w rispetto alla somma.
Quindi tale elemento appartiene a W , che contiene gli opposti di tutti i suoi ele-
menti. Il fatto che valgano le otto proprietà della definizione di spazio vettoriale
segue banalmente dal fatto che valgono in V .

Per descrivere i sottospazi vettoriali di uno spazio vettoriale V , almeno nei


casi che ci interessano, conviene soffermarsi sulla definizione di combinazione
lineare.

Definizione 6.10 Sia V uno spazio vettoriale su un campo K. La combinazione


lineare dei vettori v1 , . . . , vn ∈ V con coefficienti λ1 , . . . , λn ∈ K è definita da da

λ1 v1 + . . . + λn vn .
138 Capitolo 6 Spazi Vettoriali

Indicheremo con L(v1 , . . . , vn ) l’insieme di tutte le combinazioni lineari dei vettori


v1 , . . . , vn .

In molti testi l’insieme definito sopra è indicato con < v1 , . . . , vn > ed è anche
chiamato span dei vettori v1 , . . . , vn .

Esempio 6.11 Consideriamo il caso dei vettori liberi.


(i) Se v 1 = 0, si ha L(v 1 ) = 0;
(ii) Se v 1 ≠ 0, L(v 1 ) è dato da tutti i vettori paralleli a v 1 ;
(iii) Se v 1 e v 2 sono due vettori non paralleli, L(v 1 , v 2 ) è dato da tutti i vettori
complanari a v 1 e v 2 ;
(iv) Sia v 1 , v 2 , v 3 una base di V . In tal caso L(v 1 , v 2 , v 3 ) = V .

Osserviamo che se un sottospazio contiene i vettori v1 , . . . , vn , deve contenere


anche λ1 v1 , . . . , λn vn , qualunque siano λ1 , . . . , λn , dato che la moltiplicazione
per uno scalare è una operazione ’interna’ al sottospazio. Poiché anche la somma
è una operazione interna al sottospazio vettoriale, anche λ1 v1 + . . . + λn vn deve
appartenere a W . Ne segue che L(v1 , . . . , vn ) ⊂ W , ovvero se un sottospazio
contiene dei vettori, deve contenere ogni loro combinazione lineare. Analizziamo
meglio L(v1 , . . . , vn ).

Proposizione 6.12 Sia V uno spazio vettoriale su un campo K e siano dati dei
vettori v1 , . . . , vn ∈ V . Allora W = L(v1 , . . . , vn ) è un sottospazio vettoriale di
V.

Dim. Siano w1 , w2 ∈ W . Essendo W l’insieme delle combinazioni lineari di


v1 , . . . , vn si avrà w1 = a1 v1 + . . . + an vn e w2 = b1 v1 + . . . + bn vn . Quindi

w1 + w2 = (a1 + b1 )v1 + . . . + (an + bn )wn

è ancora una combinazione lineare di v1 , . . . , vn cioè un elemento di W . Sia ora


λ ∈ K, si ha
λw1 = λa1 v1 + . . . + λan vn

che è ancora un elemento di W .

Queste osservazioni permettono di descrivere completamente i sottospazi vet-


toriale di alcuni spazi vettoriali noti.

Esempio 6.13 Consideriamo lo spazio V dei vettori liberi. Sia W un suo sottospa-
zio vettoriale. Si deve verificare uno dei seguenti casi.
Sottospazi vettoriali §6.2 139

(i) W contiene tre elementi linearmente indipendenti v 1 , v 2 , v 3 . In tal caso W


deve contenere L(v 1 , v 2 , v 3 ) = V , quindi W = V .
(ii) in W è possibile trovare 2 elementi linearmente indipendenti v 1 e v 2 ma
W ≠ V . In tal caso W deve contenere anche L(v 1 , v 2 ) cioè l’insieme dei
vettori complanari a v 1 e v 2 . Non vi possono essere altri elementi in W
dato che un terzo vettore non complanare con v 1 e v 2 ci riporterebbe al
caso precedente. Quindi W = L(v 1 , v 2 ).
(iii) in W non si possono determinare due elementi linearmente indipendenti ma
W ≠ 0. In tal caso W deve contenere un vettore non nullo v. Deve quindi
contenere L(v), ovvero tutti i vettori paralleli a v. Non può contenere altri
elementi, altrimenti torneremmo al caso precedente, quindi W = L(v).
(iv) W contiene solo l’elemento neutro della somma W = {0} = L(0).
I sottospazi vettoriali di V sono quindi: V , gli insiemi di vettori complanari a due
vettori dati, gli insiemi di vettori paralleli ad un vettore dato e 0.

Nei casi che consideriamo in questo capitolo i sottospazi di uno spazio vet-
toriale V saranno sempre esprimibili nella forma L(v1 , . . . , vn ) per opportuni
v1 , . . . , vn . Si dice in tal caso che il sottospazio è generato da v1 , . . . , vn e che que-
sti vettori formano un sistema di generatori del sottospazio. Il caso in cui questo
non avviene verrà brevemente accennato in un capitolo successivo. Continuiamo
ad analizzare la struttura di questi sottospazi:

Proposizione 6.14 Sia V uno spazio vettoriale su un campo K. Se vi ∈ V è


combinazione lineare di v1 , . . . , vi−1 , vi+1 , . . . , vn si ha

L(v1 , . . . , vn ) = L(v1 , . . . , vi−1 , vi+1 , . . . , vn ).

Dim. Supponiamo per semplicità i = n. Allora vn è esprimibile come combi-


nazione lineare di v1 , . . . , vn−1 , ovvero vn ∈ L(v1 , . . . , vn−1 ). Si ha vn = a1 v1 +
. . . an−1 vn−1 . Sia ora v ∈ L(v1 , . . . vn ), allora
v = λ1 v1 + . . . λn vn = λ1 v1 + . . . + λn−1 vn−1 +
+λn (a1 v1 + . . . an−1 vn−1 ) =
= (λ1 + a1 λn )v1 + . . . (λn−1 + an−1 λn )vn−1 .

Quindi v ∈ L(v1 , . . . , vn−1 ). Dato, ovviamente, L(v1 , . . . vn−1 ) ⊆ L(v1 , . . . , vn )


deve valere l’uguaglianza.

In particolare abbiamo che possono esistere sistemi di generatori di un sotto-


spazio composti da un numero diverso di elementi.
140 Capitolo 6 Spazi Vettoriali

Esempio 6.15 Consideriamo lo spazio


L((1, 2, 0, 1), (2, 1, 1, 0), (0, 3, −1, 2), (−1, 2, 1, 1)) ⊂ R4 .
Si prova facilmente che
(0, 3, −1, 2) = 2(1, 2, 0, 1) − (2, 1, 1, 0) + 0(−1, 2, 1, 1)
quindi il terzo vettore, essendo combinazione lineare dei restanti non influisce
sullo spazio generato e può essere eliminato. Nessuno dei tre vettori rimasti può
essere scritto come combinazione lineare degli altri. Si ha quindi
L((1, 2, 0, 1), (2, 1, 1, 0), (0, 3, −1, 2), (−1, 2, 1, 1)) =
= L((1, 2, 0, 1), (2, 1, 1, 0), (−1, 2, 1, 1)).
In seguito sarà conveniente sostituire alcuni elementi di un sistema genera-
tori, vediamo alcuni modi di farlo che non cambiano lo spazio generato, con
un’evidente analogia col caso dei sistemi lineari:

Proposizione 6.16 Sia V uno spazio vettoriale su un campo K e siano dati i


vettori v1 , . . . , vn ∈ V . Allora lo spazio generato da v1 , . . . , vn non cambia se

(i) si scambiano due vettori:

L(v1 , . . . , vi , . . . , vj , . . . , vn ) = L(v1 , . . . , vj , . . . , vi , . . . , vn ).

(ii) si moltiplica un vettore per uno scalare λ non nullo:

L(v1 , . . . , vi , . . . , vn ) = L(v1 , . . . , λvi , . . . , vn ).

(iii) si sostituisce ad un vettore la sua somma con un multiplo di un altro


vettore

L(v1 , . . . , vi , . . . , vj , . . . , vn ) = L(v1 , . . . , vi , . . . , vj + λvi , . . . , vn ).

Dim. 1) Ovvia.
2) Siano W1 = L(v1 , . . . , vn ), W2 = L(v1 , . . . , λvi , . . . , vn ). Se w1 ∈ W1 si ha
λi
w1 = λ1 v1 + . . . + λi vi + . . . + λn vn = λ1 v1 + . . . + (λvi ) + . . . + λn vn .
λ
Quindi w1 è combinazione lineare di v1 , . . . , λvi , . . . , vn ed appartiene a W2 . In
modo analogo si prova che se w2 ∈ W2 si ha anche w2 ∈ W1 da cui l’uguaglianza
dei due insiemi
3) Siano W1 = L(v1 , . . . , vn ), W2 = L(v1 , . . . , vi , . . . , vj +λvi , . . . , vn ). Se w1 ∈ W1
si ha
w1 = λ1 v1 + . . . + λi vi + . . . + λj vj + . . . + λn vn =
Sottospazi vettoriali §6.2 141

= λ1 v1 + . . . + (λi − λλj )vi + . . . + λj (vj + λvi ) + . . . + λn vn .

Quindi w1 appartiene a W2 . In modo analogo si prova che se w2 ∈ W2 si ha anche


w2 ∈ W1 .

Abbiamo utilizzato la riduzione di Gauss su una matrice per arrivare ad una


matrice, con le stesse proprietà riguardo ai sistemi lineari, ma, in generale, più
semplice. Allo stesso modo queste operazioni su un sistema di generatori di uno
spazio vettoriale, possono portare ad un sistema di generatori più semplice.
Veniamo adesso ad altri metodi che permettono di costruire sottospazi di uno
spazio vettoriale.

Proposizione 6.17 Siano W1 e W2 due sottospazi vettoriali di uno spazio


vettoriale V . Allora

(i) W1 ∩ W2 è un sottospazio vettoriale di V ;


(ii) W1 ∪ W2 è un sottospazio di V se e solo se W1 ⊂ W2 oppure W2 ⊂ W1 .

Dim. La dimostrazione della prima parte è ovvia ed è lasciata per esercizio.


Per la seconda, supponiamo che non valga alcuna delle due inclusioni. Siano
allora w1 ∈ W1 con w1 ∉ W2 e w2 ∈ W2 con w2 ∉ W1 . Se W1 ∪ W2 fosse un
sottospazio vettoriale di V si dovrebbe avere w1 + w2 ∈ W1 ∪ W2 . Se si avesse
w1 + w2 = w1′ ∈ W1 si avrebbe anche w2 = w1′ − w1 , ma questo è un elemento
di W1 e si avrebbe una contraddizione. Se w1 + w2 ∈ W2 si procede in modo
analogo.

Esempio 6.18 Consideriamo i seguenti sottospazi di R2

W1 = {(x, y) ∈ R2 : y = 0}, W2 = {(x, y) ∈ R2 : x = 0}.

L’insieme W1 ∪ W2 è dato dall’unione dei due assi cartesiani e non è un sottospazio


di R2 in quanto se, ad esempio, consideriamo (1, 0) + (0, 1) si ottiene (1, 1) che
non è un elemento di W .

L’unione di due sottospazi W1 e W2 non può condurre alla costruzione di nuovi


sottospazi contenenti W1 e W2 , esiste però una costruzione che conduce a nuovi
esempi

Definizione 6.19 Sia V uno spazio vettoriale e W1 , W2 due suoi sottospazi. La


somma di W1 e W2 è il sottospazio di V definito da

W1 + W2 = {v ∈ V : v = w1 + w2 , w1 ∈ W1 , w2 ∈ W2 }.
142 Capitolo 6 Spazi Vettoriali

La somma è detta diretta se W1 ∩ W2 = {0V }. In tal caso la si indica con W1 ⊕ W2


e i sottospazi sono detti complementari.

La somma di due sottospazi W1 e W2 è quindi l’insieme dei vettori esprimibili


come combinazione lineare di elementi di W1 e W2 . In particolare dato un sistema
di generatori per W1 e un sistema di generatori per W2 la loro unione costituisce
un sistema di generatori per la loro somma.

Esempio 6.20 In R4 si considerano i sottospazi W1 = L((1, 1, 1, 0), (1, 2, 1, 0)) e


W2 = L((1, 3, −1, 0), (−1, 5, −7, 0)). Si ha quindi

W1 + W2 = L((1, 1, 1, 0), (1, 2, 1, 0), (1, 3, −1, 0), (−1, 5, −7, 0)).

Si ha però che i due sottospazi si intersecano, in quanto (1, 1, 1, 0) ∈ W2 , quindi la


somma non è diretta e si ha

W1 + W2 = L((1, 2, 1, 0), (1, 3, −1, 0), (−1, 5, −7, 0)).

In questo caso a generare l’intersezione è proprio uno degli elementi della ba-
se di W1 che abbiamo scelto. Non è detto che questo accada nel caso generale
e l’intersezione sarà generata da una combinazione lineare degli elementi della
base.

Esercizio 6.6 Provare che, in R2 [x] si ha L(−x 2 + 3x, 2x) = L(x, x 2 ).

Esercizio 6.7 Provare che L((1, 1), (1, −1)) = R2 .

Esercizio 6.8 Verificare che l’insieme delle matrici antisimmetriche reali di ordine
3 è un sottospazio vettoriale di M(3, R) e determinarne un sistema di generatori.

Esercizio 6.9 Verificare che se W è un sottospazio di V e v1 , . . . , vn ∈ W allora


L(v1 , . . . , vn ) ⊆ W .

Basi di spazi vettoriali


Nel caso dei vettori liberi avevamo provato che V = L(v 1 , v 2 , v 3 ), se questi
vettori sono non complanari. Un tale insieme è detto base di V . La scelta di una
base portava ad enormi semplificazioni nei calcoli, si pensi alle formule per i
prodotti vettoriale e misto nel caso di una base ortonormale positiva. Il concetto
di base si estende in modo naturale agli spazi vettoriali, vedremo come la scelta
di una base porti ancora a grossi vantaggi. Il punto di partenza per la definizione
delle basi è la seguente
Basi di spazi vettoriali §6.3 143

Definizione 6.21 Sia V uno spazio vettoriale su un campo K. I vettori v1 , . . . , vn ∈


V si dicono linearmente indipendenti se si ha, per una loro combinazione lineare,

λ1 v1 + . . . + λn vn = 0V

se e solo se λ1 = . . . = λn = 0. In caso contrario i vettori si dicono linearmente


dipendenti.

Insieme alla Proposizione 6.14, questo implica che, per caratterizzare lo spa-
zio L(v1 , . . . , vn ), basta considerare il massimo numero di vettori linearmente
indipendenti tra v1 , . . . , vn , abbiamo infatti

Proposizione 6.22 Se dei vettori v1 , . . . , vn , in uno spazio vettoriale V , sono


linearmente dipendenti, allora uno di essi può essere scritto come combina-
zione lineare dei restanti.

Dim. Se i vettori sono linearmente dipendenti è possibile scrivere

λ1 v1 + . . . + λn vn = 0V

con almeno un coefficiente, ad esempio λi , non nullo. Si ha quindi


λ1 λi−1 λi+1 λn
vi = − v1 − . . . − vi−1 − vi+1 − . . . − vn .
λi λi λi λi
Abbiamo quindi espresso vi come combinazione dei vettori restanti.

Quindi, se v1 , . . . , vn sono linearmente dipendenti, uno tra essi, per semplicità


vn , è combinazione lineare dei restanti. Quindi

L(v1 , . . . , vn ) = L(v1 , . . . , vn−1 )

se v1 , . . . , vn−1 è possibile continuare a diminuire il numero di vettori necessari


a descrivere il sottospazio.
Per la definizione di base noi ci limiteremo in realtà ad una classe particolare
di spazi vettoriali

Definizione 6.23 Uno spazio vettoriale V si dice di dimensione finita, se esistono


dei vettori v1 , . . . , vn tali che V = L(v1 , . . . , vn ).

Gli spazi vettoriali di dimensione finita sono quindi gli spazi che ammettono
un sistema di generatori costituito da un numero finito di elementi. Una base
è un sistema di generatori privato di quegli elementi che sono combinazione
lineare di altri elementi del sistema.
144 Capitolo 6 Spazi Vettoriali

Definizione 6.24 Sia V uno spazio vettoriale. I vettori v1 , . . . , vn costituiscono


una base di V se V = L(v1 , . . . , vn ) e v1 , . . . , vn sono linearmente indipendenti. Il
numero n di elementi della base è detto dimensione dello spazio V .

Per come l’abbiamo data, la definizione di dimensione dipende dalla scelta


di una particolare base. Occorre dimostrare che è ben posta, ovvero che non
dipende dalla scelta della base. Per vederlo iniziamo con il seguente

Lemma 6.25 Sia V uno spazio vettoriale e sia v1 , . . . , vn un insieme di vettori


linearmente indipendenti. Se w1 , . . . , wk è un sistema di generatori di V , allora
n ≤ k.

Dim. Essendo w1 , . . . , wk un sistema di generatori possiamo scrivere ogni vi


come loro combinazione lineare

vi = ai1 w1 + . . . + aik wk

Consideriamo una combinazione lineare di v1 , . . . vn con coefficienti xi e suppo-


niamo che sia nulla

0 = x1 v1 + . . . + xn vn =
k
X k
X
= x1 ( a1j wj ) + . . . xn ( anj wj ) =
j=1 j=1
n
X n
X
= ( xi ai1 )w1 + . . . + ( xi aik )wk )
i=1 i=1

Consideriamo il sistema omogeneo, nelle incognite xi , dato dall’annullarsi dei


coefficienti di wj . Questo è dato dalle equazioni
n
X
xi aij = 0
i=1

con 1 ≤ j ≤ k. Se, per assurdo, si avesse k < n, il numero delle equazioni


sarebbe inferiore al numero delle incognite e, per la Proposizione 5.36, avrebbe
una soluzione non nulla. Ma dal fatto che i vi sono supposti essere linearmente
indipendenti sappiamo che l’unica soluzione possibile è xi = 0 e otteniamo una
contraddizione. Quindi deve essere n ≤ k ed abbiamo la tesi.

A questo punto otteniamo facilmente


Basi di spazi vettoriali §6.3 145

Teorema 6.26 Sia V uno spazio vettoriale di dimensione finita. Le basi di V


sono tutte costituite dallo stesso numero di elementi.

Dim. Siano {v1 , . . . , vn } e {w1 , . . . , wk } due basi di V . In particolare i vi li-


nearmente indipendenti e i wj formano un sistema di generatori abbiamo, per
il Lemma precedente, n ≤ k. Scambiano il ruolo delle due basi abbiamo anche
k ≤ n, da cui l’uguaglianza.

Se v1 , . . . , vn formano una base di V , ogni elemento di V è esprimibile come


loro combinazione lineare. Se esistesse un vettore che si può essere scritto in
due modi distinti come combinazione lineare degli elementi della base

v = λ1 v1 + . . . + λn vn = λ′1 v1 + . . . + λ′n vn

si avrebbe (come già visto nel caso dei vettori liberi)

v = (λ1 − λ′1 )v1 + . . . + (λn − λ′n )vn

e questo implica, dato che v1 , . . . , vn sono linearmente indipendenti

0 = λ1 − λ′1 = . . . = λn − λ′n ,

quindi l’espressione di v come combinazione lineare di v1 , . . . , vn è unica.

Definizione 6.27 Sia V uno spazio vettoriale di dimensione n su un campo K. Se


B = {v1 , . . . , vn } è una base di V e v ∈ V si scrive come

v = λ1 v1 + . . . + λn vn ,

l’elemento (λ1 , . . . , λn ) ∈ Kn è detto vettore delle coordinate di v rispetto alla base


B e λi , per i = 1, . . . , n, è detta i−esima coordinata di V rispetto alla base B.

Esempio 6.28 Nel caso dei vettori liberi avevamo definito base un insieme di tre
vettori v 1 , v 2 , v 3 non complanari. Questa definizione coincide con quella che
abbiamo dato sopra. Il fatto che i vettori siano non complanari equivale a dire
che sono linearmente indipendenti. Il teorema della base (Teorema 3.18), infine,
assicura che ogni vettore libero può essere espresso come combinazione lineare di
v 1 , v 2 , v 3 , ovvero V = L(v 1 , v 2 , v 3 ). In particolare la dimensione di V è 3.

Esempio 6.29 Consideriamo, in Rn il seguente insieme di vettori

v1 = (1, 0, . . . , 0), v2 = (0, 1, 0, . . . , 0), . . . , vn = (0, . . . , 0, 1).

Si ha Rn = L(v1 , . . . , vn ), infatti

(x1 , x2 , . . . , xn ) = x1 (1, 0, . . . , 0) + x2 (0, 1, 0, . . . , 0) + . . . + xn (0, . . . , 0, 1).


146 Capitolo 6 Spazi Vettoriali

E’ immediato verificare che i vettori v1 , . . . , vn sono anche linearmente indipen-


denti. Costituiscono quindi una base, detta base canonica, di Rn . Ne segue che la
dimensione di Rn è n.

Esempio 6.30 Consideriamo, in R3 [x], i seguenti polinomi

v0 = 1, v1 = x, v2 = x 2 , v3 = x 3 .

Si verifica facilmente che costituiscono una base di R3 [x] dato che ogni polinomio
p(x) di grado al più 3 si scrive come

p(x) = a3 x 3 + a2 x 2 + a1 x + a0 ,

che è una combinazione lineare di v0 , . . . , v3 con coefficienti a0 , . . . , a3 . La dimen-


sione di R3 [x] è quindi 4. Questo esempio si generalizza al caso di Rn [x], che ha
dimensione n + 1.

Esempio 6.31 Consideriamo, in M(3 × 3), le seguenti matrici


     
1 0 0 0 1 0 0 0 0
     
v 1 = 0 0 0  , v 2 = 0 0 0  , . . . , v 9 = 0 0 0 .
0 0 0 0 0 0 0 0 1
Queste matrici sono linearmente indipendenti e generano M(3 × 3), infatti
     
a11 a12 a13 1 0 0 0 1 0
     
a21 a22 a23  = a11 0 0 0 + a12 0 0 0 + . . . +
a31 a32 a33 0 0 0 0 0 0
 
0 0 0
 
+ . . . + a33 0 0 0 .
0 0 1
In generale M(m × n) ha dimensione m × n.

Molto spesso, negli esempi che consideriamo, per il calcolo della dimensione
di un sottospazio vettoriale, ci basterà ’contare’ i parametri da cui dipende un
suo elemento generico.

Esempio 6.32 Consideriamo il seguente sottospazio di R3

W = {(x, y, z) ∈ R3 : x + y − z = 0}.

Ogni elemento di W (che è un sottospazio in quanto insieme delle soluzioni di un


sistema omogeneo) è della forma (x, y, x + y) = x(1, 0, 1) + y(0, 1, 1). I vettori
(1, 0, 1) e (0, 1, 1) sono chiaramente non paralleli (cioè linearmente indipenden-
ti) e gli elementi di W sono dati da tutte e sole le loro combinazioni lineari. W
Basi di spazi vettoriali §6.3 147

ha quindi dimensione 2 ed una sua base è data da (1, 0, 1) e (0, 1, 1). Il modo
in cui abbiamo ottenuto questa base è il seguente. Nell’espressione dell’elemento
generico di W avevamo due parametri non determinati x, y, abbiamo quindi con-
siderato l’elemento che si ottiene assegnando ad x il valore 1 e ad y il valore 0,
cioè (1, 0, 1). Dando ad x il valore 0 e ad y il valore 1 si ottiene (0, 1, 1).

Esempio 6.33 Consideriamo, in M(3 × 3) il sottospazio W costituito dalle ma-


trici antisimmetriche, cioè le matrici A tali che A = −At . Tali matrici sono ca-
ratterizzate dal fatto che aij = −aji . L’elemento generico di W è quindi della
forma
 
0 a12 a13
 
−a12 0 a23  .
−a13 −a23 0

Abbiamo tre parametri indeterminati ed ogni elemento dello spazio può essere
ottenuto come combinazione lineare degli elementi che si ottengono assegnando
ad un parametro il valore 1 ed ai restanti il valore 0
     
0 a12 a13 0 1 0 0 0 1
     
−a12 0 a23  = a12 −1 0 0 + a13  0 0 0 +
−a13 −a23 0 0 0 0 −1 0 0
 
0 0 0
 
+ a23 0 0 1 .
0 −1 0

Lo spazio delle matrici antisimmetriche di ordine 3 ha quindi dimensione 3. In ge-


n(n−1)
nerale, lo spazio delle matrici antisimmetriche di ordine n ha dimensione 2 .

Il metodo di ’contare i parametri’ deve essere usato con cautela. Bisogna accer-
tarsi che i parametri siano indipendenti e che l’elemento generico dello spazio
possa essere scritto come una combinazione lineare avente quei parametri come
coefficienti.

Esempio 6.34 Siano

W1 = {(x, y, z, t) ∈ R4 : x − y + 3z + t = 0},

W2 = {(x, y, z, t) ∈ R4 : x − t = 0}.

Determiniamo la dimensione del sottospazio W = W1 ∩ W2 di R4 . Le coordinate


degli elementi di W devono verificare le equazioni che definiscono W1 e W2 , ne
segue che l’elemento generico di W è della forma (x, 2x +3z, z, x) = x(1, 2, 0, 1)+
148 Capitolo 6 Spazi Vettoriali

z(0, 3, 1, 0). Quindi W ha dimensione 2 ed una sua base è data da (1, 2, 0, 1) e


(0, 3, 1, 0).

In analogia con quanto visto nel caso dei vettori liberi abbiamo:

Proposizione 6.35 Sia V uno spazio vettoriale di dimensione finita. Ogni ele-
mento di V si scrive in modo unico come combinazione lineare degli elementi
di una base.

Dim. Sia {v1 , . . . , vn } una base di V e sia v ∈ V . Supponiamo che esistano due
espressioni di v come combinazione lineare degli elementi della base:

v = λ1 v1 + . . . + λn vn , v = µ1 v1 + . . . + µn vn .

Sottraendo membro a membro e raccogliendo i coefficienti degli elementi della


base si ottiene allora:

(λ1 − µ1 )v1 + . . . + (λn − µn )vn = 0V .

Dato che gli elementi di una base sono linearmente indipendenti i coefficienti
devono essere tutti nulli. Da cui µi = λi e le due espressioni di v coincidono.

Nella definizione di base entrano in gioco i sistemi di generatori e la lineare


indipendenza. La loro combinazione permette di determinare il numero corretto
di elementi necessari ad esprimere ogni vettore come combinazione lineare in
modo unico. Supponiamo che si abbia V = L(v1 , . . . , vn ), ovvero che {v1 , . . . , vn }
sia un sistema di generatori di V . Se vn+1 ∈ V è un qualunque vettore non nullo
si ha anche V = L(v1 , . . . , vn , vn+1 ) infatti se v = λ1 v1 + . . . + λn vn lo si può
anche esprimere come combinazione lineare di v1 , . . . , vn+1

v = λ1 v1 + . . . + λn vn + 0 vn+1

ma questa scrittura non è unica. Infatti, dato che vn+1 ∈ V lo si potrà esprimere
come vn+1 = µ1 v1 + . . . + µn vn e si ha

v = λ1 v1 + . . . + λn vn − vn+1 + vn+1 =
= λ1 v1 + . . . + λn vn − (µ1 v1 + . . . + µn vn ) + vn+1 =
= (λ1 − µ1 )v1 + . . . + (λn − µn )vn + vn+1

e questa è un’espressione di v come combinazione lineare di v1 , . . . , vn+1 distinta


dalla precedente, infatti il coefficiente di vn+1 è diverso nelle due espressioni.
In altre parole avere ’troppi’ generatori fa perdere l’unicità della scrittura come
combinazione lineare.
Basi di spazi vettoriali §6.3 149

Vediamo più in dettaglio come i sistemi di generatori e la lineare indipendenza


determinano una base:
Proposizione 6.36 Sia V uno spazio vettoriale di dimensione finita n e sia
v1 , . . . , vk un sistema di generatori. Allora

(i) se k = n allora v1 , . . . , vk formano una base di V ;


(ii) se k > n esiste un sottoinsieme di n elementi in {v1 , . . . , vk } che costi-
tuisce una base di V .

Dim. Si noti che non si può avere k < n in quanto la dimensione di V è limitata
superiormente dalla cardinalità di un sistema di generatori.
1) Se v1 , . . . , vk non formassero una base, essendo un sistema di generatori,
dovrebbero essere linearmente dipendenti. Quindi esisterebbe un vi combina-
zione lineare dei restanti (cfr. Proposizione 6.22). Ma allora si avrebbe, per la
Proposizione 6.14
L(v1 , . . . , vk ) = L(v1 , . . . , vi−1 , vi+1 , . . . , vk )
esisterebbe quindi un sistema di generatori costituito da n − 1 elementi e la
dimensione di V dovrebbe essere minore di n per il Lemma 6.25.
2) Come nel punto precedente, visto che v1 , . . . , vk non formano una base,
essendo un sistema di generatori, sono linearmente dipendenti. Quindi esiste un
vi combinazione lineare dei restanti. Ma allora
L(v1 , . . . , vk ) = L(v1 , . . . , vi−1 , vi+1 , . . . , vk−1 )
Se k − 1 = n questi elementi costituiscono una base, per il punto precedente. Al-
trimenti uno di loro può essere espresso come combinazione lineare dei restanti.
Abbiamo allora un sistema di generatori costituito da k − 2 elementi e possiamo
iterare questo procedimento. In k − n passi otteniamo una base di V costituita
da elementi che appartengono al sistema di generatori.
Una base di V è quindi un insieme ’minimale’ di vettori v1 , . . . , vn tali che V =
L(v1 , . . . , vn ). In particolare se la dimensione di V è n e v1 , . . . , vn è un sistema
di generatori non occorre provare la loro lineare indipendenza, cioè formano
sempre una base di V .
E’ possibile costruire una base anche a partire da un insieme di vettori linear-
mente indipendenti ma, in generale, occorrerà aggiungere degli elementi.
Lemma 6.37 Sia V uno spazio vettoriale e siano v1 , . . . , vk dei vettori linear-
mente indipendenti. Se L(v1 , . . . , vk ) ≠ V esiste un vettore vk+1 ∈ V tale che
v1 , . . . , vk+1 siano ancora linearmente indipendenti.
150 Capitolo 6 Spazi Vettoriali

Dim. Se L(v1 , . . . , vk ) ≠ V esiste un vettore vk+1 ∈ V non appartenente a


L(v1 , . . . , vk ). Se
λ1 v1 + . . . + λk vk + λk+1 vk+1 = 0V

allora necessariamente λk+1 = 0 altrimenti si potrebbe scrivere


λ1 λk
vk+1 = − v1 − . . . − − vk
vk+1 vk+1
e si avrebbe vk+1 ∈ L(v1 , . . . , vk ). Per i termini restanti si ha

λ1 v1 + . . . + λk vk = 0V

ma trattandosi di vettori linearmente indipendenti questo implica anche λ1 =


. . . = λk = 0. Quindi tutti i coefficienti delle combinazione lineare sono necessa-
riamente nulli.

Teorema 6.38 [Teorema del completamento della base] Sia V uno spazio vet-
toriale di dimensione finita n e sia v1 , . . . , vk un insieme di vettori linearmente
indipendenti. Allora

(i) Se k = n allora v1 , . . . , vk formano una base di V ;


(ii) se k < n esistono dei vettori vk+1 , . . . , vn tali che v1 , . . . , vn sia una base
di V ..

Dim. Si noti che non si può avere k > n in quanto la dimensione di V è limitata
inferiormente dalla cardinalità di un insieme di vettori linearmente indipendenti.
1) Se v1 , . . . , vk non costituiscono una base vuol dire che non formano un
sistema di generatori. Ovvero V ≠ L(v1 , . . . , vk ). Per il Lemma precedente
esisterebbero n + 1 vettori linearmente indipendenti in V , che ha dimensione
n.
2) Poniamo Wk = L(v1 , . . . , vk ). Dato che v1 , . . . , vk non formano una base,
esiste almeno un vettore vk+1 ∉ Wk appartenente a V . Ne segue che v1 , . . . , vk+1
sono linearmente indipendenti. Posto Wk+1 = L(v1 , . . . , vk+1 ), se k + 1 = n, per
il punto precedente, abbiamo una base di V . Altrimenti possiamo iterare questo
procedimento, che termina in n − k passi.

Esempio 6.39 Sia B = {i, j, k} una base ortonormale positiva di V . Consideriamo


i vettori v 1 = i + k e v 2 = i + j − k. Questi vettori sono linearmente indipendenti,
è quindi possibile determinare un terzo vettore v 3 in modo che v 1 , v 2 , v 3 sia una
base di V . Dalla dimostrazione del Teorema, essendo V di dimensione 3, segue
che basta aggiungere un vettore non complanare con v 1 e v 2 , ad esempio v 3 =
Basi di spazi vettoriali §6.3 151

v 1 ∧ v 2 . Un modo alternativo, in questo caso meno conveniente, è considerare


un generico elemento v 3 = a i + b j + c k e scegliere i parametri in modo che il
prodotto misto di v 1 , v 2 , v 3 sia non nullo.

Come applicazione del precedente Teorema consideriamo la somma di sotto-


spazi vettoriali:

Teorema 6.40 [Formula di Grassmann] Siano V e W due sottospazi di uno


spazio vettoriale. Allora

dim(V + W ) = dim(V ) + dim(W ) − dim(V ∩ W ).

Dim. Per dimostrare il Teorema determiniamo una base di V + W . Consideriamo


V ∩ W . Questo è un sottospazio sia di V che di W e possiamo considerarne una
base {u1 , . . . , uk } dove k = dim(V ∩ W ). Per il Teorema precedente possiamo
determinare v1 , . . . , vn e w1 , . . . , wm in modo tale che {u1 , . . . , uk , v1 , . . . , vn } e
{u1 , . . . , uk , w1 , . . . , wm } siano basi, rispettivamente, di V e di W , dove dim(V ) =
k + n e dim(W ) = k + m. Vogliamo dimostrare che l’unione delle due basi,
cioè {u1 , . . . , uk , v1 , . . . , vn , w1 , . . . , wm } è una base di V + W , contando il numero
di elementi della base avremo quindi la tesi. Proviamo che questi vettori sono
linearmente indipendenti, consideriamo una loro combinazione lineare che dia
come risultato il vettore nullo
k
X n
X m
X
a i ui + b i vi + ci wi = 0
i=1 i=1 i=1

possiamo riscriverla come


n
X k
X m
X
b i vi = − a i ui − ci wi
i=1 i=1 i=1

al primo membro abbiamo un elemento di V e al secondo un elemento di W .


Quindi entrambi devono appartenere a V ∩ W ed essere combinazione lineare di
u1 , . . . , uk . Quindi esistono d1 , . . . , dk tali che
n
X k
X n
X k
X
b i vi = d i ui ⇒ b i vi − d i ui = 0
i=1 i=1 i=1 i=1

abbiamo quindi una combinazione lineare degli elementi di una base di V che ha
come risultato il vettore nullo. Questo è possibile solo se bi = di = 0. Quindi
152 Capitolo 6 Spazi Vettoriali

nella combinazione lineare di partenza resta solo


n
X m
X
a i ui + ci wi = 0
i=1 i=1

che è una combinazione lineare nulla di elementi di una base di W . Abbiamo


quindi ai = ci = 0, da cui segue che i vettori considerati sono linearmente indi-
pendenti. Proviamo che formano un sistema di generatori. Sia v + w ∈ V + W
con v ∈ V e w ∈ W . Possiamo allora scrivere

v = γ1 u1 + . . . + γk uk + λ1 v1 + . . . + λn vn ,

w = δ1 u1 + . . . + δk uk + µ1 w1 + . . . + µm wm

sommando i due vettori abbiamo

v + w = (γ1 + δ1 )u1 + . . . + (γk + δk )uk + λ1 v1 + . . . + λn vn + µ1 w1 + . . . + µm wm .

La dimensione di V + W è quindi k + n + m = dim V + dim W − dim(V ∩ W ), come


richiesto.

Esercizio 6.10 Dire quali, fra i seguenti sottoinsiemi di R3 , sono sottospazi vetto-
riali, verificandolo tramite la definizione.
a) {(x, y, z) ∈ R3 : x = 0} b) {(x, y, z) ∈ R3 : xz = 0}
c) {(x, y, z) ∈ R3 : y ≠ 0} d) {(x, y, z) ∈ R3 : x = −y}
e) {(x, y, z) ∈ R3 : x + y + z = 0} f ) {(x, y, z) ∈ R3 : x + y = 1}

Esercizio 6.11 Provare che il sottoinsieme di M(3 × 3) dato dalle matrici simme-
triche a traccia nulla è un sottospazio vettoriale.

Esercizio 6.12 Provare che il sottoinsieme di R3 [x] dato dai polinomi tali che
p ′ (x) + p ′′ (x) = 0 è un sottospazio vettoriale.

Esercizio 6.13 Siano W1 = L((1, 0, 2), (2, −1, 2)), W2 = L((1, 3, h)). Dire per quali
valori di h, W1 ∪ W2 è un sottospazio vettoriale di R3 .

Esercizio 6.14 Sia i, j, k una base ortonormale positiva di V . Determinare i valori


di h per i quali {v : v · (2 i − j) = 0} ∪ {v : v ∧ (i + h j − 3 k) = 0} è un sottospazio
vettoriale di V .

Esercizio 6.15 Dire se le terne


(i) (1,4,3), (-1,2,-1), (0,6,4)
(ii) (2,-7,2), (0,2,4), (2,-1,5)
Rango di una matrice §6.4 153

(iii) (2,3,-1), (2,0,0), (0,3,-1)


costituiscono basi di R3 .

Esercizio 6.16 Dire se le terne

(i) (1,2,0), (h,0,k), (0,l,1)


(ii) (1,1,1), (1,2,3), (h,1,1)
(iii) (1,1,h), (2,1,4), (4,2,8)
costituiscono delle basi di R3 per opportuni valori dei parametri.

Esercizio 6.17 Dati v1 = (1, 2, 0), v2 = (2, 1, 1), determinare un vettore v3 in


modo che v1 , v2 , v3 sia una base di R3 .

Esercizio 6.18 Determinare delle basi dei seguenti sottospazi di R4

(i) {(x, y, z, t) ∈ R4 : 3x − 2y + 4z + t = 0, x + y − 3z − 2t = 0}
(ii) {(x, y, z, t) ∈ R4 : x + y + z = 0, y + z + t = 0, z + t + x = 0, t + x + y = 0}.

Esercizio 6.19 Determinare una base dello spazio delle matrici simmetriche di
ordine 2.

Esercizio 6.20 Siano W1 = L((1, 2, 1), (2, −1, 1)) e W2 = L((h, 1, 2)). Determinare
h in modo che la dimensione di W1 ∩ W2 sia 1.

Esercizio 6.21 Siano V e W due spazi vettoriali su di uno stesso campo K. Se


{v1 , . . . , vn } e {w1 , . . . , wm } sono, rispettivamente, basi di V e W , mostrare che
{(v1 , 0), . . . , (vn , 0), (0, w1 ), . . . , (0, wm )} è una base di V × W , che ha quindi
dimensione n + m.

Rango di una matrice


Le matrici, che si sono già rivelate strumento utile nel caso del calcolo vetto-
riale e della geometria analitica, sono anche lo strumento centrale per la solu-
zione dei sistemi lineari. Per utilizzarle nello studio dell’algebra lineare occorre
introdurre un nuovo concetto, quello di rango di una matrice.
In molti casi abbiamo visto che dei problemi (ad esempio la complanarità di
vettori) potevano essere ricondotti al calcolo del determinante di una matrice
quadrata. L’approccio seguito era il seguente. Dati i vettori v 1 = x1 i + y1 j +
z1 k, v 2 = x2 i + y2 j + z2 k, v 3 = x3 i + y3 j + z3 k, si calcola il loro prodotto
154 Capitolo 6 Spazi Vettoriali

misto passando ai vettori (x1 , y1 , z1 ), (x2 , y2 , z2 ), (x3 , y3 , z3 ) di R3 e da questi


al determinante della matrice
 
x1 y1 z1
 
x2 y2 z2  .
x3 y3 z3

Se il determinante è nullo i tre vettori sono complanari e quindi linearmente


dipendenti.
Il calcolo del determinante però non ci permette di distinguere se i tre vettori
sono tutti paralleli o se due sono linearmente indipendenti e il terzo è combi-
nazione lineare degli altri due. Il calcolo del rango della matrice permette di
dare una risposta a questo tipo problema, anche in contesti molto più generali.
Questo suggerisce la definizione

Definizione 6.41 Sia K un campo. Il rango (per righe) di una matrice A ∈ M(m ×
n, K)
 
a11 a12 ··· a1n
 .. 
 
 a21 a22 . 
 
 . .. .. 
 .. . . 
 
am1 ··· ··· amn

è il massimo numero di righe della matrice che, pensate come elementi di Kn ,


risultino linearmente indipendenti.

E’ possibile definire il rango per colonne di A ∈ M(m × n, K) pensando alle


colonne di A come ad elementi di Km . Proveremo che questo coincide col rango
per righe di A. Fino ad allora indichiamo con rango(A) (o rangor (A)) il rango per
righe e con rangoc (A) il rango per colonne di A.

Esempio 6.42 Consideriamo la matrice


 
1 2 0 1
 
0 −1 2 −1 .
0 0 2 2

Questa matrice ha rango 3 infatti i vettori che corrispondono alle tre righe, cioè i
vettori (1, 2, 0, 1), (0, −1, 2, −1), (0, 0, 2, 2) di R4 , sono linearmente indipenden-
ti. Verifichiamolo utilizzando la definizione. Consideriamo una loro generica
combinazione lineare e poniamola uguale al vettore nullo

λ1 (1, 2, 0, 1) + λ2 (0, −1, 2, −1) + λ3 (0, 0, 2, 2) = (0, 0, 0, 0).


Rango di una matrice §6.4 155

Deve quindi essere




 λ1 = 0


 2λ − λ = 0
1 2

 2 λ + 2 λ3 = 0


2
 λ − λ + 2λ = 0
1 2 3

La soluzione di questo sistema è immediata, basta esaminare nell’ordine le equa-


zioni, dalla prima si ricava λ1 = 0, sostituendo nella seconda si ricava λ2 = 0,
sostituendo nella terza λ3 = 0.

Il legame del rango coi sistemi lineari è evidente, consideriamo, come in quel
caso, le matrici ridotte:

Esempio 6.43 Data la matrice in forma ridotta


 
2 2 1 3 1
0 0 3 2 −1
 
A= 
0 0 0 −2 1 
0 0 0 0 0

Proviamo che il suo rango è pari a 3. L’ultima riga corrisponde al vettore nullo
in R5 , quindi non può essere inclusa in un insieme di vettori linearmente indipen-
denti. Proviamo che le restanti righe sono linearmente indipendenti. Supponiamo
che si annulli una loro combinazione lineare:

(0, 0, 0, 0, 0) = λ1 (2, 2, 1, 3, 1) + λ2 (0, 0, 3, 2, −1) + λ3 (0, 0, 0, −2, 1) =


= (2λ1 , 2λ1 , λ1 + 3λ2 , 3λ1 + 2λ2 − 2λ3 , λ1 − λ2 + λ3 )

Dall’annullarsi della prima componente otteniamo λ1 = 0. Dalla terza compo-


nente ricaviamo allora λ2 = 0 e dall’annullarsi della quarta componente λ3 = 0.
Quindi i coefficienti della combinazione lineare sono tutti nulli e le righe sono li-
nearmente indipendenti. Si noti che è stato sufficiente considerare l’annullarsi
delle componenti corrispondenti alle posizioni dei pivot nelle tre righe non nulle
della matrice.

Il modo di effettuare il calcolo del rango nell’esempio precedente permette di


calcolare il rango di una qualsiasi matrice ridotta. Come in precedenza consi-
deriamo le righe (o le colonne) delle matrici con le quali abbiamo a che fare,
come dei vettori di Kn ( o di Kn nel caso delle colonne). Utilizziamo la seguente
notazione

A1 = (a11 , . . . , a1n ), A2 = (a21 , . . . , a2n ), . . . , Am = (am1 , . . . , amn ).


156 Capitolo 6 Spazi Vettoriali

Proposizione 6.44 Sia K un campo. Il rango di una matrice A ∈ M(m × n, K)


in forma ridotta è pari al numero dei pivot di A.

Dim. Se la matrice è identicamente nulla il suo rango è ovviamente 0. Suppo-


niamo quindi che A non sia nulla. Dato che una riga priva di pivot è composta
da soli zeri, il numero di pivot è pari al numero delle righe non identicamente
nulle. Poiché le righe nulle non possono contribuire al rango della matrice, il
numero massimo di righe linearmente indipendenti in A è al più pari al numero
k dei pivot. Proviamo che tali righe, che indichiamo con A1 , . . . , Ak , sono effetti-
vamente linearmente indipendenti come elementi di Kn . Consideriamo una loro
combinazione lineare che sia uguale al vettore nullo: λ1 A1 + . . . + λk Ak = 0. Se
ji è l’indice tale che aiji sia il pivot della riga i-esima, abbiamo che, nella com-
binazione lineare, la componente j1 -esima è data da λ1 a1j1 , infatti l’elemento
corrispondente delle restanti righe è nullo, essendo la matrice ridotta. Dato che
a1j1 è non nullo essendo un pivot si deve avere necessariamente λ1 = 0. Pas-
sando alla riga successiva abbiamo che l’elemento al posto j2 -esimo è dato da
λ1 a1j2 + λ2 a2j2 = λ2 a2j2 . Se tale elemento è nullo si deve avere λ2 . Proceden-
do allo stesso modo nelle righe successive si dimostra che tutti i λi sono nulli.
Quindi il rango della matrice A è pari a k.

Esempio 6.45 Nel caso della matrice 3×4


 
1 0 2 1
 
0 −1 0 2
0 0 0 0

si ha k = 2, quindi il suo rango è due.

Esempio 6.46 Nel caso della matrice 3 × 5


 
1 1 3 −1 0
 
0 −1 2 3 0
0 0 −3 0 1

si ha k = 3, quindi il suo rango è tre, ovvero i tre vettori di R5 che costituiscono le


sue righe, sono linearmente indipendenti.

Come nel caso dei sistemi lineari, vogliamo provare che, a partire da una ma-
trice qualsiasi, è possibile ricondursi al caso di una matrice ridotta tramite ope-
razioni che non ne variano il rango. Conviene rifarsi alla teoria dei sottospazi
vettoriali:
Rango di una matrice §6.4 157

Proposizione 6.47 Sia K un campo. Il rango di una matrice A ∈ M(m × n, K)


è pari alla dimensione di L(A1 , . . . , Am ) ⊂ Kn .

Dim. Indichiamo con k la dimensione di W = L(A1 , . . . , Am ). Per definizione


{A1 , . . . , Am } formano un sistema di generatori di W e sappiamo che ogni sistema
di generatori contiene una base. Quindi esiste una base di W costituita da k
elementi in {A1 , . . . , Am }. Ne segue che almeno k righe di A sono linearmente
indipendenti in Kn (e il rango è quindi maggiore o uguale a k) e ogni altra riga
può essere espressa come loro combinazione lineare. Quindi il rango non può
essere maggiore di k.

A questo punto possiamo reinterpretare la Proposizione 6.16:

Proposizione 6.48 Sia K un campo. Il rango di una matrice A ∈ M(m × n, K)


non cambia se

(i) si scambiano due righe;


(ii) si moltiplica una riga per uno scalare λ ∈ K non nullo;
(iii) si sostituisce ad una riga la sua somma con un multiplo di un’altra riga.

Di conseguenza, grazie a quanto dimostrato nel caso dei sistemi lineari:

Corollario 6.49 Il rango di una matrice è uguale al rango di una matrice


ridotta ottenuta tramite la riduzione di Gauss.

In realtà esiste anche un’altra operazione sulle matrici che non ne altera il
rango ma dobbiamo rimandare la sua giustificazione al prossimo capitolo (cfr.
Corollario 7.39).

Proposizione 6.50 Sia K un campo e A ∈ M(m × n, K). Allora il numero di


righe linearmente indipendenti di A, come elementi di Kn è uguale a quello
della sua trasposta, in cui gli elementi sono identificati con vettori in Km .

Dato che la trasposizione scambia il ruolo di righe e colonne, la Proposizione


6.50 può essere riformulata come segue

Proposizione 6.51 Sia K un campo. Il numero di righe linearmente indipen-


denti (come elementi di Kn ) di una matrice in A ∈ M(m × n, K) è uguale al
numero di colonne di A linearmente indipendenti (come elementi di Km ).

Anche qui abbiamo un’analogia col caso dei sistemi lineari, in cui scambiare
due colonne corrispondeva ad uno scambio di variabili, senza alterare l’esistenza
158 Capitolo 6 Spazi Vettoriali

delle soluzioni. Possiamo usare questo risultato nel calcolo del rango in modo
da avere il pivot della i-esima riga nel posto aii .

Esempio 6.52 Consideriamo la matrice


 
0 1 −1 0
 
2 −2 4 1 .
1 −1 2 0

Poiché l’elemento a11 è nullo dobbiamo cercare una riga che abbia al primo posto
un elemento non nullo, per sostituirla alla prima. Possiamo scegliere fra la secon-
da e la terza riga, conviene utilizzare la terza in quanto c’e’ un 1 al posto a31 e
sarà più facile azzerare gli elementi della prima colonna (infatti −ai1 /a11 sarà
uguale a −ai1 ). Consideriamo quindi la matrice
 
1 −1 2 0
 
0 1 −1 0 .
2 −2 4 1

Moltiplichiamo per −2 la prima riga e sommiamola alla terza, otteniamo


 
1 −1 2 0
 
0 1 −1 0 .
0 0 0 1

Passiamo ora alla seconda colonna. In questa l’elemento a22 è non nullo, quindi
non occorre effetturare degli scambi di riga, gli elementi successivi sono già nulli
quindi non ci sono calcoli da fare. Passiamo alla terza colonna. L’elemento a33 è
nullo e non ci sono righe successive alla terza con le quali sostituire la terza riga.
Questo significa che la terza colonna è combinazione lineare delle due precedenti,
la possiamo quindi portare ’in coda’ alla matrice. Troviamo la matrice
 
1 −1 0 0
 
0 1 0 0  .
0 0 1 0

In questa matrice l’elemento a33 è non nullo e non ci sono elementi successivi da
azzerare nella terza colonna. Non essendoci altre colonne il procedimento termina
qui. Il rango della matrice è 3.

Il rango di una matrice ci permetterà, insieme allo studio delle applicazioni


lineari, di comprendere meglio la struttura dello spazio delle soluzioni di un
sistema lineare. Ad esempio,
Rango di una matrice §6.4 159

Esempio 6.53 Determiniamo il valore del parametro k per il quale il sistema in


tre incognite


 kx1 + x2 = 1
x1 + x2 + (1 − k)x3 = k


x2 + x3 = 1

ammette una soluzione unica. Osserviamo che la matrice incompleta del sistema
è di tipo 3 × 3. Condizione necessaria affinché il sistema ammetta una soluzione
unica è che vi sia un pivot in ogni colonna della matrice incompleta. Quindi abbia-
mo una soluzione unica se e solo se il rango della matrice associata è 3. Si verifica
facilmente, col procedimento di riduzione, che questo avviene se k ≠ ±1.

Esempio 6.54 Determiniamo, al variare del parametro a, il rango della matrice


 
a 1 a 1
0 a 0 a
 
 .
1 0 1 0
a 0 a 0

Per iniziare dovremmo poter stabilire se l’elemento a11 è nullo. Essendo uguale al
parametro a non abbiamo nessuna informazione. Dovremmo quindi dividere il
problema in 2 sottocasi, a = 0 o a ≠ 0. E’ conveniente scambiare la terza riga con
la prima
 
1 0 1 0
a 1 a 1 
 
 .
 0 a 0 a
a 0 a 0

Moltiplichiamo quindi la prima riga per −a e sommiamola alla seconda e alla


quarta. Otteniamo
 
1 0 1 0
0 1 0 1
 
 .
0 a 0 a
0 0 0 0

Azzerata la prima colonna passiamo alla seconda. L’elemento a22 è diverso da


zero, possiamo quindi moltiplicare la seconda riga per −a e sommarla alla terza.
 
1 0 1 0
0 1 0 1 
 
 .
0 0 0 0 
0 0 0 0
160 Capitolo 6 Spazi Vettoriali

La matrice è in forma ridotta ed ha rango uguale a 2, indipendentemente dal


valore di a.

Con riferimento alla Proposizione 5.32 e all’Esempio 6.8 abbiamo

Proposizione 6.55 L’insieme delle soluzioni di un sistema lineare di m equa-


zioni in n incognite a coefficienti in un campo K è un sottospazio vettoriale
di Kn se e solo se il sistema è omogeneo. In tal caso, indicata con A la matrice
incompleta del sistema, la dimensione dello spazio delle soluzioni è data da
n − rango(A).

Dim. Se il sistema non è omogeneo si ha che il vettore nullo non può appartene-
re all’insieme delle soluzioni, che quindi non è un sottospazio. Il viceversa segue
dalla Proposizione 5.32. Supponiamo ora che il sistema sia omogeneo e che il
rango della matrice A sia pari a p. Procediamo come nel caso della Proposizione
5.36 effettuando la riduzione di Gauss di A. Si ottiene una matrice che ha un
numero di pivot pari a p nelle prime p righe e le successive m − p righe iden-
ticamente nulle. Supponendo che non siano stati effettuati scambi di colonne
(altrimenti occorre permutare corrispondentemente anche le incognite) questo
significa che si è ottenuto un sistema equivalente costituito da esattamente p
equazioni. Sappiamo già che l’insieme delle sue soluzioni ha una struttura di
spazio vettoriale, dobbiamo solo determinarne la dimensione. Supponiamo, per
semplicità, che i pivot si trovino nelle prime p colonne della matrice (possiamo
sempre ricondurci a questa situazione scambiando il ruolo delle incognite). Sap-
piamo, per quanto visto precedentemente, che questo permette di determinare
le prime p incognite in funzione delle rimanenti: l’ultima equazione permet-
te di ricavare xp in funzione di xp+1 , . . . , xn . Infatti le incognite x1 , . . . , xp−1
non compaiono in tale equazione dato che i loro coefficienti corrispondono ad
elementi sotto la diagonale di una matrice ridotta e il coefficiente di xp è non
nullo. Abbiamo quindi xp = fp (xp+1 , . . . , xn ). Sostituendo nella (p − 1)-esima
equazione possiamo sostituire il valore di xp ricavato prima ottenendo un’equa-
zione che contiene solo xp−1 e xp+1 , . . . , xn . Dato che il coefficiente di xp−1 è
non nullo possiamo ricavare tale incognita in funzione delle restanti e scrivere
xp−1 = fp−1 (xp+1 , . . . , xn ). Sostituendo nell’equazione successiva (la (p − 2)-
esima) e proseguendo fino alla prima equazione ricaviamo le incognite x1 , . . . , xp
come funzione di xp+1 , . . . , xn . Ne segue che ogni soluzione del sistema è uni-
vocamente determinata dalle sue ultime n − p componenti, che possono essere
assegnate in modo arbitrario. Consideriamo le soluzioni vi , per i = p + 1, . . . , n,
definite dai valori xp+1 = 0, . . . , xi = 1, . . . , xn = 0. Queste soluzioni sono chia-
ramente linearmente indipendenti e, data una soluzione del sistema della forma
Rango di una matrice §6.4 161

(a1 , . . . , an ) si ha che questa deve necessariamente coincidere con la combina-


zione ap+1 vp+1 + . . . + an vn in quanto hanno le stesse n − p ultime componenti.
Ne segue che vp+1 , . . . , vn formano una base dello spazio delle soluzioni.

Nel caso di sistemi non omogenei abbiamo:

Definizione 6.56 Sia V uno spazio vettoriale, un suo sottospazio affine è un sot-
toinsieme A di V tale che esistano un sottospazio vettoriale W di V ed un elemento
fissato v0 ∈ V tali che

A = {v ∈ v : v = v0 + w, w ∈ W }.

La dimensione di A è, per definizione, la dimensione del sottospazio W .

Nella Proposizione 5.33 abbiamo quindi caratterizzato l’insieme delle soluzioni


di un sistema lineare in n incognite come sottospazio affine di Kn , la sua di-
mensione è quindi data dalla differenza tra il numero delle incognite e il rango
della matrice associata (completa o incompleta) del sistema. Si osservi che, nella
definizione, è ammesso anche il caso v0 = 0V , ovvero i sottospazi vettoriali sono
particolari sottospazi affini.

Esempio 6.57 Determiniamo una base di

W = L((2, 0, 2, 3), (0, 2, h, 1), (−2, 1, 0, 3), (1, −1, −1, 1)) ⊂ R4

al variare del parametro h. Dobbiamo determinare il massimo numero di vettori


linearmente indipendenti fra quelli sopra elencati, al variare del parametro h.
Questo equivale a calcolare il rango della matrice
 
2 0 −2 1
0 2 1 −1
 
 
2 h 0 −1
3 1 3 1
utilizzando il consueto procedimento di riduzione arriviamo alla matrice
 
2 0 −2 1
0 2 1 −1 
 
 .
0 0 −13 2 
0 0 0 15(h − 4)
Il rango è quindi pari a 4 se h ≠ 4, è invece 3 se h = 4. Nel primo caso si ha
W = R4 ed i vettori (2, 0, 2, 3), (0, 2, h, 1), (−2, 1, 0, 3), (1, −1, −1, 1) ne costituisco-
no una base. Nel secondo caso il rango della matrice è 3 e la quarta colonna è
combinazione lineare delle prime 3. Ne segue che W ha dimensione 3 ed una sua
base è data da (2, 0, 2, 3), (0, 2, 4, 1), (−2, 1, 0, 3).
162 Capitolo 6 Spazi Vettoriali

Concludiamo questo paragrafo con una osservazione importante. Il rango di


una matrice rappresenta il numero massimo di righe (o di colonne) linearmente
indipendenti. In particolare risulterà minore o uguale sia del numero delle righe
che di quello delle colonne. Ad esempio il rango di una matrice 4 × 3 non può
essere superiore a 3.

Esercizio 6.22 Determinare il rango delle seguenti matrici


   
! 1 1 2 1 2 5
1 3 2 5    
a) , b) 2 5 7 , c) 2 4 10 ,
2 1 0 2
0 2 2 3 6 15

 
2 1 1 1
  1 3 1 1
 
1 −1 0 2 1  
  1 1 4 1
d)  3 1 1 3 2 , e) 
1
.
 1 1 5
−1 −3 −1 1 0  
1 2 3 4
1 1 1 1

Esercizio 6.23 Determinare, al variare del parametro a, il rango delle matrici


   
1 2 −1 1 a 1 1 1 1
5 1 2 1 1 a 1 1 1
   
a)  , b)  .
4 −1 a 0 1 1 a 1 1
3 a 4 −1 1 1 1 a 1

Esercizio 6.24 Stabilire quanti,al più, fra i seguenti elementi di R5

(1, 2, 3, 4, 5), (2, 3, 4, 5, 6), (3, 4, 5, 6, 7), (4, 5, 6, 7, 8)

sono linearmente indipendenti.

Esercizio 6.25 Determinare, al variare del parametro a, il rango delle matrici


   
1 1 a 3a2 + 2a −1 −1 −2a3 − a2
   
a)  1 a 1  , b)  2a −1 0 −a2 
a 1 1 1 2 1 0
 
1 −a 0 0
 
c) 1 0 −a a .
0 a −a 1
Rango di una matrice §6.4 163

Esercizio 6.26 Determinare il rango della matrice


 
0 1 0 1−a
 
1 0 a b 
1 1 c −a
al variare dei parametri a, b, c.
Le applicazioni lineari costituiscono una classe di funzioni strettamente legata
agli spazi vettoriali. Ne iniziamo qui lo studio, con lo scopo di affrontare il
problema della diagonalizzazione che, tra gli argomenti trattati nel corso, è forse
quello che troverà maggiori applicazioni nei corsi successivi. Come nel caso degli
spazi vettoriali, potremo utilizzare gli strumenti acquisiti per approfondire la
teoria delle matrici.

Applicazioni lineari
Ci occupiamo di una particolare classe di funzioni, definite tra spazi vettoriali:

Definizione 7.1 Siano V e W due spazi vettoriali su di un campo K, un’applicazio-


ne f : V → W è detta lineare (o omomorfismo) se verifica

(i) ∀v1 , v2 ∈ V , f (v1 + v2 ) = f (v1 ) + f (v2 );


(ii) ∀v ∈ V , ∀λ ∈ K, f (λv) = λf (v).

Nella definizione viene richiesto che l’applicazione f sia ’compatibile’ con le ope-
razioni di somma e prodotto per uno scalare in V e W . Ad esempio, nel primo
punto, si richiede che la somma v1 + v2 , definita in V abbia come immagine,
tramite f , la somma f (v1 ) + f (v2 ), definita in W .

Esempio 7.2 Abbiamo già incontrato un esempio di applicazione lineare quando


abbiamo costruito (cfr. (3.16)) una identificazione fra V e R3 . Fissata una base,
u, v, w di V , ogni elemento t di V può essere scritto come combinazione lineare
degli elementi di questa base, sarà t = x u + y v + z w. Si pone allora f (t) =
(x, y, z) ∈ R3 . La verifica della linearità di tale applicazione è immediata.

Esempio 7.3 Quello visto sopra è un esempio di un fatto generale. Dato uno
spazio vettoriale V , di dimensione n, fissata una sua base v1 , . . . , vn , possiamo
considerare l’applicazione f : V → Kn definita da

f (v) = f (x1 v1 + x2 v2 + . . . + xn vn ) = (x1 , . . . , xn ).


Applicazioni lineari §7.1 165

Questa applicazione, che associa ad un vettore le sue coordinate rispetto alla base
scelta, è lineare ed ha delle proprietà addizionali, è suriettiva ed iniettiva, cioè
biunivoca. In un senso che preciseremo meglio entro breve, costituisce una iden-
tificazione fra V e Kn , che useremo costantemente nel seguito. Si osservi che tale
identificazione dipende strettamente dalla scelta della base di V .

Date che useremo, come modello per ogni spazio vettoriale V di dimensione n,
lo spazio Kn , ci occupiamo, innanzi tutto, di studiare le applicazioni lineari Kn →
Km . Ricordiamo, come fatto nel capitolo sui sistemi lineari, che utilizzeremo
sempre una identificazione fra Kn e lo spazio delle matrici colonna di tipo n × 1
(a volte, a seconda del contesto, faremo un’indentificazione anche con le matrici
riga). Più formalmente: consideriamo l’applicazione Kn → M(n × 1, K) definita
da
 
x1
 . 

(x1 , . . . , xn ) →  .. 

xn
questa applicazione è lineare, biunivoca (quindi invertibile). Nel seguito use-
remo questa corrispondenza per identificare i due spazi senza farvi esplicito
riferimento.
Sia A una matrice di tipo m × n, poniamo
     
a11 · · · a1n x1 a11 x1 + . . . + a1n xn
 . ..     
fA (x1 , . . . , xn ) =    .   ..  . (7.1)
 .. .  ·  ..  =  . 
am1 · · · amn xn am1 x1 + . . . + amn xn
Il risultato di questa operazione è una matrice m × 1 che possiamo identificare
con un vettore di Km . Questa applicazione è lineare infatti, grazie alle proprietà
del prodotto tra matrici
   
x1 y1
 .   . 
fA ((x1 , . . . , xn ) + (y1 , . . . , yn )) = A ·    
 ..  +  ..  =
xn yn
   
x1 y1
 .   . 
=A·   
 ..  + A ·  ..  =
xn yn
= fA (x1 , . . . , xn ) + fA (y1 , . . . , yn ).
   
λx1 x1
 .   . 
fA (λ(x1 , . . . , xn )) = A ·    
 ..  = λ A ·  ..  = λfA (x1 , . . . , xn ).
λxn xn
166 Capitolo 7 Algebra Lineare

Esempio 7.4 Consideriamo la seguente matrice 2 × 3


!
1 0 2
A= .
2 1 −1

Per quanto visto sopra, questa matrice definisce un’applicazione lineare fA : R3 →


R2 data da
 
x !
  x + 2z
fA (x, y, z) = A · y  = .
2x + y − z
z

Cioè fA (x, y, z) = (x + 2z, 2x + y − z).

Esempio 7.5 In analisi, lo studio delle funzioni R → R può essere facilitato dallo
studio del loro grafico, che viene rappresentato in R2 = R × R. Lo studio delle
funzioni R2 → R2 richiederebbe un grafico in R4 , che non è visualizzabile. Nel
caso delle applicazioni lineari si riesce spesso a dare comunque un’idea del modo
di operare delle applicazioni lineari. Utilizzando le applicazioni lineari definite da
delle matrici possiamo vedere alcuni esempi:
1) Consideriamo l’applicazione definita dalla matrice
!
2 0
0 2

Si ha f (x, y) = (2x, 2y) = 2(x, y). Ogni vettore viene mandato in un vettore
ad esso parallelo, ma con modulo raddoppiato. Questa applicazione corrisponde
ad una dilatazione nel piano, che trasforma i punti della circonferenza di raggio
unitario e centro nell’origine nei punti della circonferenza di raggio doppio.
2) Consideriamo l’applicazione definita dalla matrice
!
2 0
0 3

Si ha f (x, y) = (2x, 3y). Si ha f (1, 0) = (2, 0) = 2(1, 0) e f (0, 1) = (0, 3) =


3(0, 1). In questo caso gli elementi della base canonica vengono mandati in vettori
a loro paralleli, ma il fattore di scala adesso dipende dalla direzione. Questa
applicazione corrisponde ad una dilatazione nel piano, che trasforma i punti della
circonferenza di raggio unitario e centro nell’origine nei punti di un’ellisse.
3) Consideriamo l’applicazione definita dalla matrice
!
1 0
0 0

Si ha f (1, 0) = (1, 0) e f (0, 1) = (0, 0). Più in generale f (x, y) = (x, 0), questa
applicazione corrisponde alla proiezione dei punti del piano sull’asse delle x. Si
Applicazioni lineari §7.1 167

noti che il vettore (1, 0) viene mandato in se stesso, mentre (0, 1) viene mandato
nel vettore nullo.
4) Consideriamo l’applicazione lineare f : R2 → R2 definita dalla matrice
 √ √ 
2 2
 2√ √2  .
− 22 2
2

√ √ √ √
2 2 2 2
Si ha f (1, 0) = ( 2 , − 2 ) e f (0, 1) =( 2 , 2 ). L’applicazione
corrisponde ad una
π
rotazione di 4 in senso antiorario intorno all’origine. Questo è un caso particolare
dell’applicazione definita dalla matrice
!
cos(θ) sin(θ)
− sin(θ) cos(θ)
che corrisponde ad una rotazione di un angolo θ.

Gli esempi di applicazioni lineari definite da matrici sono fondamentali, con


una semplice costruzione possiamo ricondurre lo studio di una qualsiasi appli-
cazione lineare V → W a quello di un prodotto matrice per vettore, col vantaggio
di poter utilizzare gli strumenti già sviluppati per lo studio delle matrici. Il pri-
mo passo consiste nello sfruttare le basi degli spazi vettoriali: se {v1 , . . . , vn } è
una base di V e v ∈ V , sarà possibile scrivere v = λ1 v1 + . . . + λn vn . Calcoliamo
le immagini dei soli elementi della base e poniamo w1 = f (v1 ), . . . , wn = f (vn ).
Applicando ripetutamente la definizione di linearità segue allora

f (v) = f (λ1 v1 + . . . + λn vn ) =
= f (λ1 v1 ) + . . . + f (λn vn ) =
= λ1 f (v1 ) + . . . + λn f (vn ) =
= λ1 w1 + . . . + λn wn .

Quindi è possibile calcolare l’immagine di un qualsiasi vettore v semplicemente


conoscendo le immagini degli elementi n elementi di una base di V . In altre pa-
role un’applicazione lineare è univocamente individuata una volta che siano noti
i valori che assume sugli elementi di una base. Vediamo ora che, per un’applica-
zione lineare, non esistono restrizioni ulteriori sui valori assunti sugli elementi
di una base. In altre parole, ogni scelta di w1 , . . . , wn definisce, e determina
completamente, un’applicazione lineare:

Proposizione 7.6 Siano V e W due spazi vettoriali su di un campo K. Se


{v1 , . . . , vn } è una base di V e w1 , . . . , wn ∈ W sono degli elementi assegnati,
esiste ed è unica l’applicazione lineare f : V → W tale che f (vi ) = wi per
i = 1, . . . , n.
168 Capitolo 7 Algebra Lineare

Dim. Mostriamo che è possibile definire un’applicazione lineare con la proprietà


richiesta. Sia v ∈ V , è possibile esprimerlo come combinazione lineare degli
elementi della base fissata e si avrà: v = a1 v1 + . . . + an vn . Definiamo allora

f (v) = a1 w1 + . . . + an wn .

Questa applicazione è lineare infatti se v ′ = b1 v1 + . . . + bn vn si ha

f (v ′ ) = b1 w1 + . . . + bn wn

e
f (v + v ′ ) = (a1 + b1 )w1 + . . . + (an + bn )wn = f (v) + f (v ′ ).

Se λ ∈ K,

f (λv) = (λa1 )w1 + . . . + (λan )wn = λ(a1 w1 + . . . + an wn ) = λf (v).

Per costruzione si ha anche f (vi ) = wi dato che ogni vi si scrive come combi-
nazione lineare degli elementi della base ponendo ai = 1 e aj = 0 per i ≠ j.
Supponiamo ora che esista una seconda applicazione lineare g : V → W tale che
g(vi ) = wi . Dalla linearità di g segue

g(v) = a1 g(v1 ) + . . . + an g(vn ) = a1 w1 + . . . + an wn = f (v)

e g coincide con f .

Esempio 7.7 Sia data un’applicazione lineare f : R3 → R2 tale che f (1, 0, 1) =


(3, 0), f (2, 1, 0) = (1, 3), f (1, 1, 1) = (0, 2). E’ facile verificare che i vettori
{(1, 0, 1), (2, 1, 0), (1, 1, 1)} formano una base di R3 . Per determinare, ad esempio,
f (0, 0, 1), è sufficiente esprimerlo come combinazione lineare di (1, 0, 1), (2, 1, 0),
(1, 1, 1). Cioè risolvere il sistema

a(1, 0, 1) + b(2, 1, 0) + c(1, 1, 1) = (0, 0, 1).

La soluzione è a = c = 12 , b = − 21 . Quindi
1 1 1 1
f (0, 0, 1) = f (1, 0, 1) − f (2, 1, 0) + f (1, 1, 1) = (1, − ).
2 2 2 2

Esempio 7.8 Sia data un’applicazione lineare f : R3 → R3 tale che f (1, 0, 1) =


(1, 1, 0), f (1, 2, −1) = (0, 1, 0). Determiniamo, quando possibile, f (1, 6, h). Le
informazioni che abbiamo non sono sufficienti a determinare completamente f .
Però la linearità di f implica che se f è nota sui vettori v1 , . . . , vn , è nota su
L(v1 , . . . , vn ). E’ quindi possibile determinare f (1, 6, h) se e solo se (1, 6, h) ∈
L((1, 0, 1), (1, 2, −1)). Questo accade se e solo se h = −5 e si trova, in tal caso
f (1, 6, −5) = (−2, 1, 0).
Matrice associata ad una applicazione lineare §7.2 169

Una proprietà importante delle applicazioni lineari è che l’immagine di un


sottospazio vettoriale è ancora un sottospazio vettoriale:

Proposizione 7.9 Siano f : V → W un’applicazione lineare. Se Z ⊂ V è un


sottospazio vettoriale di V , allora f (Z) è un sottospazio vettoriale di W .

Dim. Siano t1 , t2 ∈ f (Z). Dato che appartengono all’immagine di Z tramite f


esistono z1 , z2 ∈ Z tali che f (z1 ) = t1 e f (z2 ) = t2 . Essendo Z un sottospazio
vettoriale di V si ha z1 + z2 ∈ Z e
f (z1 + z2 ) = f (z1 ) + f (z2 ) = t1 + t2 .
Quindi t1 + t2 ∈ f (Z). Se t ∈ f (Z) e λ ∈ K si ha che esiste z ∈ Z tale che
f (z) = t, inoltre λ z ∈ Z. Quindi
f (λz) = λ f (z) = λ t.
Quindi λ t ∈ f (Z) che è un sottospazio vettoriale di W .
Concludiamo con una proprietà delle applicazioni lineari, che a volte può
essere usata per escludere il fatto che un’applicazione sia lineare:

Proposizione 7.10 Siano f : V → W un’applicazione lineare. Allora f (0V ) =


0W .

Dim. Sappiamo che, in uno spazio vettoriale, moltiplicando per lo scalare 0 un


qualsiasi vettore otteniamo il vettore nullo. Quindi, se v ∈ V :
f (0V ) = f (0 · v) = 0 · f (v) = 0W .

Matrice associata ad una applicazione lineare


Siano V e W due spazi vettoriali su un campo K, che qui supporremo sempre
di dimensione finita, e sia f : V → W un’applicazione lineare. Fissiamo due
basi: {v1 , . . . , vn } in V e {w1 , . . . , wm } in W . Sappiamo che f è completamente
determinata dai valori f (v1 ), . . . , f (vn ). Dato che questi sono elementi di W ,
potremo scriverli come combinazione lineare degli elementi della base scelta in
W:
f (v1 ) = a11 w1 + . . . + am1 wm
f (v2 ) = a12 w1 + . . . + am2 wm
..
.
f (vn ) = a1n w1 + . . . + amn wm
170 Capitolo 7 Algebra Lineare

e i coefficienti aij di queste combinazioni lineari definiscono una matrice A =


(aij ) ∈ M(m × n, K) in cui la colonna i-esima contiene i coefficienti di f (vi )
come combinazione lineare degli elementi della base di W . Dato un qualunque
elemento v di V , se lo scriviamo come combinazione lineare degli elementi della
base di V come v = x1 v1 + . . . + xn vn , abbiamo:

f (v) = f (x1 v1 + . . . + xn vn ) =
= x1 f (v1 ) + . . . + xn f (vn ) =
= x1 (a11 w1 + . . . + am1 wm ) +
+ x2 (a12 w1 + . . . + am2 wm ) +
..
+ .
+ xn (a1n w1 + . . . + amn wm )

Raccogliendo rispetto agli elementi della base di W troviamo

f (v) = (x1 a11 + . . . + xn a1n )w1 +


..
+ .
+ (x1 am1 + . . . + xn amn )wm
 
x1
 . 
Calcolando il prodotto della matrice A per  .. 

 troviamo che questo è dato da
xn
 
x1 a11 + . . . + xn a1n
 .. 
 
 . 
x1 am1 + . . . + xn amn

Quindi i coefficienti di f (v), scritto come combinazione lineare degli elementi


della base di W , sono dati dalle componenti del prodotto di A per la matrice
contenente le coordinate di v.

Esempio 7.11 Consideriamo l’applicazione R4 → R3 definita da

f (x1 , x2 , x3 , x4 ) = (x1 − 2x2 + x3 , x1 + x4 , 2x1 − x2 − x3 − x4 ).

Scegliamo le basi canoniche in questi due spazi e calcoliamo la matrice A. Per far-
lo consideriamo gli elementi della base dello spazio di partenza v1 = (1, 0, 0, 0),
v2 = (0, 1, 0, 0), v3 = (0, 0, 1, 0), v4 = (0, 0, 0, 1). Quindi consideriamo le lo-
ro immagini. Si ha f (v1 ) = (1, 1, 2), f (v2 ) = (−2, 0, −1), f (v3 ) = (1, 0, −1),
f (v4 ) = (0, 1, −1). Avendo scelto la base canonica in R3 , le componenti di que-
sti vettori sono esattamente le loro coordinate rispetto alla base. Disponiamo tali
Matrice associata ad una applicazione lineare §7.2 171

valori come colonne di una matrice, si ottiene


 
1 −2 1 0
 
A = 1 0 0 1
2 −1 −1 −1
Dato un vettore v = x1 v1 + x2 v2 + x3 v3 + x4 v4 = (x1 , x2 , x3 , x4 ) abbiamo
   
x1   x1  
x  1 −2 1 0 x  x1 − 2x2 + x3
 2    2  
A ·   = 1 0 0 1 · =  x1 + x4 .
x3  x3 
2 −1 −1 −1 2x1 − x2 − x3 − x4
x4 x4
E questo corrisponde al fatto che, indicando con wi gli elementi della base cano-
nica di R3

f (v) = (x1 − 2x2 + x3 )w1 + (x1 + x4 )w2 + (2x1 − x2 − x3 − x4 )w3 =


= (x1 − 2x2 + x3 , x1 + x4 , 2x1 − x2 − x3 − x4 ).

Possiamo rendere più rigoroso quanto detto sopra: scrivendo


X
f (vj ) = aij wi ,
i
P
ev= j xj vj , si ha:
 
X X X X X X
f (v) = f ( xj vj ) = xj f (vj ) = xj aij wi =  aij xj  wi .
j j j i i j

E, dalla definizione di prodotto  tra matrici,


 il coefficiente di wi è la i-esima
x1
 . 
componente del prodotto tra A e  
 .. .
xn
Quanto visto sopra è estremamente importante ed implica che è possibile stu-
diare le applicazioni lineari, fra due qualsiasi spazi vettoriali di dimensione finita,
utilizzando il prodotto matriciale. Questo una volta che siano state fissate due
basi, una nello spazio di partenza ed una nello spazio di arrivo. Riassumiamo le
conclusioni alle quali siamo giunti.

Definizione 7.12 Data una applicazione lineare f : V → W , spazi di dimensione


finita su uno stesso campo K, fissiamo una base B = {v1 , . . . , vn } in V ed una
B′ = {w1 , . . . , wm } in W . Consideriamo le immagini degli elementi della base di
V e disponiamo le componenti di f (vi ), rispetto alla base di W , nella colonna i-
esima di una matrice. Otteniamo quindi una matrice di tipo m × n a coefficienti
in K, detta matrice associata all’applicazione lineare f nelle basi B e B′ .
172 Capitolo 7 Algebra Lineare

Quindi, se v = x1 v1 + . . . + xn vn , volendo calcolare f (v) basta calcolare il


prodotto
   
a11 . . . a1n x1
 . ..   
 .  ·  ..  .
 . .   . 
am1 . . . amn xn

per ottenere le componenti di f (v) nella base w1 , . . . , wm .


Possiamo vedere questa costruzione anche da un altro punto di vista. Sappia-
mo (cfr. Esempio 7.3) che la scelta di due basi in V e W , permette di identificare
questi spazi con Kn e Km rispettivamente, facendo corrispondere a x1 v1 + . . . +
xn vn ∈ V la n-pla (x1 , . . . , xn ) ∈ Kn e a y1 w1 + . . . + ym wm ∈ W la m-pla
(y1 , . . . , ym ) ∈ Km , ovvero le coordinate dei due vettori rispetto alle basi scelte.
Se f : V → W è un’applicazione lineare ed A è la matrice associata ad f rispetto
alle basi scelte, abbiamo anche (cfr. (7.1)) un’applicazione lineare fA : K⇆ → K⇄
e questa è tale che da rendere commutativo il diagramma:

f
V W
≃ ≃
fA
Kn Km

dove il simbolo ≃ indica l’identificazione fra i due spazi descritta sopra. Dire
che quel diagramma è commutativo significa che, dato v ∈ V , per calcolare f (v)
possiamo anche procedere utilizzando l’applicazione fA :

v = x1 v1 + . . . + xn vn ∈ V f (v) = y1 w1 + . . . + ym wm ∈ W
≃ ≃
     
x1 x1 y1
 .  fA  .   . 
 .  ∈ Kn A·    m
 .   ..  =  ..  ∈ K
xn xn ym

Dato un vettore v ∈ V , per calcolare f (v) possiamo

(i) Scegliere delle basi in V e W .


(ii) Calcolare la matrice associata a f rispetto a questa scelta di basi.
(iii) Scrivere v = x1 v1 + . . . + xn vn come combinazione lineare degli elementi
della base scelta in V .
Matrice associata ad una applicazione lineare §7.2 173

 
x1
 . 
(iv) Moltiplicare la matrice A per la matrice dei coefficienti  
 ..  ottenendo
xn
 
y1
 . 

come risultato una matrice  ..  .
ym
(v) Calcolare f (v) = y1 w1 + . . . + ym wm utilizzando i coefficienti yi nella
combinazione lineare degli elementi della base scelta in W .

L’utilizzo della matrice associata all’applicazione lineare, a questo punto, sem-


bra complicare piuttosto che semplificare il calcolo dell’immagine di un vettore.
In realtà questa matrice permetterà di determinare proprietà dell’applicazione
lineare difficili da stabilire in altro modo.

Esempio 7.13 Sia f : R2 → R4 l’applicazione lineare (tralasciamo qui la verifica


della linearità) definita da f (x, y) = (x −y, 2x +y, x −3y, y) e siano date le basi
B = {(1, 1), (−1, 1)} di R2 e B′ = {(0, 1, 0, 0), (0, 0, 1, 0), (1, 0, 0, 0), (0, 0, 0, 1)} di
R4 . Calcoliamo la matrice associata ad f rispetto a questa scelta di basi. Calco-
liamo le immagini degli elementi della base dello spazio di partenza e scriviamole
come combinazione lineare degli elementi della base dello spazio di arrivo (si noti
che l’ordine degli elementi della base è importante):

f (1, 1) = (0, 3, −2, 1) = 3 (0, 1, 0, 0) − 2 (0, 0, 1, 0) + (0, 0, 0, 1),

f (−1, 1) = (−2, −1, −4, 1) = −(0, 1, 0, 0) − 4 (0, 0, 1, 0) − 2 (1, 0, 0, 0) + (0, 0, 0, 1).

Utilizziamo i coefficienti delle combinazioni lineari per determinare le colonne


della matrice associata a f :
 
3 −1
−2 −4
 
A= .
 0 −2
1 1

Si noti che la matrice dipende in maniera essenziale dalla scelta delle basi. Sce-
gliendo una base diversa nello spazio di partenza R2 , avremmo calcolato e scritto
come combinazione lineare le immagini di elementi diversi, ottenendo delle co-
lonne diverse nella matrice A. Analogamente, scegliendo una base diversa nello
spazio di arrivo R4 , avremmo scritto le immagini dei vettori della base dello spa-
zio di partenza come combinazione lineare di vettori diversi, ottenendo coefficienti
diversi.
174 Capitolo 7 Algebra Lineare

Possiamo utilizzare la matrice A per calcolare l’immagine di v = (2, 4). Il primo


passo è scriverlo come combinazione lineare degli elementi della base di partenza:

(2, 4) = 3 (1, 1) + 1 (−1, 1).


!
3
Ottenendo la matrice dei coefficienti . Quindi moltiplichiamo questa matrice
1
per la matrice A:
 
!  8 
3 −10
A· = .
1  −2 
4

Il risultato ottenuto fornisce i coefficienti di f (v) come combinazione lineare degli


elementi della base di arrivo. Quindi

f (v) = 8 (0, 1, 0, 0) − 10 (0, 0, 1, 0) − 2 (1, 0, 0, 0) + 4 (0, 0, 0, 1) = (−2, 8, −10, 4).

Esempio 7.14 Consideriamo lo spazio vettoriale R2 [x] e l’applicazione R2 [x] →


R1 [x] data da f (p(x)) = p ′ (x). Si verifica facilmente che questa applicazio-
ne è lineare. Scegliamo la base {x 2 , x, 1} in R2 [x] e la base {x, 1} in R1 [x].
Consideriamo le immagini degli elementi della base ed esprimiamole come com-
binazione lineare degli elementi della base dello spazio di arrivo. Si ha f (x 2 ) =
2x = 2 · x + 0 · 1, f (x) = 0 · x + 1 · 1, f (1) = 0 = 0 · x + 0 · 1. Disponiamo i valori
trovati nelle colonne di una matrice, ottenendo
!
2 0 0
A=
0 1 0

Il generico elemento di R2 [x] è p(x) = ax 2 + bx + c e corrisponde al vettore dei


coefficienti (a, b, c) di R3 . Si può allora calcolare
 
a !
  2a
f (p(x)) = A · b  =
b
c

che corrisponde all’elemento 2ax + b di R1 [x], ed è, ovviamente, la derivata di


p(x).

Insistiamo sul fatto che non esiste ’una’ matrice associata ad una applicazione
lineare. Occorre sempre fare riferimento alle basi B e B′ per il suo calcolo. Al
variare della base nello spazio di partenza o in quello di arrivo, la matrice as-
sociata cambia. La matrice dipende non solo dalla scelta della base, ma anche
dall’ordinamento degli elementi della base.
Matrice associata ad una applicazione lineare §7.2 175

Esempio 7.15 Consideriamo l’applicazione lineare f definita nell’esempio 7.11.


Scegliamo adesso le due basi B = {(1, 0, 0, 0), (0, 0, 1, 0), (0, 1, 0, 0), (0, 0, 0, 1)} e
B′ = {(1, 0, 0), (0, 1, 1), (0, 1, −1)}. Per determinare la matrice associata ad f
rispetto a questa nuova scelta di basi dobbiamo determinare le componenti delle
immagini degli elementi della base B (nell’ordine in cui appaiono nella definizione
della base) espresse come combinazione lineare degli elementi della base B′ . Si ha
3 1
f (1, 0, 0, 0) = (1, 1, 2) = 1 · (1, 0, 0) + · (0, 1, 1) − · (0, 1, −1)
2 2

1 1
f (0, 0, 1, 0) = (1, 0, −1) = 1 · (1, 0, 0) − · (0, 1, 1) + · (0, 1, −1)
2 2

1 1
f (0, 1, 0, 0) = (−2, 0, −1) = −2 · (1, 0, 0) + · (0, 1, 1) − · (0, 1, −1)
2 2

f (0, 0, 0, 1) = (0, 1, −1) = 0 · (1, 0, 0) + 0 · (0, 1, 1) + 1 · (0, 1, −1)

La matrice associata ad f rispetto a questa scelta di basi è quindi


 
1 1 −2 0
 3 
 2 − 21 1
2 0
1 1 1
−2 2 −2 1

Abbiamo visto come, data un’applicazione lineare e scegliendo delle basi negli
spazi di partenza e arrivo, sia possibile associare una matrice all’applicazione.
Questa matrice contiene (nelle colonne) i dati relativi alle immagini degli elementi
di una base dello spazio di partenza. Sappiamo che tali immagini (cfr. Propo-
sizione 7.6) determinano completamente l’applicazione lineare che quindi può
essere ricostruita a partire da una matrice associata.

Esempio 7.16 Sia f : R3 → R3 l’applicazione lineare associata, rispetto alla base


B = {(−1, 0, 0), (0, 0, −1), (0, 1, 0)} di R3 (visto come spazio di partenza) e alla
base B′ = {(1, 1, 0), (1, −1, 0), (0, 0, −2)} (nello spazio di arrivo), alla matrice:
 
1 3 2
 
0 1 −1
2 2 0

Dalle colonne ricaviamo i coefficienti delle immagini dei vettori della base B, scritti
come combinazione lineare degli elementi della base B′ . Quindi

f (−1, 0, 0) = (1, 1, 0) + 2 (0, 0, −2) = (1, 1, −4),

f (0, 0, −1) = 3 (1, 1, 0) + (1, −1, 0) + 2 (0, 0, −2) = (4, 2, −4),


176 Capitolo 7 Algebra Lineare

f (0, 1, 0) = 2 (1, 1, 0) − (1, −1, 0) = (1, 3, 0).

Dato un elemento (x1 , x2 , x3 ) ∈ R3 , lo possiamo scrivere come combinazione


lineare degli elementi della base B:

(x1 , x2 , x3 ) = −x1 (−1, 0, 0) − x3 (0, 0, −1) + x2 (0, 1, 0).

Quindi, essendo f lineare

f (x1 , x2 , x3 ) = −x1 f (−1, 0, 0) − x3 f (0, 0, −1) + x2 f (0, 1, 0) =


= (−x1 − 4x3 + x2 , −x1 − 2x3 + 3x2 , 4x1 + 4x3 ),

e abbiamo determinato l’immagine di un generico elemento di R3 .

In un paragrafo successivo determineremo esplicitamente il rapporto tra me-


trici associate ad una stessa applicazione lineare rispetto a basi diverse. Conclu-
diamo questa sezione con un cenno a delle operazioni che si possono fare tra
applicazioni lineari, omettendo le facili dimostrazioni.

Proposizione 7.17 Siano V , W , Z degli spazi vettoriali di dimensione finita


su di un campo K e f , g : V → W , h : W → Z delle applicazioni lineari.
Supponiamo che, fissate delle basi nei tre spazi, le matrici associate ad f , g, h
siano rispettivamente A, B, C . Allora

(i) f + g : V → W , definita da (f + g)(v) = f (v) + g(v) è una applicazione


lineare. La matrice associata a f + g , rispetto alle basi fissate, è A + B .
(ii) Se λ ∈ K, λf : V → W , definita da (λf )(v) = λf (v), è una applicazione
lineare. La matrice associata a λf , rispetto alle basi fissate, è λA.
(iii) L’applicazione h ◦ f : V → Z , definita da (h ◦ f )(v) = h(f (v)) è una
applicazione lineare. La matrice associata ad h ◦ f , rispetto alle basi
fissate, è CA.

Esempio 7.18 Siano f , g : R3 → R3 definite da f (x, y, z) = (2x, x − y, y + 2z),


g(x, y, z) = (x + y, x, 2y − z). Rispetto alla base canonica le matrici associate
sono, rispettivamente
   
2 0 0 1 1 0
   
A = 1 −1 0 , B = 1 0 0 
0 1 2 0 2 −1

L’applicazione f + g è definita da

(f + g)(x, y, z) = (3x + y, 2x − y, 3y + z)
Nucleo e immagine §7.3 177

e la matrice associata, rispetto alla base canonica, è


     
3 1 0 2 0 0 1 1 0
     
2 −1 0 = 1 −1 0 + 1 0 0
0 3 1 0 1 2 0 2 −1

L’applicazione 3f è definita da

3f (x, y, z) = (6x, 3x − 3y, 3y + 6z)

e la matrice, rispetto alla base canonica, è


   
6 0 0 2 0 0
   
3 −3 0 = 3 1 −1 0
0 3 6 0 1 2

L’applicazione g ◦ f è definita da

g ◦ f (x, y, z) = (3x − y, 2x, 2x − 3y + 2z)

e la matrice, rispetto alla base canonica, è


     
3 −1 0 1 1 0 2 0 0
     
2 0 0  = 1 0 0  · 1 −1 0
2 −3 2 0 2 −1 0 1 2

Dati due spazi vettoriali V , W su un campo K, nell’insieme Hom(V , W ) del-


le applicazioni lineari V → W abbiamo introdotto l’operazione di somma e il
prodotto per uno scalare. Si può verificare che, rispetto a queste operazioni,
Hom(V , W ) risulta avere una struttura di spazio vettoriale. In particolare se
W = K, lo spazio Hom(V , K) si indica con V ∗ ed è detto spazio duale di V .

Nucleo e immagine
Abbiamo visto, in uno degli esempi all’inizio del capitolo, il caso di un’applica-
zione lineare R2 → R2 data da una proiezione. Questa è una applicazione da uno
spazio di dimensione 2 la cui immagine è contenuta in uno spazio di dimensione
1 (quindi ’più piccolo’). Questo fatto è legato alla presenza di un vettore di R2
(ortogonale allo spazio su cui si proietta) che viene trasformato nel vettore nullo.
Studiamo più in generale questa situazione

Definizione 7.19 Siano V e W due spazi vettoriali e f : V → W un’applicazione


lineare. Si definisce nucleo dell’applicazione lineare l’insieme

ker f = {v ∈ V : f (v) = 0W }.

Dove 0W è l’elemento neutro della somma in W .


178 Capitolo 7 Algebra Lineare

Lemma 7.20 Siano V e W due spazi vettoriali su di un campo K e f : V → W


un’applicazione lineare. Il nucleo di f è un sottospazio vettoriale di V .

Dim. Siano v1 , v2 ∈ ker f . Si ha, per la linearità di f

f (v1 + v2 ) = f (v1 ) + f (v2 ) = 0W + 0W = 0W

quindi v1 + v2 ∈ ker f . Sia λ ∈ K

f (λv1 ) = λf (v1 ) = λ 0W = 0W

quindi λv1 ∈ ker f , che quindi è un sottospazio vettoriale di V .

Esempio 7.21 Fissato un vettore libero non nullo v ∈ V . L’applicazione f : V → R


che associa ad un vettore libero x il suo prodotto scalare con v è lineare (segue
facilmente dalle proprietà del prodotto scalare). Il nucleo di f è dato dai vettori x
tali che x · v = 0. Cioè dai vettori perpendicolari a v. Nel caso dell’applicazione
lineare V → V : x → x ∧ v, anch’essa lineare, il nucleo è dato dai vettori paralleli
a v.

Vediamo adesso come calcolare il nucleo di un’applicazione lineare utilizzan-


do una matrice associata:

Proposizione 7.22 Sua f : V → W un’applicazione lineare e sia A la matrice


associata a f rispetto ad una scelta di basi B e B′ in V e W . Le componenti
(x1 , . . . , xn ), rispetto alla base B, degli elementi del nucleo sono le soluzioni
del sistema lineare
 
x1
 . 
A· 
 ..  = 0.
xn

Dim. Sappiamo che se v ∈ V e (x1 , . . . , xn ) sono le coordinate di V scritto come


combinazione lineare degli elementi della base di partenza, i coefficienti di f (v)
come combinazione lineare degli elementi della base di arrivo, possono essere
calcolati tramite il prodotto
 
x1
 . 
A· 
 ..  .
xn
Nucleo e immagine §7.3 179

Se v è un elemento del nucleo di f , la sua immagine è il vettore nullo e questo


significa che tali coefficienti sono tutti nulli. Quindi deve valere
   
x1 0
 .  .
A·   
 ..  =  ..  .
xn 0

Viceversa se (x1 , . . . , xn ) è una soluzione del sistema lineare omogeneo, il vettore


di V che ha (x1 , . . . , xn ) come coefficienti rispetto alla base B ha come immagine
il vettore nullo, quindi appartiene al nucleo.

Ne segue che, data la matrice associata ad un’applicazione lineare, gli elementi


del nucleo possono essere determinati risolvendo un sistema omogeneo. Sarà
spesso importante determinare la dimensione del nucleo e vedremo come que-
sta sia data proprio dalla dimensione dello spazio delle soluzioni, che abbiamo
calcolato nella Proposizione 6.55.

Esempio 7.23 Consideriamo l’applicazione lineare R3 → R3 definita, rispetto alla


base canonica, dalla matrice
 
1 2 −1
 
2 0 3  .
4 4 1

Il nucleo di f è dato dall’insieme delle soluzioni del sistema


     
1 2 −1 x 0
     
2 0 3  · y  = 0  .
4 4 1 z 0

Questo è un sistema omogeneo, quindi ha sempre soluzione, (infatti qualunque


sia l’applicazione lineare f , si ha sempre f (0V ) = 0W , cfr. Proposizione 7.10), si
trova che le soluzioni sono date dalle terne della forma λ(−6, 5, 4) e costituiscono
quindi un sottospazio di dimensione 1 di R3 .

Data una applicazione lineare f : V → W , facendo un’analogia col caso del-


le proiezioni ortogonali, il suo nucleo è la parte di V che viene ’persa’ nella
trasformazione data da f . Quello che ’resta’ viene invece trasformato in un
sottoinsieme di W , detto immagine di f

Definizione 7.24 Siano V e W due spazi vettoriali e f : V → W un’applicazione


lineare. Si definisce immagine dell’applicazione lineare l’insieme

im f = {w ∈ W : ∃v ∈ V , f (v) = w}.
180 Capitolo 7 Algebra Lineare

Lemma 7.25 Siano V e W due spazi vettoriali su di un campo K e f : V → W


un’applicazione lineare. L’immagine di f è un sottospazio vettoriale di W .

Dim. Questo segue dalla Proposizione 7.9 applicata al caso Z = V .


Abbiamo che il nucleo e l’immagine di un’applicazione lineare sono legati alla
sua iniettività e suriettività:
Proposizione 7.26 f : V → W un’applicazione lineare. f è iniettiva se e solo
se ker f = {0V }, f è suriettiva se e solo se im f = W

Dim. La parte riguardante la suriettività è ovvia. Se f non è iniettiva abbiamo


che esistono due elementi distinti v1 , v2 ∈ V tali che f (v1 ) = f (v2 ). Per la
linearità di f si ha f (v1 − v2 ) = f (v1 ) − f (v2 ) = 0W , quindi v1 − v2 ∈ ker f .
Essendo v1 ≠ v2 questo significa che il nucleo di f contiene almeno un elemento
non nullo. Viceversa, se il nucleo di f contiene un elemento non nullo v si ha
f (v) = f (0V ) = 0W e f non è iniettiva.

Definizione 7.27 Siano V e W due spazi vettoriali e sia f : V → W un’applica-


zione lineare. f è detta isomorfismo se è biunivoca ovvero se è sia iniettiva che
suriettiva.
Un isomorfismo permette di identificare due spazi ed abbiamo già visto un
caso in cui questo si rivela utile:

Esempio 7.28 Fissata una base {v 1 , v 2 , v 3 } dello spazio V dei vettori liberi ab-
biamo definito un’applicazione f : V → R3 tramite
f (x1 v 1 + x2 v 2 + x3 v 3 ) = (x1 , x2 , x3 ).
Questa applicazione è lineare (è un caso particolare dell’esempio 7.3) ed è chiara-
mente iniettiva e suriettiva, quindi un isomorfismo.
Dato che un isomorfismo fornisce un’identificazione fra due spazi abbiamo
come condizione necessaria per l’esistenza di un isomorfismo, che questi due
spazi abbiano la stessa dimensione:

Lemma 7.29 Siano V ,W due spazi vettoriali di dimensione finita e f : V → W


un’applicazione lineare.

(i) Se f è iniettiva allora dim(V ) ≤ dim(W ).


(ii) Se f è suriettiva allora dim(V ) ≥ dim(W ).
(iii) Se f è un isomorfismo allora dim(V ) = dim(W ).
Nucleo e immagine §7.3 181

Dim. Supponiamo f iniettiva e consideriamo una base {v1 , . . . , vn } di V . Se


f (v1 ), . . . , f (vn ) fossero linearmente dipendenti si avrebbe

0W = λ1 f (v1 ) + . . . + λn f (vn ) = f (λ1 v1 + . . . + λn vn )

quindi λ1 v1 + . . . + λn vn ∈ ker(f ). Dall’ipotesi di iniettività segue allora λ1 v1 +


. . . + λn vn = 0V . Essendo v1 , . . . , vn linearmente indipendenti si ha λ1 = . . . =
λn = 0. Dal Lemma 6.25 abbiamo che n = dim(V ) ≤ dim(W ).
Per il secondo punto consideriamo w ∈ im(f ). Esiste allora v ∈ V tale che
f (v) = w, scrivendo v = λ1 v1 + . . . + λn vn abbiamo

w = f (w) = f (λ1 v1 + . . . + λn vn ) = λ1 f (v1 ) + . . . + λn f (vn )

quindi f (v1 ), . . . , f (vn ) formano un sistema di generatori dell’immagine. Se f


è suriettiva si ha, sempre dal Lemma 6.25, dim(W ) = dim(im(f )) ≤ dim(V ).
L’ultima relazione si ottiene combinando le prime due.

Veniamo ora ad un risultato fondamentale nelle applicazioni:

Teorema 7.30 Siano V ,W due spazi vettoriali e f : V → W un’applicazione


lineare. Se V ha dimensione finita, vale

dim(V ) = dim(Im(f )) + dim(ker(f )).

Dim. Indichiamo con n la dimensione di V . Dato che questa è finita e ker(f ) ⊂ V


abbiamo che anche la dimensione k di ker(f ) è finita. Sia v1 , . . . , vk una base di
ker(f ). Questi vettori sono linearmente indipendenti, quindi, per il Teorema
6.38 del completamento della base, possiamo trovare n − k vettori: vk+1 , . . . , vn
tali che v1 , . . . , vn sia una base di V . Vogliamo provare che f (vk+1 ), . . . , f (vn )
formano una base di im(f ), che avrà quindi dimensione n − k, dimostrando
il Teorema. Proviamo, in modo simile a quanto visto sopra, che questi vettori
formano un sistema di generatori dell’immagine. Se w ∈ im(f ) esiste v ∈ V tale
che f (v) = w. Possiamo scrivere v = λ1 v1 + . . . + λn vn e, per la linearità di f :

f (v) = λ1 f (v1 ) + . . . + λk f (vk ) + λk+1 f (vk+1 ) + . . . + λn f (vn ),

ma, essendo v1 , . . . , vk elementi del nucleo di f , si ha f (v1 ) = . . . = f (vk ) = 0W .


Quindi

f (v) = λk+1 f (vk+1 ) + . . . + λn f (vn ) ∈ L(f (vk+1 ), . . . , f (vn )).


182 Capitolo 7 Algebra Lineare

Proviamo ora che f (vk+1 ), . . . , f (vn ) sono linearmente indipendenti. Se si ha


una loro combinazione lineare nulla, utilizzando la linearità di f si ottiene

0W = λk+1 f (vk+1 ) + . . . + λn f (vn ) = f (λk+1 vk+1 + λn vn ).

Quindi, avendo immagine nulla, λk+1 vk+1 +. . .+λn vn è un elemento del nucleo di
f e, come tale, deve essere esprimibile come combinazione lineare di v1 , . . . , vk ,
che ne formano una base. Ovvero

λk+1 vk+1 + λn vn = λ1 v1 + . . . + λk vk .

Portando tutto ad uno stesso membro otteniamo

λ1 v1 + . . . + λk vk − λk+1 vk+1 − . . . − λn vn = 0V .

Ma questa è una combinazione lineare nulla di v1 , . . . , vn , che sono linearmente


indipendenti, formando una base di V . Quindi tutti i coefficienti della combina-
zione devono essere nulli. In particolare, λk+1 = . . . = λn = 0, provando che
f (vk+1 ), . . . , f (vn ) sono linearmente indipendenti.

Quindi, ad esempio, conoscendo la dimensione del nucleo di un’applicazione


lineare possiamo ricavare la dimensione dell’immagine. Questo semplifica, nel
caso di due spazi della stessa dimensione, la verifica che un’applicazione lineare
sia un isomorfismo:

Corollario 7.31 Siano V e W due spazi vettoriali di dimensione finita su di


un campo K e f : V → W un’applicazione lineare.

(i) Se f è iniettiva si ha dim(im(f )) = dim V .


(ii) Se dim(V ) = dim(W ) e f è iniettiva è un isomorfismo.
(iii) Se dim(V ) = dim(W ) e f è suriettiva è un isomorfismo.

Dim. La prima affermazione è ovvia dato che dim(ker(f )) = 0. Per gli altri punti:
se f è iniettiva segue che dim(im(f )) = dim(V ) = dim(W ) quindi im(f ) = W
e l’applicazione è anche suriettiva. Se f è suriettiva si ha im(f ) = W quindi
necessariamente dim(ker(f )) = 0 e l’applicazione è anche iniettiva.

Esempio 7.32 L’applicazione lineare R3 → R3 definita (rispetto alla base canonica)


dalla matrice
 
1 1 −3
 
 2 1 1 .
−3 1 2
Nucleo e immagine §7.3 183

è un isomorfismo R3 → R3 . Per verificarlo occorrere controllare che sia iniettiva e


suriettiva. In realtà, per quanto visto sopra, basta provare l’iniettività e questa è
facile da verificare, basta infatti calcolare il rango della matrice associata, che in
questo caso è 3. Questo significa che esiste una soluzione unica del sistema omo-
geneo, ed è necessariamente la soluzione nulla. Quindi il nucleo è ridotto al solo
elemento (0, 0, 0) ed ha dimensione 0. Ne segue che l’immagine ha dimensione 3
e coincide con R3 , ovvero l’applicazione è suriettiva.

Dall’esempio precedente abbiamo che l’iniettività di un’applicazione lineare f


è data dal fatto che il sistema omogeneo corrispondente ad una matrice associata
ad f abbia solo la soluzione nulla. Se la matrice è quadrata questo significa che
deve esserci un pivot in ogni riga. Come vedremo più avanti, questa condizione
può essere verificata tramite il calcolo del determinante, che deve essere non
nullo.

Esempio 7.33 L’applicazione f : R3 → R3 associata, rispetto alla base canonica,


alla matrice
 
1 0 2
 
A = 2 1 1 
1 1 0

è un isomorfismo. Abbiamo det(A) = 1, quindi il nucleo di f è ridotto al solo


elemento nullo ed f è iniettiva. Dato che lo spazio di partenza e lo spazio di
arrivo hanno la stessa dimensione f è anche suriettiva.

Nel seguito ci sarà utile il seguente risultato

Proposizione 7.34 Siano V , W , Z degli spazi vettoriali di dimensione finita su


un campo K e siano f : V → W , g : W → Z delle applicazioni lineari. Allora

dim(ker(g ◦ f )) ≤ dim(ker(g)) + dim(ker(f )).

Dim. Sia U = ker(g ◦ f ), possiamo descriverlo come

U = {v ∈ V : g(f (v)) = 0Z } = {v ∈ V : f (v) ∈ ker(g)}

la restrizione di f a U definisce quindi un’applicazione lineare U → ker(g). Ne


segue

dim(U) = dim(ker(f|U )) + dim(im(f|U )) ≤ dim(ker(f )) + dim(ker(g)).


184 Capitolo 7 Algebra Lineare

Come abbiamo visto sopra, nel caso dei vettori liberi, la mappa definita nell’e-
sempio 7.3, che associa ad un vettore le sue componenti rispetto ad una base è
sempre un isomorfismo:

Corollario 7.35 Sia V uno spazio vettoriale di dimensione finita n su un cam-


po K. Fissata una base {v1 , . . . , vn } di V , l’applicazione f : V → Kn che associa
ad un vettore le sue componenti rispetto alla base scelta è un isomorfismo.

Dim. Dato che i due spazi hanno la stessa dimensione basta verificare l’iniettivi-
tà. Questa è ovvia infatti se v = x1 v1 + . . . + xn vn si ha f (v) = (x1 , . . . , xn ) e v
è un elemento del nucleo se solo se xi = 0 per ogni i = 1, . . . , n. Ovvero v = 0V .

Un isomorfismo, essendo un’applicazione biunivoca, è invertibile. Verifichia-


mo che l’applicazione inversa è anch’essa lineare:

Lemma 7.36 Siano V e W due spazi vettoriali si di un campo K e f : V → W


un isomorfismo. Allora f è invertibile e f −1 è lineare.

Dim. Se w ∈ W dalla suriettività di f segue che esiste v ∈ V tale che f (v) = w.


Dall’iniettività segue che v è unico rispetto a tale proprietà. Poniamo allora
f −1 (w) = v. Questa è, per costruzione, un’inversa di f . Verifichiamo che si
tratta di un’applicazione lineare: se w1 , w2 ∈ W siano v1 = f −1 (w1 ) e v2 =
f −1 (w2 ). Allora f (v1 + v2 ) = f (v1 ) + f (v2 ) = w1 + w2 . Quindi f −1 (w1 ) +
f −1 (w2 ) = v1 + v2 = f −1 (w1 + w2 ). Se w ∈ W e λ ∈ K sia v = f −1 (w). Allora
f (λv) = λf (v) = λw. Quindi f −1 (λw) = λv = λf −1 (v).

Quindi se f è un isomorfismo anche f −1 è un isomorfismo, essendo lineare e


biunivoca.
Fissata una base di V , se W è un suo sottospazio, possiamo calcolarne la
dimensione valutando quella della sua immagine in Kn tramite l’applicazione
definita sopra.

Proposizione 7.37 Siano V e W due spazi vettoriali di dimensione finita n e


m rispettivamente e sia f : V → W un’applicazione lineare. Se A è associata
ad f rispetto ad una scelta di basi di V e W allora

dim(im(f )) = rangoc (A)

dove rangoc (A) indica il rango per colonne della matrice A.


Nucleo e immagine §7.3 185

Dim. Data una base v1 , . . . , vn di V , se v = x1 v1 + . . . + xn vn si ha

f (v) = x1 f (v1 ) + . . . + xn f (vn ).

Quindi f (v) è combinazione lineare di f (v1 ), . . . , f (vn ), che formano un siste-


ma di generatori per l’immagine. Cioè im f = L(f (v1 ), . . . , f (vn )). Fissata una
base di W la dimensione dell’immagine di f è pari a quella della sua immagine
nell’isomorfismo fra W e Km ma l’immagine di f (vi ) è data esattamente dalle
componenti della colonna i-esima della matrice A associata a f rispetto alla scel-
ta delle due basi. La dimensione dell’immagine è quindi pari al massimo numero
di colonne linearmente indipendenti in A, ovvero al rango per colonne.

Determiniamo quindi un modo per calcolare la dimensione del nucleo di un’ap-


plicazione lineare:

Proposizione 7.38 Siano V e W due spazi vettoriali di dimensione finita e


f : V → W un’applicazione lineare. Se A è associata ad f rispetto ad una
scelta di basi di V e W allora

dim(ker(f )) = dim(V ) − rango(A).

Dim. Siano v ∈ ker(f ) e sia x = (x1 , . . . , xn ) il vettore delle componenti di v,


scritto come combinazione lineare degli elementi della base scelta di V . Dato
che f (v) = 0W ) le componenti di f (v) nella base di W sono tutte nulle. D’altro
canto queste sono ottenute da A · x. Quindi x è una soluzione del sistema
lineare omogeneo A · x = 0. Vale ovviamente anche il viceversa, ovvero ogni
soluzione del sistema omogeneo corrisponde ad una combinazione lineare degli
elementi della base di V che definisce un elemento del nucleo di f . Indicato
con S l’insieme delle soluzioni del sistema omogeneo (che sappiamo essere un
sottospazio vettoriale di Kn ) abbiamo che l’applicazione ker(f ) → S definita da
v → (x1 , . . . , xn ) è lineare e per quanto visto sopra è invertibile, ovvero iniettiva
e suriettiva. Ne segue che dim(ker(f )) = dim(S) e, per la Proposizione 6.55, tale
dimensione è pari a dim(V ) − rango(A).

Abbiamo, come immediata conseguenza, un risultato annunciato nei capitoli


precedenti:

Corollario 7.39 Sia K un campo. Il rango per righe rangor (A) di una matrice
A ∈ M(m × n, K) coincide col rango per colonne rangoc (A).
186 Capitolo 7 Algebra Lineare

Dim. Sia f : Kn → Km l’applicazione associata ad A rispetto alla scelta delle basi


canoniche. Allora

rangoc (A) = dim(im(f )) = n − dim(ker(f )) = rangor (A).

Esempio 7.40 Consideriamo l’applicazione lineare f : R3 → R3 associata, rispetto


alla base canonica, alla matrice
 
1 3 −1
 
A = 2 1 3  .
1 0 2

Il rango di A è pari a 2, quindi l’immagine di f ha dimensione 2 e, dato che lo


spazio di partenza ha dimensione 3, il nucleo di f ha dimensione 1. Possiamo
determinare il nucleo risolvendo il sistema omogeneo associato ad A e si trova
che il nucleo è lo spazio generato da (2, −1, −1). Le prime due colonne di A sono
chiaramente linearmente indipendenti, quindi forniscono le componenti di una
base dell’immagine. Dato che stiamo lavorando con la base canonica abbiamo
che l’immagine è L((1, 2, 1), (3, 1, 0)).

Esempio 7.41 Consideriamo l’applicazione lineare f : R4 → R2 [x] associata,


rispetto alla base canonica di R4 e alla base {x 2 , x, 1} di R2 [x], alla matrice
 
1 0 2 −1
 
A= 1 3 2 2 .
−1 −12 −2 −11

Dalla definizione di matrice associata questo significa che

f (1, 0, 0, 0) = x 2 + x = −1, f (0, 1, 0, 0) = 3x − 12,

f (0, 0, 1, 0) = 2x 2 + 2x − 2, f (0, 0, 0, 1) = −x 2 + 2x − 11.

Il rango di A è pari a 2. Quindi sia il nucleo che l’immagine hanno dimensio-


ne 2. Risolvendo il sistema omogeneo associato ad A troviamo che il nucleo è
L((−1, 1, 0, −1), (−2, 0, 1, 0)). Le prime due colonne della matrice associata so-
no linearmente indipendenti quindi f (1, 0, 0, 0) e f (0, 1, 0, 0) formano una base
dell’immagine.

Possiamo anche fornire una diversa dimostrazione della caratterizzazione del-


le soluzioni dei sistemi lineari. Un modo alternativo di scrivere un sistema
Nucleo e immagine §7.3 187

lineare è dato da una equazione vettoriale della forma


       
a11 a12 a1n b1
a  a  a  b 
 21   22   2n   2 
x1  
 ..  + x2
 .  + · · · + xn
 . 
 .  =  . .
 .   .  (7.2)
 .   .   .   . 
am1 am2 amn bm

Il sistema ammette quindi soluzioni se e solo se è possibile esprimere il vettore


dei termini noti (b1 , b2 , · · · , bm ) come combinazione lineare delle colonne di
A: (a11 , a21 , · · · , am1 ), . . ., (a1n , a2n , · · · , amn ), le incognite rappresentano i
coefficienti della combinazione lineare.
L’osservazione fondamentale è la seguente: si ha

L(A1 , . . . , An ) = L(A1 , . . . , An , b)

se e solo se b è combinazione lineare di A1 , . . . , An Per sapere se un sistema am-


mette soluzioni basta quindi contare il massimo numero di vettori linearmente
indipendenti nei due insiemi di vettori (cioè la dimensione dello spazio che essi
generano) e controllare se sono uguali. Sappiamo utilizzare il rango per calcolare
questi numeri, infatti l’uguaglianza delle dimensioni è data dall’uguaglianza del
rango della matrice completa e della matrice incompleta.

Teorema 7.42 [Teorema di Rouché-Capelli] Sia K un campo. Un sistema linea-


re di m equazioni in n incognite a coefficienti in K, della forma (5.1), ammette
soluzioni se e solo se il rango della matrice completa è uguale al rango della
matrice incompleta. Detto p tale valore, e posto q = n − p , l’insieme delle
soluzioni è un sottospazio affine q-dimensionale di Kn .

Esercizio 7.1 Stabilire se 1 + 2x appartiene all’immagine dell’applicazione R3 →


R2 [x] definita, rispetto alla base canonica e alla base {1, 1 + x 2 , x} dalla matrice
 
1 3 0
 
0 1 0
1 0 1

Esercizio 7.2 Dire quali, fra le seguenti applicazioni R3 → R3 , sono lineari. In caso
di risposta affermativa scrivere la matrice associata rispetto alla base canonica.

a) (x, y, z) → (x 2 , y 2 , z2 ) b) (x, y, z) → (z, x, y)


c) (x, y, z) → (z, x, y + 1) d) (x, y, z) → (y − z, z − y, x − y)
e) (x, y, z) → (2x, 3y, 4z) f ) (x, y, z) → (x + 2y, 2z + 3x, y − 5x)
188 Capitolo 7 Algebra Lineare

Esercizio 7.3 E’ data l’applicazione lineare f : R3 → R3 definita da

f (x, y, z) = ((2 − h)x + y − z, y − x + 3z, x − 2y + 3z + h2 ).

(i) Determinare i valori di h per i quali f è lineare. Determinare quindi


(ii) La matrice associata ad f rispetto alla base canonica.
(iii) Delle basi per il nucleo e l’immagine di f .

Esercizio 7.4 E’ data l’applicazione lineare f : R3 → R3 definita da

f (x, y, z) = ((h − 2)x + 2y − z, 2x + hy + 2z, 2hx + 2(h + 1)y + (h + 1)z).

Determinare il nucleo e l’immagine di f al variare del parametro h.

Esercizio 7.5 Sia f una applicazione lineare R3 → R4 tale che

f (1, 2, 0) = (1, −3, 2, 4), f (2, 1, 0) = (5, −3, 1, 2), f (1, 0, 1) = (−2, 0, 1, 1).

Determinare
(i) f (2, 1, 2).
(ii) Il nucleo di f .
(iii) La matrice associata ad f rispetto alla base canonica.

Esercizio 7.6 Dire se l’applicazione f : R3 → R3 , associata, rispetto alla base


canonica, alla matrice
 
1 1 2
 
1 2 1
2 1 5

è iniettiva e/o suriettiva.

Esercizio 7.7 Data l’applicazione f : R4 → R2 , associata, rispetto alla base cano-


nica, alla matrice
!
2 0 1 5
−4 5 0 −2

(i) Determinare l’immagine di un generico elemento (x, y, z, t)


(ii) Dire se f è iniettiva e/o suriettiva.
(iii) Determinare nucleo e immagine di f

Esercizio 7.8 Date le applicazioni lineari g : R4 → R3 , h : R4 → R4 , definite da


g(x, y, z, t) = (3x + y, x + z − t, x + z + t), h(x, y, z, t) = (x, 3y, t − z, z − t)
determinare g(h((2, 1, 3, 0))) − 2g((0, 0, 2, 1)).
Cambiamento di base §7.4 189

Esercizio 7.9 Sono date le applicazioni lineari f : R6 → R4 e g : R4 → R2 associate,


rispetto alle basi canoniche, alle matrici
 
1 0 1 0 0 0 !
0 1 0 1 0 0 2 4 0 5
 
 , .
−1 0 1 0 −1 0 −1 1 2 0
0 0 0 −1 0 1
Determinare la matrice associata alla composizione g ◦ f . Determinare una base
del nucleo e una dell’immagine per tale applicazione.

Cambiamento di base
In questa sezione approfondiamo il legame tra un’applicazione lineare e le
possibili matrici che le sono associate rispetto ad una scelta di basi. Per farlo
abbiamo bisogno di alcuni risultati sulle matrici la cui dimostrazione è rimandata
ad un capitolo successivo:

Proposizione 7.43 Siano A ∈ M(n × m, K), B ∈ M(m × l, K), e In ∈ M(n, K),


la matrice identica di ordine n. Allora

i) det(In ) = 1.
ii) det(A, B) = det(A) det(B).
iii) Se m = n, det(A) = det(At ).

Sappiamo che, in M(n, K), la matrice identica è l’elemento neutro del prodotto.
Questo giustifica la seguente definizione:

Definizione 7.44 Una matrice A ∈ M(n, K) è detta invertibile se esiste una matri-
ce, che indichiamo con A−1 ∈ M(n, K) tale che
A A−1 = A−1 A = In .
Se la matrice A−1 esiste, è detta inversa di A.
In questo corso non dovremo calcolare spesso esplicitamente l’inversa di una
matrice, rimandiamo quindi le formule corrispondenti ad un capitolo successivo.
Mostriamo un metodo di calcolo, facilmente generalizzabile, con un esempio:
!
1 3
Esempio 7.45 Sia A = . Se esiste una matrice inversa di A, le sue
2 −1
componenti, che indichiamo con bij devono verificare
! ! !
1 3 b11 b12 1 0
· = .
2 −1 b21 b22 0 1
190 Capitolo 7 Algebra Lineare

Svolgendo il prodotto abbiamo che questa equazione è equivalente al sistema


lineare 
 b11 + 3b21 = 1



 b + 3b = 0
12 22

 2b11 − b21 = 0


 2b − b = 1
12 22

Che ammette una soluzione e definisce la matrice inversa di A:


1 3
!
A−1 = 7
2
7 .
7
− 71
Abbiamo le seguenti proprietà dell’inversa di una matrice:

Proposizione 7.46 Sia A ∈ M(n, K). Allora

i) A è invertibile se e solo se det(A) ≠ 0.


1
ii) Se A è invertibile allora det(A−1 ) = det(A) .
−1 −1
iii) Se A è invertibile allora (A ) = A.

Abbiamo anche delle conseguenza importanti sulle applicazioni lineari:

Proposizione 7.47 Sia f : V → W un’applicazione lineare fra spazi della stessa


dimensione finita e sia A una matrice associata ad f rispetto ad una scelta di
basi B e C . Allora

i) f è invertibile se e solo se A è invertibile.


ii) Se f è invertibile allora f −1 è associata alla matrice A−1 rispetto alle basi
CeB

Applichiamo ora gli strumenti forniti dal calcolo dell’inversa di una matrice
per ottenere una formula che permetta di determinare la matrice associata ad
una applicazione lineare al variare delle basi.
Siano V e W due spazi vettoriali su un campo K e f : V → W un’applicazione
lineare. Date due basi B, B′ di V e due basi C e C ′ di W , supponiamo che la ma-
trice associata ad f , rispetto alle basi B e C, sia A. Consideriamo l’applicazione
identica idV di V (risp. idW di W ). Sia X (risp. Y ) la matrice associata a idV (risp.
idW ) rispetto alla scelta della base B (risp. C) in partenza e B′ (risp. C ′ ) in arrivo.
E’ possibile scrivere f come composizione

f (v) = idW ◦f ◦ idV (v)

la matrice associata ad f può quindi essere scritta come prodotto delle matrici
associate a queste tre applicazioni lineari, scegliamo le basi come segue
Cambiamento di base §7.4 191

idV f idW
VB′ VB WC WC ′

Dato che la composizione


idV idV
VB′ VB VB′

è associata alla matrice identica I, la matrice associata a idV con la scelta di B′ in


partenza e B in arrivo è data da X −1 . Quindi la matrice A′ associata ad f rispetto
a B′ in partenza e C ′ in arrivo è data da

A′ = Y · A · X −1 . (7.3)

Nel caso sia più semplice determinare le matrici X e Y associate alle applica-
zioni identiche di V e W rispetto alle basi B′ (risp. C ′ ) in partenza e B (risp. C)
in arrivo la formula diventa chiaramente A′ = Y −1 · A · X.

Esempio 7.48 Supponiamo che ad una applicazione lineare R3 → R2 sia associata,


rispetto alle basi canoniche di R3 e R2 , che indichiamo con B e C, la matrice
!
1 −1 2
A= .
2 1 0

Siano date le basi B′ = {(1, 0, 0), (0, 1, 1), (0, 1, −1)} di R3 e C ′ = {(1, 1), (1, −1)}
di R2 . In questo caso è più semplice determinare la matrice associata a idR3
rispetto alle basi B′ e B, in quanto basta mettere in colonna le componenti degli
elementi della base B′ . Tale matrice è allora data da
 
1 0 0
 
X = 0 1 1 
0 1 −1

mentre la matrice associata a idR2 rispetto alle basi C ′ e C è data da


!
1 1
Y = .
1 −1

L’inversa della matrice Y è data da


1 1
!
Y −1 = 2
1
2 .
2
− 21

La matrice associata ad f rispetto alle basi B′ e C ′ è quindi


 
1 1
! ! 1 0 0 3
!
1 −1 2   1 −1
A′ = 21 2
1 ·  0 1 1  = 2
1 .
− 2 1 0 − 0 −2
2 2 0 1 −1 2
192 Capitolo 7 Algebra Lineare

Si noti che, nel caso si debbano calcolare le matrici associate a più applicazioni
lineari, dopo un cambio di base, le stesse matrici X −1 e Y permettono il calcolo
della nuova matrice associata in quanto dipendono solo dalle basi e non dalle
applicazioni lineari in gioco.
Nel caso particolare V = W , se B = C e B′ = C ′ si ha che la matrice rispetto alle
nuove basi è data dalla formula A′ = X · A · X −1 . Due matrici A e A′ che siano
legate da questa relazione sono dette simili . Due matrici simili sono sempre
associate ad una stessa applicazione lineare, rispetto a basi diverse (avendo la
stessa base in partenza e in arrivo).

Diagonalizzazione di applicazioni lineari


In questo paragrafo ci occupiamo di applicazioni lineari che trasformano uno
spazio vettoriale V in sè. Queste applicazioni vengono dette anche endomorfismi
. In aggiunta alla ricerca del nucleo e dell’immagine di una tale applicazione, è
estremamente utile, nelle applicazioni, stabilire se esistono dei vettori che ven-
gono trasformati in vettori ad essi paralleli. Iniziamo con degli esempi, simili a
quelli introdotti all’inizio del capitolo:

Esempio 7.49 Consideriamo l’applicazione lineare f : R2 → R2 definita, rispetto


alla base canonica, dalla matrice
!
−2 0
.
0 −2

L’immagine del generico elemento (x, y) è f (x, y) = (−2x, −2y) = −2(x, y). In
questo caso ogni vettore viene trasformato in un vettore parallelo, con verso op-
posto e modulo doppio. I punti della circonferenza di raggio 1 e centro nell’origine
vengono mandati nei punti della circonferenza di raggio 2.

Esempio 7.50 Consideriamo l’applicazione lineare f : R2 → R2 definita, rispetto


alla base canonica, dalla matrice
!
2 0
.
0 1

L’immagine del generico elemento (x, y) è f (x, y) = (2x, y). In questo caso non
è più vero che ogni vettore viene trasformato in un vettore parallelo. Se ci limi-
tiamo però agli elementi della base canonica si ha che f (1, 0) = (2, 0) = 2(1, 0) e
f (0, 1) = (0, 1). Quindi questi due vettori vengono trasformati in vettori paralleli.
Stavolta la trasformazione modifica i moduli in modo diverso a seconda della di-
rezione. Un vettore che sia parallelo all’asse x viene trasformato in un vettore di
Diagonalizzazione di applicazioni lineari §7.5 193

modulo doppio, quelli paralleli all’asse y vengono invece lasciati inalterati. I vetto-
ri che non si trovano su uno dei due assi non vengono invece trasformati in vettori
paralleli. La circonferenza di raggio 1 e centro nell’origine viene trasformata in
una ellisse.

Esempio 7.51 Consideriamo l’applicazione lineare f : R2 → R2 definita, rispetto


alla base canonica, dalla matrice
!
2 0
.
0 0

L’immagine del generico elemento (x, y) è f (x, y) = (2x, 0). Anche in questo
caso non è vero che ogni vettore viene mandato in un vettore ad esso parallelo.
Nonostante ciò, se ci limitiamo agli elementi della base, questo avviene. Si ha
infatti f (1, 0) = 2(1, 0) e f (0, 1) = 0(0, 1). In questo caso la circonferenza di
raggio 1 e centro nell’origine viene ’schiacciata’ sull’asse delle x.

Esempio 7.52 Consideriamo l’applicazione lineare f : R2 → R2 definita, rispetto


alla base canonica, dalla matrice
!
λ1 0
.
0 λ2

L’immagine di un generico elemento è f (x, y) = (λ1 x, λ2 y). Se λ1 ≠ λ2 non è


vero che ogni vettore viene trasformato in un vettore ad esso parallelo. Però se ci
limitiamo agli elementi della base canonica questo accade, si ha infatti f (1, 0) =
λ1 (1, 0) e f (0, 1) = λ2 (0, 1).

Esempio 7.53 Consideriamo l’applicazione lineare f : R2 → R2 definita, rispetto


alla base canonica, dalla matrice
!
1 1
.
1 1

In questo caso non è assolutamente ovvio stabilire se esistono vettori che vengono
trasformati in vettori paralleli. sicuramente questo non avviene per i vettori della
base canonica. Si ha però f (1, 1) = (2, 2) = 2(1, 1) e f (1, −1) = (0, 0) = 0(1, −1).
Abbiamo sempre sottolineato la dipendenza della matrice associata ad una appli-
cazione lineare dalla scelta delle basi nello spazio di partenza e di arrivo. Conside-
riamo la base B′ di R2 data da {(1, 1), (1, −1)} e cerchiamo la matrice associata
ad f rispetto a questa base, sia in partenza che in arrivo. Le sue colonne sono le
componenti di f (1, 1) = 2(1, 1) + 0(1, −1) e f (1, −1) = 0(1, 1) + 0(1, −1) nella
194 Capitolo 7 Algebra Lineare

base B′ , ovvero
!
2 0
.
0 0

Rispetto a questa base la matrice associata ha preso la forma ’diagonale’ che


abbiamo visto nei precedenti esempi.

Dovrebbe ora essere chiaro che il problema di determinare dei vettori che ven-
gono trasformati da f in vettori ad essi paralleli, è legato alla possibilità di de-
terminare una base di V rispetto alla quale la matrice associata ad f è in forma
diagonale. Analizziamo brevemente l’aspetto teorico di questo problema.

Definizione 7.54 Sia V uno spazio vettoriale su di un campo K e f : V → V una


applicazione lineare. Un vettore v ∈ V è detto autovettore di f se
i) v ≠ 0V .
ii) esiste λ ∈ K tale che f (v) = λv.
In tal caso λ è detto autovalore associato a v.

E’importante notare che, nella definizione, è richiesto che gli autovettori siano
non nulli, questo perché f (0V ) = 0V = λ0V qualunque sia λ ∈ K.

Definizione 7.55 Sia V uno spazio vettoriale ed f : V → V una applicazione


lineare. f si dice diagonalizzabile se esiste una base di V formata da autovettori
di f .

La definizione di diagonalizzabilità corrisponde, come abbiamo visto in un


precedente esempio, al fatto che la matrice associata ad f rispetto alla base di
autovettori (sia in partenza che in arrivo) è in forma diagonale, ovvero tutti gli
elementi che non appartengono alla diagonale principale sono nulli. Infatti se
v1 , . . . , vn è una base di autovettori si ha

f (vi ) = λi vi = 0v1 + . . . + 0vi−1 + λi vi + 0vi+1 + . . . 0vn

e la matrice associata ad f rispetto a tale base è


 
λ1 0 · · · 0
0 λ 0
 2 
 . .. 
 . .. 
 . . . 
0 0 · · · λn

Per arrivare ad un metodo di ricerca degli autovettori e degli autovalori di un


endomorfismo descriviamo un caso particolare
Diagonalizzazione di applicazioni lineari §7.5 195

Esempio 7.56 Sia V uno spazio vettoriale. Consideriamo l’applicazione identica


id : V → V . Questa è l’applicazione che ad ogni vettore associa il vettore stesso:
id(v) = v. Sia B = {v1 , . . . , vn } una qualsiasi base di V , cerchiamo la matrice
associata a id rispetto a questa base (sia in partenza che in arrivo). E’evidente
che tutti gli elementi di B sono autovettori con autovalore associato 1, quindi la
matrice associata a id, rispetto a qualsiasi base è
 
1 0 ··· 0
0 1 0
 
I=  .. .. .. 

. . .
0 0 ··· 1

ovvero la matrice identità di ordine n.

Sia ora v un autovettore di f , si ha allora f (v) = λv = λ id(v). Abbiamo visto


che è possible sommare e moltiplicare per uno scalare le applicazioni lineari,
quindi dire che v è un autovettore ’e equivalente a dire che (f − λ id)(v) = 0V .
Quindi il nucleo dell’applicazione lineare f − λ id ha dimensione positiva. Fissata
una qualsiasi base B di V , se A è la matrice associata ad f rispetto a tale base,
sia in partenza che in arrivo, la matrice associata ad f − λ id è A − λI. Dire che
il nucleo di f − λ id è non banale equivale a dire che il rango di A − λI non è
massimo. Trattandosi di una matrice quadrata questo equivale a richiedere che
il suo determinante sia nullo.
Tutti questi passaggi possono essere invertiti. Se det(A− λI) = 0, vuol dire che
il rango di A − λI non è massimo, quindi l’applicazione f − λ id ha un nucleo non
banale, ovvero esiste un v ≠ 0V tale che (f − λ id)(v) = 0V , cioè un autovettore
per f . Abbiamo quindi

Proposizione 7.57 Sia V uno spazio vettoriale di dimensione finita su un


campo K e sia f : V → V un’applicazione lineare. Fissata una base B di V sia
A la matrice associata ad f rispetto a tale base. Gli autovalori di f sono tutte
e sole le soluzioni dell’equazione det(A − λI) = 0. Sia λ una di tali soluzioni,
gli autovettori associati a λ sono gli elementi non nulli di ker(f −λ id). Questo
insieme è detto autospazio relativo all’autovalore λ.

Si noti,in particolare, che

(i) l’autospazio relativo ad un autovalore, essendo il nucleo di un’applicazio-


ne lineare, è un sottospazio vettoriale di V .
(ii) il nucleo di un’applicazione lineare è sempre un autospazio, relativo all’au-
tovalore 0.
196 Capitolo 7 Algebra Lineare

Definizione 7.58 Sia V uno spazio vettoriale su un campo K e sia f : V → V


un’applicazione lineare. Se A è la matrice associata ad f rispetto alla scelta di
una base (in partenza e in arrivo), il polinomio det(A − λI) nell’incognita λ è detto
polinomio caratteristico dell’applicazione lineare f (o della matrice A).

Nella definizione precedente il polinomio caratteristico è legato alla matrice A,


quindi alla scelta di una base di V . In realtà si prova che questo non dipende
dalla base ma solo dall’applicazione lineare f :

Proposizione 7.59 Sia V uno spazio vettoriale di dimensione finita su un


campo K e f : V → V un’applicazione lineare. Siano A, A′ le matrice associate
ad f rispetto alla scelta di due diverse basi (ogni volta usiamo la stessa base
in partenza e in arrivo). Allora

det(A − λI) = det(A′ − λI).

Dim. Se indichiamo con X la matrice del cambiamento di base tra le due basi
scelte. Allora X è invertibile e A e A′ sono legate da A′ = XAX −1 . Abbiamo
quindi

det(A′ − λI) = det(XAX −1 − λI) = det(XAX −1 − λXX −1 ) =


= det(X(A − λI)X −1 ) = det(X) det(A − λI) det(X −1 ) =
= det(X) det(A − λI) det(X)−1 =
= det(A − λI).

Si osservi che la caratterizzazione degli autovalori come radici del polinomio


caratteristico det(A − λI) permette di estendere il concetto di autovalore alle
matrici, indipendentemente dal fatto che siano associate ad applicazioni lineari.

Esempio 7.60 Consideriamo l’applicazione lineare f : R3 → R3 definita, rispetto


alla base canonica, dalla matrice
 
1 1 1
 
A = 0 1 2 .
0 0 2

Per stabilire se f è o meno diagonalizzabile dobbiamo prima di tutto determinare


gli autovalori, quindi determinare i corrispondenti autovettori. Se è possibile de-
terminare una base composta da autovettori l’endomorfismo è diagonalizzabile.
Diagonalizzazione di applicazioni lineari §7.5 197

La matrice associata a f − λ id è
     
1 1 1 1 0 0 1−λ 1 1
     
A − λI = 0 1 2  − λ 0 1 0 =  0 1−λ 2 .
0 0 2 0 0 1 0 0 2−λ

Gli autovalori sono le soluzioni di det(A − λI) = 0, ovvero

(1 − λ)2 (2 − λ) = 0.

Gli autovalori di f sono quindi λ1 = 1 (con molteplicità 2 come radice del po-
linomio caratteristico) e λ2 = 2 (con molteplicità 1 come radice del polinomio
caratteristico). Si noti che gli autovalori che abbiamo determinato sono esatta-
mente gli elementi sulla diagonale principale della matrice, questo accade sem-
pre se la matrice, è in forma triangolare. Determiniamo gli autovettori corri-
spondenti, iniziando da quelli associati a λ1 . Questi sono gli elementi non nul-
li di ker(f − λ1 id) e sono rappresentati dalle soluzioni del sistema omogeneo
(A − λ1 I) · (x, y, z)t = (0, 0, 0)t , Nel nostro caso, essendo λ1 = 1, dobbiamo
risolvere il sistema
     
0 1 1 x 0
     
 0 0 2 · y =
   0  .
0 0 1 z 0

Ovvero dalle terne della forma (x, 0, 0) = x(1, 0, 0). abbiamo quindi che gli au-
tovettori relativi a λ1 sono tutti e soli i vettori non nulli paralleli a (1, 0, 0). Per
determinare gli autovettori relativi a λ2 dobbiamo risolvere
     
−1 1 1 x 0
     
 0 −1 2 · y  = 0 .
0 0 0 z 0

che ha come soluzioni le terne della forma (3z, 2z, z), ovvero gli autovettori
relativi a λ2 sono tutti e soli i vettori non nulli paralleli a (3, 2, 1).
In conclusione possiamo al più trovare due autovettori linearmente indipenden-
ti. Quindi è impossibile determinare una base di R3 costituita da autovettori. f
non è diagonalizzabile.

I coefficienti del polinomio caratteristico di un endomorfismo di uno spazio


vettoriale n-dimensionale ha grado n sono ovviamente legati alla matrice as-
sociata rispetto ad una base all’endomorfismo ed anche ai suoi autovalori. In
alcuni casi questo legame è particolarmente semplice da valutare e può essere
utilizzato, negli esercizi, per valutare la correttezza dei calcoli svolti.
198 Capitolo 7 Algebra Lineare

Lemma 7.61 Sia K un campo e siano dati A ∈ M(n, K) e λ ∈ K. Se B è una


matrice ottenuta da A sommando ad alcuni componenti di A il parametro λ,
ovvero bij = aij + λ per qualche insieme di indici i, j , allora il determinante di
B è un polinomio in λ di grado non superiore a k, dove k è il numero di righe
che contengono, in almeno una componente, il parametro λ.

Dim. Procediamo per induzione su n. Se n = 1 il risultato è ovvio. Supponia-


molo vero per matrici di ordine n − 1 e proviamo che vale per matrici di ordine
n. Dalla formula per il calcolo del determinante di B, calcolato secondo la prima
riga, abbiamo
n
X
det(B) = b1i β1i .
i=1

dove β1i = (−1)i+1 det(B1i ). Abbiamo due casi possibili


(i) se, nella prima riga, si ha b1j = a1j + λ per qualche indice j, le sottomatrici
B1i , ottenenute da B cancellando la prima riga e la i-esima colonna, hanno
ordine n − 1 e contengono al più k − 1 righe in cui compare il parametro
k. Quindi, per ipotesi induttiva, β1i è un polinomio in λ di grado non
superiore a k − 1. Dato che b1i è un polinomio in λ di grado al più uno, si
ha la tesi.
(ii) se nella prima riga di B non compare il parametro λ, le sottomatrici B1i
hanno ordine n−1 e contengono al più k righe in cui compare il parametro
k. Quindi, per ipotesi induttiva, β1i è un polinomio in λ di grado non
superiore a k. Dato che b1i sono scalari non contenenti λ, si ha la tesi.

Proposizione 7.62 Sia K un campo e A ∈ M(n, K). Il polinomio caratteristico


di A è un polinomio della forma

pA (λ) = (−1)n λn + (−1)n−1 tr(A)λn−1 + an−2 λn−2 + . . . + a1 λ + det(A)

di grado n nel parametro λ.

Dim. Il termine noto di pA (λ) può essere calcolato valutando pA (0). Quindi
dobbiamo valutare det(A − λI) per λ = 0. Si ha ovviamente det(A − 0 I) = det(A).
Per gli altri termini procediamo per induzione su n. Se n = 1 il risultato è ovvio.
Supponiamolo vero per matrici di ordine n − 1 e proviamo che vale per matrici di
ordine n. Poniamo B = A − λI. Le sottomatrici B1i , ottenenute da B cancellando
la prima riga e la i-esima colonna sono tali che B11 = A11 − λI, mentre per i ≠ 1,
Diagonalizzazione di applicazioni lineari §7.5 199

B1i contiene esattamente n − 2 righe in cui compare il parametro λ. Quindi nello


sviluppo del determinante abbiamo
n
X
det(B) = b11 β11 + b1i β1i
i=2

dove, per i > 1, b1i è uno scalare non contenente λ e β1i è un polinomio di grado
al più n − 2. Quindi il contributo della sommatoria è un polinomio di grado al
più n − 2 in λ. Per il primo termine abbiamo, utilizzando l’ipotesi induttiva, che
det(A11 − λI) = (−1)n−1 λn−1 + (−1)n−2 tr(A11 )λn−2 + pn−3 (λ),
dove pn−3 (λ) è un polinomio di grado al più n − 3 in λ. Quindi
b11 β11 = (a11 − λ) det(A11 − λI) =
= (a11 − λ)((−1)n−1 λn−1 + (−1)n−2 tr(A11 )λn−2 + pn−3 (λ)) =
= (−1)n−1 a11 λn−1 + (−1)n−2 a11 tr(A11 )λn−2 + a11 pn−3 (λ) −
− (−1)n−1 λn − (−1)n−2 tr(A11 )λn−1 − λpn−3 (λ) =
= (−1)n λn + ((−1)n−1 a11 + (−1)n−1 tr(A11 )λn−1 +
+ (−1)n−2 a11 tr(A11 )λn−2 + a11 pn−3 (λ) − λpn−3 (λ) =
= (−1)n λn + (−1)n−1 tr(A)λn−1 + . . .

Corollario 7.63 Sia K un campo e A ∈ M(n, K). Se il polinomio caratteristico


di A ammette n radici in K (non necessariamente distinte) λ1 , . . . , λn si ha

det(A) = λ1 · λ2 · · · · · λn , tr(A) = λ1 + . . . + λn .

Dim. Il polinomio caratteristico di A si fattorizza nel prodotto pA (λ) = (λ −


λ1 ) · . . . · (λ − λn ) e, svolgendo il prodotto si trova che il coefficiente del termine
di grado n − 1 è (−1)n−1 (λ1 + . . . + λn ) mentre il termine noto è il prodotto degli
autovalori. Confrontando col risultato precedente si ha la tesi.
Ci possono essere più motivi per i quali un endomorfismo f non è diagonaliz-
zabile.
(i) Il polinomio caratteristico di f non ha un numero sufficiente di radici.
Affinché un endomorfismo sia diagonalizzabile il numero di tali radici,
contate con la loro molteplicità, deve essere pari alla dimensione dello
spazio. Non è sempre detto che tali radici siano numeri reali, si pensi al
caso dei polinomi di secondo grado nel caso il discriminante sia negativo.
200 Capitolo 7 Algebra Lineare

(ii) Non si riesce a determinare un numero sufficiente di autovettori linear-


mente indipendenti. Una volta determinati gli autovalori, affinché l’endo-
morfismo sia diagonalizzabile, per ogni autovalore bisogna poter deter-
minare un numero di autovettori linearmente indipendenti pari alla sua
molteplicità come radice del polinomio caratteristico. Nel caso dell’esem-
pio precedente λ1 = 1 aveva molteplicità 2 come radice del polinomio
caratteristico, mentre l’insieme degli autovettori corrispondenti, ovvero
ker(f − λ id) aveva dimensione 1.
Diamo quindi le seguenti definizioni.

Definizione 7.64 Sia V uno spazio vettoriale di dimensione finita n su un campo


K e sia f : V → V un’applicazione lineare. Se λ è un autovalore di f definiamo
la molteplicità algebrica di λ come la molteplicità di λ come radice del polinomio
caratteristico. La molteplicità geometrica di λ è la dimensione dell’autospazio
relativo a λ: ker(f −λI) ed è data da n−rango(A) dove A è una matrice associata
ad f .

Per dimostrare che le condizioni elencate sopra determinano la possibilità di


diagonalizzare un’applicazione lineare abbiamo bisogno di alcuni risultati

Lemma 7.65 Sia V uno spazio vettoriale di dimensione finita n su un campo


K e sia f : V → V un’applicazione lineare. Se µ è un autovalore di f la
molteplicità geometrica di µ è minore o uguale alla sua molteplicità algebrica.

Dim. Sia k la molteplicità geometrica di µ. Ne segue che possiamo determinare


una base v1 , . . . , vk dell’autospazio relativo all’autovalore µ. Possiamo comple-
tare tale base ad una base di V . Dato che f (vi ) = µvi per i = 1, . . . , k abbiamo le
prime k colonne della matrice associata ad f rispetto a tale base
 
µ 0 ... 0 a1(k+1) ... a1n
 
0 µ . . . 0 a2(k+1) ... a2n 
 
 .. .. .. .. 
. . . . 
 
 
A = 0 0 . . . µ ak(k+1) ... akn 
 
 0 0 . . . 0 a(k+1)(k+1) . . . a(k+1)n 
 
. .. .. .. 
. 
. . . . 
0 0 ... 0 an(k+1) ... ann
che possiamo scrivere in forma compatta
!
µIk B1
A=
0 B2
Diagonalizzazione di applicazioni lineari §7.5 201

dove B1 è una matrice di tipo k×(n−k) e B2 è una matrice di tipo (n−k)×(n−k).


La matrice A − λi è quindi del tipo
!
(µ − λ)Ik B1
A − λI =
0 B2 − λIn−k

e il suo determinante è (µ − λ)k det(B2 − λIn−k ) (cfr. Proposizione 2.32). Ne


segue che λ = µ è una radice con molteplicità non inferiore a k del polinomio
caratteristico.

Esempio 7.66 Consideriamo l’applicazione lineare R3 → R3 associata, rispetto


alla base canonica, alla matrice
 
0 5 5
 
20 0 −10 .
18 9 −5

Per determinare gli eventuali autovalori calcoliamo le radici del polinomio carat-
teristico. Queste sono le soluzioni non nulle di
 
−λ 5 5
 
det  20 −λ −10  = 0.
18 9 −5 − λ

Si trova λ1 = −10, λ2 = −5, λ3 = 10. Determiniamo gli autovettori corrispondenti.


Quelli relativi a λ1 sono dati dalle soluzioni non nulle di
     
10 5 5 x 0
     
20 10 −10 · y  = 0 .
18 9 5 z 0

e sono quindi gli elementi di L((−1, 2, 0)).


Quelli relativi a λ2 sono dati dalle soluzioni non nulle di
     
5 5 5 x 0
     
20 5 −10 · y  = 0 .
18 9 0 z 0

e sono quindi gli elementi di L((1, −2, 1)).


Quelli relativi a λ3 sono dati dalle soluzioni di
     
−10 5 5 x 0
     
 20 −10 −10 · y  = 0 .
18 9 −15 z 0

e sono quindi gli elementi di L((2, 1, 3)).


202 Capitolo 7 Algebra Lineare

Non è difficile verificare che (−1, 2, 0), (1, −2, 1), (2, 1, 3) formano una base B′
di R3 . Quindi l’endomorfismo è diagonalizzabile e, rispetto alla base B′ ha matrice
associata
 
−10 0 0
 
 0 −5 0  .
0 0 10
Se un’applicazione lineare è diagonalizzabile dobbiamo costruire una base
formata da autovettori, iniziamo col valutarne la lineare indipendenza.

Proposizione 7.67 Sia f un endomorfismo di uno spazio vettoriale V di di-


mensione finita su un campo K. Degli autovettori di f relativi ad autovalori
distinti sono linearmente indipendenti.

Dim. Procediamo per induzione sul numero di autovettori. Per k = 1 il risultato


è ovvio in quanto ogni autovettore, essendo non nullo, è linearmente indipen-
dente. Supponiamo allora vero il risultato per un insieme di k − 1 autovettori
relativi ad autovalori distinti e siano v1 , . . . , vk degli autovalori di f corrispon-
denti agli autovalori λ1 , . . . , λk , con λi ≠ λj per i ≠ j. Se gli autovettori fossero
linearmente dipendenti uno di loro, ad esempio v1 , potrebbe essere espresso
come combinazione lineare dei restanti:

v1 = a 2 v2 + . . . + a k vk

applicando f ad entrambi i membri si ricava

λ1 v1 = f (v1 ) = f (a2 v2 + . . . + ak vk ) =
= a2 f (v2 ) + . . . + ak f (vk ) = a2 λ2 v2 + . . . + ak λk vk

D’altro canto abbiamo anche

λ1 v1 = λ1 (a2 v2 + . . . + ak vk )

confrontando le due espressioni si ricava

a2 (λ2 − λ1 )v2 + . . . + ak (λk − λ1 )vk = 0V .

Poiché v2 , . . . , vn sono k − 1 autovettori relativi ad autovalori distinti sono, per


ipotesi induttiva, linearmente indipendenti. Quindi abbiamo che, per ogni i =
2, . . . , k, si ha ai (λi − λ1 ) = 0. Poiché gli autovalori sono distinti ne segue ai = 0
per i = 2, . . . , k e di conseguenza v1 = 0V , il che è impossibile dato che gli
autovettori sono, per definizione, non nulli.

Possiamo ora dimostrare il criterio per la diagonalizzabilità enunciato preceden-


temente
Diagonalizzazione di applicazioni lineari §7.5 203

Teorema 7.68 Sia V uno spazio vettoriale di dimensione finita n su un campo


K e f : V → V un’applicazione lineare. L’applicazione f è diagonalizzabile se
e solo se la somma delle molteplicità algebriche degli autovalori è pari ad n e
la molteplicità algebrica di ogni autovalore coincide con quella geometrica.

Dim. Se la somma delle molteplicità algebriche degli autovalori è inferiore a n o


un autovalore ha molteplicità algebrica maggiore di quella geometrica, la somma
delle molteplicità geometriche non può essere pari a n. Quindi il numero massi-
mo di autovettori linearmente indipendenti non è sufficiente a formare una base
di V . Viceversa, se la somma delle molteplicità geometriche è pari a n, unendo
delle basi dei vari autospazi si ottiene un insieme di n autovettori linearmente
indipendenti, ovvero una base di V che diagonalizza f .

Corollario 7.69 Sia V uno spazio vettoriale di dimensione finita n su un


campo K e f : V → V un’applicazione lineare. Se f ammette n autovalori
distinti è diagonalizzabile.

Dim. Siano λ1 , . . . , λn gli autovalori di f . Per ogni i si ha che il nucleo di f −


λ idV è non banale. Quindi esiste un vettore non nullo vi tale che f (vi ) = λi vi ,
quindi un autovettore di f . I vettori {v1 , . . . , vn } così trovati sono, per il risultato
precedente, linearmente indipendenti. Essendo in numero pari alla dimensione
dello spazio vettoriale V ne costituiscono una base.

Nel caso dell’esempio precedente, quindi, era sufficiente determinare gli autova-
lori per concludere che l’endomorfismo era diagonalizzabile.

Esercizio 7.10 Determinare gli autovalori e gli autovettori delle applicazioni li-
neari associate, rispetto alla base canonica, alle matrici
     
1 −2 0 9 0 10 1 0 0
     
0 1 1 , −5 4 10 , 0 2 1 .
4 0 1 −5 0 6 0 0 2
     
2 −2 −1 1 0 3 1 0 1
     
−2 5 2 , 2 5 0 , −1 −1 −1 .
−1 2 2 0 0 4 0 1 0
e discuterne la diagonalizzabilità.

Esercizio 7.11 Consideriamo lo spazio delle funzioni di una variabile reale deriva-
bili. L’applicazione f (x) → f ′ (x) è lineare. Determinare un autovettore relativo
204 Capitolo 7 Algebra Lineare

all’autovalore 1. Se si considera invece l’applicazione f (x) → f ′′ (x) determinare


due autovettori relativi all’autovalore −1.

Esercizio 7.12 Determinare il valore da attribuire ai parametri h, k in modo che


(1, 2, −1) sia un autovettore associato all’autovalore −2 per l’applicazione lineare
associata, rispetto alla base canonica, a
 
h 0 5
 
 1 2 k .
−1 3 h

Esercizio 7.13 Determinare gli autovalori e gli autovettori degli endomorfismi


associati, rispetto alla base canonica, alle matrici
 
  2 −3 −2 1
−1 −3 0 −3 2 −2 −1
   
a) −3 2 1  , b)  .
−2 −2 1 0
0 1 −1
1 −1 0 4

Esercizio 7.14 Sia V = M(2, R) e si consideri l’applicazione lineare V → V data


da A → At . Determinare le dimensioni e delle basi degli autospazi relativi a 1 e
−1. Questa applicazione è diagonalizzabile?

Esercizio 7.15 Provare che ogni matrice quadrata è esprimibile come somma di
due matrici invertibili.

Esercizio 7.16 Sia f : R3 [x] → R3 [x] associata, rispetto alla base {x 2 , x, 1} alla
matrice
 
5 0 −4
 
−1 1 1 .
3 0 −2

Determinare delle basi degli autospazi di f .

Spazi vettoriali complessi


Avendo provato che C è un campo abbiamo che uno spazio vettoriale comples-
so è un insieme in cui sono definite una operazione di somma e il prodotto per
uno scalare (complesso) che verificano le proprietà (6.1). Si possono costruire
esempi di spazi vettoriali complessi in modo del tutto analogo a quanto fatto
per il caso reale.
Spazi vettoriali complessi §7.6 205

Esempio 7.70
(i) Lo spazio complesso n-dimensionale Cn , dove le operazioni sono definite da

(x1 + . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )

λ (x1 , . . . , xn ) = (λx1 , . . . , λxn ).

(ii) Lo spazio M(m × n, C) delle matrici di tipo m × n a coefficienti complessi,


con le usuali operazioni già definite.

La teoria dei sottospazi e delle basi si trasferisce tale e quale al caso comples-
so. Rimane formalmente inalterata anche la definizione di applicazione linea-
re, basta sostituire il prodotto per uno scalare reale con quello per uno scalare
complesso.

Esempio 7.71 Se V = C3 una base di V è data da

{(1, 0, 0), (0, 1, 0), (0, 0, 1)}

infatti si ha (z1 , z2 , z3 ) = z1 (1, 0, 0) + z2 (0, 1, 0) + z3 (0, 0, 1). L’applicazione f :


C3 → C3 data da f (z1 , z2 , z3 ) = (iz1 + 2z2 , (1 − i)z2 , iz2 − z3 ) è lineare e, rispetto
alla base fissata sopra le è associata la matrice
 
i 2 1−i
 
A = 0 1 − i 0 .
0 i −1

Il determinante di questa matrice è definito in modo analogo al caso reale, si ha


quindi det(A) = −1 − I. Essendo il determinante non nullo l’applicazione f è un
isomorfismo.

Passando al problema della diagonalizzazione di un endomorfismo avevamo


visto che, nel caso reale, uno dei possibili ostacoli era dato dalla mancanza di un
numero sufficiente di radici del polinomio caratteristico. Per quanto visto nel pa-
ragrafo precedente, nel caso complesso questo problema non sussiste. Infatti, se
dim(V ) = n, è sempre possibile determinare n autovalori complessi (non neces-
sariamente distinti). Questo non significa che l’applicazione sia diagonalizzabile,
sussistendo ancora il problema di avere una sufficiente molteplicità geometrica
dell’autovalore.

Esempio 7.72 Nel caso dell’esempio precedente, il polinomio caratteristico di f è


−λ3 − iλ − 1 − i. Una radice è data da λ1 = −1. Mediante la regola di Ruffini ci
si riduce ad un polinomio di secondo grado, le cui radici si ottengono mediante la
consueta formula risolutiva. Si trova λ2 = i e λ3 = 1 − i. Trattandosi di autovalori
206 Capitolo 7 Algebra Lineare

distinti l’applicazione lineare è diagonalizzabile ed una base di autovettori è data


da {(i, 0, 1), (9 − 7i, −5 − 10i, 5), (1, 0, 0)}.

Esempio 7.73 !L’endomorfismo associato, rispetto alla base canonica di C2 alla


1 1
matrice non è diagonalizzabile. Abbiamo due autovalori coincidenti ma
0 1
la molteplicità geometrica del corrispondente autospazio è 1.

Esercizio 7.17 Determinare la matrice ridotta, col metodo di Gauss, della matrice
 
2 + i −1 + 2i 2
 
 1+i −1 + i 1 .
1 + 2i −2 + i 1 + i

Esercizio 7.18 Determinare una base del nucleo ed una dell’immagine dell’appli-
cazione lineare f : C3 → C2 definita da

f (z1 , z2 , z3 ) = ((2 + i) z1 + z2 − i z3 , z2 + i z3 ).

Il Teorema spettrale reale


In questa sezione dimostriamo, in un caso particolare, un importante criterio
di diagonalizzabilità. E’ un risultato di importanza fondamentale nella teoria
dell’algebra lineare e lo dimostreremo in una forma più generale in un capitolo
successivo.

Lemma 7.74 Sia f : Rn → Rn un’applicazione lineare. Allora esistono u, v ∈


Rn non entrambi nulli e a, b ∈ R tali che

f (u) = au − bv, f (v) = bu + av.

Dim. Consideriamo l’applicazione fe : Cn → Cn definita da

fe(u + iv) = f (u) + if (v),

dove u, v ∈ Rn . Per il Teorema fondamentale dell’algebra esiste un autovalore


λ per fe e, di conseguenza, un autovettore w f. Possiamo scrivere λ = a + i b e
f = u + i v dove a, b ∈ R e u, v ∈ Rn . Di conseguenza
w

fe(f
w ) = λf
w = (a + i b)(u + i v) = au − bv + i (av + bu). (7.4)
Il Teorema spettrale reale §7.7 207

Dalla definizione di fe abbiamo

fe(f
w ) = fe(u + i v) = f (u) + f (v). (7.5)

Confrontando le parti reali e le parti immaginarie nelle due espressioni (7.4) e


(7.5) abbiamo
f (u) = au − bv, f (v) = av + bu.

f = u + iv un autovettore, u e v non possono essere


Si noti che essendo w
entrambi nulli.

Lemma 7.75 Sia A ∈ M(n, R) una matrice simmetrica e sia W ⊂ Rn un sot-


tospazio vettoriale non banale tale che fA (W ) ⊂ W . Allora W contiene un
autovettore per fA .

Dim. Per il Lemma precedente abbiamo che esistono u e v, non entrambi nulli
tali che
fA (u) = au − bv, fA (v) = bu + av. (7.6)

Dimostriamo che, se non sono nulli, u e v sono autovettori di fA . Si ha, essendo


A simmetrica,

fA (u) · v = (A u)t v = ut At v = ut A v = ut (A v) = u · fA (v).

Quindi
(au − bv) · v = u · (av + bu),

ovvero
au · v − bv · v = au · v + bu · u,

da cui b(|u|2 + |v|2 ) = 0. Siccome almeno uno tra u e v è non nullo questo
implica b = 0 e, dalla (7.6)

fA (u) = au, fA (v) = av.

Quindi, se non nulli, u e v sono autovettori per fA con autovalore associato a.

Teorema 7.76 [Teorema spettrale reale] Sia A ∈ M(n, R) una matrice sim-
metrica. Allora esiste una base ortonormale di Rn formata da autovettori di
f A : Rn → Rn .
208 Capitolo 7 Algebra Lineare

Dim. Applicando il Lemma precedente al caso W = Rn abbiamo che esiste alme-


no un autovettore v1 per fA con autovalore associato λ1 , e possiamo supporrlo
di modulo 1 a meno di dividerlo per la sua norma. Se n = 1 abbiamo dimostrato
il Teorema. Altrimenti consideriamo

W = {w ∈ Rn : v1 · w = 0}.

Si verifica facilmente che W è un sottospazio vettoriale di Rn di dimensione n−1


e, se w ∈ W si ha

fA (w) · v1 = (A w) · v1 = (A w)t v1 = w t At v1 = w t A v1 =
= w t (A v1 ) = w · fA (v1 ) = w · (λ1 v1 ) = λ1 w · v1 = 0.

Quindi fA (w) ∈ W , ovvero fA (W ) ⊂ W . Possiamo quindi, per il Lemma prece-


dente, trovare in W un autovettore v2 (di modulo unitario) di fA associato ad un
autovalore λ2 . Iterando questo procedimento si ottiene, in un numero finito di
passi, una base ortonormale di Rn formata da autovettori di fA .

Esempio 7.77 Nel caso di matrici di ordine 2 abbiamo che la matrice del cambia-
mento di base è una matrice di rotazione.

Esempio 7.78 Consideriamo l’applicazione lineare associata, rispetto alla base


canonica, alla matrice
 
−1 0 5
 
 0 4 0 .
5 0 −1

Questa matrice è simmetrica, per il teorema spettrale l’endomorfismo corrispon-


dente è diagonalizzabile. Si verifica infatti che ha autovalori −6 (che è radice
del polinomio caratteristico con molteplicità 1) e 4 (che è radice del polinomio ca-
ratteristico con molteplicità 2). Gli autospazi corrispondenti sono L((−1, 0, 1)) e
L((1, 0, 1), (0, 1, 0)).

Nel caso complesso si ha il seguente criterio che garantisce la diagonalizzabi-


lità di un endomorfismo (cfr. Teorema 11.42)

Teorema 7.79 Sia V uno spazio vettoriale complesso di dimensione finita n e


f : V → V una applicazione lineare. Se, rispetto ad una base di V , la matrice
t
A associata ad f è tale che A = A allora f è diagonalizzabile.

Il caso complesso ha comunque un vantaggio dato dal fatto che si hanno sem-
pre radici del polinomio caratteristico. Si può dimostrare che se V è uno spazio
Il Teorema spettrale reale §7.7 209

vettoriale complesso di dimensione n e f : V → V una applicazione lineare, esi-


ste una base di V tale che la matrice A associata ad f rispetto a tale base sia
triangolare superiore (cfr. Teorema 11.44).
In questo capitolo, come applicazione della teoria della diagonalizzazione, stu-
diamo le coniche e le quadriche. Ovvero i luoghi degli zeri di polinomi di grado
2 rispettivamente in 2 e 3 variabili. Per farlo sarà centrale il fatto che, data una
matrice reale simmetrica A ∈ (M, n, R), l’applicazione lineare fA : Rn → Rn
ammette una base ortonormale di autovettori.

Coniche
Finora abbiamo utilizzato gli strumenti del calcolo vettoriale e matriciale per
descrivere, in geometria analitica, degli oggetti non ’curvi’, come rette e piani. In
realtà questi strumenti sono abbastanza potenti da essere utilizzati in contesti
più ampi. Diamo, a titolo di esempio, qualche cenno sullo studio delle coniche
tramite strumenti di algebra lineare.
Le coniche classiche sono curve ottenute sezionando un cono con un piano.
Esistono 3 tipi di coniche non degeneri : l’ellisse, l’iperbole e la parabola. Que-
ste possono essere descritte come luoghi del piano cartesiano le cui coordinate
verificano equazioni di una forma ben precisa.
L’ellisse è definita come il luogo dei punti del piano la cui somma delle di-
stanze da due punti, detti fuochi , è costante. Per descrivere la sua equazione
è necessario fissare un sistema di coordinate nel piano, come abbiamo già fat-
to nello spazio. Questo consiste nella scelta di un punto, detto origine, e di
due vettori non paralleli. Questa scelta è arbitraria, la effettuiamo in modo da
semplificare i calcoli. Scegliamo come origine il punto medio del segmento con-
giungente i fuochi e, fissata una unità di misura, due versori ortogonali i e j, tali
che i sia parallelo alla congiungente i fuochi. In tal caso i fuochi si troveranno ad
avere coordinate del tipo F1 = (c, 0) e F2 = (−c, 0). L’ellisse sarà data dall’insie-
me dei punti la cui somma delle distanze da F1 e F2 è pari ad una costante che,
per comodità, indichiamo con 2a. La formula per la distanza tra due punti del
piano ci dice allora che un punto P di coordinate (x, y) appartiene all’ellisse se
e solo se
q q
(x + c)2 + y 2 + (x − c)2 + y 2 = 2a.
Coniche §8.1 211

Semplificando questa espressione si giunge alla forma

x2 y2
2
+ 2 = 1.
a a − c2
Osservando che si deve avere |a| > |c|, e ponendo b 2 = a2 − c 2 , si ha la forma
canonica dell’equazione dell’ellisse

x2 y2
+ = 1.
a2 b2
L’iperbole è definita come il luogo dei punti del piano la cui differenza delle
distanze da due punti fissi, detti fuochi , è costante. Per determinare l’equazione
cartesiana dell’iperbole si procede alla scelta del sistema di coordinate in modo
simile a quanto fatto per l’ellisse. Se i fuochi hanno coordinate (c, 0) e (−c, 0) e
la differenza delle distanze di un punto dell’iperbole dai fuochi è 2a (n.b. a < c)
si giunge con semplici calcoli all’equazione in forma canonica

x2 y2
− = 1.
a2 b2
Dove b 2 = c 2 − a2 .
La parabola è il luogo dei punti del piano le cui distanze da una retta e da un
punto, detto fuoco , fissati sono uguali. Indicata con p > 0 tale distanza e fissato
p
il sistema di coordinate in modo che la retta abbia equazione x = − 2 e il punto
p
abbia coordinate ( 2 , 0), si ricava che la distanza di un punto di coordinate (x, y)
q
p p
dalla retta è data da |x + 2 |, mentre la distanza dal fuoco è y 2 + (x − 2 )2 . Con
semplici calcoli si giunge all’equazione della parabola in forma canonica

y 2 = 2px.

Tutte le equazioni canoniche che abbiamo descritto possono essere scritte in


forma matriciale. Si ha infatti

(i) Ellisse:
 1   
  a2
0 0 x
 1   
x y 1 ·0 b2
0  · y  = 0.
0 0 −1 1

(ii) Iperbole:
 1   
  a2 0 0 x
 − 2   
x y 1 ·0 1b 0  · y  = 0.
0 0 −1 1
212 Capitolo 8 Coniche e Quadriche

(iii) Parabola:

   
   0 0 −p x
  
x y 1 · 0 1 0  · y  = 0.
−p 0 0 1

Scrivendo l’equazione della conica in questo modo si identifica R2 , con coor-


dinate (x, y), col piano di equazione z = 1 in R3 , i cui punti hanno coordinate
(x, y, 1). Questo modo di descrivere le coniche presenta molti vantaggi dal pun-
to di vista computazionale, sui quali non forniamo approfondimenti per i limiti
di durata del corso. A titolo di esempio: è possibile provare che, una volta posta
la conica in questa forma, la retta tangente alla conica in un punto di coordinate
(x0 , y0 ) ha equazione

 
  x0
 
x y 1 · A · y0  = 0.
1

Dove A è la matrice che identifica la conica.


Generalizzando quanto visto sopra, ci proponiamo di studiare il luogo dei
punti del piano che verificano un’equazione della forma

   
  a11 a12 a13 x
   
x y 1 · a12 a22 a23  · y  = 0,
a13 a23 a33 1

ovvero

a11 x 2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0.

I casi che abbiamo visto sopra rientrano tutti in questa tipologia. Si può provare
che, a meno di 6 casi (che rappresentano curve degeneri o con punti non reali),
ogni equazione di quella forma rappresenta in realtà proprio un’ellisse, un’iper-
bole o una parabola. La differenza nella presentazione delle equazioni è dovuta
alla scelta del sistema di riferimento. Vogliamo un procedimento che permetta
di riconoscere la conica tramite un cambiamento di coordinate che la porti in
una forma detta ’canonica’. Si dimostra che le possibili forme canoniche delle
Coniche §8.1 213

coniche reali, degeneri e non reali sono riassunte nella seguente tabella

x2 y2
1) a2 + b2 −1=0 Ellisse reale
x2 y2
2) a2
+ b2
+1=0 Ellisse immaginaria
x2 y2
3) a2
+ b2
=0 Rette complesse incidenti
x2 y2
4) a2 − b2 −1=0 Iperbole
x2 y2
5) a2 − =0b2 Rette reali incidenti
2
6) y − ax = 0 Parabola
y2
7) a2 − 1=0 Rette reali parallele
y2
8) a2
+
1=0 Rette complesse parallele
2
9) y =0 Rette coincidenti

Data una qualsiasi conica, ovvero una matrice simmetrica di ordine 3, vogliamo
trovare un cambiamento di coordinate tale che, nelle nuove coordinate (X, Y ),
l’espressione della conica sia semplificata al massimo e sia a quel punto rico-
noscibile. Le nuove coordinate (X, Y ) saranno ottenute dalle coordinate (x, y)
tramite la composizione di una rotazione degli assi rappresentata da una matrice
di rotazione M, del tipo
!
cos(θ) sin(θ)
M=
− sin(θ) cos(θ)
!
h
ed una traslazione determinata da un vettore v = . In altre parole
k
! ! !
x X h
=M· +
y Y k

Questa trasformazione è la composizione di un’applicazione lineare (la rotazio-


ne) e una non lineare (la traslazione). Il fatto di aver identificato i punti di R2
con quelli di un piano in R3 permette però di trattarla come se fosse lineare, si
ha infatti
       
x ! X cos(θ) sin(θ) h X
  M v      
y  = · Y  = − sin(θ) cos(θ) k  · Y  .
0 1
1 1 0 0 1 1

Adattiamo l’equazione della conica alla struttura a blocchi


! utilizzata sopra, de-
!
a11 a12 a13
finendo una matrice di ordine 2: A33 = e un vettore a =
a12 a22 a23
214 Capitolo 8 Coniche e Quadriche

ottenendo:
 t  
x ! x
  A33 a  
y  · · y  = 0.
at a33
1 1
Effettuando il cambiamento di coordinate otteniamo l’equazione:
 
! ! ! X
  M t
0 A33 a M v  
X Y 1 · · · ·  Y = 0 (8.1)
vt 1 at a33 0 1
1
ovvero
 
! X
  M t · A33 · M M t · (A33 · v + a)  
X Y 1 · · Y  = 0.
(A33 · v + a)t · M ã33
1
dove ã33 è un numero reale che qui non calcoliamo esplicitamente. Questa è
ancora l’equazione di una conica, ovvero ogni roto-traslazione trasforma una co-
nica in un’altra conica che, nelle coordinate (X, Y ), è rappresentata dalla matrice
!
M t · A33 · M M t · (A33 · v + a)
à = .
(A33 · v + a)t · M ã33
Dall’equazione (8.1) segue (ricordando che una matrice e la sua trasposta hanno
lo stesso determinate e che il determinante di un prodotto di matrici è dato dal
prodotto dei determinanti dei singoli fattori) che
!2
M v
det(Ã) = det det(A)
0 1
sviluppando il determinante secondo la terza riga abbiamo
!
M v
det = det(M) = 1
0 1

dato che M è una matrice di rotazione. Quindi det(Ã) = det(A), fatto che utiliz-
zeremo più avanti. A questo punto vogliamo scegliere M e v in modo tale che
l’equazione della conica risulti semplificata. Essendo la matrice A33 simmetrica,
per il teorema spettrale, è possibile scegliere la matrice di rotazione M in modo
che !
t λ1 0
M · A33 · M = .
0 λ2
sia diagonale, dove λ1 , λ2 sono gli autovalori di A33 . A questo punto per sce-
gliere il vettore v dobbiamo distinguere due casi dipendenti dal fatto che il
determinante di A33 si annulli o meno:
Coniche §8.1 215

1) Se det(A33 ) ≠ 0, la matrice A33 può essere pensata come associata ad


un’applicazione lineare invertibile di R2 rispetto alla base canonica. Essendo,
in particolare, suriettiva, abbiamo che è possibile scegliere v in modo tale che
A33 · v = −a, ovvero A33 · v + a = 0. Con queste scelte di M e v, la conica risulta
quindi associata alla matrice
 
λ1 0 0
 
à =  0 λ2 0 
0 0 ã33
ed ha quindi equazione
λ1 X 2 + λ2 Y 2 + ã33 = 0

Ricordando che det(A) = det(Ã) = λ1 λ2 ã33 e che il determinante di una matrice


è pari al prodotto dei suoi autovalori, possiamo ricavare
det(A) det(A)
ã33 = = .
λ1 λ2 det(A33 )
Abbiamo quindi i seguenti casi possibili:

(i) det(A33 ) > 0, tr(A33 ) < 0 e det(A) > 0. Essendo det(A33 ) > 0 i due
autovalori sono concordi. Dato che la traccia di una matrice è la somma
degli autovalori ne segue che i due autovalori sono negativi. Essendo ã33 >
0 abbiamo che la conica è un’ellisse.
(ii) det(A33 ) > 0, tr(A33 ) > 0 e det(A) < 0. In questo caso i due autovalori
sono concordi e positivi. Essendo ã33 < 0 la conica è un’ellisse.
(iii) det(A33 ) > 0 e det(A) = 0. Come nei casi precedenti i due autovalori sono
concordi ma ora ã33 = 0 quindi la conica ha l’origine come unico punto
reale. Si tratta di due rette complesse incidenti.
(iv) det(A33 ) > 0, tr(A33 ) < 0 e det(A) < 0. I due autovalori sono negati-
vi e ã33 < 0 quindi la conica non ha punti reali. Si tratta di un’ellisse
immaginaria.
(v) det(A33 ) > 0, tr(A33 ) > 0 e det(A) > 0. I due autovalori sono positivi e
ã33 > 0 e anche in questo caso si tratta di un’ellisse immaginaria.
(vi) det(A33 ) < 0 e det(A) ≠ 0. Essendo det(A33 ) < 0 i due autovalori sono
discordi. Essendo ã33 ≠ 0 abbiamo che la conica è un’iperbole.
(vii) det(A33 ) < 0 e det(A) = 0. Essendo det(A33 ) < 0 i due autovalori sono di-
scordi. Essendo ã33 = 0 abbiamo che l’equazione della conica si fattorizza
nel prodotto di due polinomi di primo grado. La conica è allora data da
due rette reali incidenti.

In questi casi la conica è detta a centro in quanto esiste un punto di simmetria


centrale.
216 Capitolo 8 Coniche e Quadriche

2) Se det(A33 ) = 0, dato che il determinante è il prodotto degli autovalori,


possiamo supporre λ1 ≠ 0 e λ2 = 0. Dopo aver diagonalizzato A33 , la matrice
della conica diventa della forma
 
λ1 0 α
 
à =  0 0 β 
α β ã33

per dei coefficienti α, β, mentre l’equazione della conica diventa

λ1 X 2 + 2αX + 2βY + ã33 = 0.

Trasformiamo questa equazione completando il quadrato:


 
α 2 α2
λ1 X + + 2βY + ã33 − 2 = 0,
λ1 λ1
2
e poniamo X ′ = X + λα1 (il che equivale ad operare una traslazione) e γ = ã33 − α
λ2
1
l’equazione diventa
2
λ1 X ′ + 2βY + γ = 0.

Essendo det(Ã) = −λ1 β2 = det(A) possiamo ricavare (dato che la traccia di A33
è la somma degli autovalori)
det(A)
β2 = − .
tr(A33 )
Abbiamo allora i seguenti casi

(viii) det(A33 ) = 0, det(A) ≠ 0. In questo caso β ≠ 0 e possiamo porre Y ′ =


γ
Y + 2β (operando una traslazione) per portare l’equazione della conica
nella forma
2
λ1 X ′ + 2βY ′ = 0

che è l’equazione di una parabola.


(ix) det(A33 ) = det(A) = 0, in questo caso occorre determinare il valore di
λ1 ã33 − α2 . Se è positivo abbiamo una conica degenere priva di punti reali
data da due rette complesse parallele. Se è negativo abbiamo due rette
reali parallele mentre se è nullo abbiamo due rette reali coincidenti.

Nel caso di una conica degenere (det(A) = 0) è possibile ricavare la forma ca-
nonica operando direttamente sull’equazione iniziale ricavando una variabile in
funzione dell’altra tramite l’usuale formula per le equazioni di secondo grado
(il fatto che il determinante di A sia nullo fa in modo che, a meno del segno, il
discriminante sia un quadrato perfetto).
Coniche §8.1 217

Esempio 8.1 Nel caso della conica di equazione 2x 2 −y 2 +xy +x+y = 0 possiamo
ricavare la x in funzione della variabile y risolvendo 2x 2 + (y + 1)x + y − y 2 = 0,
da cui
q q
−y − 1 ± 9y 2 − 6y + 1 −y − 1 ± (3y − 1)2
x= =
4 4
1 1
ovvero x = y oppure x = 2y − 2. Quindi la conica e unione delle due rette
x + y = 0 e 2x − y + 1 = 0.

Esempio 8.2 Consideriamo la famiglia di coniche di equazioni dipendenti da un


parametro definita dall’equazione

x 2 − 2hxy + y 2 − 2x + 1 = 0

La matrice associata è
 
1 −h −1
 
A = −h 1 0
−1 0 1

Si ha det(A33 ) = 1 − h2 e det(A) = −h2 . Studiamo dapprima il caso degenere:


h = 0. L’equazione in questo caso si riduce a

x 2 + y 2 − 2x + 1 = y 2 + (x − 1)2 = 0

ovvero
y = ±i (x − 1)

e la conica è data da due rette complesse incidenti. Supponiamo quindi h ≠ 0. Si


ha det(A33 ) > 0 per −1 < h < 1, la traccia di A33 è pari a 2 quindi è positiva
per qualsiasi valore di h, mentre det(A) < 0. La conica è quindi un’ellisse. Per
h < −1 o h > 1 si ha det(A33 ) < 0 e la conica è un’iperbole. Per h = ±1 si ha
det(A33 ) = 0 e la conica è una parabola.

Vediamo in qualche esempio come sia possibile determinare esplicitamente la


matrice di rotazione e la traslazione:

Esempio 8.3 Consideriamo la conica di equazione

3x 2 + 6xy + 3y 2 − 10x + 3 = 0.

La matrice A33 è, in questo caso,


!
3 3
A33 =
3 3
218 Capitolo 8 Coniche e Quadriche

e si verifica facilmente che ha per autovalori λ1 = 0 e λ2 = 6. Degli autovettori di


norma 1 sono dati da (− √12 , √12 ) e (− √12 , − √12 ). Il cambiamento di coordinate che
dobbiamo operare è
( 1 1
x = − √2 x ′ − √2 y ′
y = √12 x ′ − √12 y ′

Con questa sostituzione arriviamo all’equazione


2 √ √
6x ′ − 5 2x ′ + 5 2y ′ + 3 = 0.

Per il caso generale, si noti che, essendo la matrice A33 simmetrica, i suoi autovet-
tori possono essere scelti ortonormali. Quindi se (α, β) è un autovettore di norma
unitaria, anche (−β, α) lo è. La matrice del cambiamento di base è data da
!
α −β
M=
β α

si pone quindi
x = αx ′ − βy ′ , y = βx ′ + αy ′ .

Tornando all’esercizio, possiamo annullare solo il termine di primo grado conte-


nente la x, con una traslazione del tipo
( 5 √
x ′ = x ′′ + 12 2
y ′ = y ′′

Sostituendo si arriva all’equazione


√ 11
6x ′′2 + 5 2y ′′ + = 0.
12
Per annullare il termine noto operiamo una ulteriore traslazione
( ′′
x =X
y ′′ = Y − 6011

2

ottenendo
5√
X2 + 2Y = 0
6
che è l’equazione, in forma canonica, di una parabola.

Esempio 8.4 Consideriamo la conica di equazione

xy + x + y − 3 = 0.
Quadriche §8.2 219

La matrice A33 è, in questo caso,


1
!
0 2
A33 = 1
2 0

e si verifica facilmente che ha per autovalori λ1 = 21 e λ2 = − 12 . Degli autovettori di


norma 1 corrispondenti sono ( √12 , √12 ) e ( √12 , − √12 ). Il cambiamento di coordinate
corrispondente è
( 1 1
x = √2 x ′ + √2 y ′
y = − √12 x ′ + √12 y ′

Con questa sostituzione arriviamo all’equazione


1 2 1 2 √
− x ′ + y ′ + 2y ′ − 3 = 0.
2 2
Possiamo annullare solo il termine di primo grado contenente la y, con una
traslazione del tipo
(
x ′ = x ′′ p
y ′ = y ′′ − (2)
Sostituendo si arriva all’equazione
1 2 1 2
− x ′′ + y ′′ − 4 = 0.
2 2
Dividendo per 4 si ottiene
1 2 1 2
− x ′′ + y ′′ − 1 = 0.
8 8
che è l’equazione, in forma canonica, di una iperbole.

Le trasformazioni che abbiamo operato per portare una conica in forma cano-
nica sono date dalla composizione di una rotazione con delle traslazioni. Queste
applicazioni hanno la proprietà di lasciare invariate le distanze tra punti del
piano cioè sono isometrie. Dato che possono essere invertite, possiamo determi-
nare determinare fuochi, centro ed assi di una conica portata in forma canonica
e, applicando le trasformazioni inverse, determinare le coordinate dei fuochi, del
centro o le equazioni degli assi nelle coordinate di partenza.

Esercizio 8.1 Determinare il tipo di conica e l’equazione canonica delle seguenti


coniche

a) x 2 − 2x + 6y + 11 = 0, b) x 2 − 4xy − 2y 2 − 4x − 4y + 4 = 0,

c) 3x 2 + 2xy + 3y 2 + 2x − 2y − 3 = 0, d) 7x 2 + 48xy − 7y 2 − 30x + 40y = 0.


220 Capitolo 8 Coniche e Quadriche

Quadriche
In modo analogo a quanto fatto nel caso delle coniche, che sono associate a
curve nel piano, è possibile studiare il luogo dei punti dello spazio che verificano
un’equazione polinomiale di secondo grado in tre variabili:

a11 x 2 + 2a12 xy + a22 y 2 + 2a13 xz + 2a23 yz + a33 z2 + 2a14 x+


2a24 y + 2a34 z + a44 = 0.

In analogia col caso delle coniche, studiamo il luogo degli zeri tramite una copia
di R3 in R4 , ottenuta ponendo l’ultima coordinata uguale a 1. Possiamo infatti
riscrivere l’equazione nella forma
 
x
  y 
 
x y z 1 · A ·   = 0, (8.2)
z
1

dove
 
a11 a12 a13 a14
a a22 a23 a24 
 12 
A= 
a13 a23 a33 a34 
a14 a24 a34 a44

è una matrice simmetrica.


In questo caso il luogo degli zeri è rappresentabile come una superficie in
R3 , ed è detto quadrica. Procedendo in modo analogo a quanto fatto nel caso
delle coniche, è possibile portare una quadrica in una forma particolare, detta
canonica, sfruttando la simmetria della matrice che la definisce. Il procedimento
è, dal punto di vista algoritmico, quello usato per le coniche, ma i calcoli sono
resi più complessi dal fatto di aver aggiunto una variabile.

Esempio 8.5 Data la quadrica di equazione

4x 2 + y 2 + z2 + 4xy − 4xz − 2yz − 3x − 6y − 3z = 0

consideriamo la matrice A44 data dai coefficienti dei termini di secondo grado
 
4 2 −2
 
A44 =  2 1 −1 .
−2 −1 1

Considerando questa matrice come associata ad una applicazione lineare R3 → R3


rispetto alla base canonica, si ha che una base ortonormale formata da autovet-
Quadriche §8.2 221

tori, corrispondenti agli autovalori λ1 = λ2 = 0, λ3 = 6, è data da:


1 1 1 1 1 2 1 1
{(0, √ , √ ), ( √ , − √ , √ ), (− √ , − √ , √ )}.
2 2 3 3 3 6 6 6
Si opera quindi il cambio di coordinate

 √1 ′ √1 ′
 x = 3y − 2 6z

1 1 1
y = √2 x ′ − √3 y ′ − √6 z′


 z = √1 x ′ + √1 y ′ + √1 z′
2 3 6

dove le colonne sono date dalle componenti degli autovettori, come nel caso delle
coniche. L’equazione della quadrica diventa:
√ √
2 3 6 ′ 9 2 ′
6z′ + z − x = 0.
2 2
Operiamo quindi una traslazione per eliminare uno dei termini di primo grado

 ′ ′′
 x =x

y ′ = y ′′ √


 z′ = z′′ − 6
8

L’equazione diventa

2 9 2 ′′ 9
6z′′ − x − = 0.
2 16
Una seconda traslazione 

 ′′ 1
 x =X− √
8 2

 y ′′ = Y

 z′′ = Z

porta l’equazione nella forma:



29 2
6Z − X = 0.
2
Si osservi che l’intersezione della quadrica col piano Y = 0 è una parabola. Inol-
tre dato un punto (X0 , 0, Z0 ) di tale parabola, tutti i punti della retta parallela
all’asse Y : (X0 , t, Z0 ) soddisfano l’equazione. Il luogo degli zeri prende il nome
di cilindro parabolico. In analogia col cilindro, dove l’intersezione con un piano
perpendicolare all’asse è una circonferenza anziché una parabola.

Esempio 8.6 Come nel caso delle coniche saranno possibili dei casi degeneri: ad
esempio l’equazione
x 2 − 1 = 0,

ha come luogo di zeri la coppia di piani paralleli di equazione x = 1 e x = −1


222 Capitolo 8 Coniche e Quadriche

Le possibili forme canoniche delle quadriche sono riassunte nella seguente


tabella

x2 y2 z2
1) a2
+ b2
+ c2
−1=0 Ellissoide reale
x2 y2 z2
2) a2
+ b2
+ c2
+1=0 Ellissoide immaginario
x2 y2 z2
3) a2 + b2 − c2 +1=0 Iperboloide a due falde
x2 y2 z2
4) a2 + b2 − c2 −1=0 Iperboloide a una falda
x2 y2 z
5) a2 + b2 − c2 =0 Paraboloide ellittico
x2 y2 z
6) a2
− b2
− c2
=0 Paraboloide iperbolico
x2 y2 z2
7) a2
+ b2
+ c2
=0 Cono immaginario
x2 y2 z2
8) a2
+ b2
− c2
=0 Cono reale
x2 y2
9) a2 + b2 +1=0 Cilindro immaginario
x2 y2
10) a2 + b2 −1=0 Cilindro ellittico
x2 y
11) a2
− b2
=0 Cilindro parabolico
x2 y2
12) a2
− b2
−1=0 Cilindro iperbolico
x2 y2
13) a2
+ b2
=0 Piani complessi incidenti
x2 y2
14) a2 − b2 =0 Piani reali incidenti
x2
15) a2 +1=0 Piani complessi paralleli
x2
16) a2
−1=0 Piani reali paralleli
x2
17) a2 =0 Piani coincidenti

posto:

 
a11 a12 a13
 
A44 = a12 a22 a23  .
a13 a23 a33

è possibile determinare il tipo di quadrica a partire dalle caratteristiche di A e


A44 .
Quadriche §8.2 223

A44 A det(A) λ44 λ

3 4 <0 Ellissoide reale


3 4 >0 = Ellissoide immaginario
3 4 >0 ≠ Iperboloide a una falda
3 4 <0 ≠ Iperboloide a due falde
3 3 ≠ Cono reale
3 3 = Cono immaginario
2 4 <0 = Paraboloide ellittico
2 4 >0 ≠ Paraboloide iperbolico
2 3 = ≠ Cilindro ellittico reale
2 3 = = Cilindro ellittico immaginario
2 3 ≠ Cilindro iperbolico
2 2 ≠ Piani reali incidenti
2 2 = Piani complessi incidenti
1 3 Cilindro parabolico
1 2 ≠ Piani reali paralleli
1 2 = Piani immaginari paralleli
1 1 Piani coincidenti

Dove nelle prime due colonne è riportato il rango delle matrici A44 e A mentre
nelle colonne λ e λ44 il segno = indica che gli autovalori non nulli della corrispon-
dente matrice hanno lo stesso segno mentre ≠ indica l’esistenza di autovalori
con segni opposti.
In questo capitolo vengono forniti, senza svolgimento, i risultati di alcuni
esercizi proposti nei capitolo precedenti.

Capitolo 1
S  
1 1 1 1
1.1 A ∩ B = { 2 , 3 }, CR (A) = {x ∈ R|x ≤ 0} ∪ n∈N n+1 , n ∪ {{x ∈ R|x > 1},
1
CA (A ∩ B) = {1} ∪ {n |n∈ N, n > 3}.
1.2 A ∪ B = {0, 1, 2, 3}, A ∩ B = {0, 3}, A ∪ C = {0, 1, 2, 3, 6}, A ∩ C = ∅, B ∪ C =
{0, 1, 2, 3, 6}, B ∩ C = {1, 2}.
1.3 A ∪ B = {x ∈ R : −1 ≤ x ≤ 3}, A ∩ B = {1}.
1.4 Le affermazioni sono tutte vere.
1.8 a) iniettiva ma non suriettiva, b) suriettiva ma non iniettiva, c) iniettiva e
suriettiva.
1.9 La funzione f è biunivoca.
1.11 {(1, 5), (5, 1), (2, 4), (4, 2), (3, 3)}. Il dominio e il codominio coincidono con
A. La relazione non è riflessiva, è simmetrica, non è transitiva.
1.13 Si ha [35] = [3].
10
1.16 i) − 40 + 20i, ii) − 17 + 11
17
i, iii) − 72 + 21 i.
9 1 19 8
1.18 i) z = − 41 − 41 i, ii) z = −1 + 5i, w = 5 − 5 i.
1.20
√ √
1 10
i) 17, arctan 4 , ii) 2 , −π + arctan 13

iii) 5, π − arctan 2, iv) 1, − π3 .
√ 5 5 √ 11 11
1.21 i) 4 2(cos( 12 π ) + i sin( 12 π )), ii) 128(cos( 12 π ) + i sin( 12 π ))
1.22
5 5 5
i) 6(cos( 12 π ) + i sin( 12 π )), 6e 12 i
1
1
ii) 32 (cos( 12 1
π ) + i sin( 12 π )), 23 e 12 i
1
1
iii) 23 (cos(− 12 1
π ) + i sin(− 12 π )), 32 e− 12 i ,
32 11
iv) 9
(cos( 11
12
π) + 11
i sin( 12 π )), 32
9
e 12 i .
1 2
1.24 z = 3 + 3 kπ con k ∈ Z.
Risultati degli esercizi proposti 225

1.28

i) z = ± √32 + √12 i,
π π
ii) zk = ik (cos( 8 ) + i sin( 8 ), k = 0, 1, 2, 3

iii) z = 2i, ± 3 − i,
√ π π
iv) zk = ik 8(cos( 16 ) − i sin( 16 ), k = 0, 1, 2, 3
8

1
1.29 2(x + 1)(x − 2
− 21 i)(x − 1
2
+ 21 i).

Capitolo 2
a32 = −1.
2.1 
−1 −1
 
2.2 −2 −5.
−4 −6
! !
3 0 2 4
2.3 , .
2 −2 1 −1
!
1 0
2.4 .
4 1
!
1 k
2.5 .
0 1
!
11 1
2.6 .
1 8
2.8 L’equazione ha infinite soluzioni della forma
 
X = a b a + 2b − 1 .

2.15 60.
2.16 a = 5 oppure a = −8.
2.18 det(A) = det(B) = λ1 · . . . · λn .

Capitolo3
3.5 si.
3.6 Il sottoinsieme delle funzioni tali che f (0) = 1 non è un sottospazio vetto-
riale in quanto non contiene la funzione identicamente nulla che è l’elemento
neutro della somma.
3.10 Trascurando i sottoinsiemi costituiti da un solo vettore, non nullo, si ha: 1)
{u, v}, {−u, v}, 2) {u, v}, {u, 2v}, {2u, v}, {2u, 2v}, 3) tutte le coppie di vettori
distinti.
3.13 u = t 1 + t 2 , −v = −3t 1 − 2t 2 .
3.14 Da al più due elementi.
3.16 q(x) = −p(x) + r (x).
226 Capitolo 9 Soluzioni degli Esercizi

3.17 I vettori sono linearmente indipendenti e si ha v = v 1 + v 2 − v 3 − v 4 .


3.18 v 1 = (−v 3 ) + (v 1 + v 3 ).
3.19 h ≠ 13 nel primo caso e h ≠ 2 nel secondo.
√ √ √
3.23 1) 3, 2) 2, 3) 5, 4) 13.
√ √ √
3.24 1) 2, 2) 2 − 4, 3) 2 − 2, 4) 0.
3.25 1) λv, 2) λ(u − v), 3) λ(2 u + v), 4) 0.
3.26 Il problema ammette due soluzioni.

1) 2 √ 3u ± 2v, 2) 2u

± 2v,
3 3
3) 2 3 u± 2v, 4) 2 3 u± 2v
3
3.27 1) h = −2, 2) h = 2 , 3) h = 0, 4) h = ±1.
3.28 π3 .
3.29 1) a u + (a + c) v + c t, 2) a u − a t, 3) a u − a t, 4) 0.
3.30 Sono tutti i polinomi della forma − 35 cx 3 − 3dx 2 + cx + d.
3.31 Sono i vettori della forma ±(− 32 , 23 , 13 ).
3.32 Sono i vettori della forma (−a, a, −2a).
3.33 w 3 può essere scelto della forma a(u + v + 2t) dove a è un parametro non
nullo.
3.34 Non esistono vettori con la proprietà richiesta.
3.35 1) − 3t, 2) 0, 3) − u + v, 4) 0, 5) 2u + 2v + 2t, 6) − u + 2v + 2t.
3.36
1) (0, 0, −3), 2) (0, 0, 0), 3) (−1, 1, 0),
4) (−2, −5, −1), 5) (3, 1, 0), 6) (2, 1, −3)

3.37 1) − 1, 2) − 8, 3) 2, 4) 1.
3.38 h = −2.
3.39 1) − 1, 2) 3, 3) 0, 4) 0, 5) 1, 6) 15.
3.40 h = −2.
3.42 1) si, 2) si, 3) no.
3.43 Si puiò scegliere, ad esempio v 3 = v 1 + v 2 = (1, 2, 3) e v 4 = v 1 ∧ v 2 =
(1, −2, 1).
bc
3.44 Basta scegliere a ≠ − a .
3.45 1) a ≠ 1, 2) I vettori sono linearmente dipendenti per qualunque valore del
parametro.
3.46 Ad esempio v 1 ∧ v 2 = −10i − 7j − 2k.
3.47 1) -4, 2) 2, 3) 0, 4) -3, 5) −2i + 2j − 2k, 6) 4i + 8j + 12k, 7) 2j, 8) 0, 9) 2, 10)
0, 11)√0, 12) 0.
3 1 1
3.48 √2 , 2 i + 2 j − k.
π
3.49 6 .
3.50 I vettori della forma a (3i + 2j − k) dove a è un parametro.
Risultati degli esercizi proposti 227

3.51 Non esiste un valore di λ che verifichi la proprietà richiesta.


3.52 λ = 1.

3.53 La soluzione è x = 2u + v ed ha modulo 5.
3.54 x = − 43 u + 23 v .
3.55 (−1, ±2, 3).
3.56 x = −v − t.

Capitolo 4
3 3 1 5
4.1 (2, 2, − 2 ),( 2 , 2 , − 2 ),(−1, −1, −1).
4.2 (5, −3, 1).
4.3 (2, 0, 1).
4.5

 (
 x = 1+t x+y −2=0
a) y = 1−t

 x−z =0
z = 1+t

 x = 2 − 5t (
 2x − 5y − 4 = 0
b) y = −2t

 z−1=0
z=1

 x =0 (
 x=0
c) y =0

 y =0
z=t

(
 x=2

x−2=0
d) y = 2 − 3t

 z−2=0
z=2
4.6

(
 x = −1 + t

x−y +3=0
a) y = 2+t

 x+z+2=0
z = −1 − t

(
 x = −1 + 2t

x + 2z + 3 = 0
b) y = 2

 y −2=0
z = −1 − t

 x = −1 − t (
 2x + y = 0
c) y = 2 + 2t

 z−x =0
z = −1 − t

 x = −1 (
 x+1=0
d) y =2

 y −2=0
z = −1 + t
( (
x + 2z + 1 = 0 x−4=0
4.7 a) , b) .
y + 3z + 3 = 0 y +z−3=0
228 Capitolo 9 Soluzioni degli Esercizi

4.8 h = 61 .

 (
 x = 1 + 2t x − 2z + 1 = 0
4.9 a) y = 1+t

 y −z =0
z = 1+t

 (
 x = 2 + 2t x − 2z = 0
b) y = −1 + t

 y −z+2=0
z = 1+t

 (
 x = −1 + 2t x − 2z + 7 = 0
c) y =3+t

 y −z =0
z =3+t

 (
 x = 2t x − 2z = 0
d) y =t

 y −z =0
z=t


 x = 2 − 17t
4.10 y = 1+t .


z = −2 + 26t


 x = 1 + 2t
4.11 y = 1+t .


z = 2t


 x=0
4.12 y = 1 + 6t .


z = −1 + 2t
4.13 a) x + y + z − 3 = 0, b) x + 2y − 2z − 3 = 0, c) z = 0.
4.14 a) y = 0, b) y − z − 1 = 0, c) 7x + 3y − z − 15 = 0.
4.15 a) x + z − 3 = 0, b) x − y + 2z − 3 = 0, c) x − 2 = 0.
5 5
4.16 a) (− 2 , 0, 0), b) (0, −5, 0), c) (0, 0, 3 ).
4.17 a) (− 25 , 52 , 15 ), b) Nessuna intersezione, c) (3, −1, 0).
4.18 a) si , b) no, c) si.
73 29 3 5 4 2
4.19 a) nessuna intersezione , b) ( 21 , − 21 , 7 ), c) (− 3 , 3 , − 3 ).

 x = 2−t

4.20 y = 3 + 13t .


z = 1 + 19t
4.21 a) sghembe , b) sghembe, c) parallele, d) incidenti.
4.22 a) incidente , b) la retta giace sul piano, c) la retta è parallela al piano.
4.23 Il secondo e il quarto.
 

 x=1 
 x = 1 + 3t
4.24 a) 2x − y + z − 2 = 0, b) y = 1 − t , c) y = 1 − 2t .

 

z =1−t z = 1+t
Risultati degli esercizi proposti 229


 x = −1 + t

4.25 y = 21 + 43 t


z = 3 − 3t
4.26 Per k = − 21 la retta giace sul piano, per k = − 23 la retta è parallela al piano,
nei casi rimanenti la retta è incidente.
4.27 Le rette sono incidenti per k = 1 e sghembe per ogni altro valore di k.
4.28 k = 53 , h = −1.
4.29 x + 7y − 2z − 5 = 0, 2x − y + z = 0.
4.30 −3y + 7z + 2 = 0, 3x − 2z − 1 = 0, 7x − 2y − 1 = 0.
4.31 x + 2y − 3z + 6 = 0.
4.32 −3x + y − z + 2 = 0.
4.33 2x − 3y + 1 = 0.
5
4.34 Tale piano esiste solo se h = − 2 ed ha equazione 6x + 2y − z + 2 = 0.
(
x+y −1=0
4.35
3x + 2z − 2 = 0
(
x−1=0
4.36
z−1=0

4.37 Il problema ammette le soluzioni x + y − z= ± 3.
√  x = 18t

4.38 La retta r , che ha distanza 35 dall’origine, y = −16t , x + y = 0.


z = −9t

 x = 1 − 2t

4.39 La retta di equazione y = 74 − t .


z = 2t
4.40 √2 .
11 √
4.41 Le rette sono sghembe e la loro distanza è pari a 5.

4.42 3.

4.43 Il luogo è dato dai piani di equazione x − y + 2z + 2 ± 2 6.

Capitolo 5
5.1 a) , una famiglia a due parametri di soluzioni; b) , nessuna soluzione; c) , una
soluzione; d) , una famiglia ad un parametro di soluzioni.
40
5.2 a) se a = − 33 e b = − 41 il sistema ammette una soluzione unica, nessuna
soluzione nei casi restanti; b) , nessuna soluzione se a = ±1, una soluzione nei
casi restanti; c) , una soluzione se a ≠ −2, nessuna soluzione se a = −2; d) , una
soluzione se a ≠ 1, nessuna soluzione se a = 1; e) se a = 0 e b ≠ 0 il sistema
non ammette soluzione, se a ≠ 0 e b ≠ −a il sistema ammette una soluzione
unica, se a = 0 e b = 0 c’e’ una famiglia a due parametri di soluzioni, se b = −a
230 Capitolo 9 Soluzioni degli Esercizi

c’e’ una famiglia ad un parametro di soluzioni; f ) , una famiglia a due parametri


di soluzioni per ogni valore di a.

Capitolo 6
6.10 a) si , b) no, c) no, d) si, e) si, f ) no.
6.13 h = 8.
6.14 h = 2.
6.15 1) si , 2) si, 3) no.
6.16 1) h ≠ kl2
, 2) h ≠ 1, 3) per nessun valore del parametro.
6.17 Ad esempio v3 = v1 ∧ v2 = (2, −1, −3).
6.18 1) {(2,!13, 5, 0), (3,
!7, 0, 5)} , 2)
! Lo spazio ha dimensione 0.
1 0 0 0 0 1
6.19 , , .
0 0 0 1 1 0
6.20 h = 3.
6.22 a) 2, b) 2, c) 1, d) 2, e) 4.
6.23 a) se a = ±3 il rango è 3, altrimenti è 4, b) , se a = 1 il rango è 1, altrimenti
è 4.
6.24 2
6.25 a) se a = 1 il rango è 1, se a = −2 il rango è 2, altrimenti è 3, b) , se a = −1
il rango è 2, altrimenti è 3. c) , se a = 0, 1 il rango è 2, altrimenti è 3.
6.26 Se a = c e b = −1 il rango è 2, altrimenti è 3.

Capitolo 7
7.2
 
0 0 1
 
a) no, b) 1 0 0 , c) no,
0 1 0
     
0 1 −1 2 0 0 1 2 0
     
d) 0 −1 1  , e) 0 3 0 , f )  3 0 2 .
1 −1 0 0 0 4 −5 1 0
 
2 1 −1
 
7.3 1) h = 0, 2) −1 1 3 , 3) ker(f ) ha dimensione 0, una base di
1 −2 3
Im(f ) è data dalla base canonica di R3 .
7.4 Se h = 0 si ha
ker(f ) = L((−2, −1, 2)) e Im(f ) = L((−2, 2, 0), (2, 0, 2));
Se h = 1 si ha
ker(f ) = L((−1, 0, 1)) e im(f ) = L((−1, 2, 2), (2, 1, 4));
Se h = 2 si ha ker(f ) = L((−3, 1, 2)) e im(f ) = L((0, 2, 4), (2, 2, 6));
Risultati degli esercizi proposti 231

Nei rimanenti casi f è iniettiva e suriettiva.


 
3 −1 −5
−1 −1 1 
 
7.5 1) (−5, −1, 3, 4), 2) ker(f ) ha dimensione 0, 3)  .
0 1 1
0 2 1
7.6 L’applicazione non è suriettiva e non è iniettiva.
7.7 1) (2x +z+5w, −4x +5y −2w), 2) l’applicazione non è iniettiva, è suriettiva,
3) ker(f ) = L((−5, −4, 10, 0), (−25, −16, 0, 10)) una base dell’immagine è data
dalla base canonica di R2 .
7.8 (9, −6 − 4).
7.9 Il nucleo di g ◦ f è

L((1, −4, 7, 0, 0, 0), (5, 1, 0, 14, 0, 0), (−4, 2, 0, 0, 7, 0), (−5, −15, 0, 0, 0, 14)),

una base dell’immagine è data dalla base canonica di R2 .


12.2
 1   1 
0 0 2 − 2 1
 1   2 
A−1
1 =  0 1 2
 , A −1
2 =  0 0 1 
1
1 −1 −1 2 −1 −1
 
  1 −2 0 −3
1
0 0  
2  0 1 −2 2
A−1  1
0 A−1 = 
4 = 0 −5 , 5 0 0 1 −1
1  
0 0 7 1
0 0 0 2

12.3 (x, y, z) = ( c−b


2 , −a + 2b − c,
4a−5b+3c
2 ).
7.10 a) λ = −1 con autospazio L((1, 1, −2)) l’applicazione non è diagonalizzabi-
le,
b) λ = 4 con autospazio L((0, 1, 0)) l’applicazione non è diagonalizzabile,
c) λ = 1 con autospazio L((1, 0, 0)), λ = 2 con autospazio L((0, 1, 0)) l’applica-
zione non è diagonalizzabile,
d) λ = 1 con autospazio L((2, 1, 0), (1, 0, 1)), λ = 7 con autospazio dato da
L((1, −2, −1)) l’applicazione è diagonalizzabile,
e) λ = 1 con autospazio L((−2, 1, 0)) ,λ = 5 con autospazio L((0, 1, 0)),λ = 4
con autospazio L((1, −2, 1)) l’applicazione è diagonalizzabile,
f ) λ = 0 con autospazio L((−1, 0, 1)) l’applicazione non è diagonalizzabile.
7.11 ex è un autovalore relativo a 1, sin(x) e cos(x) sono autovalori corrispon-
denti a −1.
7.12 h = 3, k = 9.
7.13 a) λ = −1 con autospazio L((1, 0, 3)) ,λ = −3 con autospazio L((−3, −2, 1)),
λ = 4 con autospazio L((−3, 5, 1)),
232 Capitolo 9 Soluzioni degli Esercizi

b) λ = −3 con autospazio L((1, 1, 1, 0)) ,λ = 6 con autospazio L((−1, 1, 0, −1)),


λ = 3 con autospazio L((0, 1, −1, 1), (1, 1, −2, 0)).
7.14 L’autospazio relativo a 1 è costituito dalle matrici simmetriche (cfr. Eserci-
! quello relativo a −1 è costituito dalle matrici antisimmetriche con base
zio 6.19),
0 1
. L’applicazione è diagonalizzabile.
−1 0
7.16 L’autospazio relativo all’autovalore 1 ha dimensione 2 ed è generato da x e
x 2 + 1. L’autospazio relativo all’autovalore 2 ha dimensione 1 ed è generato da
4x 2 − x + 3 L’applicazione è diagonalizzabile.
7.18 Il nucleo è generato da (2 + 4i, −5i, 5) mentre l’immagine ha dimensione 2
quindi qualunque base di C2 è una base dell’immagine.

Capitolo 8
8.1 a) parabola, b) iperbole, c) ellisse, d) iperbole.
Riportiamo i riferimenti alle pagine in cui sono definiti alcuni dei simboli e delle
notazioni utilizzati nel testo.

Descrizione Pg.

A \ {a} Sottrazione insiemistica 2


A×B Prodotto cartesiano 3
At Matrice trasposta 26
(A1 , . . . , An ) Matrice definita da vettori 274
(A)ij Elemento della matrice A 25
Arg(z) Argomento principale 17
a≃b Elementi in relazione 6
aij Elemento della matrice A 25
αij Complemento algebrico 35
Dk Gruppo diedrale 240
det(A) Determinante di una matrice 35
diag(λ1 , . . . , λn ) Matrice diagonale 40
f∗ Endomorfismo aggiunto 267
In Matrice identica 30
id Applicazione identica 285
im f Immagine 179
Im(z) Parte immaginaria 13
Kn [x] Polinomi a coefficienti in K 45
ker f Nucleo 177
L(v1 , . . . , vn ) Spazio generato 138
M(n, K) Matrici di tipo m × n 26
p(A) Polinomio valutato su una matrice 30
p(f ) Polinomio valutato su un endomorfismo 290
(p, q) Vettore applicato 41
πW (v) Proiezione ortogonale 256
Re(z) Parte reale 13
tr(A) Traccia di una matrice 31
u·v Prodotto scalare tra vettori 56
u∧v Prodotto vettoriale 63
V ×W Prodotto di spazi vettoriali 134
V /W Quoziente di spazi vettoriali 315
234

Descrizione Pg.

v Vettore libero 42
|v| Modulo di un vettore 42
d
u v Angolo tra vettori 55
vers v Versore 46
W1 ⊕ W2 Somma diretta di spazi vettoriali 142
||(x1 , . . . , xn )|| Norma standard 60
Z+ Interi positivi 2
Zp Classi di resto modulo p 9
z Coniugato 15
Applicazione lineare, 164 Distanza
Autovalore, 201 Tra punti, 101
Autovettore, 201 Tra punto e piano, 103
Biunivoca, 174 Tra punto e retta, 102
Diagonalizzabile, 202 Tra rette parallele, 102
Endomorfismo, 199 Tra rette sghembe, 104
Identica, 193 Dominio, 6
Immagine, 173
Iniettiva, 174 Ellisse, 216
Isomorfismo, 174 Fuochi, 216
Matrice associata, 169 Endomorfismo, 199
Nucleo, 172 Esponenziale complessa, 18
Suriettiva, 174
Autovalore, 201 Formula
Autovettore, 201 Di Cramer, 191
Di Grassmann, 150
Base, 52 Funzione, 4
Negativamente orientata, 61 Biunivoca, 4
Ortonormale, 69 Dominio, 4
Positivamente orientata, 61 Grafico, 4
Immagine, 4
Campo, 12 Iniettiva, 4
Cardinalità, 5 Suriettiva, 4
Classe di equivalenza, 8
Classi di resto, 9 Grafico, 7
Codominio, 7
Combinazione lineare, 46 Immagine, 4, 7
Complementare, 2 Insieme, 1
Complemento algebrico, 34 Complementare, 2
Coniche Intersezione, 2
Ellisse, 216 Numerico, 1
Forma canonica, 219 Prodotto cartesiano, 3
Forma matriciale, 218 Unione, 2
Iperbole, 217 Vuoto, 1
Parabola, 217 Intersezione, 2
Tangente, 218 Iperbole, 217
Coordinate, 76, 144 Fuochi, 217
Origine, 76 Isomorfismo, 174

Determinante, 33 Lineare dipendenza, 48


361

Lineare indipendenza, 48 Per uno scalare, 43


Scalare, 55, 58
Matrice, 24 Vettoriale, 62
A diagonale dominante, 196 Punto di applicazione, 40
Antisimmetrica, 25
Determinante, 33 Quadriche
Diagonale, 39 Forma canonica, 227
Diagonale principale, 30 Forma matriciale, 225
Elementare, 119 Quoziente, 8
Identità, 29
Inversa, 193 Rappresentante, 8
Operazioni elementari, 111 Relazione, 6
Ordine, 24 Biettiva, 7
Potenza, 29 Codominio, 7
Prodotto, 27 Di equivalenza, 8
Prodotto per uno scalare, 26 Dominio, 6
Quadrata, 24 Grafico, 7
Rango, 154 Immagine, 7
Regola di Sarrus, 38 Iniettiva, 7
Ridotta, 115 Riflessiva, 8
Simile, 199 Simmetrica, 8
Simmetrica, 25 Suriettiva, 7
Somma, 25 Transitiva, 8
Traccia, 30, 135 Rette
Trasposta, 25 Equazione cartesiana, 80
Triangolare, 39 Equazione parametrica, 78
Molteplicità Ortogonali, 82
Algebrica, 207 Parallele, 82
Geometrica, 207 Sghembe, 90

Sistema lineare, 107


Numeri complessi
Matrice completa, 109
Argomento, 16
Matrice incompleta, 109
Argomento principale, 16
Riduzione di Gauss, 118
Coniugato, 14
Sottoinsieme, 1
Definizione, 13
Proprio, 1
Parte immaginaria, 13 Sottospazio
Parte reale, 13 Affine, 161
Prodotto, 13 Sistema di generatori, 138
Radici, 22 Somma, 140
Somma, 13 Somma diretta, 140
Vettoriale, 134
Omomorfismo, 164 Span, 137
Spazio Vettoriale, 44, 132
Parabola, 217 Base, 142
Fuoco, 217 Complesso, 213
Piani Dimensione, 142
Equazione cartesiana, 87 Duale, 172
Equazione parametrica, 85 Prodotto, 133
Fascio improprio, 96 Quoziente, 151
Fascio proprio, 96
Pivot, 115 Teorema
Polinomio Del completamento della base, 149
Caratteristico, 203 Della base, 51
Prodotto Di Rouché-Capelli, 179
Cartesiano, 3 Fondamentale dell’algebra, 23
Matriciale, 27
Misto, 65 Unione, 2
362

Versore, 45
Vettore, 41, 44
Angolo, 54
Applicato, 40
Base, 52
Combinazione lineare, 46
Complanare, 46
Differenza, 43
Direzione, 40
Estremi, 40
Libero, 41
Lineare dipendenza, 48, 49
Lineare indipendenza, 48, 49
Modulo, 40
Nullo, 40
Opposto, 43
Ortogonale, 54
Parallelismo, 45
Prodotto misto, 65
Prodotto per uno scalare, 43
Prodotto scalare, 55
Prodotto vettoriale, 62
Proiezione, 55
Somma, 42
Verso, 40

Potrebbero piacerti anche