Sei sulla pagina 1di 252

Dispense di

MATEMATICA I
Corso di Laurea triennale in Ingegneria Elettronica e Tecnologie dell’Informazione

Docente: Maurizio Romeo

Settembre 2015
ii
Indice

I Funzioni di una variabile reale 1

1 Nozioni preliminari e notazioni 3


1.1 Insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Quantificatori, somme, prodotti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Teoremi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Cenni di calcolo combinatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Sottoinsiemi dei numeri reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6 Funzioni reali di variabile reale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.7 Funzioni composte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.8 Funzioni inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Vettori 19
2.1 Coordinate cartesiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Vettori applicati e vettori liberi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3 Operazioni lineari tra vettori liberi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5 Prodotto vettoriale e prodotto misto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3 Numeri Complessi 37
3.1 Definizione di numero complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Rappresentazione algebrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Rappresentazione trigonometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.4 Radici di numeri complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5 Scomposizione e divisione di polinomi . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

4 Limiti di successioni 49
4.1 Successioni numeriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2 Successioni convergenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.3 Successioni divergenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.4 Teoremi sulle successioni regolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.5 Operazioni sui limiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.6 Successioni di numeri complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

5 Limiti di funzioni 61
5.1 Limite per x → ∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.2 Limite per x → x0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.3 Limiti destro e sinistro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

iii
iv INDICE

6 Funzioni continue 69
6.1 Definizione e proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.2 Discontinuità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.3 Teoremi sulle funzioni continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.4 Limiti notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.5 Asintoti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

7 Derivate 79
7.1 Derivata di una funzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7.2 Derivate di funzioni elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
7.3 Regole di derivazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
7.4 Derivate successive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

8 Proprietà delle funzioni derivabili 89


8.1 Teoremi sulle funzioni derivabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.2 Formula di Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
8.3 Infinitesimi e infiniti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
8.4 Differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

9 Applicazioni delle derivate allo studio di funzioni 99


9.1 Funzioni monotòne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.2 Massimi e minimi relativi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
9.3 Concavità e flessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
9.4 Studio del grafico di una funzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

10 Ricerca di zeri di funzioni 107


10.1 Separazione delle radici ed errore di approssimazione . . . . . . . . . . . . . . . . . . . 107
10.2 Metodo dicotomico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
10.3 Metodo delle corde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
10.4 Metodo di Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

11 Funzioni integrabili 113


11.1 Definizione di integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
11.2 Condizioni sull’integrabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
11.3 Proprietà dell’integrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
11.4 Teorema fondamentale del calcolo integrale . . . . . . . . . . . . . . . . . . . . . . . . 121
11.5 Calcolo diretto di integrali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
11.6 Integrazione per parti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11.7 Integrazione per sostituzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
11.8 Integrazione di funzioni razionali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
11.9 Integrazione di funzioni goniometriche . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
11.10Integrazione di funzioni irrazionali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.11Integrazione definita e calcolo di aree di figure piane . . . . . . . . . . . . . . . . . . . 134

II Elementi di algebra lineare e geometria 137

12 Matrici e determinanti 139


12.1 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
INDICE v

12.2 Somma di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140


12.3 Prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
12.4 Determinanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

13 Spazi vettoriali 151


13.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
13.2 Combinazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
13.3 Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

14 Sistemi lineari 159


14.1 Sistemi compatibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
14.2 Regola di Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
14.3 Metodo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
14.4 Sistemi lineari omogenei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

15 Geometria dello spazio 173


15.1 Retta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
15.2 Piano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
15.3 Fasci di piani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
15.4 Condizioni di parallelismo e perpendicolarità . . . . . . . . . . . . . . . . . . . . . . . 181
15.5 Distanze da rette e piani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
15.6 Traslazioni e rotazioni nello spazio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
15.7 Coordinate sferiche e coordinate cilindriche . . . . . . . . . . . . . . . . . . . . . . . . 191
15.8 Esempi notevoli di curve e superfici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

16 Geometria del piano 197


16.1 Coordinate polari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
16.2 Traslazioni e rotazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
16.3 Retta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
16.4 Ellisse, iperbole, parabola: equazioni polari e canoniche . . . . . . . . . . . . . . . . . 205

17 Applicazioni lineari 211


17.1 Definizione, esempi e proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
17.2 Immagine e nucleo di una applicazione lineare . . . . . . . . . . . . . . . . . . . . . . . 213
17.3 Operatori lineari in Vn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
17.4 Prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
17.5 Basi ortonormali in En . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
17.6 Operatori ortogonali, operatori simmetrici . . . . . . . . . . . . . . . . . . . . . . . . . 224
17.7 Autovettori e autovalori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227

18 Diagonalizzazione e forme quadratiche 233


18.1 Diagonalizzazione di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
18.2 Operatori simmetrici definiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
18.3 Forme quadratiche e loro riduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
18.4 Classificazione delle superfici del secondo ordine . . . . . . . . . . . . . . . . . . . . . . 242
Parte I

Funzioni di una variabile reale

1
Capitolo 1

Nozioni preliminari e notazioni

1.1 Insiemi
Diremo insieme una collezione di oggetti definiti, detti elementi. Gli insiemi saranno denotati con
lettere maiuscole (A, B, C, ...) e i suoi elementi con lettere minuscole (a, b, c, ...). Se l’elemento a
appartiene all’insieme A, si scrive
a ∈ A,
se invece a non appartiene all’insieme A, si scrive

a∈
/ A.

Un insieme può essere rappresentato mediante la lista dei suoi elementi od una loro prescrizione, tra
parentesi graffe. Ad es.
A = {a, b, c}, B = {x ∈ N : x ≤ 7}.
Converremo di chiamare vuoto un insieme privo di elementi e lo denoteremo con il simbolo ∅. Un
insieme si dice finito se è costituito da un numero finito di elementi altrimenti si dice infinito. Gli
esempi precedenti costituiscono insiemi finiti. Sono invece infiniti gli insiemi

C = {x ∈ R : 0 ≤ x ≤ 1}, D = {2n + 1, n ∈ N}.

Diremo sottoinsieme di un insieme A un qualunque insieme B, i cui elementi appartengono anche ad


A, e scriveremo B ⊆ A. A e ∅ sono sottoinisemi di A. Qualora esistano elementi in A non contenuti
nel suo sottoinsieme B scriveremo B ⊂ A.

Considerato l’insieme U e due suoi sottoinsiemi A e B, diciamo unione e intersezione tra A e B,


rispettivamente i due sottoinsiemi di U definiti da

A ∪ B = {x ∈ U : x ∈ A ∨ x ∈ B}, A ∩ B = {x ∈ U : x ∈ A ∧ x ∈ B}.

In altre parole l’unione di due insiemi è costituito dagli elementi che appartengono ad uno o all’altro
insieme mentre la loro intersezione è costituita dagli elementi comuni ai due insiemi.

• Esempi
1) Dati i due insiemi A = {x ∈ Z : x ≤ 2}, B = {x ∈ Z : x > −5}, si ha

A ∪ B = {x ∈ Z}, A ∩ B = {x ∈ Z : −5 < x ≤ 2} = {−4, −3, −2, −1, 0, 1, 2}

3
4 CAPITOLO 1. NOZIONI PRELIMINARI E NOTAZIONI

2) Dati A = {x ∈ Q : x > 53 }, B = {x ∈ R : x ≥ 7}, si ha
5 √ √
A ∪ B = {x ∈ Q : < x < 7} ∪ B, A ∩ B = {x ∈ Q : x > 7}
3

3) Dati A = {x ∈ R : x ≤ −3}, B = {x ∈ R : x > − 3}, si ha

A ∪ B = {x ∈ R : x ≤ −3 ∨ x > − 3}, A ∩ B = ∅.

In questo caso si dice che i due insiemi A e B sono disgiunti.

Dato un sottoinsieme A di un insieme U , si dice complementare di A rispetto ad U l’insieme definito


da
AC = {x ∈ U : x ∈ / A}.

• Esempio
Dati U = {x ∈ N : 5 < x ≤ 15} e A = {12, 13, 14, 15}, si ha
AC = {x ∈ N : 5 < x ≤ 11}

In base alle precedenti definizioni è facile dimostrare le seguenti proprietà (leggi di De Morgan)
(A ∪ B)C = AC ∩ B C , (A ∩ B)C = AC ∪ B C .
Si ha infatti
(A ∪ B)C = {x ∈ U : x ∈
/ A∧x∈
/ B} = {x ∈ U : x ∈ AC ∧ x ∈ B C } = AC ∩ B C
(A ∩ B)C = {x ∈ U : x ∈
/ A∨x∈
/ B} = {x ∈ U : x ∈ AC ∨ x ∈ B C } = AC ∪ B C

Dati due insiemi A ⊂ U e B ⊂ U , si dice differenza tra A e B l’insieme A \ B, costituito dagli elementi
di A che non appartengono a B, ovvero
A \ B = {x ∈ U : x ∈ A ∧ x ∈
/ B} = A ∩ B C

• Esempio
Dati A = {x ∈ R : x > 2} e B = {x ∈ R : x > 5}, si ha
A \ B = {x ∈ R : 2 < x ≤ 5}

Si dice prodotto cartesiano dei due insiemi A e B l’insieme, indicato con A × B, delle coppie ordinate
(a, b) in cui a ∈ A e b ∈ B. Se, ad esempio A = N e B = R, si ha
( )
√ 1
(2, 3) ∈ A × B e , 3 ∈ B × A.
6
Si definisce in modo analogo il prodotto cartesiano di più di due insiemi. Il prodotto cartesiano di un
insieme A con se stesso si indica con A2 . Analogamente A × A × A = A3 , e cosı̀ via.
1.2. QUANTIFICATORI, SOMME, PRODOTTI 5

1.2 Quantificatori, somme, prodotti


Se si vuole affermare che una data relazione matematica R(x) = 0 che coinvolge una variabile x ∈ A
vale sempre, qualunque sia il valore di quella variabile nell’insieme A, si usa il seguente simbolismo

R(x) = 0 ∀x ∈ A

e si legge ”R di x è uguale a zero per ogni x appartenente ad A”. Il simbolo ∀ è detto quantificatore.
Se ad esempio si vuole affermare che cos2 x + sin2 x = 1 è una identità in R, si scrive

cos2 x + sin2 x = 1 ∀x ∈ R

Un altro quantificatore utilizzato spesso nell’analisi matematica è il quantificatore di esistenza, usato


per affermare che una data relazione matematica R(x) = 0 è vera per almeno un valore di x ∈ A. In
tal caso si scrive
∃x ∈ A : R(x) = 0,
e si legge ”esiste (o, è sempre possibile determinare) un x appartenente ad A tale che R di x sia uguale
a zero”. La negazione di ∃ si denota con il simbolo ̸ ∃, che viene usato per negare la possibilità che
una data relazione R(x) = 0 sia verificata, qualsiasi sia il valore di x ∈ A. Si può scrivere ad esempio

∃x ∈ R : x2 − 2 = 0, ̸ ∃x ∈ Q : x2 − 2 = 0

̸ ∃x ∈ R : x2 + 2 = 0, ∃x ∈ C : x2 + 2 = 0.
I seguenti esempi possono chiarire ulteriormente il significato dei simboli ∀, ∃, ̸ ∃.

x2 + 2x + 1 ≥ 0 ∀x ∈ R,
1
∀a ∈ R ∃n ∈ N : 1 + < n,
a
∀n ∈ N, n > 2 ̸ ∃ a, b, c ∈ N : an + bn = cn .
Accanto ai quantificatori introduciamo anche i simboli di implicazione logica. Il simbolo ⇒ viene usato
per significare il passaggio da una proposizione ad un’altra, logicamente conseguente. Ad esempio

x∈Q =⇒ x ∈ R,

che si legge ”x appartenente a Q implica x appartenente a R”. Consideriamo il seguente esempio.


Dati tre sottoinsiemi A, B, C, di U , si ha

A ∩ (B ∪ C) = ∅ =⇒ A è disgiunto da B e da C.

Questa implicazione si può anche esprimere dicendo che A ∩ (B ∪ C) = ∅ è condizione sufficiente


affinché A sia disgiunto da B e da C. D’altra parte vale anche il viceversa, ovvero, se A è disgiunto
sia da B che da C allora la sua intersezione con l’unione di B con C è vuota. Scriveremo allora

A ∩ (B ∪ C) = ∅ ⇐⇒ A è disgiunto da B e da C,

diremo allora che A ∩ (B ∪ C) = ∅ è anche condizione necessaria affinché A sia disgiunto da B e da


C, e in definitiva che A ∩ (B ∪ C) = ∅ è condizione necessaria e sufficiente affinché A sia disgiunto da
B e da C.
6 CAPITOLO 1. NOZIONI PRELIMINARI E NOTAZIONI

Nel seguito si useranno anche alcune notazioni utili per sintetizzare operazioni come la somma o il
prodotto di più termini. In particolare, con il simbolo Σ, si indicherà spesso la ”sommatoria” di un
certo numero (finito) di addendi, indicizzati. Per esempio, la somma di n numeri ai , con i indice che
varia tra 1 e n, verrà indicata con


n
a1 + a2 + ... + an = ai ,
i=1

che si legge ”sommatoria, per i che va da 1 a n di ai ”. I termini da sommare possono anche essere
prodotti con fattori indicizzati, per esempio,


n
a1 b1 + a2 b2 + ... + an bn = ai bi .
i=1

È possibile comporre più sommatorie, qualora le quantità da sommare dipendano da due o più indici.
In tal caso le proprietà commutativa della somma e distributiva del prodotto rispetto alla somma,
permettono di comporre in un qualunque ordine le diverse somme. Ad esempio, date le due quantità
ai , bi , (i = 1, 2, 3), se si vuole indicare la somma di tutti i possibili prodotti ai bj si scriverà


3 ∑ 3 ∑
3 ∑ 3 ∑
3
( ai bj ) = ( ai bj ) = ai bj
i=1 j=1 j=1 i=1 i,j=1

= a1 b1 + a1 b2 + a1 b3 + a2 b1 + a2 b2 + a2 b3 + a3 b1 + a3 b2 + a3 b3 .

utilizzando un unico simbolo di sommatoria con più indici.


Una abbreviazione analoga a quella della somma si usa per il prodotto di più termini. In questo caso
si usa il simbolo Π. Ad esempio,

n
a1 · a2 · a3 ...an = ai ,
i=1

oppure,

n
(x − a1 )(x − a2 )...(x − a3 ) = (x − ai ).
i=1

Dato un qualunque numero naturale n, la quantità


n
i = 1 · 2 · 3 ... n,
i=1

si chiama fattoriale di n e si indica con il simbolo n!. Si può anche scrivere


n
n! = (n − i + 1) = n(n − 1)(n − 2) ... 2 · 1.
i=1

Per convenzione porremo 0! = 1.


1.3. TEOREMI 7

1.3 Teoremi
La struttura di base di un teorema è costituita da una ipotesi, una dimostrazione ed una tesi. La
dimostrazione consiste generalmente in una serie di proposizioni che, partendo dalla ipotesi, conducono
logicamente alla tesi. Una dimostrazione siffatta si dice diretta. Consideriamo il seguente esempio.
Teorema.
Ipotesi: Siano x e y due numeri reali.
Tesi: Valgono le seguenti relazioni (diseguaglianze triangolari)

||x| − |y|| ≤ |x + y| ≤ |x| + |y|.

Dimostrazione: Poiché |x|2 = x2 , si possono scrivere le seguenti uguaglianze.

|x + y|2 = (x + y)2 = x2 + 2xy + y 2 ,


(|x| − |y|)2 = |x|2 − 2|xy| + |y|2 ,
(|x| + |y|)2 = |x|2 + 2|xy| + |y|2 .

Essendo poi, −|xy| ≤ xy ≤ |xy|, ne segue

(|x| − |y|)2 ≤ |x + y|2 ≤ (|x| + |y|)2 .

Dalle diseguaglianze tra numeri reali sappiamo che a2 ≤ b2 è equivalente ad |a| ≤ |b|, quindi le due
diseguaglianze prcedenti implicano

||x| − |y|| ≤ |x + y| ≤ |x| + |y|,

come volevamo dimostrare.


In certi casi, la tesi di un teorema può essere ottenuta con una dimostrazione per assurdo, cioè usando
un principio di contraddizione secondo il quale, negando la tesi, si arriva a contraddire l’ipotesi.
Consideriamo il seguente esempio.
Teorema
Ipotesi: Sia x un numero tale che x2 = 2.
Tesi: x ∈/ Q.
Dimostrazione: Supponiamo per assurdo che x ∈ Q. Allora esisteranno due numeri interi n ed m
n
tali che x = m . Dalla ipotesi avremo
( n )2
=2 n2 = 2m2 .
m
Scomponendo in fattori primi n ed m nell’ultima relazione, otterremo a primo membro un fattore 2
con esponente pari (cioè 20 , 22 , 24 , ...) mentre a secondo membro comparirà un fattore 2 con esponente
dispari (21 , 23 , 25 , ...). Poiché la scomposizione in fattori primi è unica, giungiamo a negare la validità
dell’ultima relazione e quindi a contraddire l’ipotesi. In altri termini la soluzione dell’equazione x2 = 2
non può essere un numero razionale.
In altri casi ancora la tesi di un teorema può essere ottenuta usando una dimostrazione per induzione.
Se per esempio il contenuto della tesi deve valere per qualunque numero naturale n, si può ricorrere
ad un principio di induzione secondo il quale se la tesi è vera per n = 1 e se, ammettendo che valga
per un certo n, essa vale anche per n + 1, allora essa varrà per qualsiasi n. Consideriamo il seguente
semplice esempio.
8 CAPITOLO 1. NOZIONI PRELIMINARI E NOTAZIONI

Teorema
Ipotesi: Sia n ∈ N e x un numero reale.
Tesi: (1 − xn ) = (1 − x)(1 + x + x2 + ... + xn−1 ).
Dimostrazione: Se n = 1 la tesi è immediatamente verificata in quanto 1 − x = 1 − x. Supponiamo
che essa valga per un certo n e dimostriamo che essa è vera anche per n + 1. Si ha infatti,
1 − xn+1 = 1 − xn+1 − x + x = 1 − x + x(1 − xn )
= 1 − x + x(1 − x)(1 + x + x2 + ... + xn−1 )
= (1 − x)[1 + x(1 + x + x2 + ... + xn−1 )]
= (1 − x)(1 + x + x2 + ... + xn ).
Per induzione possiamo allora concludere che la tesi è vera per qualsiasi n.

1.4 Cenni di calcolo combinatorio


Consideriamo un insieme A costituito da n elementi distinti e sia k ≤ n un numero intero. Ci chiediamo
quanti sottoinsiemi ordinati di A costituiti da k elementi è possibile costruire. Per rispondere a questa
domanda possiamo ragionare in modo operativo immaginando di prendere da A un elemento alla volta
e di riempire, secondo un ordine stabilito, un contenitore che può ospitarne k. Possiamo scegliere il
primo elemento in n modi possibili e riporlo nel contenitore. Rimangono n − 1 elementi tra i quali
possiamo scegliere il secondo elemento da riporre, in n−1 modi possibili. Ne segue che ci sono n(n−1)
modi possibili di riporre i primi due elementi. Continuando in questo modo sceglieremo il k-esimo
elemento da riporre, in n − k + 1 modi possibili e il numero totale di modi possibili per riempire il
contenitore è dato dal prodotto n(n − 1)(n − 2)...(n − k + 1), che rappresenta le disposizioni di n
elementi in classi ordinate di k elementi e si indica con
Dn,k = n(n − 1)(n − 2)...(n − k + 1).

• Esempio
Supponiamo di dover eleggere un presidente un segretario ed un tesoriere tra i 20 aderenti ad
una associazione. Vogliamo sapere in quanti modi possiamo fare questa scelta.
In tal caso dobbiamo calcolare le disposizioni di 20 elementi in classi ordinate di 3 elementi
quindi il risultato è
D20,3 = 20 · 19 · 18 = 6840.

Se k = n, il numero di disposizioni coincide con il numero di insiemi che si ottengono da A cambiando


l’ordine dei suoi elementi. A tale numero si dà il nome di permutazioni di n elementi e si scrive
Pn = Dn,n = n(n − 1)(n − 2)...2 · 1 = n!

• Esempio
In quanti modi può disporsi una squadra di 8 canottieri nella loro imbarcazione? Si tratta di
calcolare le permutazioni di 8 elementi. Si ha
P8 = 8! = 40320
1.4. CENNI DI CALCOLO COMBINATORIO 9

Nel calcolo delle disposizioni Dn,k si tiene conto dell’ordine con cui vengono occupati i k posti degli
n elementi. Se non si tenesse conto di tale ordine, tutte le permutazioni dei k elementi sarebbero
equivalenti e siccome tali permutazioni valgono k!, il numero di modi possibili di riempire k posti con
n elementi diminuirebbe di un fattore k!. Le disposizioni di n elementi in k posti non tenendo conto
dell’ordine si chiamano combinazioni di n elementi in classi di k elementi e si indicano con Cn,k . Per
quanto detto, si ha

Dn,k n(n − 1)(n − 2)...(n − k + 1)


Cn,k = =
k! k!
n(n − 1)(n − 2)...(n − k + 1) (n − k)! n!
= =
k! (n − k)! k!(n − k)!

• Esempi
1) Supponiamo di avere una tavolozza con 7 colori distinti. Vogliamo sapere quanti nuovi colori
possiamo creare mescolando 3 colori alla volta.
Poiché in tal caso non ha importanza l’ordine con cui si prendono i tre colori, si tratta di calcolare
le combinazioni di 7 elementi in classi di 3 elementi, quindi il risultato è
7·6·5
C7,3 = = 35
3·2

2) Da un team di 21 giocatori bisogna creare una squadra di 11 giocatori. Quante squadre si


possono formare? Anche in questo caso si tratta di calcolare le combinazioni di 21 elementi in
classi di 11 elementi. Si ha
21 · 20 · ... · 11
C21,11 = = 352716.
11 · 10 · ... · 2

( )
n
Il numero Cn,k si indica anche con il simbolo , detto coefficiente binomiale. Questa denominazione
k
proviene dalla formula di Newton per la potenza n-esima di un binomio,
n ( )

n n
(a + b) = an−k bk .
k
k=0

Dimostriamo questa formula.


Essendo
(a + b)n = (a + b)(a + b)...(a + b),
| {z }
nvolte

tutti i termini dello sviluppo di tale prodotto hanno la forma

an−k bk , con k = 0, 1, ..., n.

Per un dato k, ciascuno di questi termini comparirà nello sviluppo un numero di volte pari al numero
di modi in cui si possono prendere k fattori b tra gli n che compaiono nel prodotto. Poiché non ha
10 CAPITOLO 1. NOZIONI PRELIMINARI E NOTAZIONI

alcuna importanza l’ordine con cui si prendono questi fattori, il termine an−k bk comparirà Cn,k volte
e si avrà ( )
n n!
= .
k k!(n − k)!

È immediato verificare che ( ) ( ) ( ) ( )


n n n n
= , = = 1,
k n−k n 0
Si ha inoltre ( ) ( ) ( )
n n n+1
+ = .
k k−1 k

1.5 Sottoinsiemi dei numeri reali


Dati due numeri reali a e b, con a < b chiameremo intervallo aperto (a, b) il sottoinsieme di R costituito
da tutti i numeri reali x tali che a < x < b, ovvero

(a, b) = {x ∈ R : a < x < b}.

Chiameremo poi intervallo chiuso [a, b], il sottoinsieme di R definito da

[a, b] = {x ∈ R : a ≤ x ≤ b}.

La stessa convenzione sulle parentesi tonde o quadre si usa per definire l’intervallo (a, b], aperto a
sinistra e chiuso a destra, o l’intervallo [a, b), aperto a destra e chiuso a sinistra. Infine diremo
intervalli illimitati i seguenti sottoinsiemi di R

[a, +∞) = {x ∈ R : x ≥ a}, (−∞, a] = {x ∈ R : x ≤ a},


(a, +∞) = {x ∈ R : x > a}, (−∞, a) = {x ∈ R : x < a}.

In particolare, i primi due li diremo illimitati chiusi e gli altri illimitati aperti.
Un sottoisieme A ⊂ R si dice superiormente limitato se ∃k ∈ R : x ≤ k ∀x ∈ A. I numeri k che
soddisfano questa proprietà si dicono maggioranti per A. Analogamente si dice che A è inferiormente
limitato se ∃h ∈ R : x ≥ h ∀x ∈ A. I numeri h si dicono minoranti per A.

• Esempio
Ogni intervallo non illimitato è limitato superiormente e inferiormente. L’insieme N è limitato
inferiormente ma non superiormente, mentre l’insieme Z non è limitato. L’insieme
1
A = {x = , n ∈ N}
n
è limitato inferiormente e superiormente, infatti, per esempio, 3 è un maggiorante mentre −1 è
un minorante.

Dato un sottoinsieme A dei reali, si dice che A possiede un massimo se esiste un elemento M ∈ A tale
che M ≥ x, ∀x ∈ A. Analogamente A possiede un minimo se ∃m ∈ A : m ≤ x ∀x ∈ A. Notiamo che,
se esistono, M è un particolare maggiorante per A, mentre m è un particolare minorante per A.
1.5. SOTTOINSIEMI DEI NUMERI REALI 11

• Esempi
I sottoinsiemi R+ (reali positivi o nulli) ed R− (reali negativi o nulli) possiedono rispettivamente
minimo e massimo coincidenti con 0. Il sottoinsieme R++ (reali strettamente positivi) non
possiede nè massimo nè minimo. Ogni intervallo chiuso a destra (a, b] possiede come massimo
l’elemento b. Ogni intervallo chiuso a sinistra [a, b) possiede come minimo l’elemento a.

Due sottoinsiemi A e B di R tali che A ∪ B = R e A ∩ B = ∅ e tali che ogni elemento di A è minore


di ogni elemento di B, si dicono classi separate di R. Mediante il cosiddetto assioma di Dedekind si
postula che date due classi separate in R esiste sempre un elemento s ∈ R detto elemento separatore
appartenente ad una delle due classi tale che a ≤ s ≤ b, ∀a ∈ A, ∀b ∈ B. Per esempio, i due
sottoinsiemi R+ ed R−− , costituiscono due classi separate in R e lo zero è il loro elemento separatore
che, in tal caso appartiene a R+ . Più in generale i due sottoinsiemi (−∞, a) e [a, +∞) costituiscono
classi separate in R, con elemento separatore a.
Facendo uso dell’assioma di Dedekind si dimostra che l’insieme dei maggioranti per un dato sottoin-
sieme limitato A ⊂ R ammette un minimo e che l’insieme dei minoranti ammette un massimo. Tali
numeri vengono chiamati rispettivamente estremo superiore ed estremo inferiore di A ed indicati con
i simboli sup(A), inf(A).

• Esempi
L’insieme A = {x = n1 , n ∈ N} ha sup(A) = 1. Poiché 1 ∈ A, si ha anche che 1 è il massimo di
A. Inoltre inf(A) = 0. L’estremo superiore dell’intervallo [4, 9) è 9, mentre l’estremo inferiore è
4 che risulta essere anche minimo.

Teorema 1.1 (del sup) Sia A ⊂ R superiormente limitato. Condizione necessaria e sufficiente
affinché s = sup(A) è che

a) s ≥ x ∀x ∈ A
b) ∀a < s ∃x̄ ∈ A : a < x̄ ≤ s

Dim. (Parte necessaria). Poiché, per definizione, s è un maggiorante, la a) è sicuramente vera.


Dimostriamo la b) per assurdo. Supponiamo che preso a < s tutti gli elementi di A siano minori o
uguali ad a, cioè x ≤ a, ∀x ∈ A. Allora a sarebbe un maggiorante per A e di conseguenza si avrebbe
a ≥ s, contro l’ipotesi che s > a. Deve quindi esistere almeno un x̄ ∈ A tale che a < x̄ ≤ s.
(Parte sufficiente). Dalla a) abbiamo che s è un maggiorante per A. Supponiamo che valga la b)
e che, per assurdo, s non sia il minimo dei maggioranti e che quindi esista un maggiorante s′ più
piccolo di s che sia il sup(A). Scelgo allora a = s′ e trovo, per la b), che esiste un x̄ ∈ A tale che
s′ < x̄ < s. Ma quest’ultima relazione contraddice l’ipotesi che s′ sia l’estremo superiore di A. Ne
segue che s = sup(A).
Vale, ovviamente anche il teorema analogo sull’estremo inferiore, che si enuncia cosı̀:

Teorema 1.2 (dell’ inf) Sia A ⊂ R inferiormente limitato. Condizione necessaria e sufficiente
affinché i = inf(A) è che
12 CAPITOLO 1. NOZIONI PRELIMINARI E NOTAZIONI

a) i ≤ x ∀x ∈ A
b) ∀a > i ∃x̄ ∈ A : i ≤ x̄ < a

Teorema 1.3 Dati due numeri reali b, c, supponiamo che b − c < ε per ogni ε > 0. Allora b − c ≤ 0
Dim. Supponiamo per assurdo che b > c. Allora l’intervallo (c, b) ammetterà b come estremo supe-
riore. Dalla definizione di estremo superiore segue allora che se a è un numero compreso tra c e b
∃x̄ ∈ (c, b) : a < x̄ < b. In altri termini, posto b − x̄ = ε, si avrà ε = b − x̄ < b − c. Ma ciò contraddice
l’ipotesi.
Dal precedente teorema si ricava facilmente il seguente risultato.
Corollario al Teorema 1.3
Dati due numeri reali a, b tali che |a − b| < ε, per ogni ε > 0, si ha a = b.
Dim. Supponiamo che a ≥ b. Allora dall’ipotesi abbiamo a − b < ε, ∀ε > 0. Per il teorema 1.3 si ha
a − b ≤ 0. Ne segue che contemporaneamente si deve avere a ≥ b e a ≤ b e quindi, necessariamente,
a = b. Si ottiene il medesimo risultato supponendo che a ≤ b.
Poiché i numeri reali possono essere messi in corrispondenza biunivoca con i punti di una retta, nel
seguito capiterà di chiamare punto un numero reale, intendendo con ciò il punto geometrico su una
retta orientata e dotata di una origine, la cui ascissa è il numero reale dato.
Si dice intorno di un punto x ∈ R un qualunque intervallo reale aperto contenente x. In particolare,
un δ-intorno di x, (δ > 0), è il sottoinsieme Iδ (x) ⊂ R dato da
Iδ (x) = {y ∈ R : |y − x| < δ}.
Si definiscono anche, rispettivamente, intorno destro e intorno sinistro di x i seguenti intervalli,
Iδ+ (x) = {y ∈ R : x < y < x + δ}, Iδ− (x) = {y ∈ R : x − δ < y < x}.
Dato un sottoinsieme A ⊂ R, un punto x ∈ R si dice punto di accumulazione per A se in un qualunque
suo intorno cadono infiniti punti appartenenti ad A. Il sottoinsieme A si dice chiuso se contiene i suoi
punti di accumulazione. Inoltre si dice chiusura di un insieme A ⊂ R l’unione dell’ insieme A con i
suoi punti di accumulazione e la si indica con Ā.

• Esempi
L’insieme
1
A = {x = 1 +, n ∈ N}
n
ha come unico punto di accumulazione il punto 1, che non appartiene ad A. A non è dunque un
sottoinsieme chiuso.
L’intervallo A = (5, 8] ha come punti di accumulazione tutti gli x tali che 5 ≤ x ≤ 8. Esso non
è un sottoinsieme chiuso perché 5 non appartiene ad A. La chiusura di A è l’intervallo chiuso
Ā = [5, 8].
L’insieme Q ammette come punti di accumulazione tutto R. Esso non è un sottoinsieme chiuso
e la sua chiusura è R.

Un sottoinsieme A ⊂ R si dice aperto se è il complementare di un sottoinsieme chiuso. Si può


dimostrare che l’unione di più sottoinsiemi aperti è un aperto. Dalle leggi di De Morgan (vedi par.
1.1) segue allora che l’intersezione di più insiemi chiusi è un insieme chiuso.
1.6. FUNZIONI REALI DI VARIABILE REALE 13

1.6 Funzioni reali di variabile reale


In generale, una funzione f è una relazione tra due insiemi A e B che ad ogni elemento di A fa
corrispondere uno ed un solo elemento di B. Essa si può rappresentare simbolicamente nella seguente
forma,
f : A → B.
L’insieme A si dice dominio della funzione e l’insieme B codominio. Consideriamo qui il caso in cui
A ⊂ R e B = R. Se all’elemento x di A la funzione fa corrispondere l’elemento y di R, si scrive
f (x) = y, e si dice che y è l’immagine di x tramite f . L’insieme dei valori y corrispondenti tramite
la f all’insieme A si dice l’immagine di A e si indica con f (A). Il generico elemento x di A si chiama
variabile indipendente e l’elemento y variabile dipendente. Due funzioni f, g aventi lo stesso dominio
sono uguali se ∀x ∈ A, f (x) = g(x). Preso un sottoinsieme C di A, la funzione f¯ : C → B si dice
restrizione di f al sottoinsieme C di A se f¯(x) = f (x), ∀x ∈ C.
Si dice grafico di una funzione f : A → B l’insieme delle coppie di numeri reali (x, y) ∈ R2 tali che
per ogni x ∈ A sia y = f (x).

• Esempio

( f3(x)9 )= x ha come dominio A = R e come codomino B = R mentre f (A) = R .


La funzione 2 +

La coppia − 2 , 4 appartiene al grafico di f .



La funzione f¯(x) = x, x ∈ R+ è la restrizione all’insieme R+ della funzione f (x) = x2 , x ∈ R.

Una funzione f si dice iniettiva se ad elementi distinti del dominio fa corrispondere elementi distinti
del codominio, ovvero ∀x1 , x2 ∈ A : x1 ̸= x2 ⇒ f (x1 ) ̸= f (x2 ).

• Esempio
Nell’esempio precedente la funzione f (x) non è iniettiva mentre la funzione f¯ lo è.

Una funzione f si dice suriettiva (o su tutto) se l’immagine f (A) coincide con B, ovvero se ∀y ∈
B ∃ x ∈ A : f (x) = y.

• Esempi
La funzione f (x) = ln |x|, x ∈ R\{0} è suriettiva ma non iniettiva. La funzione f (x) = x3 , x ∈ R
è iniettiva e suriettiva. La funzione f (x) = x2 , x ∈ R non è nè iniettiva nè suriettiva. La funzione
exp(x), x ∈ R è iniettiva.

Una funzione iniettiva e suriettiva si dice biettiva (o biunivoca). Dalle definizioni precedenti segue che
una funzione è biunivoca se e solo se per ogni elemento y ∈ B esiste uno ed un solo elemento x ∈ A
tale che f (x) = y.

• Esempi
La funzione log x, x ∈ R++ è biunivoca, mentre la funzione exp(x2 ), x ∈ R non è biunivoca.
14 CAPITOLO 1. NOZIONI PRELIMINARI E NOTAZIONI

Una funzione si dice superiormente (inferiormente) limitata se la sua immagine è un insieme superior-
mente (inferiormente) limitato. Si dice che una funzione è limitata se essa è limitata sia superiormente
che inferiormente.

• Esempi
La funzione
x
f (x) = , x ∈ (1, +∞)
x−1
è limitata inferiormente in quanto f (A) = (1, +∞). Le funzioni sin x e cos x definite in A = R
sono limitate in quanto l’immagine di ambedue le funzioni è l’intervallo [−1, 1]. La funzione tan x
definita in A = {x ∈ R : x ̸= π2 + kπ, k ∈ Z} non è limitata nè inferiormente nè superiormente.

Data f : A → B, sia I un intervallo contenuto in A. Si dice che f è crescente in I se per ogni coppia
di punti x1 , x2 ∈ I tali che x1 < x2 si ha f (x1 ) < f (x2 ). Analogamente si dice che f è

non decrescente in I se ∀x1 < x2 f (x1 ) ≤ f (x2 )


decrescente in I se ∀x1 < x2 f (x1 ) > f (x2 )
non crescente in I se ∀x1 < x2 f (x1 ) ≥ f (x2 )

Le funzioni che soddisfano una delle precedenti proprietà si dicono monotòne. In particolare quelle
crescenti e quelle decrescenti si dicono anche strettamente monotòne.

• Esempi
La funzione sin x è crescente nell’intervallo I = [0, π/2] e decrescente nell’intervallo I = [π/2, π].
La funzione tan x è crescente in ogni intervallo non contenente i punti {x ∈ R : x = π/2+ kπ, k ∈
Z}. Le funzioni exp x ed exp(−x) sono rispettivamente crescente e decrescente in tutto R. La
funzione exp(−x2 ) è crescente in R− ed è decrescente in R+ . La funzione f (x) = 2 è non
decrescente in tutto R, ma è anche non crescente in tutto R. La funzione f (x) = [x] (parte
intera di x) è non decrescente in tutto R.

Consideriamo in particolare le funzioni iperboliche sinh x, cosh x, tanh x. Esse sono definite in tutto R
nel seguente modo.

ex − e−x ex + e−x ex − e−x


sinh x = , cosh x = tanh x = .
2 2 ex + e−x
Dimostriamo che la funzione sinh x è biunivoca. A tale scopo dobbiamo fare vedere che, preso un
elemento y del codominio, esiste uno ed un solo elemento del dominio tale che sinh x = y. Si ha

2y = ex − e−x , =⇒ (ex )2 − 2yex − 1 = 0.

Risolvendo quest’ultima equazione rispetto a ex si ottiene



ex = y ± y 2 + 1,

ed essendo ex sempre positiva si ottiene l’unica soluzione ex = y + y 2 + 1. Poiché la funzione
exp(x), x ∈ R, è iniettiva, ne segue che fissato y esiste uno ed un solo valore di x tale che sinh x = y.
1.6. FUNZIONI REALI DI VARIABILE REALE 15

Dimostriamo che il seno iperbolico è una funzione crescente in tutto R. Dobbiamo verificare che la
disuguaglianza
ex1 − e−x1 < ex2 − e−x2 ,
è verificata per ogni coppia x1 , x2 di numeri reali tale che x1 < x2 . Dalla diseguaglianza precedente si
ha
ex1 − ex2 < e−x1 − e−x2 .
Poiché le funzioni exp x e exp(−x) sono rispettivamente crescente e decrescente in tutto R, ne segue
che la precedente disuguaglianza è sempre verificata per ogni x1 < x2 .
Si dimostra facilmente che la funzione cosh x è limitata inferiormente e la funzione tanh x è limitata.
Si ha infatti
cosh x ≥ 1, | tanh x| < 1, ∀x ∈ R.
Tra le proprietà delle funzioni iperboliche, dimostrabili a partire dalle loro definizioni, citiamo la
seguente,
cosh2 x − sinh2 x = 1, ∀x ∈ R.

Una funzione f : A ⊆ R → R si dice periodica se esiste un T > 0 tale che x + T ∈ A e f (x + T ) = f (x)


per ogni x ∈ A. Il più piccolo dei numeri T si chiama periodo.

• Esempi
Le funzioni sin x, cos x sono funzioni periodiche di periodo 2π. La funzione tan x è una funzione
periodica di periodo π. La funzione sin(3x) è periodica di periodo 2π/3.

Una funzione f (x), |x| ∈ A ⊆ R+ si dice pari se f (−x) = f (x), mentre si dice dispari se f (−x) =
−f (x). Le funzioni pari hanno la proprietà che il loro grafico nel piano cartesiano x, y è simmetrico
rispetto all’asse delle y, mentre il grafico delle funzioni dispari risulta simmetrico rispetto all’origine
degli assi.

• Esempi
16 CAPITOLO 1. NOZIONI PRELIMINARI E NOTAZIONI

Le funzioni |x|, cos x, x2n (n ∈ N), cosh x sono esempi di funzioni pari definite in R. Le funzioni
x2n+1 (n ∈ N), sin x, sinh x, tan x, tanh x sono esempi di funzioni dispari. La funzione [x] non è
nè pari nè dispari.

1.7 Funzioni composte


Consideriamo due funzioni f : A ⊆ R → B ⊆ R e g : B → C ⊆ R. Si definisce funzione composta da
f e g la funzione h : A → C definita da

h(x) = g(f (x)), ∀x ∈ A,

e si scrive h = g ◦ f .

• Esempio
Date le due funzioni f (x) = 2x + 1, x ∈ R e g(x) = x2 , x ∈ R, la funzione composta g ◦ f è data
da
h(x) = g(f (x)) = g(2x + 1) = (2x + 1)2 , x ∈ R.

Si noti che, in generale, f ◦ g ̸= g ◦ f . Nell’esempio presente f ◦ g risulta data da

h̄(x) = f (g(x)) = f (x2 ) = 2x2 + 1, x ∈ R.

• Esempio

̸ −1, g(x) = x, x ∈ R+ , la funzione composta g ◦ f
Date le due funzioni f (x) = 1/(x + 1), x =
è data da √
1
h(x) = , x > −1.
x+1

Dall’ultimo esempio si vede che per comporre due funzioni bisogna assicurarsi che l’immagine della
prima sia contenuta nel dominio della seconda. Poiché la funzione f ha come immagine f (A) = R\{0}
e la funzione g ha come dominio R+ , la composizione ha senso solo se si considera la restrizione f¯
della f la cui immagine è contenuta in R+ . Il dominio della funzione composta h coinciderà allora
con quello di f¯.
Si può effettuare la composizione di più di due funzioni. Ad esempio, date le tre funzioni f : A → B,
g : B → C, h : C → D, si ha k = h ◦ (g ◦ f ), data da

k(x) = h[g(f (x))], x∈A

Si verifica facilmente che h ◦ (g ◦ f ) = (h ◦ g) ◦ f . Ciò permette di scrivere k = h ◦ g ◦ f .


1.8. FUNZIONI INVERSE 17

1.8 Funzioni inverse


Consideriamo una funzione biunivoca f : A ⊆ R → B ⊆ R. Si dice funzione inversa della f e la si
indica con f −1 la funzione che ad ogni elemento di y ∈ B fa corrispondere l’elemento x ∈ A tale che
f (x) = y. Ovvero
f −1 (y) = x, ∀y ∈ B, x ∈ A : f (x) = y.
Notiamo che la composizione di una funzione biunivoca con la sua inversa, indipendentemente dall’ordine
di composizione, equivale alla funzione identità, cioè alla funzione i(x) = x. In base alla definizione di
funzione inversa si ha infatti

f (f −1 (y)) = f (x) = y, oppure, f −1 (f (x)) = f −1 (y) = x, ∀x ∈ A, y ∈ B.

• Esempio
La funzione f (x) = x2 , x ∈ R+ è una funzione biunivoca avente come codominio l’insieme R+ .
Essa ammette dunque l’inversa data da

f −1 (y) = y, y ∈ R+ .

Come nell’esempio precedente, per ricavare la funzione inversa di una data f (x) biunivoca, basta
esplicitare la variabile indipendente rispetto a quella dipendente, scambiandone cosı̀ i ruoli.

• Esempi
Data f (x) = 2x − 1, x ∈ R, si ha y = 2x − 1 da cui x = (y + 1)/2. Ne segue
y+1
f −1 (y) = , y ∈ R.
2
Data f (x) = exp(3x), x ∈ R, si ha y = exp(3x), da cui x = (ln y)/3. Ne segue

f −1 (y) = ln 3
y, y ∈ R++ .

Data f (x) = 1 + loga x, x ∈ R++ , si ha y = 1 + loga x, da cui x = ay−1 . Ne segue

f −1 (y) = ay−1 , y ∈ R.

In seguito indicheremo sempre con x la variabile indipendente e con y la variabile dipendente e quindi,
data y = f (x) scriveremo la sua inversa come y = f −1 (x). Il grafico della funzione inversa f −1 nel
piano x, y sarà allora il simmetrico di quello della f rispetto alla retta y = x, bisettrice del primo e
del terzo quadrante.
Consideriamo alcuni casi particolari di funzioni inverse.
La funzione f (x) = sin x, x ∈ R risulta essere biunivoca nell’intervallo A = [−π/2, π/2]. In tale
intervallo essa è quindi invertibile. Poiché f (A) = [−1, 1], la sua inversa è definita da

f −1 (x) = arcsin x, x ∈ [−1, 1].


18 CAPITOLO 1. NOZIONI PRELIMINARI E NOTAZIONI

Analogamente, la funzione f (x) = cos x risulta invertibile nell’intervallo A = [0, π] e si ha

f −1 (x) = arccos x, x ∈ [−1, 1].

Le funzioni f (x) = tan x, x ̸= π/2 + kπ, k ∈ Z, e g(x) = cot x, x ̸= kπ, k ∈ Z, sono invertibili
rispettivamente negli intervalli Af = (−π/2, π/2) e Ag = (0, π) e si ha

f −1 (x) = arctan x, x ∈ R, g −1 (x) = arccot x, x ∈ R.

Le funzioni iperboliche sinh x, (A = R, B = R) e tanh x, (A = R, B = (−1, 1)) sono biunivoche ed


hanno come inverse rispettivamente le funzioni

sinh−1 x, x ∈ R, tanh−1 x, x ∈ (−1, 1),

dette rispettivamente settore seno iperbolico e settore tangente iperbolica. La funzione iperbolica cosh x
è biunivoca in R+ ed ha come inversa la funzione

cosh−1 x, x ∈ [1, +∞)

detta settore coseno iperbolico.


Capitolo 2

Vettori

2.1 Coordinate cartesiane


Cosı̀ come è possibile stabilire una corrispondenza biunivoca tra i punti di una retta ed i numeri reali, si
può pensare ad una corrispondenza tra i punti di un piano e le coppie ordinate di numeri reali (l’insieme
R2 ). Si può realizzare una tale corrispondenza fissando sul piano due rette non parallele e prendendo
il loro punto di incontro come origine di due sistemi di ascisse su ciascuna retta. Chiameremo assi
coordinati una tale coppia di rette. Se da un qualunque punto P del piano mandiamo due parallele
agli assi coordinati, le loro intersezioni con questi ultimi individueranno due punti sugli assi e quindi
due numeri reali che chiameremo coordinate di P . Viceversa, due numeri reali x1 , x2 , presi in un
dato ordine, individuano due punti sugli assi coordinati. Mandando da questi due punti le parallele ai
due assi coordinati, esse si incontreranno in un punto del piano che chiameremo punto di coordinate
(x1 , x2 ). Se le due rette sono perpendicolari, la suddetta costruzione si chiama sistema di assi cartesiani
ortogonali. La costruzione si può ripetere nello spazio euclideo tridimensionale associando a ciascun
punto P una terna ordinata di numeri reali (x1 , x2 , x3 ) ∈ R3 .

In quest’ultimo caso i piani individuati dalle terne (0, x2 , x3 ), (x1 , 0, x3 ), (x1 , x2 , 0) vengono detti rispet-
tivamente piani coordinati x2 x3 , x1 x3 , x1 x2 .
Mediante il teorema di Pitagora si dimostra facilmente che la distanza tra due punti A = (a1 , a2 ) e

19
20 CAPITOLO 2. VETTORI

B = (b1 , b2 ) nel piano è data da



AB = (b1 − a1 )2 + (b2 − a2 )2 ,

mentre, nello spazio, la distanza tra i punti A = (a1 , a2 , a3 ) e B = (b1 , b2 , b3 ) è data da



AB = (b1 − a1 )2 + (b2 − a2 )2 + (b3 − a3 )2 .

I punti del piano possono essere riferiti ad un diverso sistema di coordinate, che può rivelarsi più
adatto a descrivere particolari problemi geometrici nel piano, o come vedremo più avanti, per fornire
una utile rappresentazione dei numeri complessi. Considerata una retta orientata a ed un suo punto
O sul piano, chiamiamo ρ la distanza del generico punto del piano da O e θ l’angolo che il segmento
congiungente P con O forma con la direzione orientata dell’asse a. La corrispondenza tra i punti del
piano e le coppie di numeri ρ ∈ R+ e θ ∈ [0, 2π) risulta essere biunivoca per tutti i punti del piano,
escluso O. Quest’ultimo punto infatti è individuato da ρ = 0 e da qualunque valore di θ. Le coordinate
ρ ∈ R++ , θ ∈ [0, 2π) si dicono coordinate polari nel piano. In particolare ρ si dice raggio polare e θ
angolo polare mentre l’asse a si chiama asse polare.

Un dato punto del piano si può dunque rappresentare mediante le sue cordinate cartesiane ortogonali
(x, y), oppure mediante le sue coordinate polari (ρ, θ). Il legame tra queste diverse rappresentazioni
si ottiene facilmente da considerazioni geometriche elementari e si ha

ρ= x2 + y 2
 y
x = ρ cos θ, 
π(1 − sgn(y)) + arctan x x>0
y = ρ sin θ θ = π2 (2 − sgn(y)) x=0.


π + arctan xy x<0

Talvolta può essere comodo prendere θ in un intervallo di ampiezza 2π diverso da [0, 2π), come ad
esempio [−π, π]. In tal caso le formule precedenti vanno opportunamente modificate.

• Esempi
2.2. VETTORI APPLICATI E VETTORI LIBERI 21

1) Determinare le coordinate √ polari, con θ ∈ [−π, π], dei punti del piano P1 e P2 , rispettivamente
di coordinate cartesiane ( 3, 1) e (−2, −2). Tenuto conto delle precedenti formule si ottiene
P1 = (ρ1 , θ1 ), P2 = (ρ2 , θ2 ), dove
√ π
ρ1 = 1 + 3 = 2, θ1 =
6
√ √ π 3
ρ2 = 4 + 4 = 2 2, θ2 = − π = − π
4 4

2) Determinare la distanza tra i punti P1 e P2 del piano aventi rispettivamente coordinate polari
(1, − π3 ) e (3, 56 π). Poiché risulta

1 3
x1 = 1 cos(−π/3) = , y1 = 1 sin(−π/3) = − ,
2 √ 2
3 3 3
x2 = 3 cos(5π/6) = − , y2 = 3 sin(5π/6) = ,
2 2
si ottiene v
u( ) ( √ )2 √
u 1 3√3 2 √
P1 P2 = t + + −
3 3
− = 10 + 3 3.
2 2 2 2

Anche nello spazio è possibile introdurre coordinate diverse da quelle cartesiane. Esse verranno in-
trodotte più avanti nel capitolo dedicato alla geometria.

2.2 Vettori applicati e vettori liberi



Consideriamo due punti A e B nello spazio tridimensionale. Definiamo vettore applicato AB il seg-
mento congiungente i due punti A e B e orientato da A a B. Graficamente esso viene rappresentato
da una freccia che parte dal punto A e termina nel punto B. Il punto A si dice punto di applicazione

del vettore AB mentre il punto B si dice vertice. La retta cui appartiene il vettore si dice retta di

applicazione di AB, la lunghezza del vettore si dice modulo ed il senso della freccia, quello che va
→ →
dal primo al secondo punto, si dice verso del vettore. Ne segue, per esempio, che i vettori AB e BA
hanno lo stesso modulo, la stessa retta di applicazione ma verso opposto. Coerentemente con queste

definizioni, dati tre punti allineati e consecutivi A, B, C nello spazio, il vettore AC ha come modulo
→ →
la somma dei moduli dei vettori AB e BC, come retta di applicazione e verso gli stessi di questi due
vettori.
→ →
Stabiliamo ora una relazione di equivalenza tra vettori applicati. Diciamo che due vettori AB e CD
sono equipollenti se i punti A, B, D, C sono ordinatamente i vertici di un parallelogramma.
L’equipollenza tra vettori applicati costituisce una relazione di equivalenza in quanto soddisfa le
seguenti proprietà
a) Proprietà riflessiva: Ogni vettore applicato è equipollente a se stesso.
→ → → →
b) Proprietà simmetrica: Se AB è equipollente a CD, allora CD è equipollente a AB.
22 CAPITOLO 2. VETTORI

→ → → → →
c) Proprietà transitiva: Se AB è equipollente a CD e se CD è equipollente a EF , allora AB è

equipollente a EF .
Tutti i vettori applicati possono essere dunque suddivisi in classi di equivalenza. In ciascuna classe
sono contenuti tutti i vettori applicati equipollenti ad un dato vettore. Diremo vettore libero v ciascuna

di queste classi. In particolare il vettore nullo 0 è la classe di equivalenza dei vettori del tipo AA con
A generico.
In sostanza i vettori applicati di una stessa classe di equivalenza si distinguono solo per il loro punto
di applicazione. Essi hanno infatti tutti lo stesso modulo, la stessa direzione e lo stesso verso. In
base a ciò ogni vettore applicato si può rappresentare come una coppia (A, v) formata dal punto di
applicazione A e dal vettore libero v che ne individua modulo direzione e verso.

Fissato un sistema di assi cartesiani ortogonali, ogni vettore applicato AB è individuato da sei numeri,
ovvero dalle coordinate a1 , a2 , a3 e b1 , b2 , b3 dei due punti A e B. La classe di equivalenza del vettore

AB, e quindi il vettore libero v, è invece individuato dalle sole differenze

b1 − a1 , b2 − a2 , b 3 − a3 .

Si dimostra infatti il seguente risultato.

→ →
Teorema 2.1 Condizione necessaria e sufficiente affinché due vettori AB e CD siano equipollenti è
che
bi − ai = di − ci , i = 1, 2, 3.
dove A = (a1 , a2 , a3 ), B = (b1 , b2 , b3 ), C = (c1 , c2 , c3 ), D = (d1 , d2 , d3 ).

Dim. Proviamo il teorema nel caso più semplice di vettori in un piano. La generalizzazione al caso
tridimensionale richiede una procedura più complicata ma concettualmente analoga.
Se i due vettori sono equipollenti, essi individuano lati opposti di un parallelogramma e quindi essi
hanno la stessa direzione e lo stesso modulo. Dalla figura si deduce allora che le proiezioni dei loro
estremi sugli assi cartesiani determinano segmenti orientati congruenti, ovvero b1 − a1 = d1 − c1 e
2.3. OPERAZIONI LINEARI TRA VETTORI LIBERI 23

b2 − a2 = d2 − c2 . Viceversa se quest’ultime uguaglianze sono vere allora dalla geometria elementare


→ →
segue che i due vettori AB e CD hanno lo stesso modulo e rette di applicazione parallele e i loro
estremi sono i vertici di un parallelogramma.
Ritornando a considerare il caso tridimensionale concludiamo che ciascuna classe di equivalenza è
caratterizzata dalle sole differenze
v1 = b1 − a1 = d1 − c1 ,
v2 = b2 − a2 = d2 − c2 ,
v3 = b3 − a3 = d3 − c3 ,
che chiameremo componenti del vettore v rispetto al sistema di coordinate cartesiane adottato e
scriveremo
v = (v1 , v2 , v3 )
Uno stesso vettore (non nullo) avrà, rispetto a diversi sistemi di coordinate, diverse componenti.
Inoltre il vettore nullo 0 ha componenti tutte nulle rispetto ad un qualunque sistema di coordinate.
Il modulo (o norma) di v, che indicheremo con ∥v∥ sarà dato da

∥v∥ = v12 + v22 + v32 .

La norma è una grandezza intrinseca di un vettore ed è la stessa in tutti i sistemi di coordinate


ortogonali che differiscono per una diversa scelta dell’origine e dell’orientazione degli assi.

2.3 Operazioni lineari tra vettori liberi



Siano u e v due vettori liberi e A un generico punto dello spazio tridimensionale. Posto AB= (A, u)

consideriamo il vettore applicato BC= (B, v). Definiamo somma u + v dei due vettori u e v il vettore

libero w definito da AC= (A, w)
L’operazione di somma appena definita si dice anche legge del parallelogramma in quanto il vettore
somma corrisponde, in modulo e direzione, alla diagonale di un parallelogramma i cui lati sono i vettori
u e v.
24 CAPITOLO 2. VETTORI

La somma di vettori liberi gode delle seguenti proprietà, di verifica immediata.

u + v = v + u,
(u + v) + w = u + (v + w).

La seconda proprietà permette di scrivere senza ambiguità la somma v di n vettori ui , i = 1, ..., n


nella forma
v = u1 + u2 + ... + un .

In tal caso il vettore v sarà determinato dalla chiusura della poligonale avente come lati i vettori
u1 , u2 , ..., un .

Valgono le seguenti diseguaglianze

|∥u∥ − ∥v∥| ≤ ∥u + v∥ ≤ ∥u∥ + ∥v∥,


2.3. OPERAZIONI LINEARI TRA VETTORI LIBERI 25

che, in base alla legge del parallelogramma e alla definizione di modulo di un vettore, sono conseguenza
del fatto che in un triangolo, la somma di due lati è maggiore del terzo lato, il quale, a sua volta, è
maggiore della diferenza dei primi due.
Dato un vettore u ed un numero k ∈ R si definisce il prodotto ku come il vettore avente la stessa
direzione di u, modulo pari a |k|∥u∥ e verso uguale o opposto a quello di u a seconda che k > 0 oppure
k < 0. Nel caso in cui k = 0, il vettore ku è il vettore nullo. Nel caso in cui k = −1 si ottiene il vettore
−u, ovvero il vettore opposto di u.
L’operazione di moltiplicazione di un vettore per un numero gode delle seguenti proprietà

k(u + v) = ku + kv
k1 (k2 u) = (k1 k2 )u
(k1 + k2 )u = k1 u + k2 u

dove k1 , k2 sono numeri reali. Anche tali proprietà possono essere facilmente dimostrate a partire dalla
definizione data.
Le operazioni di somma e di prodotto per un numero si dicono operazioni lineari sui vettori. Dati n
vettori ui , i = 1, ..., n, ed n coefficienti ci il vettore

c1 u1 + c2 u2 + ... + cn un ,

si dice combinazione lineare dei vettori ui .


Un vettore e avente modulo pari a 1 si dice versore. Dato un qualunque vettore libero non nullo u, il
1
vettore ∥u∥ u è un versore e si dice versore di u. Si scrive
u
vers(u) = .
∥u∥

• Esempio
In un dato sistema di riferimento,
√ il vettore u ha componenti
√ u1 = 1, u2 = 2, u3 = −1. Calcoliamo
il suo versore. Poiché ∥u∥ = (1)2 + (2)2 + (−1)2 = 6 si ottiene
1
vers(u) = √ (1, 2, −1).
6

Consideriamo ora un sistema di assi cartesiani ortogonali e i vettori liberi

e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1).

Questi vettori hanno modulo pari a 1 e sono diretti come gli assi coordinati del sistema di riferimento.
Per tale motivo vengono detti versori del sistema di riferimento.

Se u1 , u2 , u3 sono le componenti di un vettore u rispetto ad un dato riferimento cartesiano ed e1 , e2 , e3


sono i versori di quel riferimento, è facile verificare che


3
u = u1 e1 + u2 e2 + u3 e3 = ui ei .
i=1
26 CAPITOLO 2. VETTORI

In altri termini, ogni vettore può essere scritto come combinazione lineare dei versori del riferimento.
Fissato il sistema
∑ di assi cartesiani, tale combinazione è unica. Infatti, se esistesse una diversa rap-
presentazione 3i=1 u′i ei dello stesso vettore u, facendo uso delle proprietà delle operazioni lineari, si
avrebbe
∑3 ∑3 ∑3

ui ei = ui ei , ⇒ 0 = (ui − u′i )ei = (u1 − u′1 , u2 − u′2 , u3 − u′3 ).
i=1 i=1 i=1
Ma il vettore nullo è caratterizzato da componenti tutte nulle quindi ui = u′i , i = 1, 2, 3.
Facendo uso della rappresentazione di un vettore tramite i versori del riferimento e delle proprietà
delle operazioni lineari tra vettori si ha
u + v = (u1 e1 + u2 e2 + u3 e3 ) + (v1 e1 + v2 e2 + v3 e3 )
= (u1 + v1 )e1 + (u2 + v2 )e2 + (u3 + v3 )e3 ,

ku = k(u1 e1 + u2 e2 + u3 e3 ) = ku1 e1 + ku2 e2 + ku3 e3 .

• Esempi
1) Calcolare la somma dei due vettori u = (1, −4, 4) e v = (3, 2, −1).
Applicando la regola di calcolo precedente si ottiene

u + v = (1, −4, 4) + (3, 2, −1) = (1 + 3, −4 + 2, 4 − 1) = (4, −2, 3).


2) Dato il vettore u = (0, 2, −1), determinare i vettori v di norma pari a 5 tali che u + v sia
parallelo a w = (1, 2, 3).
Le condizioni imposte al vettore v sono

u + v = kw, ∥v∥2 = 5, con k ̸= 0.

Dalla prima si ha
v = kw − u = (k, 2k − 2, 3k + 1),
2.4. PRODOTTO SCALARE 27

e, imponendo la seconda

k 2 + (2k − 2)2 + (3k + 1)2 = 5, ⇒ 14k 2 − 2k = 0.

Dall’ultima eguaglianza si ricava l’unico valore non nullo k = 1/7. Esiste dunque un unico
vettore che soddisfa le condizioni richieste ed è
1
v = (1, −12, −4).
7

2.4 Prodotto scalare


Sia u un vettore libero e a una retta orientata dello spazio. Detto A un generico punto di a chiamiamo
θ l’angolo che il vettore applicato (A, u) forma con la retta orientata a, ovvero il più piccolo angolo di
cui deve ruotare u per sovrapporsi in direzione e verso alla direzione orientata a. Diremo proiezione
di u su a la quantità
pa (u) = ∥u∥ cos θ.
Osserviamo che, dati due vettori u, v ed una retta orientata a si ha (vedi figura)

pa (u + v) = pa (u) + pa (v).

Tale proprietà si estende, ovviamente, alla somma di un numero arbitrario di vettori.

Definiamo prodotto scalare tra due vettori u e v, la quantità

u · v = ∥u∥∥v∥ cos θ,
28 CAPITOLO 2. VETTORI

dove θ è l’angolo tra i due vettori (il più piccolo degli angoli di cui si deve ruotare il vettore (A, u) per
sovrapporre la sua direzione e il suo verso al vettore (A, v), qualunque sia A). Cosı̀ come la proiezione
di un vettore su una retta orientata, il prodotto scalare tra due vettori è un numero. Esso coincide
con il prodotto del modulo del primo vettore con la proiezione del secondo lungo la direzione orientata
del primo.
Il prodotto scalare gode delle seguenti proprietà

a) u · v = v · u,
b) u · (v + w) = u · v + u · w,
c) (ku) · v = k(u · v),
d) u · u ≥ 0, u · u = 0 ⇔ u = 0.

La prima proprietà risulta evidente a partire dalla definizione. Per verificare la seconda proprietà
osserviamo che
u · (v + w) = ∥u∥pa (v + w) = ∥u∥(pa (v) + pa (w))
dv) + ∥w∥ cos(u,
= ∥u∥(∥v∥ cos(u, d w))
= u · v + u · w.
[v) = sgn(k) cos(u,
La terza proprietà segue dal fatto che ∥ku∥ = |k|∥u∥ e che cos(ku, dv). Infine, la
quarta proprietà segue dalla relazione u · u = ∥u∥∥u∥ cos 0 = ∥u∥2 .
Due vettori non nulli u e v si dicono ortogonali se

u · v = 0.

In base alla definizione di prodotto scalare, due vettori ortogonali hanno direzioni perpendicolari,
infatti, posto u ̸= 0, v ̸= 0 si ha

u·v =0 ⇔ dv) = 0,
cos(u,

ovvero, i due vettori formano tra loro un angolo pari a π/2.


Fissato un sistema di coordinate cartesiane ortogonali, i versori e1 , e2 , e3 risultano ortogonali a due a
due e, poiché hanno modulo unitario, si ha
{
0 se i ̸= j
ei · ej = δij = i, j = 1, 2, 3.
1 se i = j.

In base a questo risultato, facendo uso della scomposizione di un vettore rispetto ai versori del riferi-
mento, e usando le proprietà del prodotto scalare, si ha

u · v = (u1 e1 + u2 e2 + u3 e3 ) · (v1 e1 + v2 e2 + u3 e3 )
= u1 v1 + u2 v2 + u3 v3 .

Come già osservato, moltiplicando scalarmente un vettore per se stesso si ottiene

u · u = u21 + u22 + u23 = ∥u∥2 .

In altri termini, la norma di un vettore è data dalla radice quadrata del prodotto scalare del vettore
per se stesso. Questo risultato è coerente con il fatto che la norma di un vettore è una sua quantità
intrinseca e non dipende dal riferimento cartesiano rispetto al quale tale quantità viene calcolata.
2.4. PRODOTTO SCALARE 29

• Esempi
1) Dati u = (1, 2, 0), v = (3, 0, 1), si ha

u · v = 1 · 3 + 2 · 0 + 0 · 1 = 3.

2) Dati u = (1, 1, −3), v = (3, 3, −9), si ha

u · v = 1 · 3 + 1 · 3 + (−3) · (−9) = 33.

Notiamo che in questo caso i due vettori sono paralleli e si ha v = 3u. Per una proprietà del
prodotto scalare allora u · v = 3u · u = 3∥u∥2 = 3(1 + 1 + 9) = 33.

3) Considerati i due vettori u = (2, −1, 1) e v = (1, 1, −1), dopo aver verificato che essi sono
ortogonali, determinare un versore w che sia ortogonale a u e a v. Si ha

u · v = 2 − 1 − 1 = 0.

Le condizioni di ortogonalità rispetto a u e a v implicano rispettivamente

2w1 − w2 + w3 = 0,
w1 + w2 − w3 = 0,

da cui si ricava w1 = 0 e w2 = w3 . Infine w deve essere un versore quindi deve avere norma
unitaria, ovvero w22 + w32 = 1. Si ottengono cosı̀ i due possibili versori
( ) ( )
1 1 1 1
w1 = 0, √ , √ , w2 = 0, − √ , − √
2 2 2 2


ˆ
4) Dati i punti del piano A = (1, 1), B = (5, 1), C = (3, 1 + 2 3) determinare l’angolo ACB.
→ →
l’angolo richiesto è quello tra i vettori CA e CB, dati da
√ √
(C, u) con u = (1 − 3, 1 − (1 + 2 3)) = (−2, −2 3),
√ √
(C, v) con v = (5 − 3, 1 − (1 + 2 3)) = (2, −2 3),

da cui, per la definizione di prodotto scalare,


u·v −4 + 12 1 ˆ = π.
ˆ =
cos ACB = = ⇒ ACB
∥ u ∥∥ v ∥ 16 2 3

Abbiamo visto che ogni vettore ammette la rappresentazione

u = u1 e1 + u2 e2 + u3 e3 ,

essendo e1 , e2 , e3 i versori degli assi coordinati. Poiché tali versori sono mutuamente ortogonali, si ha
u · e1 = u1 e1 · e1 = u1 , e, analogamente, u · e2 = u2 , u · e3 = u3 . In sintesi si può scrivere

u · ei = ui , i = 1, 2, 3,
30 CAPITOLO 2. VETTORI

ovvero le componenti di un vettore in un dato sistema di coordinate cartesiane sono date dai prodotti
scalari del vettore con i versori degli assi coordinati. Equivalentemente le componenti ui sono date
dalle proiezioni di u sugli assi coordinati in quanto

u · ei =∥ u ∥∥ ei ∥ cos θi = ∥u∥ cos θi , i = 1, 2, 3,

dove θi , (i = 1, 2, 3) sono gli angoli formati dalla direzione orientata del vettore u con gli assi coordinati
x1 , x2 , x3 . Si ha allora
vers(u) · ei = cos θi .

Le quantità cos θi , (i = 1, 2, 3) si dicono coseni direttori della direzione orientata di u. Essi corrispon-
dono alle componenti di vers(u) rispetto agli assi coordinati.

• Esempi
1) Calcoliamo i coseni direttori della retta passante per i punti A = (0, 2, 1) e B = (3, 1, 0)
orientata da A a B.

La retta in questione ha direzione e verso del vettore applicato AB. Poiché si ha

AB= (A, u) con u = (3, −1, −1),

ne segue
( )
3 1 1
vers(u) = √ , −√ , −√ ,
11 11 11
da cui
3 1 1
cos θ1 = √ , cos θ2 = − √ , cos θ3 = − √ .
11 11 11

2) Individuare i versori della direzione nello spazio, che forma angoli uguali con gli assi coordinati.
Poiché le componenti del versore sono i coseni degli angoli formati con gli assi coordinati, esse
devono essere tutte uguali. Detto a il loro valore e tenuto conto che il versore ha norma unitaria,
si ha
a2 + a2 + a2 = 1,

da cui
1
a = ±√ .
3
I versori cercati saranno allora e e −e, dove

1 1 1
e = ( √ , √ , √ ).
3 3 3
2.5. PRODOTTO VETTORIALE E PRODOTTO MISTO 31

2.5 Prodotto vettoriale e prodotto misto


Il prodotto scalare è una operazione che associa a due vettori un numero. È utile introdurre una
operazione di moltiplicazione fra vettori detta prodotto vettoriale che associa a due vettori un terzo
vettore.
Consideriamo due vettori liberi u e v e un punto A. Sia θ il più piccolo angolo di cui si deve far ruotare il
vettore (A, u) per farlo risultare parallelo ed equiverso al vettore (A, v). Si definisce prodotto vettoriale
u × v il vettore w, caratterizzato dalle seguenti proprietà.
1) ∥w∥ = ∥u∥∥v∥ sin θ.
2) w ha direzione perpendicolare al piano individuato da u e v.
3) Il verso di w è tale che, facendo ruotare u dell’angolo θ fino a sovrapporsi a v, la rotazione risulti
antioraria se vista dal vertice di w.
Dalla definizione risulta che, per una nota proprietà trigonometrica, il modulo di w = u × v è pari
all’area del parallelogramma formato dai due vettori (A, u) e (A, v), qualunque sia A (vedi figura),

AS (ABCD) = ∥u × v∥.

Il prodotto vettoriale gode delle seguenti proprietà.

a) u × v = −v × u,
b) u × (v + w) = u × v + u × w,
c) (ku) × v = k(u × v),
d) u × u = 0, identicamente ∀u.

La prima proprietà è diretta conseguenza della definizione, infatti i vettori u×v e v×u hanno lo stesso
modulo e la stessa direzione ma verso opposto. Le ultime due proprietà implicano, in particolare, che
il prodotto vettoriale tra due vettori paralleli è identicamente nullo.
32 CAPITOLO 2. VETTORI

Fissato un riferimento cartesiano ortogonale e introdotti i versori e1 , e2 , e3 , si verifica subito che

e1 × e2 = e3 , e2 × e3 = e1 , e3 × e1 = e2 .

Da queste relazioni e in base alla rappresentazione di un vettore tramite i versori del riferimento si
ottiene la seguente regola di calcolo,

u × v = (u1 e1 + u2 e2 + u3 e3 ) × (v1 e1 + v2 e2 + v3 e3 )
= (u2 v3 − u3 v2 )e1 + (u3 v1 − u1 v3 )e2 + (u1 v2 − u2 v1 )e3 .

Quest’ultima espressione può essere ottenuta direttamente dal calcolo del determinante formale (vedi
cap. 12),

e1 e2 e3
u2 u3 u1 u3 u1 u2
u × v = u1 u2
u3 = e − e + e .
v1 v2 v2 v3 1 v1 v3 2 v1 v2 3
v3

• Esempi
1) Calcolare il prodotto vettoriale dei due vettori u = (0, 2, 4), v = (1, 1, 0). Dalla definizione si
ha
e1 e2 e3

w = u × v = 0 2 4 = −4e1 + 4e2 − 2e3 , ⇔ w = (−4, 4, −2).
1 1 0

2) Dati i punti A = (1, 2, 4), B = (3, 4, 7), C = (0, 3, 1), D = (2, 5, 4) verificare che ACDB è un
parallelogramma e calcolarne l’area della superficie.
→ →
Poiché i vettori AC e BD individuano il medesimo vettore libero u = (−1, 1, −3), essi sono
equipollenti e quindi A, C, D, B sono, ordinatamente, i vertici di un parallelogramma. Consi-

derato poi il vettore AB= (A, v), con v = (2, 2, 3), si ha
√ √
AS (ACDB) =∥ u × v ∥= (3 + 6)2 + (6 − 3)2 + (−2 − 2)2 = 106.

3) Trovare l’area della superficie del triangolo di vertici A = (1, 0, 0), B = (0, 2, 0), C = (0, 0, 3).
L’area di un triangolo si può sempre pensare come la metà dell’area di un parallelogramma avente
come lati due lati qualunque del triangolo. Nel nostro caso i due lati AB e AC corrispondono
ai due vettori
(A, u) con u = (−1, 2, 0),
(A, v) con v = (−1, 0, 3).
Avremo allora,
1 1√ 2 7
AS (ABC) = ∥ u × v ∥= 6 + 32 + 22 = .
2 2 2

Nel seguito sarà importante il seguente risultato.


2.5. PRODOTTO VETTORIALE E PRODOTTO MISTO 33

Teorema 2.2 Condizione necessaria e sufficiente affinché un vettore w sia complanare a due vettori
non paralleli u e v è che w sia esprimibile come combinazione lineare di u e v, ovvero che esistano
due numeri reali α, β tali che
w = αu + βv.
Dim. Scelto un sistema di assi cartesiani ortogonali sul piano di u e v, con versori e1 , e2 , i vettori u
e v ammettono la rappresentazione

u = u1 e1 + u2 e2 , v = v1 e1 + v2 e2 .

Supposto che w sia rappresentabile come combinazione lineare di u e v, si ha

w = αu + βv = α(u1 e1 + u2 e2 ) + β(v1 e1 + v2 e2 ) = (αu1 + βv1 )e1 + (αu2 + βv2 )e2 ,

ovvero w è una combinazione lineare dei versori e1 e e2 , e quindi appartiene al piano.


Viceversa, supponiamo che w = w1 e1 + w2 e2 e che i vettori u e v non siano paralleli, cioè che
∥ u × v ∦= 0 ⇔ u1 v2 − u2 v1 ̸= 0. Dimostriamo che l’equazione

w − (αu + βv) = 0

ammette soluzione in α e β. Si ha infatti

w1 − (αu1 + βv1 ) = 0, w2 − (αu2 + βv2 ) = 0,

da cui, tenuto conto che u1 v2 − u2 v1 ̸= 0, si ottiene


w1 v 2 − w2 v 1 w1 u 2 − w2 u 1
α= , β= .
u1 v2 − u2 v1 u1 v2 − u2 v1

Si definisce prodotto misto di tre vettori u, v, w, il prodotto

u · v × w.

Fissato un sistema di riferimento cartesiano, dalle regole di calcolo del prodotto vettoriale e del
prodotto scalare, si ha

u · v × w = u1 (v2 w3 − v3 w2 ) + u2 (v3 w1 − v1 w3 ) + u3 (v1 w2 − v2 w1 ).

Inoltre, usando la regola di calcolo già vista per il prodotto vettoriale, si ha



u1 u2 u3

u · v × w = v1 v2 v3 .
w1 w2 w3

Essendo il prodotto scalare di due vettori, il prodotto misto è un numero. Valgono le seguenti proprietà,
di immediata verifica,
u · v × w = v · w × u = w · u × v, (permutazione ciclica dei fattori),
u·v×w =u×v·w (scambio dei segni di prodotto).
Una importante conseguenza della prima proprietà sta nel fatto che se due dei tre vettori u, v, w sono
paralleli, allora il loro prodotto misto è nullo. Infatti, permutando ciclicamente i fattori si ottengono
prodotti misti contenenti tutti i possibili prodotti vettoriali tra due dei tre vettori. Se questi due
vettori sono paralleli, il loro prodotto vettoriale sarà nullo. Si ha inoltre il seguente risultato.
34 CAPITOLO 2. VETTORI

Teorema 2.3 Il prodotto misto di tre vettori complanari è identicamente nullo.


Dim. Per dimostrare questa proprietà supponiamo dapprima che due dei tre vettori siano non paralleli,
per esempio, u e v. Allora per il teorema 2.2 il terzo vettore si potrà scrivere come
w = αu + βv, α, β ∈ R.
e, per le proprietà dei prodotti vettoriale e scalare si avrà
u · v × w = u · v × (αu + βv) = αu · v × u + βu · v × v,
ma i due addendi dell’ultima eguaglianza sono ambedue nulli in quanto prodotti misti contenenti due
vettori paralleli. Quindi il prodotto misto di u, v, w è nullo.
Se invece i due vettori u e v fossero paralleli, sempre in base alla osservazione precedente, il prodotto
misto risulterebbe nullo.

Dal punto di vista geometrico, il prodotto misto rappresenta, in valore assoluto, il volume del pa-
rallelepipedo avente come spigoli i tre vettori u, v, w. Infatti, tenuto conto della definizione di prodotto
scalare, si ha
u · v × w =∥ u ∥∥ v × w ∥ cos ϕ
dove ϕ è l’angolo tra i vettori u e v × w. Poiché ∥ u ∥ cos ϕ rappresenta, in valore assoluto, l’altezza
del parallelepipedo che ha per base il parallelogramma di lati v e w (vedi figura), ed essendo ∥ v × w ∥
l’area della superficie di quest’ultimo, si ha
V (parallelepipedo) = AS (base) h =∥ v × w ∥∥ u ∥ | cos ϕ| = |u · v × w|.
• Esempio
Calcolare il volume V del parallelepipedo avente come spigoli i tre vettori
u = (−1, 1, 1), v = (3, 0, 3), w = (3, 2, −1).
Si ha
v × w = (−6, 12, 6),
da cui,
V = |u · v × w| = |6 + 12 + 6| = 24.
2.5. PRODOTTO VETTORIALE E PRODOTTO MISTO 35

Dati tre vettori u, v, w, il vettore


u × (v × w),
si dice doppio prodotto vettoriale di u, v, w. Valgono le seguenti formule

u × (v × w) = (u · w)v − (u · v)w, (u × v) × w = (u · w)v − (v · w)u.

La seconda di queste si ricava dalla prima osservando che, per l’antisimmetria del prodotto vettoriale,

(u × v) × w = −w × (u × v) = −[(w · v)u − (w · u)v] = (u · w)v − (v · w)u.

Per dimostrare la prima formula consideriamo una terna di versori ortogonali {ei }, i = 1, 2, 3, e
scriviamo ∑ ∑ ∑
u= ui ei , v= vj ej , w= wk ek .
i j k

Per la linearità del prodotto vettoriale avremo



u × (v × w) = ui vj wk [ei × (ej × ek )].
i,j,k

Poiché ei × (ej × ek ) è un vettore ortogonale a ej × ek , esso sarà combinazione lineare di ej ed ek ,


ovvero, per j ̸= k,
ei × (ej × ek ) = αej + βek .
Moltiplicando scalarmente questa relazione prima per ej e poi per ek , tenuto conto della proprietà di
scambio dei segni del prodotto misto, si ha

α = ej · ei × (ej × ek ) = (ej × ei ) · (ej × ek ) = δik ,


β = ek · ei × (ej × ek ) = (ek × ei ) · (ej × ek ) = −δij .

Sostituendo nel doppio prodotto vettoriale si ottiene


∑ ∑ ∑ ∑ ∑
u × (v × w) = ui vj wk (δik ej − δij ek ) = ui wk δik vj ej − ui vj δij wk ek
i,j,k i,k j i,j k

= (u · w)v − (u · v)w.

Osserviamo infine che, come è facile dimostrare,

u × (v × w) = (u × v) × w se e solo se u = cw, oppure u · v = w · v = 0.


36 CAPITOLO 2. VETTORI
Capitolo 3

Numeri Complessi

3.1 Definizione di numero complesso


Consideriamo l’insieme di tutte le coppie ordinate di numeri reali (a, b) e costruiamo delle operazioni
tra esse in modo da ottenere un insieme avente una struttura algebrica analoga a quella introdotta
in R e che contenga, in particolare come sottoinsieme, l’insieme stesso dei numeri reali. Diremo
innanzitutto che due coppie (a, b) e (c, d) sono uguali se risulta

a = c, b = d.

Definiamo poi la somma di due coppie (a, b), (c, d) come la coppia formata dalle somme di numeri reali
a + c e b + d, ovvero
(a, b) + (c, d) = (a + c, b + d).
Definiamo inoltre il prodotto tra due coppie (a, b), (c, d), a partire dalla nozione di prodotto tra numeri
reali, come la coppia data da
(a, b) · (c, d) = (ac − bd, ad + bc).
É immediato verificare che la somma appena introdotta gode delle proprietà commutativa e associativa,
ovvero
(a, b) + (c, d) = (c, d) + (a, b),
[(a, b) + (c, d)] + (e, f ) = (a, b) + [(c, d) + (e, f )].
Il prodotto gode anch’esso delle proprietà commutativa, associativa e della proprietà distributiva
rispetto alla somma,

(a, b) · (c, d) = (c, d) · (a, b), [(a, b) · (c, d)] · (e, f ) = (a, b) · [(c, d) · (e, f )],
[(a, b) + (c, d)] · (e, f ) = (a, b) · (e, f ) + (c, d) · (e, f ).

Chiameremo numero complesso e lo indicheremo con z, la coppia (a, b) e denoteremo con C l’insieme
dei numeri complessi. Chiameremo parte reale di z il numero a = ℜz e parte immaginaria di z il
numero b = ℑz. Se consideriamo tutte le coppie del tipo (a, 0), aventi cioè parte immaginaria nulla,
le operazioni di somma e prodotto introdotte prima, coincidono con quelle definite nell’ambito dei
numeri reali, relativamente alla sola parte reale a. Converremo allora di porre

(a, 0) = a.

L’insieme dei numeri reali risulta cosı̀ un sottoinsieme dei numeri complessi, ovvero R ⊂ C.

37
38 CAPITOLO 3. NUMERI COMPLESSI

È possibile definire una operazione di sottrazione tra numeri complessi e una operazione di divisione
tra numeri complessi, come operazioni inverse, rispettivamente, della somma e del prodotto tra numeri
complessi. Per la sottrazione si ha

(a, b) − (c, d) = (a − c, b − d), in quanto (a − c, b − d) + (c, d) = (a, b).

Per la divisione si ha che il quoziente tra due numeri complessi (a, b), (c, d), con c e d non contempo-
raneamente nulli, è quel numero che moltiplicato per (c, d) da come risultato (a, b), ovvero
( )
(a, b) ac + bd bc − ad
= , .
(c, d) c 2 + d2 c 2 + d2

Come conseguenza di queste operazioni inverse, converremo di porre

(−a, −b) = −(a, b),

detto il numero opposto del numero complesso (a, b). Definiremo poi reciproco di (a, b) quel numero
complesso che moltiplicato per (a, b) da il numero (1, 0), ovvero
( )
1 a −b
= , .
(a, b) a2 + b2 a2 + b2

Chiameremo potenza n-esima di (a, b) il prodotto di (a, b) per se stesso n volte,

(a, b)n = (a, b) · (a, b) ... (a, b),


| {z }
n volte

convenendo che (a, b)0 = (1, 0).

3.2 Rappresentazione algebrica


Chiameremo i, o unità immaginaria, il numero complesso (0, 1). Notiamo che ogni numero complesso
(0, b) avente parte reale nulla si può scrivere nella forma (0, b) = ib, infatti (0, 1)(b, 0) = (0, b). Inoltre
si ha
i2 = i · i = (0, 1) · (0, 1) = −1.
Queste osservazioni ci permettono di introdurre una notazione dei numeri complessi nella forma di
binomio, composto dalla somma di una parte reale ed una immaginaria, ovvero

(a, b) = (a, 0) + (0, b) = a + ib.

In questo modo tutte le operazioni tra numeri complessi si riconducono al calcolo algebrico dei poli-
nomi, con la sola avvertenza che i2 = −1. In particolare, il quoziente tra due numeri complessi a + ib
e c + id si calcola moltiplicando numeratore e denominatore per il numero complesso c − id, ovvero

a + ib (a + ib)(c − id) (ac + bd) + i(bc − ad) ac + bd bc − ad


= = = 2 +i 2 .
c + id (c + id)(c − id) 2
c +d 2 c +d 2 c + d2
3.2. RAPPRESENTAZIONE ALGEBRICA 39

• Esempi
Calcoliamo le somme
(3 − 7i) + (2 + i) = 3 + 2 − 7i + i = 5 − 6i,
(1 + 12i) − (8 − 2i) = 1 − 8 + 12i + 2i = −7(1 − 2i),
(−1 + i) + (1 − 3i) = −1 + 1 + i − 3i = −2i.

Calcoliamo i prodotti

(2 + 3i)(4 − 2i) = 8 − 4i + 12i − 6i2 = 14 + 8i,


(−3 + i)(2 + 5i) = −6 − 15i + 2i + 5i2 = −11 − 13i.

Calcoliamo i quozienti
8+i (8 + i)(3 − 2i) 26 − 13i
= = = 2 − i,
3 + 2i (3 + 2i)(3 − 2i) 13
6 − 7i (6 − 7i)(−i) −7 − 6i 7
= = = − − 3i.
2i 2(i)(−i) 2 2

Si dice coniugato del numero complesso z = a + ib il numero z̄ = a − ib. È immediato verificare che si
ha
z1 + z2 = z1 + z2 ,
z1 · z2 = z1 · z2 , z1 /z2 = z1 /z2
z + z = 2a, z − z = 2ib.
Si dice modulo del numero complesso z = a + ib, la quantità

|z| = a2 + b2 .

Ovviamente risulta |z| = |z|, e si ha

z · z = (a + ib) · (a − ib) = a2 + b2 = |z|2 .

Se z è reale il suo modulo coincide con il suo valore assoluto.


La definizione di numero complesso si presta ad una immediata interpretazione geometrica. Poiché
un numero complesso non è altro che una coppia ordinata di numeri reali, esiste una corrispondenza
biunivoca tra l’insieme C e l’insieme dei punti del piano, che, in questo caso chiameremo piano com-
plesso. I numeri a e b si possono riguardare infatti come le coordinate (cartesiane) di un punto del
piano. In particolare, i punti dell’asse delle ascisse hanno coordinate del tipo (a, 0) e rappresentano
quindi numeri reali. L’asse delle ascisse in questo caso si dice asse reale. I punti dell’asse delle ordinate
sono del tipo (0, b) e rappresentano quindi numeri immaginari. L’asse delle ordinate verrà chiamato
asse immaginario.
In modo perfettamente equivalente, il numero complesso (a, b) si può interpretare come un vettore
applicato nell’origine del piano complesso, le cui proiezioni, rispetto al riferimento cartesiano, sono
a e b. L’operazione di somma di due numeri complessi corrisponde esattamente alla operazione di
somma dei due vettori corrispondenti secondo la regola del parallelogramma. Il coniugato z di un
numero complesso z è rappresentato da un vettore simmetrico del vettore di z rispetto all’asse reale.
40 CAPITOLO 3. NUMERI COMPLESSI

Infine, il modulo di un numero complesso rappresenta la lunghezza del vettore corrispondente nel
piano complesso.
L’operazione di prodotto tra numeri complessi non ha alcun analogo nell’algebra dei vettori del piano.
In ogni caso, il prodotto di due numeri complessi è un numero complesso ed è quindi rappresentabile
come un vettore del piano complesso (vedi figura).

In base alla interpretazione geometrica della somma di numeri complessi nel piano complesso, dati
due numeri complessi z e z ′ , valgono le seguenti diseguaglianze (vedi le analoghe diseguaglianze per i
vettori liberi al cap. 2),
||z| − |z ′ || ≤ |z + z ′ | ≤ |z| + |z ′ |.
Queste diseguaglianze costituiscono una generalizzazione delle analoghe diseguaglianze valide per i
numeri reali (vedi par. 1.3) in quanto, se z è reale, il suo modulo coincide col suo valore assoluto.

3.3 Rappresentazione trigonometrica


Poiché nel piano possiamo introdurre le coordinate polari ρ, φ, è possibile rappresentare un numero
complesso in una forma diversa, particolarmente utile nel calcolo delle potenze di numeri complessi.
A questo scopo prendiamo l’asse reale come asse polare e l’origine nell’intersezione tra asse polare e
asse immaginario. Considerato il numero z = a + ib, si avrà a = ρ cos φ, b = ρ sin φ, da cui otteniamo
la cosiddetta forma trigonometrica dei numeri complessi,
z = a + ib = ρ(cos φ + i sin φ).
la quantità ρ coincide con il modulo del numero complesso z in quanto risulta

ρ = a2 + b2 = |z|.
L’angolo φ si dice argomento di z e si indica con arg z. Esso sarà dato da


φ = arctan a ,
b
a>0
b
φ = π + arctan a , a < 0


φ = π2 , (− π2 ), a = 0, b > 0(b < 0)
3.3. RAPPRESENTAZIONE TRIGONOMETRICA 41

Dato un numero complesso in forma trigonometrica, il suo argomento non è definito in maniera
univoca, in quanto aggiungendo ad esso un multiplo intero di 2π si ottiene sempre lo stesso numero
complesso. Di conseguenza due numeri complessi, espressi in forma trigonometrica, saranno uguali se
e solo se hanno lo stesso modulo e argomenti che differiscono di un multiplo intero di 2π. Inoltre il
numero complesso (0, 0) è individuato dalla sola condizione ρ = 0. Due numeri complessi coniugati,
oltre ad avere lo stesso modulo, hanno argomenti opposti, a meno di un multiplo di 2π.
Consideriamo il prodotto di due numeri z e z ′ dati in forma trigonometrica. Si ha

z · z ′ =[ρ(cos φ + i sin φ)][ρ′ (cos φ′ + i sin φ′ )] =


ρρ′ [(cosφ cos φ′ − sin φ sin φ′ ) + i(sin φ cos φ′ + cos φ sin φ′ )] =
ρρ′ [cos(φ + φ′ ) + i sin(φ + φ′ )]

Se ne deduce che

|z · z ′ | = ρρ′ = |z||z ′ |, arg(z · z ′ ) = φ + φ′ = arg z + arg z ′ .

In modo analogo si dimostra che


z ρ

= ′ [cos(φ − φ′ ) + i sin(φ − φ′ )],
z ρ
da cui z
|z| z
′ = ′ , arg = arg z − arg z ′ .
z |z | z′
In particolare, si ha
1 1 1 1
= = [cos(−φ) + i sin(−φ)] = (cos φ − i sin φ).
z ρ(cos φ + i sin φ) ρ ρ

Grazie alle formule precedenti, la forma trigonometrica dei numeri complessi si presta bene al calcolo
grafico del prodotto o del quoziente tra numeri complessi (vedi figura).
42 CAPITOLO 3. NUMERI COMPLESSI

Applicando più volte la regola per il calcolo del prodotto di un numero complesso in forma trigono-
metrica per se stesso si ottiene
z 2 = ρ2 [cos(2φ) + i sin(2φ)],
z 3 = ρ3 [cos(3φ) + i sin(3φ)],
..
.
e, in generale, usando una dimostrazione per induzione, si arriva alla seguente formula di De Moivre,
z n = ρn [cos(nφ) + i sin(nφ)].
Quest’ultima formula vale anche se n è un intero negativo, in quanto z −p = 1/z p . Si hanno inoltre le
seguenti proprietà di verifica immediata
z n z m = z n+m , (z1 z2 )n = z1n z2n .
Concludiamo il paragrafo aggiungendo una ulteriore notazione che verrà usata spesso in seguito. In
base alla formula di Eulero
eiφ = cos φ + i sin φ,
dalla rappresentazione trigonometrica si ricava la seguente notazione esponenziale dei numeri complessi
z = ρeiφ .
In questa notazione si ha
z1 ρ1
z1 · z2 = ρ1 ρ2 ei(φ1 +φ2 ) , = ei(φ1 −φ2 ) ,
z2 ρ2
coerentemente con la rappresentazione trigonometrica.

3.4 Radici di numeri complessi


Vogliamo calcolare la radice n-esima del numero complesso
z = ρ(cos θ + i sin θ).
Se denotiamo con r(cos φ + i sin φ) tale radice, dovremo avere
ρ(cos θ + i sin θ) = [r(cos φ + i sin φ)]n = rn [cos(nφ) + i sin(nφ)],
dove abbiamo utilizzato la formula di De Moivre. Dall’ultima uguaglianza ricaviamo allora
√ θ + 2kπ
rn = ρ, ⇒ r= n
ρ, nφ = θ + 2kπ ⇒ .φ=
n
Al variare del numero intero relativo k otteniamo diversi valori dell’argomento della radice. Più
precisamente, per i valori di k da 0 a n − 1, avremo in tutto n valori distinti dell’argomento della
radice di z. Per valori di k da n fino a 2n − 1, otteniamo di nuovo gli stessi argomenti e cosı̀ via
all’aumentare di k. Lo stesso accade se prendiamo k = −1, −2, ..., −n e cosı̀ via per gli altri valori
negativi di k. Concludiamo allora che esistono sempre esattamente n radici distinte del numero z.
Volendo rappresentare queste radici sul piano complesso ci accorgiamo che esse si trovano ai vertici di

un poligono regolare di n lati inscritto in una circonferenza di raggio n ρ. La prima di tali radici si
trova come intersezione della circonferenza con la semiretta uscente dall’origine ruotata di un angolo
pari a θ/n rispetto all’asse reale. Le successive si determinano a partire dalla prima con rotazioni di
un angolo pari a 2π/n.
3.4. RADICI DI NUMERI COMPLESSI 43

• Esempi

Calcoliamo le radici cubiche del numero z = 2(−1 + i). Poiché si può scrivere
( )
3 3
z = 2 cos π + i sin π ,
4 4
si ottiene ( )

3

3
3
4 π + 2kπ
3
4 π + 2kπ
α = z = 2 cos + i sin .
3 3
Quindi si ha (

3 π π)
k = 0, α= 2 cos + i sin ,
( 4 4 )

3 11 11
k = 1, α = 2 cos π + i sin π ,
12 12
( )

3 19 19
k = 2, α = 2 cos π + i sin π .
12 12

Calcoliamo le radici quadrate dell’unità immaginaria. Poiché si può scrivere


π π
i = cos + i sin ,
2 2
si ottiene
√ π
+ 2kπ
2
π
+ 2kπ
α= i = cos + i sin 2 ,
2 2
da cui √ √
π π 2 2
k = 0, α = cos + i sin = +i ,
4 4 2 √ 2 √
5 5 2 2
k = 1, α = cos π + i sin π = − −i .
4 4 2 2
44 CAPITOLO 3. NUMERI COMPLESSI

Consideriamo adesso in particolare il calcolo delle radici n-esime del numero 1. In forza dei risultati

precedenti, tenuto conto che 1 = cos 0 + i sin 0, possiamo scrivere

√ 2kπ 2kπ
k = 0, 1, ..., n − 1.
n
1 = cos + i sin ,
n n

I numeri cosı̀ ottenuti, che d’ora in poi denoteremo con ϵ0 , ϵ1 , ...ϵn−1 , si trovano, sul piano complesso,
ai vertici di un poligono regolare circoscritto da una circonferenza di raggio 1. Se n è pari esisteranno
due radici reali, in corrispondenza di k = 0 e k = n2 , uguali rispettivamente a 1 e a −1. Se n è dispari
esisterà una sola radice reale, quella per k = 0, che varrà 1. Per esempio, le radici quarte di 1 sono
date da
ϵ0 = 1, ϵ1 = i, ϵ2 = −1, ϵ3 = −i,

mentre le radici terze di 1 sono


√ √
1 3 1 3
ϵ0 = 1, ϵ1 = − + i , ϵ2 = − − i .
2 2 2 2

Una utile regola per il calcolo delle radici di un numero complesso discende dalla seguente proprietà.
Tutte le radici n-esime di un numero complesso si ottengono moltiplicando una qualunque di esse per
le radici n-esime dell’unità. Per dimostrare questa affermazione osserviamo che se α è una radice
n-esima del numero z, si ha αn = z, mentre se ϵ è una qualunque radice n-esima dell’unità si ha
ϵn = 1. Ne segue che
(αϵ)n = αn ϵn = αn = z.

In altri termini, se α è una radice n-esima di z, lo è anche αϵ. Poiché esistono n radici distinte,
ϵ0 , ϵ1 , ..., ϵn−1 , del numero 1, ne segue che il loro prodotto con α darà tutte le radici distinte di z.

• Esempio
Le radici quinte di 243 si possono ricavare a partire dalla sua radice quinta reale, 3 e dalle radici
quinte dell’unità
√5 2kπ 2kπ
1 = cos + i sin , k = 0, 1, 2, 3, 4.
5 5

Posto α = 5 243 si ha,
α0 = 3,
α1 = 3(sin 18o + i cos 18o ),
α2 = 3(− cos 36o + i sin 36o ),
α3 = 3(− cos 36o − i sin 36o ),
α4 = 3(sin 18o − i cos 18o ).
3.5. SCOMPOSIZIONE E DIVISIONE DI POLINOMI 45

3.5 Scomposizione e divisione di polinomi


Consideriamo un polinomio di grado n in x, ovvero una funzione del tipo

Pn (x) = c0 + c1 x + c2 x2 + ... + cn xn ,

dove ci , (i = 0, 1, ..., n) sono n + 1 coefficienti reali o complessi con cn ̸= 0. Il principio di identità


dei polinomi stabilisce che due polinomi dello stesso grado sono uguali se i corrispondenti coefficienti
sono uguali. Inoltre il teorema fondamentale dell’algebra afferma che ogni equazione del tipo Pn (x) =
0 ammette sempre n soluzioni reali o complesse. Tali soluzioni possono presentarsi con una data
molteplicità e, se i coefficienti del polinomio sono reali, le soluzioni complesse si presentano sempre a
coppie coniugate. Per dimostrare quest’ultima affermazione osserviamo che, se ρ̄eiϕ̄ è una soluzione
complessa di Pn (x) = 0, si ha

c0 + c1 ρ̄eiϕ̄ + c2 ρ̄2 e2iϕ̄ + ... + cn ρ̄n eniϕ̄ = 0,

da cui, separando parte reale e parte immaginaria,

c0 + c1 ρ̄ cos ϕ̄ + c2 ρ̄2 cos 2ϕ̄ + ... + cn ρ̄n cos nϕ̄ = 0


c1 ρ̄ sin ϕ̄ + c2 ρ̄2 sin 2ϕ̄ + ... + cn ρ̄n sin nϕ̄ = 0.

Se si sostituisce a ϕ̄ il suo opposto −ϕ̄, le equazioni precedenti rimangono invariate. Di conseguenza


ρ̄e−iϕ̄ è soluzione dell’equazione Pn (x) = 0.
Siano x1 , x2 , ..., xn le soluzioni dell’equazione Pn (x) = 0 o, come si usa dire, gli zeri del polinomio
Pn (x) = 0. Questo significa che Pn (x) è divisibile per (x − x1 ), per (x − x2 ),..., per (x − xn ). In altri
termini vale la fattorizzazione,

Pn (x) = cn (x − x1 )(x − x2 )...(x − xn ).

In base al principio di identità dei polinomi segue che, a meno del coefficiente cn ̸= 0, ogni polinomio
di grado n in x è individuato dai suoi zeri.
Osserviamo che se b + id è uno zero complesso di Pn (x), la sua fattorizzazione conterrà il fattore

(x − (b + id))(x − (b − id)) = (x − b)2 + d2 = x2 − 2bx + (b2 + d2 ).

In definitiva, se il polinomio Pn (x) ammette m zeri reali a1 , a2 , ..., am , rispettivamente con molteplicità
r1 , r2 , ..., rm e l zeri complessi b1 + id1 , b2 + id2 , ..., bl + idl , rispettivamente con molteplicità s1 , s2 , ..., sl ,
si avrà la seguente scomposizione in fattori

Pn (x) = cn (x − a1 )r1 (x − a2 )r2 ...(x − am )rm (x2 + p1 x + q1 )s1 (x2 + p2 x + q2 )s2 ...(x2 + pl x + ql )sl ,

dove pi = −2bi , qi = b2i + d2i , (i = 1, ..., l) e dove


m ∑
l
ri + 2 sj = n.
i=1 j=1

Sappiamo che un polinomio Pm (x) è divisibile per un polinomio Dn (x), con n ≤ m se esiste un terzo
polinomio, detto quoziente Qp (x) tale che

Pm (x) = Dn (x)Qp (x),


46 CAPITOLO 3. NUMERI COMPLESSI

e si scrive
Pm (x)
= Qp (x).
Dn (x)
Se m ≥ n ma Pm (x) non è divisibile per Dn (x) è sempre possibile trovare un polinomio Qp (x) di grado
p = m − n ed un polinomio Rq (x) di grado q < n tali che

Pm (x) = Dn (x)Qp (x) + Rq (x).

In tal caso si scrive


Pm (x) Rq (x)
= Qp (x) + .
Dn (x) Dn (x)
Il polinomio Rq (x) si dice resto della divisione tra Pm e Dn , mentre Qp è sempre il quoziente.
Consideriamo ora il rapporto Rq (x)/Dn (x), essendo q < n. Data la fattorizzazione

Dn (x) = cn (x − a1 )r1 (x − a2 )r2 ...(x − ap )rp (x2 + p1 x + q1 )s1 (x2 + p2 x + q2 )s2 ...(x2 + pl x + ql )sl ,

si ha la seguente scomposizione

Rq (x) A11 A12 A1r1


cn = + + ... + + ...
Dn (x) x − a1 (x − a1 )2 (x − a1 )r1
Ap1 Ap2 Aprp
+ + + ... +
x − ap (x − ap ) 2 (x − ap )rp
B11 x + C11 B12 x + C12 B1s x + C1s1
+ 2 + + ... + 2 1
x + p1 x + q1 (x2 + p1 x + q1 )2 (x + p1 x + q1 )s1
Bls x + Clsl
+ ... + 2 l .
(x + pl x + ql )sl

Infatti, sommando le frazioni a secondo membro si ottiene a denominatore il polinomio Dn (x) (a meno
del fattore cn ) e a numeratore un polinomio di grado n − 1 con n coeficienti arbitrari che, in base
al principio di identità dei polinomi, possono essere scelti in modo da far coincidere il polinomio a
numeratore con il polinomio Rq (x).

• Esempio
Scomporre il seguente rapporto tra polinomi

x2 + 3x − 7
.
x3 − 2x2 + x − 2
Poiché si ha
x3 − 2x2 + x − 2 = (x − 2)(x2 + 1),
si può scrivere
x2 + 3x − 7 A Bx + C
= + 2 ,
x3 − 2x2 + x − 2 x−2 x +1
da cui, sommando a secondo membro,

A Bx + C (A + B)x2 + (C − 2B)x + A − 2C
+ 2 = .
x−2 x +1 (x − 2)(x2 + 1)
3.5. SCOMPOSIZIONE E DIVISIONE DI POLINOMI 47

Identificando i numeratori dell’uguaglianza di partenza si ottiene

A + B = 1, C − 2B = 3, A − 2C = −7,

da cui
3 2 19
A= , B= , C= .
5 5 5
In definitiva, si ha la scomposizione
2 19
x2 + 3x − 7 3/5 5x + 5
= + .
x3 − 2x2 + x − 2 x−2 x2 + 1
48 CAPITOLO 3. NUMERI COMPLESSI
Capitolo 4

Limiti di successioni

4.1 Successioni numeriche


Si definisce successione numerica una funzione y : N → R che ad ogni numero naturale n fa cor-
rispondere un numero reale yn . Di solito una successione si indica con l’insieme dei suoi elementi,
ovvero
{yn }n∈N , N = {1, 2, 3, ...}.

Sono esempi di successione i seguenti insiemi.

{yn } = {n} = {1, 2, 3, ...}


{ } { }
1 1 1
{yn } = = 1, , , ...
n 2 3

{yn } = {[ n]} = {1, 1, 1, 2, 2, 2, 2, 2, ...}
{yn } = {(−1)n } = {−1, 1, −1, 1, ...}

Talvolta una successone può essere definita in modo ricorsivo a partire dal suo primo termine. Ad
esempio la successione definita da

3
{yn } : y1 = 2, yn+1 = yn + , (n ≥ 1),
yn

risulta data da
7 61
{2, , , ...}
2 14

Una successione si dice crescente se ∀n, m ∈ N : n < m si ha yn < ym , decrescente se yn > ym ,


non crescente se yn ≥ ym , non decrescente se yn ≤ ym . Una successione che possiede una di queste
proprietà si dice monotòna. Dei quattro esempi di successioni precedenti, i primi tre sono esempi
di successioni monotòne. In particolare la prima è crescente, la seconda decrescente, la terza non
decrescente. Il quarto esempio rappresenta una successione non monotòna.
Una successione si dice limitata se l’insieme dei suoi elementi è un insieme limitato; si dice non limitata
se l’insieme dei suoi elementi è un insieme non limitato. In modo analogo si definiscono le successioni
inferiormente limitate e superiormente limitate.

49
50 CAPITOLO 4. LIMITI DI SUCCESSIONI

4.2 Successioni convergenti


Si dice che la successione {yn } converge al limite l se, per valori di n sufficientemente grandi, la
differenza tra il valore dell’elemento n-esimo yn ed il numero l può essere resa piccola quanto si vuole.
In termini più precisi scriveremo che
lim yn = l, se ∀ε > 0, ∃n̄ : n > n̄ ⇒ |yn − l| < ε.
n→∞
Diremo cioè che il limite per n che tende ad infinito di yn è uguale ad l se, comunque scelto un numero
ε > 0, è possibile determinare un intero n̄ in modo tale che, per tutti gli interi n maggiori di n̄, la
differenza in valore assoluto tra yn ed l sia minore di ε.
• Esempi
1) Consideriamo la successione {yn } = {1/n}. È evidente che al crescere di n il termine n-
esimo della successione diventa sempre più piccolo e ci aspettiamo che il suo limite sia l = 0.
Verifichiamo tramite la definizione che effettivamente la successione converge a 0. Comunque
fissato un ε > 0 dobbiamo trovare un n̄ tale che

1
− 0 < ε, ∀n > n̄.
n

Quest’ultima disuguaglianza implica n > 1ε , quindi basta scegliere n̄ = [1/ε] affinché sia sod-
disfatta la definizione di limite. Se ad esempio scegliessimo ε = 0.1 avremmo n̄ = 10 e cioè
|1/n − 0| < 0.1, ∀n > 10. Analogamente, se fosse ε = 0.05 avremmo n̄ = 20, se fosse ε = 0.0003
avremmo n̄ = 3333 e cosı̀ via.
n
2) Verifichiamo che limn→∞ n+1 = 1. Comunque fissato un ε dobbiamo trovare un n̄ tale che

n

n + 1 − 1 < ε, ∀n > n̄.

Si ha
n −1 1 1
− 1 <ε ⇒ ⇒ < ε ⇒ n > − 1.
n + 1 n + 1 < ε n+1 ε
Se ε > 1 l’ultima disuguaglianza è verificata per qualunque n. Se ε < 1 basta scegliere n̄ =
[1/ε − 1] affinché la disuguaglianza di partenza sia soddisfatta.
3) Consideriamo la successione {αn }, con 0 < α < 1. Verifichiamo che tale successione converge
a 0. Dobbiamo verificare che
∀ε > 0 ∃n̄ : n > n̄ ⇒ |αn | < ε.
la precedente disuguaglianza si può anche scrivere come
αn < ε, ⇒ n > logα ε.
Preso allora n̄ = [logα ε], la diseguaglianza di partenza è verificata per ogni n > n̄.

Osserviamo che se una successione numerica è convergente, i suoi elementi yn costituiscono un sot-
toinsieme limitato di R. Infatti la convergenza implica che l − ε < yn < l + ε per n > n̄. D’altra
parte, detti k e h rispettivamente, un maggiorante ed un minorante dell’insieme finito {y1 , y2 , ..., yn̄ }
si ha h ≤ yn ≤ k per 1 ≤ n ≤ n̄. L’intero insieme degli elementi della successione risulta quindi limi-
tato inferiormente e superiormente. Possiamo concludere dicendo che ogni successione convergente è
limitata.
4.3. SUCCESSIONI DIVERGENTI 51

4.3 Successioni divergenti


Una successione può non convergere ad alcun limite finito. In particolare può succedere che all’aumentare
di n il valore di yn diventi sempre più grande in valore assoluto. In tal caso si dice che la successione
diverge. Più precisamente si scrive che
lim yn = +∞,
n→∞

se, fissato un numero M > 0, ∃n̄ ∈ N : n > n̄ ⇒ yn > M . Analogamente si ha


lim yn = −∞,
n→∞

se, ∀M > 0, ∃ n̄ ∈ N : n > n̄ ⇒ yn < −M .


• Esempi
1) La successione {yn } = {n2 } diverge a +∞. Preso ad arbitrio un M > 0 si ha infatti

n2 > M, ⇒ n > M .

Scelto allora n̄ = [ M ], la disuguaglianza yn > M è soddisfatta per n > n̄.

2) Verifichiamo che
1 − n2
lim = −∞.
n→∞ n
Fissato M > 0, dobbiamo trovare un n̄ tale che, per n > n̄ sia soddisfatta la disuguaglianza
1 − n2
< −M, ⇒ n2 − M n − 1 > 0,
n
da cui, essendo n un intero positivo,
1 √
n > [M + M 2 + 4].
2

Scelto allora n̄ = [(M + M 2 + 4)/2], la disuguaglianza di partenza è soddisfatta per n > n̄.

3) Verifichiamo che
lim en = +∞.
n→∞
Fissato M > 0, notiamo che en > M è sempre verificata se M < 1. Se invece M > 1 essa è
verificata quando n > ln M . Scegliamo allora n̄ = [ln M ] e la diseguaglianza sarà verificata per
n > n̄.

4) La successione {yn } = {(−1)n n} cresce, in valore assoluto, indefinitamente al crescere di n.
Tuttavia essa non ammette limite. Infatti, supponiamo che sia limn→∞ yn = +∞. Dobbiamo
trovare un n̄ tale che √
(−1)n n > M, ∀n > n̄,
qualunque sia la scelta di M > 0. Per gli n pari la disuguaglianza precedente implica n > M 2 ,
quindi il limite è verificato per tutti gli n pari più grandi di n̄ = [M 2 ]. Per gli n dispari si
√ √
ha n < −M , che non è mai verificata. Ne segue che limn→∞ (−1)n n ̸= +∞. In modo

analogo si può dimostrare che limn→∞ (−1)n n ̸= −∞. Poiché la successione non è certamente
convergente, essa non ammette limite.
52 CAPITOLO 4. LIMITI DI SUCCESSIONI

4.4 Teoremi sulle successioni regolari


Le successioni convergenti e quelle divergenti a +∞ o a −∞ si dicono regolari. Sono cioè regolari tutte
le successioni che ammettono limite, finito o infinito che sia.
Le definizioni date di convergenza e di divergenza di una successione sono tali da non dare adito
ad ambiguità. Si può infatti escludere che mediante tali definizioni sia possibile determinare più limiti
distinti per una stessa successione. A tale scopo dimostriamo la seguente proprietà.

Teorema 4.1 (Unicità del limite). Ogni successione regolare ammette un unico limite.

Dim. Per fissare le idee supponiamo che la successione sia convergente e ragioniamo per assurdo
ammettendo che essa abbia due limiti distinti l1 ̸= l2 . In base alla definizione, fissato un ε > 0,
dobbiamo avere contemporaneamente,

∃n̄1 : n > n̄1 ⇒ |yn − l1 | < ε/2,


∃n̄2 : n > n̄2 ⇒ |yn − l2 | < ε/2.

Definito n̄ = max(n̄1 , n̄2 ), facendo uso della diseguaglianza triangolare (vedi par. 1.3) possiamo
scrivere,
ε ε
|l2 − l1 | = |l2 − yn + yn − l1 | ≤ |yn − l1 | + |yn − l2 | < + = ε.
2 2
Quindi risulta, in definitiva, ∀ε > 0, |l2 − l1 | < ε. Sfruttando allora il Corollario al Teorema 1.3,
otteniamo l1 = l2 , contro l’ipotesi che i due limiti siano distinti. Ne segue che una successione
convergente ammette un unico limite.
Consideriamo ora il caso in cui la successione sia divergente. Se essa potesse divergere contemporanea-
mente a +∞ e a −∞, per n sufficientemente grande dovremmo avere le due condizioni incompatibili
yn > M e yn < −M . In modo analogo si dimostra che una successione convergente non può essere
anche divergente e viceversa.

Teorema 4.2 Ogni successione monotòna è regolare ed è convergente se limitata.

Dim. Consideriamo il caso in cui la successione {yn } sia limitata e, per fissare le idee supponiamo
che sia non decrescente. Allora esisterà λ = sup{yn }. Per le proprietà dell’estremo superiore (vedi
condizione b) del teorema 1.1), esisterà un ν ∈ N tale che, scelto un numero ε > 0, si abbia

λ − ε < yν ≤ λ.

Poiché la successione è non decrescente, per ogni n > ν si può scrivere

λ − ε < yν ≤ yn ≤ λ < λ + ε.

Da quest’ultima si ottiene allora |yn − λ| < ε, ∀n > ν, e quindi concludiamo che limn→∞ yn = λ. Si
perviene allo stesso risultato nei casi in cui la successione ha un altro tipo di monotonia.
Consideriamo adesso il caso in cui la successione non sia limitata e sia sempre non decrescente. Essa
avrà come minorante l’elemento y1 e quindi non sarà limitata superiormente. Ciò significa che, co-
munque si scelga k > 0, esiste un ν ∈ N tale che yν > k. Essendo la successione non decrescente, per
n > ν si avrà yn > k. Concludiamo allora che limn→∞ yn = +∞. Si ragiona in modo analogo per gli
altri tipi di monotonia.
4.4. TEOREMI SULLE SUCCESSIONI REGOLARI 53

• Esempi
1) Consideriamo la successione { }
n−1
{yn } = .
2n + 1
Essa risulta limitata, infatti è facile verificare che, per esempio,
n−1
0≤ < 1, ∀n ∈ N.
2n + 1
Inoltre {yn } risulta monotòna in quanto, qualunque sia n, si ha yn < yn+1 , ovvero, come si
verifica subito,
n−1 n
< , ∀n ∈ N.
2n + 1 2n + 3
Ne segue, per il teorema precedente, che la successione {yn } è convergente. Si può verificare
senza difficoltà che limn→∞ yn = 1/2.

2) Consideriamo la successione {( ) }
1 n
{yn } = 1+ ,
n
e dimostriamo che essa è convergente. Applicando la formula del binomio di Newton, per n ≥ 2
si ha ( ) n ( )
1 n ∑ n 1 ∑n
1 n(n − 1)(n − 2)...(n − h + 1)
1+ = = 2 +
n h nh h! nh
h=0 h=2
∑n ( )( ) ( )
1 1 2 h−1
=2+ 1− 1− ... 1 − .
h! n n n
h=2

Da quest’ultima espressione si deduce che


( ) ( )n+1
1 n 1
1+ < 1+ .
n n+1

La successione considerata è dunque crescente. Si ha poi, tenuto conto dell’ultimo teorema del
paragrafo 1.3,
( )
1 n ∑ 1
n
1 1 1 1
1+ < =1+1+ + + + ... +
n h! 2 2·3 2·3·4 2 · 3 · 4...n
h=0
( )
1 1 1 1 − 21n 1
< 1 + 1 + + 2 + ... + n−1 = 1 + <1+ = 3,
2 2 2 1 − 12 1− 1
2

quindi la successione è anche limitata. Per il teorema precedente allora tale successione è con-
vergente. Il suo limite definisce il numero di Nepero,
( )
1 n
lim 1 + = e.
n→∞ n
54 CAPITOLO 4. LIMITI DI SUCCESSIONI

Teorema 4.3 (del confronto) Date tre successioni {zn }, {tn }, {yn }, tali che le prime due siano con-
vergenti allo stesso limite l, e soddisfacenti la condizione
zn ≤ yn ≤ tn , ∀n > ν,
la successione {yn } converge anch’essa allo stesso limite l.
Dim. Per ipotesi, scelto ε > 0, ∃n̄z , n̄t tali che
l − ε < zn < l + ε, n > n̄z ,
l − ε < tn < l + ε, n > n̄t .
Sempre in forza delle ipotesi, per n > max(ν, n̄z , n̄t ), si ha
l − ε < zn ≤ yn ≤ tn < l + ε,
da cui segue la tesi.

• Esempio
cos(n)
Vogliamo verificare che la successione di termine generale yn = n converge a zero. A tale
scopo notiamo che, per ogni n ∈ N0 si ha
1 cos(n) 1
− < < .
n n n
Abbiamo già provato che la successione {1/n} converge a zero. Ne segue che anche la successione
di termini opposti − n1 convergerà a zero. Osserviamo che, più in generale, se la successione di
termine yn converge a zero, la successione di termine |yn | converge a zero e viceversa. Infatti
dalla definizione di convergenza, la condizione che deve essere soddisfatta, |yn | < ε, è la stessa.
Possiamo quindi applicare il teorema del confronto e concludere che la successione cos(n)
n converge
anch’essa a zero.

Sia data la successione {yn } e sia {nk }k∈N una successione crescente di numeri naturali. I numeri
zk = ynk costituiscono una nuova successione che si dice sottosuccessione o successione estratta dalla
successione {yn }.

Teorema 4.4 Ogni successione estratta da una data successione regolare ammette lo stesso limite
della successione data.
Dim. Supponiamo che {yn } sia convergente a l e sia n̄ tale che
|yn − l| < ε, n > n̄.
Poiché la successione crescente di numeri naturali {nk }k∈N non è limitata, si ha, per il teorema 4.2,
lim nk = +∞.
k→∞

Si può trovare allora un indice k̄ tale che nk > n̄ per ogni k > k̄. Posto zk = ynk si ha quindi
|zk − l| = |ynk − l| < ε, k > k̄,
da cui segue la convergenza della sottosuccessione {zk }. Il teorema si dimostra in modo analogo nei
casi in cui la successione data sia divergente.
È da notare che una successione non regolare può ammettere una sottosuccessione regolare.
4.4. TEOREMI SULLE SUCCESSIONI REGOLARI 55

• Esempio
Consideriamo la successione √
n] n
+1
{yn } = {(−1)[ },
n
che non è nè convergente nè divergente. Presa la successione di numeri naturali {nk } = {(2k −
1)2 }k∈N , consideriamo la sottosuccessione
{ }
(2k−1) 4k − 4k + 2
2
{zk } = {ynk } = (−1) .
4k 2 − 4k + 1 k∈N

Come è facile verificare essa risulta convergente a −1.

Teorema 4.5 Da ogni successione limitata si può estrarre una sottosuccessione convergente.
Dim. Supponiamo che la successione {yn } assuma valori nell’intervallo [a, b]. Dividiamo questo inter-
vallo in due parti uguali e chiamiamo I1 una parte contenente un numero infinito di elementi. Scegliamo
in I1 un elemento yn1 . Dividiamo poi in due parti I1 e chiamiamo I2 una delle parti contenenti un
numero infinito di elementi. Scegliamo in I2 un elemento yn2 con n2 > n1 . Continuando cosı̀ avremo
costruito una sottosuccessione ynk in cui l’elemento nk -esimo è contenuto in Ik ⊂ Ik−1 ⊂ ... ⊂ I1 .
Detto l l’elemento di [a, b] contenuto in tutti gli intervalli Ink , si avrà
b−a
|ynk − l| ≤ .
2k
Ma il secondo membro di questa diseguaglianza può essere reso piccolo quanto si vuole prendendo k
sufficientemente grande quindi la sottosuccessione converge ad l.
Una successione {yn } si dice successione di Cauchy o fondamentale se ∀ ϵ > 0 ∃ν ∈ N : n, m > ν ⇒
|yn − ym | < ϵ.
Come si nota, nella definizione di successione di Cauchy non si parla di limite e, come può accadere
nelle successioni non numeriche, una successione fondamentale può non convergere ad alcun limite.
Tuttavia nel nostro caso si ha il seguente risultato.

Teorema 4.6 Ogni successione convergente è di Cauchy e ogni successione di numeri reali di Cauchy
è convergente.

Dim. Per dimostrare la prima parte del teorema consideriamo una successione {yn } convergente a l.
Si ha
ϵ
∀ϵ > 0 ∃ν ∈ N : n > ν ⇒ |yn − l| < .
2
Preso m > n si avrà pure |ym − l| < 2ϵ e di conseguenza
ϵ ϵ
|yn − ym | = |yn − l + l − ym | ≤ |yn − l| + |ym − l| < + =ϵ
2 2
e quindi la successione è di Cauchy.
Consideriamo ora una successione numerica di Cauchy e facciamo vedere che essa è limitata. Ragioni-
amo per assurdo e supponiamo che fissati due numeri k > 0 e h > 0, grandi a piacere, esista un n̄ ∈ N
tale che
|yn | > k + h per n > n̄
56 CAPITOLO 4. LIMITI DI SUCCESSIONI

Poiché si avrà anche |ym | ≥ k per m > n̄, otteniamo |yn | − |ym | > h per n, m > n̄, mentre per l’ipotesi
di successione di Cauchy,

|yn | = |yn − ym + ym | ≤ |yn − ym | + |ym | < ϵ + |ym |, per n, m > ν,

ovvero,
|yn | − |ym | < ϵ per n, m > ν,
Se allora prendiamo n > max(n̄, ν) avremo contemporaneamente le due condizioni incompatibili

|yn | − ym | < ε, |yn | − ym | ≥ h.

Concludiamo che la successione è limitata.


Utilizzando il teorema 4.5 ricaviamo che la successione di Cauchy {yn } ammette una sottosuccessione
{ynk }k∈N convergente a un certo limite l, ovvero
ϵ
∀ϵ > 0 ∃k̄ ∈ N : k > k̄ ⇒ |ynk − l| < .
2
Posto nk = n̄ > ν per un certo k > k̄, dalla definizione di successione di Cauchy si ha
ϵ
|yn − yn̄ | < per n > ν.
2
Quindi otteniamo
ϵ ϵ
|yn − l| ≤ |yn − yn̄ | + |yn̄ − l| < + = ϵ, per n > ν,
2 2
ovvero {yn } risulta convergente a l.

4.5 Operazioni sui limiti


Teorema 4.7 Date le due successioni {yn } e {zn }, rispettivamente convergenti a ly ed lz , si ha

lim (αyn + βzn ) = αly + βlz , con α, β ∈ R.


n→∞

Dim. Per ipotesi, ∀ε > 0, ∃n̄y , n̄z :


ε
n > n̄y ⇒ |yn − ly | < ,
2|α|
ε
n > n̄z ⇒ |zn − lz | < .
2|β|
Facendo uso della diseguaglianza triangolare si ha, per n > max(n̄y , n̄z ),
ε ε
|(αyn + βzn ) − (αly + βlz )| ≤ |α||yn − ly | + |β||zn − lz | < |α| + |β| = ε.
2|α| 2|β|

Ne segue la tesi.
Si possono dimostrare anche le seguenti proprietà delle operazioni sui limiti di successioni.

Teorema 4.8 Date le due successioni {yn } e {zn }, rispettivamente convergenti a ly e a lz , si ha


4.5. OPERAZIONI SUI LIMITI 57

a) limn→∞ yn zn = ly lz ,
l
b) limn→∞ yznn = lyz se lz ̸= 0
c) limn→∞ (yn )zn = lylz ({yn } successione a valori positivi).

• Esempio
Determiniamo il limite della successione data dal rapporto tra due polinomi dello stesso grado
in n.
ap np + ap−1 np−1 + ap−2 np−2 + ... + a0
lim
n→∞ bp np + bp−1 np−1 + bp−2 np−2 + ... + b0

dove p ∈ N. Si può scrivere

ap np + ap−1 np−1 + ap−2 np−2 + ... + a0 ap + ap−1 n1 + ap−2 n12 + ... + a0 n1p
= .
bp np + bp−1 np−1 + bp−2 np−2 + ... + b0 bp + bp−1 n1 + bp−2 n12 + ... + b0 n1p

Abbiamo dimostrato nel par.4.2 che limn→∞ (1/n) = 0. Applicando più volte il teorema 4.8
a), abbiamo che limn→∞ (1/np ) = 0, ∀p ∈ N. Applicando più volte il teorema 4.7, il limite del
numeratore è dato da ap , mentre il limite del denominatore risulta bp . Ne segue che, per il
teorema 4.8 b), il limite cercato è ap /bp .

Nonostante le proprietà precedenti consentano spesso di determinare il limite di una successione a


partire dai limiti delle successioni che la compongono, in alcuni casi il risultato può dare luogo ad una
cosiddetta forma indeterminata.

• Esempi
1) Se nell’esempio precedente non avessimo preliminarmente diviso numeratore e denominatore
per np , applicando sempre i teoremi 4.7 e 4.8 avremmo ottenuto come limite la forma indetermi-
nata ”∞/∞”. Casi analoghi della stessa forma indeterminata si risolvono con la stessa tecnica
dell’esempio precedente. Per esempio abbiamo
2n ∞
lim = .
n→∞ n2 +1 ∞
D’altra parte, si ha
2
2n n
lim = lim = 0.
n→∞ n2 + 1 n→∞ 1 + 12
n
2) Come altro esempio prendiamo il
n−1 ∞
lim √ = .
n→∞ n ∞
Si ha √
n−1 n− √1
n
lim √ = lim = +∞
n→∞ n n→∞ 1

Sono forme indeterminate anche ”∞ · 0”, ” 00 ”, ”∞ − ∞”,”1∞ ”,”00 ”,”∞0 ”. Poiché queste stesse forme
indeterminate compaiono anche nei limiti di funzioni, esse saranno esaminate nel seguito.
58 CAPITOLO 4. LIMITI DI SUCCESSIONI

4.6 Successioni di numeri complessi


Consideriamo una successione di numeri complessi {zn }n∈N , dove zn = xn + iyn . Le parti reali xn
e le parti immaginarie yn dei numeri zn costituiranno, a loro volta, due successioni di numeri reali
{xn }n∈N , {yn }n∈N . Diremo che la successione {zn } converge al numero complesso l se
∀ϵ > 0 ∃ν ∈ N : n > ν ⇒ |zn − l| < ϵ,
e si scrive limn→∞ zn = l. La definizione di limite, in questo caso, differisce da quella valida per le
successioni di numeri reali {yn } solo per la sostituzione del valore assoluto |yn −l| con il modulo |zn −l|.

Teorema 4.9 La successione di numeri complessi {zn }n∈N con zn = xn + iyn converge al numero
complesso l = a + ib se e solo se le due successioni di numeri reali {xn } e {yn } convergono rispettiva-
mente ai numeri a e b.

Dim. Supponiamo che le due successioni di numeri reali {xn } e {yn } convergano, ovvero
lim xn = a, lim yn = b.
n→∞ n→∞

Ne segue che ∀ϵ > 0 ∃ν ∈ N tale che per n > ν valgano contemporaneamente le due diseguaglianze
ϵ ϵ
|xn − a| < , |yn − b| < .
2 2
Per una nota diseguaglianza sui numeri complessi si ha
ϵ ϵ
|zn − l| = |xn − a + i(yn − b)| ≤ |xn − a| + |yn − b| < + = ϵ,
2 2
da cui segue la convergenza di {zn } a l.
Viceversa, supponiamo che limn→∞ zn = l = a + ib, ovvero che ∀ϵ > 0 ∃ν ∈ N : n > ν ⇒ |zn − l| < ϵ.
Per la definizione di modulo di numero complesso si ha

ϵ > |zn − l| = (xn − a)2 + (yn − b)2 ≥ |xn − a|,

ϵ > |zn − l| = (xn − a)2 + (yn − b)2 ≥ |yn − b|,
da cui segue la convergenza di {xn } ad a e di {yn } a b.
La verifica e il calcolo di limiti di successioni di numeri complessi è cosı̀ ricondotta alla verifica e al
calcolo di limiti di successioni di numeri reali.

• Esempio
Calcolare
1 + in2
lim .
n→∞ n2 − in
Si ha
1 + in2 1 1 + in2 1 n − n2 + in3 + i 1−n n3 + 1
= = = + i ,
n2 − in n n−i n n2 + 1 n2 + 1 n3 + n
da cui
1−n n3 + 1
lim = 0, lim = 1.
n→∞ n2 + 1 n→∞ n3 + n
Ne segue,
1 + in2
lim = i.
n→∞ n2 − in
4.6. SUCCESSIONI DI NUMERI COMPLESSI 59

Tutte le proprietà relative al calcolo dei limiti delle successioni di numeri reali continuano a essere
valide per le successioni di numeri complessi. In particolare, il calcolo del limite dell’esempio prece-
dente può essere effettuato come nel caso delle successioni reali, per esempio, dividendo numeratore e
denominatore per n2 e sfruttando le proprietà sulla somma e sul rapporto tra limiti di successioni.
60 CAPITOLO 4. LIMITI DI SUCCESSIONI
Capitolo 5

Limiti di funzioni

5.1 Limite per x → ∞


Il concetto di limite per una successione può essere esteso senza difficoltà alle funzioni di variabile reale
con dominio non limitato superiormente. Data, per esempio la funzione f : A → R, con A = (a, +∞),
ci si può chiedere come si comporta il valore y = f (x) quando x assume valori sempre più grandi nel
dominio A. Il valore della funzione potrebbe avvicinarsi sempre di più ad un numero reale finito l,
oppure potrebbe diventare più grande di un qualunque numero reale positivo o minore di un qualunque
numero reale negativo. Nel primo caso diremo che, al tendere di x a più infinito la funzione converge
ad l e scriveremo
lim f (x) = l,
x→+∞

se per ogni ε > 0, esiste un x̄ tale che |f (x) − l| < ε per tutte le x ∈ A, con x > x̄. Nel secondo caso
diremo che, al tendere di x a più infinito la funzione diverge e scriveremo

lim f (x) = +∞,


x→+∞

se per ogni k > 0 esiste un x̄ tale che f (x) > k per tutte le x ∈ A, con x > x̄, oppure

lim f (x) = −∞,


x→+∞

se per ogni k > 0 esiste un x̄ tale che f (x) < −k per tutte le x ∈ A, con x > x̄. Analogamente al caso
delle successioni, i numeri x̄ dipenderanno, in generale da ε o da k. Se nessuna delle tre condizioni
precedenti è verificata, si dice che la funzione non ammette limite per x → +∞.
Naturalmente, nel caso delle funzioni con dominio non limitato inferiormente, è possibile introdurre
il limite per x → −∞. Data la funzione f : A → R, con A = (−∞, a), si hanno le seguenti definizioni.

lim f (x) = l, se ∀ε > 0, ∃x̄ : x < x̄ ⇒ |f (x) − l| < ε.


x→−∞

lim f (x) = +∞ (−∞), se ∀k > 0, ∃x̄ : x < x̄ ⇒ f (x) > k (< −k).
x→−∞

Le definizioni date godono di alcune proprietà del tutto analoghe a quelle delle successioni. In parti-
colare si possono dimostrare l’unicità del limite e le seguenti proprietà.
Date due funzioni f1 , f2 aventi come domini sottoinsiemi di R non limitati superiormente e convergenti
rispettivamente a l1 e a l2 , si ha,

61
62 CAPITOLO 5. LIMITI DI FUNZIONI

a) limx→+∞ [αf1 (x) + βf2 (x)] = αl1 + βl2 , α, β ∈ R


b) limx→+∞ f1 (x)f2 (x) = l1 l2 ,
c) limx→+∞ ff21 (x) l1
(x) = l2 se l2 ̸= 0.

• Esempi
1) Verifichiamo che limx→+∞ ex = +∞. Fissato k > 0, si ha
ex > k ⇒ x > ln k.
Ne segue che, per soddisfare la definizione di limite, in questo caso basta scegliere x̄ ≥ ln k.

2) Verifichiamo che limx→+∞ e−x = 0. Fissato ε > 0, si ha


|e−x | < ε, ⇒ e−x < ε, x > − ln ε.
Basta allora scegliere x̄ ≥ ln 1ε per verificare il limite.

3) Dimostriamo che limx→+∞ tanh x = 1. Facendo uso delle proprietà a) e c) e dei risultati degli
esempi precedenti, si ottiene
ex − e−x ∞
lim tanh x = lim −x
= ,
x→+∞ x
x→+∞ e + e ∞
che è una forma indeterminata. Per risolverla notiamo che, moltiplicando numeratore e deno-
minatore per e−x si ha,
ex − e−x 1 − e−2x
= ,
ex + e−x 1 + e−2x
da cui, passando al limite per x → +∞ e utilizzando la proprietà c), si ottiene il risultato cercato.

4) Calcoliamo il limite per x che tende a −∞ della funzione f (x) = ( x2 + x + x), definita nel
dominio non limitato (−∞, −1) ∪ (0, +∞). Applicando le proprietà a) e b), si ottiene una forma
indeterminata, √
lim ( x2 + x + x) = ∞ − ∞.
x→−∞

Moltiplicando e dividendo la funzione per x2 + x − x, e utilizzando anche la proprietà c) si
ottiene, √ √
( x2 + x + x)( x2 + x − x) x
lim √ = lim √
x→−∞ x +x−x
2 x→−∞ x +x−x
2

1 1 1
= lim √ 2 = lim √ =− .
x→−∞ x +x − 1 x→−∞
− 1+ 1 −1 2
x x

5) Calcoliamo
e−|x|
lim
,
x→−∞ e2x

che si presenta come una forma indeterminata del tipo ” 00 ”. Si ha

e−|x| ex
lim = lim = lim e−x = +∞.
x→−∞ e2x x→−∞ e2x x→−∞
5.2. LIMITE PER X → X0 63

5.2 Limite per x → x0


Sia f : A → B, una funzione definita su un sottoinsieme A dei reali e sia x0 un punto di accumulazione
per A. Si dice che la funzione f ammette limite l per x che tende a x0 e si scrive

lim f (x) = l,
x→x0

se, fissato un ε > 0, è possibile determinare un δ > 0 tale che si abbia |f (x) − l| < ε per tutti gli x
di A soddisfacenti alla condizione |x − x0 | < δ. In altri termini f (x) tende a l al tendere di x a x0 se
è possibile trovare un intorno del punto x0 in cui la funzione assume valori che si discostano di una
quantità arbitrariamente piccola da l.
Notiamo che x0 deve essere di accumulazione per A affinché esistano punti soddisfacenti alla condizione
|x − x0 | < δ, e che la funzione può assumere in x0 un valore diverso da l o addirittura può non essere
definita in x0 .

• Esempi
1) Consideriamo la funzione f (x) = x2 , che è definita su tutto R e usiamo la definizione per
verificare che
lim x2 = 4.
x→2

Fissato un numero ε > 0, dobbiamo trovare un numero δ > 0 tale che |x2 − 4| < ε per |x − 2| < δ.
Osserviamo che la diseguaglianza |x2 − 4| < ε è soddisfatta nei seguenti intervalli
√ √ √ √
− 4 + ε < x < − 4 − ε, 4 − ε < x < 4 + ε.

√ è un intorno del punto −2, il secondo è un intorno del punto 2. Se si sceglie allora
Il primo
δ = 4 + ε − 2, la seconda diseguaglianza risulta soddisfatta per |x − 2| < δ e quindi il limite è
verificato.

2) Consideriamo la funzione {
−1 per x ≥ 0
f (x) =
1 per x < 0
che risulta definita su tutto R. Verifichiamo tramite la definizione che il limite di tale funzione
per x che tende a 0 non esiste. Chiamiamo l l’eventuale limite e supponiamo che sia |l| ̸= 1. Per
x > 0 si avrà |f (x) − l| = |1 − l| mentre per x < 0 si avrà |f (x) − l| = |1 + l|. Ne segue che, scelto
ε < min{|1 − l|, |1 + l|} la disuguaglianza |f (x) − l| < ε non sarà mai soddisfatta per alcun δ > 0
tale che −δ < x < δ. Se poi fosse l = ±1, allora in uno dei due intorni (−δ, 0), (0, δ) si avrebbe
|f (x) − l| = 2, qualunque sia δ, e arriveremmo alla stessa conclusione.

3) Verifichiamo che limx→0 ax = 1, a > 1. Si ha

|ax − 1| < ε ⇒ 1 − ε < ax < 1 + ε,

da cui, essendo a > 1, si ha


loga (1 − ε) < x < loga (1 + ε).
Osservando che per ε < 1,
( )
1 ε
loga (1 − ε) = − loga = − loga 1 + < − loga (1 + ε),
1−ε 1−ε
64 CAPITOLO 5. LIMITI DI FUNZIONI

scegliamo δ = loga (1 + ε). Otteniamo cosı̀

|x − 0| < δ ⇒ |ax − 1| < ε.

In modo del tutto analogo si dimostra che limx→0 ax = 1, 0 < a < 1.

4) Consideriamo la funzione f : A → R dove


1
A = {x ∈ R : |x| = , n ∈ N}, f (x) = 2x + 1.
n
L’insieme A ha un unico punto di accumulazione, x0 = 0 non appartenente ad A. La funzione
non é definita in x0 ma é possibile calcolarne il limite. Verifichiamo che il limite per x → 0 vale
1. Si ha
ε
|f (x) − 1| < ε ⇒ |x| <
2
Scegliendo δ = 2ε , la diseguaglianza precedente risulta verificata in un intorno del punto 0 di
ampiezza δ.

5) Consideriamo f (x) = x sin x1 . Tale funzione non è definita per x = 0. Vogliamo verificare che
limx→0 f (x) esiste ed è uguale a zero. Notiamo che, essendo | sin x1 | ≤ 1 si ha


x sin 1 ≤ |x|.
x
Scelto ad arbitrio un ε > 0, prendiamo δ = ε. Allora avremo

1
x sin < ε ∀x ̸= 0 : |x| < δ,
x

come volevamo dimostrare. Osserviamo che la funzione sin x1 non ammette limite per x → 0.
Infatti in un qualunque intorno dello 0 è sempre possibile trovare una coppia di punti, simmetrici
rispetto a 0 in cui la funzione vale rispettivamente 1 e −1.

Valgono i seguenti teoremi sul limite di una funzione per x che tende a x0 .

Teorema 5.1 (Unicità del limite) Se esiste, il limite di una funzione per x che tende a x0 è unico.
Dim. Supponiamo per assurdo che esistano due limiti distinti l1 ̸= l2 . Allora, fissato ε > 0 esistono
δ1 , δ2 positivi tali che
|x − x0 | < δ1 ⇒ |f (x) − l1 | < ε,
|x − x0 | < δ2 ⇒ |f (x) − l2 | < ε.
Scelto allora δ < min{δ1 , δ2 }, utilizzando la disuguaglianza triangolare si ha

|l1 − l2 | = |l1 − f (x) + f (x) − l2 | ≤ |f (x) − l1 | + |f (x) − l2 | < 2ε ∀x : |x − x0 | < δ.

Utlizzando allora il corollario al teorema 1.3 si ottiene l1 = l2 , contro le ipotesi.

Teorema 5.2 (Permanenza del segno) Sia f : A → B. Se limx→x0 f (x) = l ̸= 0, è possibile trovare
un δ > 0 tale che per tutti gli x ∈ A con |x − x0 | < δ, la funzione assume lo stesso segno di l.
5.2. LIMITE PER X → X0 65

Dim. Scegliendo ε = |l|, dalla definizione di limite abbiamo,

∃δ > 0 : |x − x0 | < δ ⇒ l − |l| < f (x) < l + |l|.

Allora, se l > 0, segue che 0 < f (x) < 2l, mentre se l < 0, si ha 2l < f (x) < 0, da cui segue la tesi.

Teorema 5.3 (Confronto) Date tre funzioni f, f1 , f2 definite nello stesso dominio A e tali che

f1 (x) ≤ f (x) ≤ f2 (x), ∀x ∈ A, con x ̸= x0 ,

se si ha limx→x0 f1 (x) = limz→x0 f2 (x) = l, allora si ha anche limx→x0 f (x) = l.

Dim. Dalle ipotesi abbiamo che, fissato un ε > 0,

∃δ1 > 0 : |x − x0 | < δ1 ⇒ |f1 (x) − l| < ε,


∃δ2 > 0 : |x − x0 | < δ2 ⇒ |f2 (x) − l| < ε.

Preso allora δ = min{δ1 , δ2 } si può scrivere

l − ε < f1 (x) ≤ f (x) ≤ f2 (x) < l + ε, ∀x : |x − x0 | < δ.

da cui segue che l − ε < f (x) < l + ε, ∀x : |x − x0 | < δ e cioè che il limite di f è l.
Anche per il limite di f per x → x0 valgono i teoremi sulla somma, prodotto e rapporto di limiti. Si
possono infatti dimostrare le seguenti proprietà. Nell’ipotesi che

lim f1 (x) = l1 , lim f2 (x) = l2 ,


x→x0 x→x0

si ha
lim [αf1 (x) + βf2 (x)] = αl1 + βl2 , α, β ∈ R,
x→x0

lim f1 (x) f2 (x) = l1 l2


x→x0

f1 (x) l1
lim = , se l2 ̸= 0.
x→x0 f2 (x) l2

Oltre a queste proprietà, per il calcolo dei limiti di funzioni, è anche utile il seguente teorema.

Teorema 5.4 (Limite delle funzioni composte) Date due funzioni f : A → R e g : B → R, supponia-
mo che esistano i limiti
lim f (y) = l, lim g(x) = y0 ,
y→y0 x→x0

e che esista un intorno Iδ del punto x0 contenuto in B, tale che l’immagine di Iδ tramite g sia
contenuta in A. Allora si ha
lim f (g(x)) = l.
x→x0
66 CAPITOLO 5. LIMITI DI FUNZIONI

Dim. Dall’ipotesi di esistenza del limite di f (y), scelto ε > 0, esisterà un δ1 > 0 tale che si abbia
l’implicazione
|y − y0 | < δ1 =⇒ |f (y) − l| < ε.
Analogamente, dall’esistenza del limite di g(x), scelto ε′ = δ1 , esisterà un δ2 tale che valga l’implicazione

|x − x0 | < δ2 =⇒ |g(x) − y0 | < δ1 .

Per ipotesi esiste un intorno di x0 di ampiezza δ la cui immagine tramite g è contenuta in A. Preso
allora δ̄ = min{δ, δ2 }, per ogni x ∈ Iδ si avrà g(x) ∈ A. Possiamo allora porre y = g(x) ottenendo
l’implicazione
|x − x0 | < δ̄ =⇒ |y − y0 | < δ1 .
Tenuto conto di quest’ultima, dalla prima implicazione otteniamo

∀ ε > 0 ∃ δ̄ > 0 : |x − x0 | < δ̄ ⇒ |f (g(x)) − l| < ε,

che equivale alla tesi.

• Esempi
1) Calcoliamo
x2 + 3x − 1
lim .
x→2 3x3 − 6
Facendo uso delle proprietà sui limiti, abbiamo

x2 + 3x − 1 limx→2 x2 + 3 limx→2 x − 1 4+3·2−1 1


lim = = = .
x→2 3x − 6
3 3 limx→2 x − 6
3 3·8−6 2

2) Calcoliamo
lim ln[sin(x3 + 1) − x].
x→−1

Per le proprietà sui limiti, si ha limx→−1 (x3 + 1) = 0, e, utilizzando il teorema sui limiti delle
funzioni composte,
lim sin(x3 + 1) = 0.
x→−1

Sempre per le proprietà sui limiti si ha poi limx→−1 [sin(x3 + 1) − x] = 1 e, utilizzando ancora il
teorema sulle funzioni composte si ottiene

lim ln[sin(x3 + 1) − x] = 0.
x→−1

Consideriamo la funzione f (x) = 1/x2 . Si verifica facilmente che il limite di f per x → 0 non può
essere un numero finito. Infatti, comunque si prenda un intorno del punto 0 esisteranno punti in tale
intorno in cui la funzione assume valori che differiscono da qualunque numero finito di una quantità
arbitrariamente grande. In tal caso si dice che la funzione diverge a +∞ al tendere di x a 0.
5.3. LIMITI DESTRO E SINISTRO 67

Si dice che f : A → R tende a +∞ per x → x0 , essendo x0 punto di accumulazione per A, e scriveremo

lim f (x) = +∞,


x→x0

se, comunque scelto M > 0, esiste un δ > 0 tale che f (x) > M per tutti gli x soddisfacenti alla
condizione |x − x0 | < δ.
Analogamente si definisce il limite a −∞, ovvero

lim f (x) = −∞, se, ∀M > 0, ∃δ > 0 : |x − x0 | < δ ⇒ f (x) < −M.
x→x0

Anche in questo caso valgono le regole di calcolo sulla somma e prodotto di limiti.

• Esempi
1) Verifichiamo l’esempio citato, ovvero che limx→0 x12 = +∞. Comunque scelto M > 0, dalla
disuguaglianza x12 > M , si ha
1
|x| < √ .
M
Allora, scelto δ = √1 , si ha
M
|x − 0| < δ, ⇒ f (x) > M.

x4 −x2
2) Calcoliamo limx→0 x4
che si presenta come una forma indeterminata del tipo ” 00 ”. Si ha
,
( )
x4 − x2 1 1
lim 4
= lim 1 − 2 = 1 − lim 2 = −∞.
x→0 x x→0 x x→0 x

3) Il limite della funzione 1/x per x → 0 non esiste. Osserviamo innanzitutto che, come nel
caso della funzione 1/x2 , il limite non può essere un numero finito. D’altra parte, se fosse
limx→0 (1/x) = +∞, si dovrebbe trovare un intorno del punto 0 in cui la funzione assume valori
più grandi di un qualunque numero positivo prefissato. Ciò non è possibile perché in un intorno
sinistro di 0 la funzione assume valori negativi. Analogamente non può essere limx→0 (1/x) = −∞
perché in un intorno destro di 0 la funzione assume valori positivi.

5.3 Limiti destro e sinistro


L’ultimo esempio del paragrafo precedente suggerisce la possibilità di descrivere separatamente il
comportamento di una funzione nei punti di un intorno destro o di un intorno sinistro del punto di
accumulazione x0 . Infatti se al posto della condizione |x − x0 | < δ, sostituissimo quella più restrittiva
0 < x − x0 < δ nella definizione di limite per x → x0 , la funzione 1/x, per x → 0 ammetterebbe come
limite +∞.
Si dice che, la funzione f : A → R ha limite l per x che tende a x0 da destra, essendo x0 punto di
accumulazione per A, e si scrive
lim f (x) = l,
x→x+
0
68 CAPITOLO 5. LIMITI DI FUNZIONI

se, fissato un ε > 0, esiste un δ > 0 tale che, per tutti gli x soddisfacenti alla condizione x0 < x < x0 +δ
si abbia |f (x) − l| < ε. Analogamente si dice che f tende ad l per x che tende a x0 da sinistra, e si
scrive
lim f (x) = l, se ∀ε > 0 ∃δ > 0 : x0 − δ < x < x0 ⇒ |f (x) − l| < ε.
x→x−
0

Valgono naturalmente anche le seguenti definizioni,

lim f (x) = +∞(−∞) se ∀M > 0, ∃δ > 0 : x0 < x < x0 + δ ⇒ f (x) > M (< −M ),
x→x+
0

lim f (x) = +∞(−∞) se ∀M > 0, ∃δ > 0 : x0 − δ < x < x0 ⇒ f (x) > M (< −M ),
x→x−
0

• Esempi
1) Si verifica subito che
1 1
lim = +∞, lim = −∞.
x→0+ x x→0− x
Basta infatti applicare le definizioni scegliendo δ = 1/M .

2) Verifichiamo che ( ) ( )
1 1
lim exp = +∞, lim exp = 0.
x→0+ x x→0− x
Nel primo caso, fissato M > 1, si ha
( )
1 1
exp > M, ⇒ 0<x< ,
x ln M

da cui si ottiene la verifica scegliendo δ = ln1M . Nel secondo caso, fissato 0 < ε < 1, si ha,
( )

exp 1 − 0 < ε ⇒ 1
< x < 0,
x ln ε

da cui si ottiene la verifica scegliendo δ = − ln1ε .

I teoremi sui limiti di funzioni possono essere estesi senza difficoltà al caso dei limiti destro e sinistro.
Per esempio, sfruttando la proprietà della somma e del prodotto di limiti e dei limiti di funzioni
composte si ha,
( )
1
exp 1−x ( )
1 1 1
lim = lim exp lim = 0 · = 0.
x→1 + x+1 x→1 + 1 − x x→1 x + 1
+ 2

Quando limx→x+ f (x) = limx→x− f (x) = l, si verifica facilmente che la funzione ammette il limx→x0 e
0 0
tale limite è l.
Capitolo 6

Funzioni continue

6.1 Definizione e proprietà


Supponiamo ora che la funzione f sia definita nel punto x0 , di accumulazione per il suo dominio, e
sia f (x0 ) il suo valore in quel punto. Supponiamo poi che esista il limx→x0 f (x) = l. Se accade che
f (x0 ) = l, allora si dice che la funzione f è continua in x0 . In altri termini, una funzione f : A → R
si dice continua in x0 , se

a) x0 ∈ A con x0 punto di accumulazione per A,


b) limx→x0 f (x) = f (x0 )

La funzione f si dirà poi continua nel suo dominio A se è continua in ogni punto di A.
È immediato verificare che se f : A → R e g : A → R sono funzioni continue in x0 ∈ A, allora

i) αf (x) + βg(x), con α, β ∈ R, risulta continua in x0 .


ii) f (x)g(x) risulta continua in x0
iii) f (x)/g(x) risulta continua in x0 , (g(x0 ) ̸= 0).

Infatti, se f e g sono continue in x0 i loro limiti per x → x0 esistono e sono uguali ai valori che le
funzioni assumono in quel punto. Facendo uso allora delle proprietà sui limiti di funzioni si arriva
subito al risultato cercato.
Verifichiamo che le seguenti funzioni sono continue in tutto il loro dominio.

1) f (x) = k, con k ∈ R,
2) f (x) = x,
3) f (x) = P (x) = an xn + an−1 xn−1 + ... + a0 , ah ∈ R, (h = 0, 1, 2, ..., n), (n ∈ N),
4) f (x) = PP12 (x)
(x) , essendo P1 , P2 polinomi di qualsiasi grado in x.

La funzione in 1) vale k in qualunque punto, quindi basta fare vedere che esiste il limite per x → x0 e
che vale k per qualunque x0 ∈ R. Ma quest’ultimo risultato segue subito dal fatto che |f (x) − k| = 0
per ogni x ∈ R e quindi in un qualunque intorno di un qualunque punto vale |f (x) − k| < ε.
Nel caso 2) si ha, per un qualunque punto x0 , |f (x) − x0 | = |x − x0 |. Preso allora δ = ε si verifica
subito che
lim f (x) = x0 .
x→x0

D’altra parte f (x0 ) = x0 , quindi la funzione identità risulta continua.

69
70 CAPITOLO 6. FUNZIONI CONTINUE

Nel caso 3) osserviamo che, applicando n − h volte la proprietà ii) al variare di h tra 0 e n, si deduce
che xn−h , sono funzioni continue in R. Quindi, per la proprietà i), il polinomio di grado n in x, in
quanto somma di funzioni del tipo an−h xn−h , ah ∈ R, (h = 0, 1, 2, ..., n), risulta una funzione continua
in tutto R.
Nel caso 4) basta applicare la proprietà iii), facendo uso del risultato del caso 3).
Verifichiamo che f (x) = sin x è una funzione continua in R. Preso x0 ∈ R, usando le formule di
prostaferesi, si ha

x − x0 x + x0 x − x0

| sin x − sin x0 | = 2 sin cos
≤ 2 sin ≤ |x − x0 |.
2 2 2

Dato ε > 0, scegliamo δ = ε. Ne segue che

| sin x − sin x0 | < ε, ∀x ∈ R : |x − x0 | < δ.

Ciò vale per qualunque x0 ∈ R, quindi sin x è continua su tutto R. In modo perfettamente analogo si
dimostra che la funzione cos x è continua su tutto R.
Si verifica facilmente che f (x) = ax , a ∈ R++ è una funzione continua in tutto R. Infatti, se
a = 1 si ottiene una funzione costante, che sappiamo essere continua. Se a ̸= 1, abbiamo dimostrato
precedentemente che limx→0 ax = 1. Preso allora un generico x0 ∈ R, si ha ax = ax−x0 ax0 , da cui,
posto x − x0 = s,
lim ax = ax0 lim ax−x0 = ax0 lim as = ax0 · 1 = ax0 .
x→x0 x→x0 s→0

Teorema 6.1 (Continuità delle funzioni composte) Sia g(x) una funzione continua in x0 e sia f (y)
una funzione continua in y0 = g(x0 ). Allora la funzione composta (f ◦ g)(x) è continua in x0 .

Dim. La dimostrazione di questo teorema segue immediatamente dal teorema 5.4 del capitolo prece-
dente se si pone l = f (y0 ) e se si osserva che, per la continuità di g(x) in x0 , esiste un intorno Iδ di x0
la cui immagine tramite g è contenuta in un intorno di y0 .

• Esempi

1) La funzione f (x) = tan(x2 ) è definita nell’insieme
( √ ] [ √ )
π √ √ π
D(f ) = − + kπ, − kπ ∪ kπ, + kπ , k = 0, 1, 2, ...
2 2

e in tale insieme è continua perché composizione di funzioni continue.

2) Tenuto
√ conto del fatto che cosh x è una funzione continua su tutto R, la funzione f (x) =
cosh( |x|), definita su tutto R, è composizione di funzioni continue ed è quindi continua nel
suo dominio.
6.2. DISCONTINUITÀ 71

6.2 Discontinuità
La mancanza di continuità di una funzione in un punto x0 può dipendere da diverse cause. La funzione
può ammettere un limite finito per x → x0 , diverso dal valore della funzione in quel punto. In tal
caso si dice che la discontinuità è eliminabile in quanto basterebbe ridefinire f (x0 ) = l per ottenere
la continuità. La funzione può ammettere limite destro e limite sinistro finiti e distinti. In tal caso
si parla di discontinuità di prima specie o di salto. Infine la funzione può non ammettere limite per
x → x0 , da destra o da sinistra, oppure almeno uno dei due limiti è infinito. In tal caso si parla di
discontinuità di seconda specie.

• Esempi
1) Consideriamo la funzione {
exp(−1/x) x ̸= 0
f (x) =
0 x=0
Essa ha un punto di discontinuità in x = 0. Poiché

lim exp(−1/x) = 0, lim exp(−1/x) = +∞,


x→0+ x→0−

si tratta di un punto di discontinuità di seconda specie.

2) La funzione {
x2 − 3x + 2 x>1
f (x) =
−2x x≤1
è definita su tutto R ed ha un punto di discontinuità di prima specie in x = 1. Infatti

lim f (x) = 0, lim f (x) = −2.


x→1+ x→1−

3) La funzione 
 √x2 −4 x ̸= 2
f (x) = |x−2|
2 x = 2,

ha un punto di discontinuità eliminabile in x = 2, in quanto limx→2 f (x) = 0.

6.3 Teoremi sulle funzioni continue


Teorema 6.2 (di Bolzano o degli zeri) Sia data una funzione f (x) continua in un intervallo [a, b].
Se f (a) e f (b) sono diversi da zero e di segno discorde, allora esiste un x0 ∈ [a, b] tale che f (x0 ) = 0.

Dim. Per fissare le idee supponiamo che f (a) < 0, f (b) > 0 e consideriamo l’insieme

L = {x ∈ [a, b] : f (x) ≤ 0}
72 CAPITOLO 6. FUNZIONI CONTINUE

Chiamiamo x0 = sup L e dimostriamo che f (x0 ) = 0. Infatti se fosse f (x0 ) > 0, per il teorema della
permanenza del segno (Teorema 5.2), esisterebbe un intorno sinistro di x0 in cui f (x) > 0. Ma ciò
non è possibile perché, per la proprietà dell’estremo superiore (Teorema 1.1), in un intorno sinistro
di x0 deve cadere almeno un punto di L e in questo punto deve essere f (x) ≤ 0. D’altra parte non
può nemmeno essere f (x0 ) < 0 perché se cosı̀ fosse esisterebbe un intorno destro di x0 in cui f (x) < 0
e quindi tale intorno apparterrebbe a L. Ciò non è possibile perché non esistono valori in L più
grandi di x0 . Se ne conclude che f (x0 ) = 0. La dimostrazione è analoga nel caso in cui si prenda
f (a) > 0, f (b) < 0.
Corollario (Teorema dei valori intermedi) Data una funzione continua f : [a, b] → R, comunque
preso un punto q compreso tra f (a) e f (b), estremi inclusi, esiste almeno un x0 ∈ [a, b] tale che
f (x0 ) = q.
Dim. Escluso il caso banale in cui f (a) = q, e/o f (b) = q (casi in cui x0 = a, oppure x0 = b), dovrà
essere f (a) < q < f (b), oppure f (b) < q < f (a). Allora la funzione g(x) = f (x) − q assumerà segni
discordi agli estremi dell’intervallo [a, b] ed essendo anch’essa continua, per il teorema precedente, avrà
valore nullo in un punto x0 ∈ [a, b]. Ma da g(x0 ) = 0 segue che f (x0 ) = q.

Teorema 6.3 (Continuità della funzione inversa) Sia f : [a, b] → R una funzione continua e stretta-
mente monotona, con f ([a, b]) = B. Allora la funzione inversa f −1 : B → [a, b] è continua.

Dim. Notiamo innanzitutto che la stretta monotonia della funzione f e la sua continuità garantiscono
l’esistenza della funzione inversa. Una funzione strettamente monotona è infatti iniettiva e, considerata
come funzione continua da A a f (A), per il teorema dei valori intermedi, essa è suriettiva. Ne segue
che è biunivoca e quindi invertibile. Inoltre se f è una funzione crescente (decrescente) allora anche
la sua inversa è crescente (decrescente). Per fissare le idee prendiamo f crescente e poniamo f (a) =
c, f (b) = d.

Considerato allora un y0 ∈ (c, d), ci sarà un x0 interno ad (a, b) tale che x0 = f −1 (y0 ). Preso allora
un intorno (x0 − ε, x0 + ε) contenuto in (a, b), ad esso corrisponderà un intorno (y1 , y2 ) ⊂ (c, d) dove
y1 = f (x0 − ε) e y2 = f (x0 + ε). Prendiamo allora un δ > 0 in modo tale che (y0 − δ, y0 + δ) ⊂ (y1 , y2 ).
6.3. TEOREMI SULLE FUNZIONI CONTINUE 73

Siccome f −1 è crescente, in quest’ultimo intorno di ampiezza δ varrà

f −1 (y1 ) < f −1 (y0 − δ) < f −1 (y) < f −1 (y0 + δ) < f −1 (y2 )

Ma f −1 (y1 ) = f −1 (y0 ) − ε e f −1 (y2 ) = f −1 (y0 ) + ε, quindi

f −1 (y0 ) − ε < f −1 (y) < f −1 (y0 ) + ε, ∀y ∈ (y0 − δ, y0 + δ).

La funzione f −1 è allora continua in y0 . In modo analogo si dimostra il teorema se si prende f


decrescente.

• Esempi
1) La funzione f (x) = loga x, a ∈ R++ \ {1} è la funzione inversa della funzione esponenziale
ax che è continua e strettamente crescente o strettamente decrescente in R a seconda che a > 1
o 0 < a < 1. Essa è quindi continua. Analogamente, le funzioni inverse delle funzioni circolari
arcsin x, arccos x sono funzioni continue in (−1, 1) mentre la funzione arctan x è continua in R.

Data una funzione f : A → R, si dice che un punto x̄ ∈ A è un punto di massimo (minimo) assoluto
per la funzione se
f (x̄) ≥ f (x), (f (x̄) ≤ f (x)), ∀x ∈ A.

Teorema 6.4 (di Weierstrass o del massimo e del minimo assoluto) Una funzione continua in un
intervallo chiuso e limitato [a, b], ammette un punto di massimo assoluto e un punto di minimo assoluto
in [a, b].

Dim. Dimostriamo innanzitutto che una funzione continua in [a, b], è limitata in [a, b]. Infatti se cosı̀
non fosse, comunque preso un numero naturale n, ad esso si potrebbe associare un opportuno numero
xn ∈ [a, b] tale che
|f (xn )| > n.
Potremmo cosı̀ costruire una successione {xn }n∈N che soddisfi la diseguaglianza precedente e che sia
tutta contenuta nell’intervallo [a, b]. Tale successione risulta dunque limitata e, per il Teorema 4.5,
ammette una sottosuccessione {xnk }k∈N convergente ad un punto x0 ∈ [a, b]. Poiché la funzione è
continua in tutto [a, b], si avrebbe
lim f (xnk ) = f (x0 ).
k→∞

Ma quest’ultimo risultato è in contraddizione con la diseguaglianza precedente, quindi la funzione è


limitata in [a, b].
Esisterà allora un estremo superiore M dell’immagine f ([a, b]). Supponiamo per assurdo che non esista
alcun x ∈ [a, b] tale che f (x) = M . La funzione

1
g(x) = ,
M − f (x)

è allora definita e continua in [a, b], e, per quanto appena dimostrato, essa è limitata. D’altra parte
dalla definizione di estremo superiore segue che esiste in [a, b] un x tale che M − f (x) < ε (con
74 CAPITOLO 6. FUNZIONI CONTINUE

ε > 0). Questa disuguaglianza implica che g(x) > 1ε , e quindi, contrariamente a quanto detto, g(x)
non sarebbe limitata.

Dal teorema di esistenza degli zeri segue che ogni polinomio di grado dispari ammette certamente uno
zero reale. Si ha infatti
( a1 a2 an )
P (x) = xn + a1 xn−1 + a2 xn−2 + ... + an = xn 1 + + 2 + ... + n (n dispari).
x x x

Ne segue che
lim P (x) = +∞, lim P (x) = −∞.
x→+∞ x→−∞

Per la definizione di limite allora, in corrispondenza di un M > 0 esisteranno un x1 e un x2 tali


che P (x1 ) > M e P (x2 ) < −M . Essendo P (x) una funzione continua su tutto R, per il teorema di
esistenza degli zeri si conclude che esisterà un x0 tale che P (x0 ) = 0.

Sul teorema di esistenza degli zeri si basa il metodo di bisezione o dicotomico per la ricerca di soluzioni
di equazioni algebriche. Supponiamo per esempio di voler determinare una soluzione dell’equazione

f (x) = x4 − x3 + 2x2 − 1 = 0.

Notiamo che tale equazione ammette certamente una soluzione reale in quanto f (−1) = 3, f (0) =
−1, ed essendo f (x) continua, per il teorema di esistenza dgli zeri esiste un x0 ∈ (−1, 0) tale che
f (x0 ) = 0. Prendiamo il punto medio dell’intervallo (−1, 0) e valutiamo f in questo punto. Si ha
f (−1/2) = −5/16. Possiamo allora applicare di nuovo il teorema degli zeri all’intervallo (−1, −1/2)
affermando che in esso è contenuto uno zero di f (x). Prendendo il punto medio di questo nuovo
intervallo e calcolandovi f troviamo f (−3/4) = 5/256. Ne segue che troveremo certamente uno zero di
f in (−3/4, −1/2). Andando avanti di questo passo, troveremo intervalli sempre più piccoli contenenti
una soluzione dell’equazione f (x) = 0, e quindi il punto medio dell’ultimo intervallo considerato darà
un valore approssimato di x0 che si discosta da quello vero di una quantità minore o uguale alla
semiampiezza dell’intervallo stesso. Generalizzando, diciamo (α0 , β0 ) l’intervallo di partenza e

(αk , βk ) ⊂ (αk−1 , βk−1 ), k = 1, 2, ..., n

i successivi intervalli. Detto xn il punto medio dell’n-esimo intervallo, si avrà

1
|xn − x0 | ≤ |β0 − α0 |.
2n

Se nell’esempio considerato vogliamo ricavare una soluzione approssimata a meno di 0.01 dovremo
fermarci ad n = 7. In tal caso infatti 1/27 = 1/128 < 0.01. Nel dettaglio si ha
k, f (xk ) xk 1/2k
1, -.3125000000, -.5000000000, .5000000000
2, .863281250, -.7500000000, .2500000000
3, .177978516, -.6250000000, .1250000000
4, -.0890960694, -.5625000000, .0625000000
5, .038681984, -.5937500000, .0312500000
6, -.0266084075, -.5781250000, .0156250000
7, .005681697, -.5859375000, .0078125000
6.4. LIMITI NOTEVOLI 75

6.4 Limiti notevoli


Vogliamo dimostrare che
( ) ( )
1 x 1 x
lim 1+ = e, lim 1+ = e.
x→+∞ x x→−∞ x
A tale scopo chiamiamo n la parte intera di x e quindi, per definizione avremo
n ≤ x < n + 1.
Si ottiene allora ( )n ( ) ( )
1 1 x 1 n+1
1+ < 1+ < 1+ .
n+1 x n
D’altra parte facendo uso di una definizione del numero di Nepero e utilizzando le proprietà dei limiti
di successioni, si ha
( ) ( ) ( )
1 n+1 1 n 1
lim 1+ = lim 1+ lim 1+ = e.
n→+∞ n n→+∞ n n→+∞ n
( )n ( )n+1 ( )−1
1 1 1
lim 1+ = lim 1+ lim 1+ = e.
n→+∞ n+1 n→+∞ n+1 n→+∞ n+1
Applicando allora il teorema del confronto, si ha il primo risultato cercato. Per quanto riguarda il
limite della stessa funzione quando x → −∞, si può porre y = −x e ossevare che
( ) ( ) ( )
1 x 1 −y y − 1 −y
lim 1+ = lim 1 − = lim
x→−∞ x y→+∞ y y→+∞ y
( )y ( )y
y 1
= lim = lim 1 +
y→+∞ y − 1 y→+∞ y−1
( )y−1 ( )
1 1
= lim 1 + lim 1 + = e.
y→+∞ y−1 y→+∞ y−1

Da questo limite notevole si possono dedurre i seguenti altri limiti, che si presentano come forme
indeterminate. 1
lim (1 + x) x = e,
x→0
loga (1 + x) ln(1 + x)
lim = loga e, lim = 1,
x→0 x x→0 x
ax − 1 ex − 1
lim = ln a, lim = 1.
x→0 x x→0 x

In particolare dimostriamo che


(1 + τ )α − 1
lim = α, α ∈ R.
τ →0 τ
Poniamo η = (1 + τ )α − 1. Si ha
(1 + τ )α − 1 η loga (1 + τ )α
lim = lim
τ →0 τ τ →0 τ loga (1 + η)
loga (1 + τ ) η
= α lim lim = α.
τ →0 τ η→0 loga (1 + η)
76 CAPITOLO 6. FUNZIONI CONTINUE

Vogliamo dimostrare che


sin x
lim = 1.
x→0 x

A tale scopo notiamo che, per x ∈ (0, π/2), sussiste la diseguaglianza

sin x < x < tan x.

e poiché tutti i termini di questa disuguaglianza sono positivi, si può scrivere


x 1 sin x
1< < , ⇒ cos x < < 1.
sin x cos x x
La stessa diseguaglianza vale per x ∈ (−π/2, 0). D’altra parte, tenuto conto della continuità delle
funzioni cos x e 1, prendendo il limite per x → 0 nella diseguaglianza precedente e applicando il
teorema del confronto otteniamo il risultato cercato.
Da questo limite notevole si ricavano i seguenti altri limiti.
tan x
lim = 1,
x→0 x
1 − cos x 1
lim 2
=
x→0 x 2
arcsin x arctan x
lim = 1, lim = 1.
x→0 x x→0 x

6.5 Asintoti
Se una funzione ha un limite infinito per x che tende, da destra o da sinistra, a un numero finito x0 ,
la retta di equazione x = x0 si dice un asintoto verticale per la funzione. Il grafico della funzione si
avvicina sempre di più a tale retta quando x → x0 .
Se una funzione ha un limite finito l per x che tende a +∞ o a −∞, si dice che la retta di equazione
y = l è un asintoto orizzontale per la funzione. Il grafico della funzione si avvicina sempre di più a
questa retta quando x diventa molto grande (positivo o negativo).
Può accadere che il grafico di una funzione si avvicini, al tendere di x all’infinito, ad una retta di
equazione y = mx + q, (m ̸= 0). In tal caso accade che la differenza tra il valore della funzione e
l’ordinata del punto della retta per lo stesso valore di x, tende a zero al tendere di x all’infinito, ovvero

lim [f (x) − mx − q] = 0, oppure lim [f (x) − mx − q] = 0.


x→+∞ x→−∞

Si dice allora che la retta di equazione y = mx + q è un asintoto obliquo per la funzione. Osserviamo
che, se la funzione ammette un asintoto obliquo, i due limiti
f (x)
lim = m, lim [f (x) − mx] = q,
x→+∞ x x→+∞

devono essere finiti. Il calcolo di questi due limiti fornisce allora i parametri che descrivono la retta.

• Esempi
1) Determiniamo gli eventuali asintoti della funzione

2x2 + x
f (x) = .
x2 − 1
6.5. ASINTOTI 77

Si ha
2x2 + x 2x2 + x
lim = ±∞, lim = ∓∞,
x→+1± x2 − 1 x→−1± x2 − 1
da cui segue che le rette di equazioni x = 1 e x = −1 sono asintoti verticali per la funzione. Si
ha poi
2x2 + x
lim = 2,
x→±∞ x2 − 1

quindi la retta di equazione y = 2 è un asintoto orizzontale per la funzione.

2) Consideriamo la funzione f (x) = ln(1 + 2/x). Essa è definita nei semiassi x < −2 e x > 0.
Cerchiamone gli eventuali asintoti. Si ha

lim ln(1 + 2/x) = +∞, lim ln(1 + 2/x) = −∞.


x→0+ x→−2−

Da questi limiti deduciamo che le rette di equazioni x = 0 e x = −2 sono asintoti verticali per
la funzione. Si ha poi
lim ln(1 + 2/x) = 0,
x→±∞

quindi la retta y = 0 è un asintoto orizzontale della funzione.



3) Cerchiamo gli eventuali asintoti della funzione f (x) = x2 + x − 1 − x. Si ha
√ x−1
lim ( x2 + x − 1 − x) = lim √
x→+∞ x→+∞ x2 + x − 1 + x
1 − x1 1
= lim √ = .
x→+∞
1 + x1 − x12 + 1 2

La retta di equazione y = 1/2 è un asintoto orizzontale. Si ha poi



lim ( x2 + x − 1 − x) = +∞,
x→−∞

quindi non esistono asintoti orizzontali a sinistra. D’altra parte


√ ( √ )
x2 + x − 1 − x x2 + x − 1
lim = lim − − 1 = −2.
x→−∞ x x→−∞ x2
√ x−1
lim ( x2 + x − 1 − x + 2x) = lim √
x→−∞ x→−∞ x +x−1−x
2

1 − x1 1
= lim √ =− .
x→−∞
− 1 + x1 − x12 − 1 2

Ne segue che la retta di equazione y = −2x − 1


2 è un asintoto obliquo per la funzione.
78 CAPITOLO 6. FUNZIONI CONTINUE
Capitolo 7

Derivate

7.1 Derivata di una funzione


Consideriamo una funzione f : (a, b) → R ed un punto x0 ∈ (a, b). Sia h ∈ R, non nullo, tale che
x0 + h ∈ (a, b). Diciamo incremento di f relativo ad h in x0 , la differenza ∆f = f (x0 + h) − f (x0 ), e
rapporto incrementale di f la quantità

∆f f (x0 + h) − f (x0 )
= .
h h
Il rapporto incrementale misura la variazione relativa del valore della funzione f quando x varia in
(a, b) dal valore x0 al valore x0 + h. Geometricamente, esso rappresenta il coefficiente angolare della
retta r passante per i punti P0 e P1 di coordinate (x0 , f (x0 )) e (x0 + h, f (x0 + h)), appartenenti al
grafico della funzione.

Supponiamo che esista il

∆f f (x0 + h) − f (x0 ) f (x) − f (x0 )


lim = lim = lim ,
h→0 h h→0 h x→x 0 x − x0

79
80 CAPITOLO 7. DERIVATE

e che sia finito. Tale limite si dice allora la derivata della funzione f in x0 e si indica con f ′ (x0 ) oppure
con Df (x0 ). Se la funzione è continua in x0 , al tendere di h a zero, i punti P0 e P1 vanno a coincidere
e la retta r tende alla tangente al grafico di f in P0 . Qualora esista, la derivata f ′ (x0 ) rappresenta
allora il coefficiente angolare di questa tangente. Notiamo che, se la funzione non è continua in x0 , pur
essendo ivi definita, il limite del suo rapporto incrementale non è finito oppure non esiste e quindi la
derivata non esiste. In altri termini la continuità di una funzione in un punto è condizione necessaria
per la sua derivabilità in quel punto. Si può arrivare a questa conclusione anche nel seguente modo.

Teorema 7.1 Una funzione f : (a, b) → R derivabile in x0 ∈ (a, b) è continua in x0 .

Dim. Basta osservare che


∆f ∆f
lim [f (x0 + h) − f (x0 )] = lim h = lim lim h = f ′ (x0 ) · 0 = 0.
h→0 h→0 h h→0 h h→0

Quindi
lim f (x0 + h) = f (x0 ) ⇒ lim f (x) = f (x0 ).
h→0 x→x0

Una funzione si dice derivabile in (a, b) se esiste la derivata in tutti i punti di (a, b). In tal caso la
derivata risulta una funzione definita in (a, b), che indicheremo con uno dei simboli

d
f ′ (x), D[f (x)], f (x).
dx
L’ultima di queste notazioni verrà chiarita al par. 8.4.

7.2 Derivate di funzioni elementari


Facendo uso della definizione, calcoliamo, laddove esiste, la derivata delle seguenti funzioni

1) f (x) = k, k = costante,
2) f (x) = x,
3) f (x) = |x|,
4) f (x) = xα , α ∈ R,
5) f (x) = sin x, g(x) = cos x,
6) f (x) = ax , g(x) = a−x , a ∈ R+ ,
7) f (x) = loga x, a ∈ R++ \ {1}.

1) Dimostriamo che la funzione costante f (x) = k è derivabile su tutto R e la sua derivata è nulla in
R. Preso un qualunque x0 ∈ R, dalla definizione abbiamo

k−k
f ′ (x0 ) = lim = 0.
h→0 h

2) Dimostriamo che la funzione identica f (x) = x è derivabile su tutto R e la sua derivata vale 1 in
R. Infatti, per qualunque x0 ∈ R, si ha

x0 + h − x0
f ′ (x0 ) = lim = lim 1 = 1.
h→0 h h→0
7.2. DERIVATE DI FUNZIONI ELEMENTARI 81

3) La funzione f (x) = |x| è derivabile in R \ {0} e si ha


{
1 x>0
f ′ (x) =
−1 x < 0

Infatti, per qualsiasi x > 0 si ha f (x) = x e, in virtù del risultato precedente si ha f ′ (x) = 1. Se invece
prendiamo x < 0, si ha f (x) = −x, e si verifica subito che f ′ (x) = −1. Infine consideriamo il punto
x = 0. Si ha
0+h−0 −0 − h + 0
lim = 1, lim = −1.
h→0+ h h→0− h
Ne segue che il limite del rapporto incrementale per x → 0 non esiste. La funzione non ammette
derivata in x = 0. Questo esempio mostra come una funzione continua in un punto possa non essere
derivabile in quel punto.
4) Consideriamo la funzione f (x) = xα , dove x ≥ 0 e α è un qualunque numero reale. Se α ≥ 1 la
funzione è derivabile in x = 0. Infatti, in tal caso,
{
(0 + h)α − 0 0 α>1
lim = lim hα−1 =
h→0 h h→0 1 α=1

Se α < 1, non è derivabile in x = 0. Se, x > 0, si ha


( )
h α
α (x + h)α − xα α−1 1 + x −1
D(x ) = lim = lim x h
h→0 h h→0
x
(1 + τ )α − 1
= xα−1 lim = αxα−1 .
τ →0 τ
dove abbiamo posto τ = h/x, e dove abbiamo fatto uso del limite notevole ottenuto al par. 6.4.
5) Consideriamo la funzione sin x. Applicando la definizione per un qualunque x ∈ R, abbiamo

sin(x + h) − sin x sin x cos h + cos x sin h − sin x


D(sin x) = lim = lim
h→0 h h→0
[ h ]
cos h − 1 sin h
= lim sin x + cos x
h→0 h h
cos h − 1 sin h
= sin x lim h 2
+ cos x lim
h→0 h h→0 h
= cos x.

dove si è fatto uso dei risultati sui limiti notevoli del par. 6.4. In modo analogo, per la funzione cos x,
si ha
cos(x + h) − cos x cos x cos h − sin x sin h − cos x
D(cos x) = lim = lim
h→0 h h→0
[ h ]
cos h − 1 sin h
= lim cos x − sin x
h→0 h h
cos h − 1 sin h
= cos x lim h 2
− sin x lim
h→0 h h→0 h
= − sin x.
82 CAPITOLO 7. DERIVATE

6) Consideriamo la funzione esponenziale ax , con a ∈ R++ , a ̸= 1. Essa è definita su tutto R. Preso


quindi un qualunque x ∈ R, in base alla definizione,

ax+h − ax ah − 1
D(ax ) = lim = ax lim = ax ln a,
h→0 h h→0 h
dove abbiamo ancora fatto uso dei risultati sui limiti notevoli del par. 6.4. In modo perfettamente
analogo si ha
a−x−h − a−x a−h − 1
D(a−x ) = lim = −a−x lim = −a−x ln a.
h→0 h h→0 −h

7) Infine, la funzione loga |x|, definita in R \ {0}, risulta derivabile in tutto il suo dominio e si ha

loga |x + h| − loga |x| loga x+h
D(loga |x|) = lim = lim x
h→0 h h→0 h
1 loga (1 + τ ) 1 1
= lim = .
x τ →0 τ x ln a
dove si è posto ancora τ = h/x.

7.3 Regole di derivazione


Consideriamo due funzioni f : (a, b) → R e g : (a, b) → R, derivabili in (a, b). Dimostriamo che
risultano derivabili anche le funzioni

1) fs (x) = αf (x) + βg(x) con α, β ∈ R,


2) fp (x) = f (x)g(x),
3) fr (x) = f (x)/g(x) se g(x) ̸= 0.

1) Si ha, per un qualunque x ∈ (a, b),

αf (x + h) + βg(x + h) − αf (x) − βg(x)


fs′ (x) = lim
h→0 h
f (x + h) − f (x) g(x + h) − g(x)
= α lim + β lim
h→0 h h→0 h
′ ′
= αf (x) + βg (x).

2) Per qualunque x ∈ R, usando la continuità di g(x), si ha

f (x + h)g(x + h) − f (x)g(x)
fp′ (x) = lim
h→0 h
f (x + h)g(x + h) − f (x)g(x + h) + f (x)g(x + h) − f (x)g(x)
= lim
h→0 h
f (x + h) − f (x) g(x + h) − g(x)
= lim g(x + h) + lim f (x)
h→0 h h→0 h
= f ′ (x)g(x) + f (x)g ′ (x)

3) Per ipotesi, fissato x ∈ (a, b), si ha g(x) ̸= 0, ed essendo g continua, per il teorema della permanenza
del segno esiste un intorno di x di ampiezza δ tale che, scelto |h| < δ si abbia g(x + h) ̸= 0. Possiamo
7.3. REGOLE DI DERIVAZIONE 83

allora scrivere
f (x+h) f (x)
− f (x + h)g(x) − g(x + h)f (x)
fr′ (x)
g(x+h) g(x)
= lim = lim
h→0 h h→0 g(x + h)g(x)h
f (x + h)g(x) − f (x)g(x) + f (x)g(x) − g(x + h)f (x)
= lim
h→0 g(x + h)g(x)h
[ ]
f (x + h) − f (x) g(x + h) − g(x) 1
= lim g(x) − f (x)
h→0 h h g(x + h)g(x)
′ ′
f (x)g(x) − f (x)g (x)
=
[g(x)]2

In particolare, la derivata del reciproco di una funzione, si ottiene ponendo nell’ultima formula f (x) =
1. Si ha cosı̀ ( )
1 g ′ (x)
D =− .
g(x) [g(x)]2

Mediante le precedenti regole di derivazione ed i risultati del paragrafo precedente, è possibile calcolare
le derivate di molte altre funzioni.

• Esempi
La derivata della funzione tan x si ricava da quelle di sin x e cos x. Utilizzando la regola di
derivazione 3) sul rapporto di due funzioni si ha
( )
sin x D(sin x) cos x − sin xD(cos x)
D(tan x) = D =
cos x cos2 x
cos2 x + sin2 x 1
= 2
= = 1 + tan2 x
cos x cos2 x
Analogamente si ha
1
D(cot x) = − = −(1 + cot2 x).
sin2 x

Le funzioni iperboliche sinh x e cosh x si ricavano da differenze o somme di funzioni esponenziali.


Quindi per la regola di derivazione 1) si ha

ex − e−x ex + e−x
D(sinh x) = D = = cosh x,
2 2
ex + e−x ex − e−x
D(cosh x) = D = = sinh x.
2 2
Inoltre per le regole di derivazione 1) e 3) si ha

ex − e−x (ex + e−x )(ex + e−x ) − (ex − e−x )(ex − e−x )


D(tanh x) = D −x
=
x
e +e (ex + e−x )2
= 1 − tanh2 x.
84 CAPITOLO 7. DERIVATE

La derivata di un polinomio di grado n in x, è un polinomio di grado n − 1 in x. Infatti,


utilizzando le regole di derivazione 1) e 2) si ha
D(P (x)) = D(a0 xn + a1 xn−1 + ... + an ) = na0 xn−1 + (n − 1)a1 xn−2 + ... + an−1 .

Teorema 7.2 (Derivata della funzione inversa) Sia y = f (x) : (a, b) → (c, d) monotòna e derivabile
in (a, b) e supponiamo che f ′ (x) ̸= 0 in tutto (a, b). Allora la funzione inversa f −1 (y) è derivabile in
(c, d) e la sua derivata è
1 1
[f −1 ]′ (y) = ′ = ′ −1 .
f (x) f [f (y)]
Dim. Innanzitutto osserviamo che la monotonia e la continuità della funzione f garantiscono la sua
invertibilità. Chiamando con h l’incremento della variabile x in (a, b) e con k l’incremento della
variabile y in (c, d), si ha
f −1 (y + k) − f −1 (y) h
= .
k f (x + h) − f (x)
Poiché f è derivabile, essa risulta continua e di conseguenza, per un teorema sulle funzioni continue,
la sua inversa è continua. Ciò implica che, se k → 0 allora anche h → 0, infatti,
0 = lim [f −1 (y + k) − f −1 (y)] = lim h.
k→0 k→0

Prendiamo allora il limite del precedente rapporto incrementale e otteniamo


f −1 (y + k) − f −1 (y) h 1 1
lim = lim = ′ = ′ −1 .
k→0 k h→0 f (x + h) − f (x) f (x) f [f (y)]
• Esempi
Consideriamo la funzione sin x. Essa è invertibile nell’intervallo (−π/2, π/2) ed anche derivabile.
Inoltre, la sua derivata non si annulla mai in (−π/2, π/2). Calcoliamo allora la derivata di
y = arcsin x. In base al precedente teorema, si ha
1 1 1 1
D[arcsin x] = = = =√ .
D sin y cos y cos[arcsin x] 1 − x2
Analogamente si calcola la derivata di y = arccos x, inversa di cos x, definita in (0, π). Si ha
1 1 1 1
D[arccos x] = = =− = −√ .
D cos y − sin y sin[arccos x] 1 − x2
La derivata della funzione arctan x, inversa di tan x, definita in (−π/2, π/2) si calcola nello stesso
modo e si ha
1 1 1
D[arctan x] = = 2 = .
D tan y 1 + tan y 1 + x2
Le funzioni inverse delle funzioni iperboliche hanno poi le seguenti derivate
1 1 1 1
D[sinh−1 x] = = = −1 =√ ,
D sinh y cosh y cosh(sinh x) 1 + x2
1 1 1 1
D[cosh−1 x] = = = −1 =√ ,
D cosh y sinh y sinh(cosh x) x −1
2

1 1 1
D[tanh−1 x] = = = .
D tanh y 1 − tanh2 y 1 − x2
7.3. REGOLE DI DERIVAZIONE 85

Notiamo che le funzioni ax e loga x sono l’una l’inversa dell’altra. Nota la derivata di una delle
due, si può ricavare la derivata dell’altra mediante il teorema 7.2. Per esempio, per x > 0 si ha
1 1 1
D loga x = y
= y = .
Da a ln a x ln a

Teorema 7.3 (Derivate di funzioni composte) Date due funzioni f : (a, b) → (c, d) e g : (c, d) → R,
derivabili nei loro domini, la funzione composta (g ◦ f )(x) è derivabile in (a, b), e si ha
(g ◦ f )′ (x) = g ′ [f (x)] · f ′ (x).
Dim. Sia x0 ∈ (a, b) e f (x0 ) = y0 ∈ (c, d). Si ha
g[f (x)] − g[f (x0 )] g[f (x)] − g[f (x0 )] f (x) − f (x0 )
= .
x − x0 f (x) − f (x0 ) x − x0
Per la continuità di f in x0 si ha
lim f (x) = f (x0 ) = y0 ,
x→x0

quindi, posto y = f (x), si ha


g[f (x)] − g[f (x0 )] g(y) − g(y0 )
lim = lim .
x→x0 f (x) − f (x0 ) y→y0 y − y0
Ne segue che
g[f (x)] − g[f (x0 )]
(g ◦ f )′ (x0 ) = lim = g ′ (y0 ) f ′ (x0 ) = g ′ [f (x0 )]f ′ (x0 )
x→x0 x − x0
Poiché questo risultato vale per ogni x0 ∈ (a, b) si ottiene la tesi.
Il teorema appena dimostrato permette di ricavare, per esempio, le seguenti formule di derivazione
D[f (x)]α = α[f (x)]α−1 f ′ (x), α ∈ R,

D ln[f (x)] = f (x)/f (x),
D sin[f (x)] = cos[f (x)]f ′ (x),
Def (x) = ef (x) f ′ (x).

l’ultima di queste formule consente di ricavare la derivata di funzioni del tipo [f (x)]g(x) . Infatti, poiché
si ha
[f (x)]g(x) = [eln f (x) ]g(x) = eg(x) ln f (x) ,
prendendo la derivata di ambo i membri, si ottiene
[ ]
g(x) g(x) ln f (x) g(x) ′ f ′ (x)
D[f (x)] =e D[g(x) ln f (x)] = [f (x)] g (x) ln f (x) + g(x) .
f (x)
• Esempio
Data la funzione f (x) = xx , con x ∈ R++ , si ha
Dxx = D[ex ln x ] = ex ln x D[x ln x] = xx [ln x + 1].
86 CAPITOLO 7. DERIVATE

7.4 Derivate successive


Se una funzione f è derivabile in un dato intervallo (a, b), la sua derivata è, a sua volta, una funzione
definita in quell’intervallo. Ci si può allora chiedere se f ′ sia, a sua volta derivabile in (a, b). Se ciò
accade, la derivata di f ′ si dice derivata seconda di f e si indica con f ′′ . Ragionando cosı̀ si possono
definire le derivate terze, quarte, etc.. La derivata k-esima si indicherà con f (k) .

• Esempi
1) Calcoliamo la derivata seconda di f (x) = ln x. La derivata prima di f (x) esiste in R++ ed è
data da f ′ (x) = x1 = x−1 , la quale risulta derivabile nello stesso dominio. La derivata seconda
sarà data allora da f ′′ (x) = − x12 .

2) Calcoliamo la derivata terza della funzione


{
x2 x≥0
f (x) =
−x2 x<0

Per x ̸= 0 la funzione risulta derivabile e si ha


{
2x x>0
f ′ (x) =
−2x x < 0

D’altra parte si ha

f (0 + h) − f (0) f (0 + h) − f (0)
lim = lim h = 0, lim = lim (−h) = 0.
h→0+ h h→0+ h→0− h h→0−

Ne segue che f (x) è derivabile anche in x = 0, e la sua derivata si può scrivere come

f ′ (x) = 2|x|, x ∈ R.

In base a quanto visto nel par. 7.2, la funzione |x| è derivabile in R \ {0} e si ha, dunque
{
′′ 2 x>0
f (x) =
−2 x < 0.

Poiché la derivata di una costante è sempre nulla, la derivata terza sarà anch’essa definita per
x ̸= 0 e varrà
f ′′′ (x) = 0, x ∈ R \ {0}.

3) Dimostriamo che la derivata di ordine k della funzione f (x) = xn con n ∈ N è data da

n!
f (k) (x) = xn−k , k ≤ n.
(n − k)!

Sappiamo già che


f ′ (x) = nxn−1 ,
7.4. DERIVATE SUCCESSIVE 87

quindi la formula data vale certamente per k = 1. Utilizzando una dimostrazione per induzione,
mostriamo che, se essa è vera per un certo k, allora essa vale anche per k + 1. Infatti si ha
[ ]
n! n!
f (k+1) (x) = D xn−k = (n − k) xn−k−1
(n − k)! (n − k)!
n!
= x[n−(k+1)] .
[n − (k + 1)]!
88 CAPITOLO 7. DERIVATE
Capitolo 8

Proprietà delle funzioni derivabili

8.1 Teoremi sulle funzioni derivabili


Teorema 8.1 (di Rolle) Data una funzione continua in un intervallo chiuso [a, b] e derivabile nei
suoi punti interni, tale che f (a) = f (b), esiste un punto interno ad [a, b] in cui si annulla la derivata
prima di f .

Dim. Poiché la funzione è continua in un intervallo chiuso, per il teorema di Weierstrass, essa ammette
un massimo M e un minimo m. Esisteranno allora xm , xM , tali che f (xm ) = m, f (xM ) = M . Se questi
punti coincidessero con gli estremi a, b dell’intervallo di definizione, allora per le ipotesi, si avrebbe
m = M e la funzione sarebbe costante in [a, b]. Questo significherebbe che f ′ (x) = 0 per ogni x ∈ (a, b)
e la tesi sarebbe dimostrata. Supponiamo allora che uno dei due punti xm , xM , non coincida con un
estremo dell’intervallo [a, b], per esempio xm . Poiché xm è un punto interno, preso un h tale che esista
(xm + h) ∈ (a, b), si avrà f (xm + h) − f (xm ) ≥ 0 ed il rapporto incrementale

f (xm + h) − f (xm )
,
h
risulterà non negativo per h > 0 e non positivo per h < 0. Poiché la funzione è derivabile, il limite di
questo rapporto quando h → 0+ e quando h → 0− deve essere lo stesso. Se esso fosse positivo, per
il teorema della permanenza del segno, il rapporto incrementale sarebbe positivo in tutto un intorno
(destro e sinistro) di xm e ciò è impossibile. Alla stessa conclusione si giunge se si suppone il limite
negativo. Se ne conclude che f ′ (xm ) = 0. Lo stesso ragionamento vale se avessimo scelto xM interno
ad [a, b]. In definitiva allora esiste un punto interno ad [a, b] in cui f ′ = 0.

Teorema 8.2 (di Cauchy) Date due funzioni f (x), g(x) continue in [a, b] e derivabili in (a, b), sup-
poniamo che g(b) ̸= g(a) e che g ′ (x) ̸= 0 in (a, b). Allora esiste un punto ξ ∈ (a, b) tale che

f (b) − f (a) f ′ (ξ)


= ′ .
g(b) − g(a) g (ξ)
Dim. Consideriamo la funzione

ϕ(x) = hf (x) + kg(x), con h, k costanti reali,

e determiniamo h, k in modo tale che ϕ(a) = ϕ(b). Si ha

ϕ(a) − ϕ(b) = 0 ⇒ h[f (b) − f (a)] + k[g(b) − g(a)] = 0,

89
90 CAPITOLO 8. PROPRIETÀ DELLE FUNZIONI DERIVABILI

e quindi si può scegliere h = g(b) − g(a), k = f (a) − f (b). Si ottiene cosı̀

ϕ(x) = [g(b) − g(a)]f (x) − [f (b) − f (a)]g(x).

Applicando il teorema di Rolle alla funzione ϕ(x), possiamo concludere che esiste un ξ ∈ (a, b) tale
che ϕ′ (ξ) = 0 ovvero
[g(b) − g(a)]f ′ (ξ) − [f (b) − f (a)]g ′ (ξ) = 0.
Per ipotesi g(b) − g(a) ̸= 0, e inoltre, g ′ (ξ) ̸= 0. Dividendo l’uguaglianza precedente per queste due
quantità si ottiene la tesi.

Teorema 8.3 (di Lagrange o del valor medio) Data una funzione continua in [a, b] e derivabile in
(a, b), esiste un punto interno ξ ∈ (a, b) tale che

f (b) − f (a) = (b − a)f ′ (ξ)

Dim. La tesi di questo teorema segue subito dal teorema di Cauchy, quando si sceglie g(x) = x.
Infatti, in tal caso g ′ (x) = 1 per ogni x ∈ (a, b) e g(b) − g(a) = b − a.
Importante per le applicazioni al calcolo dei limiti di funzioni è anche il seguente teorema, che non
dimostreremo.

Teorema 8.4 (Regola di De L’Hôpital) Siano f e g due funzioni derivabili in (a, b) escluso al più un
punto x0 ∈ (a, b) e sia g ′ (x) ̸= 0 per ogni x ∈ (a, b) escluso al più il punto x0 . Se

f ′ (x)
lim f (x) = lim g(x) = 0, e lim = l,
x→x0 x→x0 x→x0 g ′ (x)

allora si ha anche
f (x)
lim = l.
x→x0 g(x)

La regola di De L’Hôpital vale anche quando x → +∞, x → −∞ e nel caso in cui il limite del rapporto
delle derivate sia infinito. Esiste inoltre una seconda regola di De L’Hôpital valida quando i limiti di
f e di g sono ambedue infiniti. In tal caso le ipotesi del teorema precedente vengono modificate con
le seguenti
f ′ (x)
lim f (x) = lim g(x) = +∞, lim ′ = l,
x→x0 x→x0 x→x0 g (x)

e la tesi diventa
f (x)
lim = l.
x→x0 g(x)
Negli esempi successivi, utilizziamo le regole di De L’Hôpital per determinare alcuni limiti che si
presentano sotto diverse forme indeterminate.

• Esempi
1) Calcoliamo
2
ex − 1
lim ,
x→0 cos x − 1
8.1. TEOREMI SULLE FUNZIONI DERIVABILI 91

che si presenta come una forma indeterminata 00 . Si ha


2 2 2 2
ex − 1 2xex 2ex + 4x2 ex
lim = lim = lim = −2.
x→0 cos x − 1 x→0 − sin x x→0 − cos x

2) Calcoliamo ( )
exp x cos2 x1
lim
x→+∞ ln x1

che si presenta sotto la forma indeterminata ∞. Si ha
( ) ( 2 ) ( )
exp x cos2 x1 cos 1
+ 2
cos x1 sin x1 exp x cos2 x1
lim = lim x x
= −∞
x→+∞ 1
ln x x→+∞ − x1

3) Calcoliamo
1
lim x(3 x − 1),
x→+∞

che si presenta nella forma indeterminata 0 · ∞. Si ha


1 1 ( )
1 3x − 1 3 x − x12 ln 3
lim x(3 − 1) = lim
x = lim = ln 3.
x→+∞ x→+∞ 1
x
x→+∞ − x12

4) Calcoliamo

x3 + x2 − 1 − x),
3
lim (
x→+∞

che si presenta nella forma ∞ − ∞. Posto y = 1/x, si ha



√ 3
1 + y − y3 − 1 1 − 3y 2 1
− 1 − x) = lim
3
lim ( x3 + x2 = lim 2 = .
x→+∞ y→0+ y y→0 3(1 + y − y 3 ) 3 3

5) Calcoliamo
lim (cos x)cot x ,
x→0+

che si presenta nella forma indeterminata 1∞ . Poiché si ha

ln(cos x) − tan x
lim cot x ln(cos x) = lim = lim = 0,
x→0+ x→0+ tan x x→0+ 1 + tan2 x

ne segue che
lim (cos x)cot x = lim ecot x ln(cos x) = 1.
x→0+ x→0+
92 CAPITOLO 8. PROPRIETÀ DELLE FUNZIONI DERIVABILI

8.2 Formula di Taylor


Consideriamo il polinomio P (x) di grado n in x

P (x) = a0 + a1 x + a2 x2 + ... + an xn .

Preso un x0 ∈ R, vogliamo riscrivere P (x) come polinomio di x − x0 . A tale scopo, posto x − x0 = t,


si ha x = x0 + t, da cui

P (x0 + t) = a0 + a1 (x0 + t) + ... + an (x0 + t)n .

Raccogliendo i termini di uguale potenza in t, si ottiene

P (x0 + t) = b0 + b1 t + b2 t2 + ... + bn tn ,

dove, per esempio, b0 = a0 + a1 x0 + a2 x20 + ... + an xn0 . Ritornando alla variabile x, ricaviamo

P (x) = b0 + b1 (x − x0 ) + b2 (x − x0 )2 + ... + bn (x − x0 )n .

I coefficienti b0 , b1 , ..., bn possono essere calcolati a partire dalle derivate di P in x0 . Si ha infatti

P (x0 ) = b0 ,
P ′ (x0 ) = b1 ,
P ′′ (x0 ) = 2b2 ,
P ′′′ (x0 ) = 3 · 2b3
..
.
P (n) (x0 ) = n!bn .

Si ottiene cosı̀
P ′ (x0 ) P ′′ (x0 ) P (n) (x0 )
P (x) = P (x0 ) + (x − x0 ) + (x − x0 )2 + ... + (x − x0 )n .
1! 2! n!
Quest’ultima espressione si dice formula di Taylor, relativa al punto x0 , per il polinomio P (x). Con-
sideriamo ora una funzione f (x), definita in un intorno I(x0 ) del punto x0 e derivabile almeno n volte
in I(x0 ). Costruiamo il seguente polinomio

f ′ (x0 ) f ′′ (x0 ) f (n) (x0 )


Q(x) = f (x0 ) + (x − x0 ) + (x − x0 )2 + ... + (x − x0 )n ,
1! 2! n!
detto polinomio di Taylor della funzione f (x) attorno al punto x0 . Vogliamo fare vedere che la funzione
f (x) può essere ottenuta come somma del suo polinomio di Taylor e di un resto Rn (x, x0 ), che, se f (x)
è derivabile almeno n + 1 volte, è proporzionale a (x − x0 )n+1 . In altri termini vogliamo trovare un
numero reale Tn tale che

f (x) = Q(x) + Rn (x, x0 ), dove Rn (x, x0 ) = Tn (x − x0 )n+1 .

A tale scopo introduciamo la funzione ausiliaria

x−u ′ (x − u)n (n)


F (u) = f (u) + f (u) + ... + f (u) + Tn (x − u)n+1 ,
1! n!
8.2. FORMULA DI TAYLOR 93

e supponiamo, per fissare le idee, che x > x0 . Si ha F (x) = F (x0 ) = f (x), quindi la funzione F , che è
sicuramente derivabile, assume gli stessi valori agli estremi dell’intervallo (x0 , x). Applicando allora il
teorema di Rolle, dovrà esistere un punto ξ ∈ (x0 , x) tale che F ′ (ξ) = 0. D’altra parte si ha

(x − u)n (n+1)
F ′ (u) = f ′ (u) − f ′ (u) + ... + f (u) − (x − u)n (n + 1)Tn
n!
(x − u)n (n+1)
= [f (u) − (n + 1)! Tn ]
n!

da cui deduciamo che Tn = f (n+1) (ξ)/(n + 1)!. L’espressione di Rn (x, x0 ) che ne consegue si dice anche
resto nella forma di Lagrange. In definitiva si ottiene

f ′ (x0 ) f (n) (x0 ) f (n+1) (ξ)


f (x) = f (x0 ) + (x − x0 ) + ... + (x − x0 )n + (x − x0 )n+1 .
1! n! (n + 1)!

Si può dimostrare che se la funzione ammette derivate fino ad un qualsiasi ordine, e se queste derivate
sono limitate in tutto l’intervallo (a, b), allora si ha

lim Rn (x, x0 ) = 0, ∀x, x0 ∈ (a, b).


n→∞

Questo risultato ci dice che la differenza tra la funzione f ed il suo polinomio di Taylor, diventa sempre
più piccola all’aumentare di n. In altri termini il polinomio di Taylor costituisce una approssimazione
della funzione f in (a, b) tanto migliore quanto più grande è l’ordine del polinomio. Le funzioni
sin x, cos x, ex ammettono derivate fino a qualsiasi ordine e, in un qualunque intervallo reale, le
derivate sono limitate. Ne segue che tali funzioni possono essere approssimate dal loro polinomio di
Taylor. Scegliendo x0 = 0, si ha

x3 x5 x7 x2n+1
sin x ≈ x − + − + ... + (−1)n ,
3! 5! 7! (2n + 1)!
x2 x4 x6 x2n
cos x ≈ 1 − + − + ... + (−1)n ,
2! 4! 6! (2n)!
x2 x3 xn
ex ≈ 1 + x + + + ... + .
2! 3! n!
L’errore assoluto commesso valutando questi polinomi per un dato x ∈ R rispetto al corrispondente
valore della funzione è dato da |Rn (x, 0)| e dipenderà, oltre che da n, dal valore stesso di x.

• Esempi
1) Calcoliamo in modo approssimato sin 1 con un errore minore di 10−4 .
Per una stima dell’errore, notiamo che per un dato ξ ∈ (0, 1) si ha

f (n+1) (ξ)
1
|Rn (1, 0)| = ≤ .
(n + 1)! (n + 1)!

Poiché 1/8! < 10−4 ci si può fermare al settimo termine del polinomio ovvero

1 1 1
sin 1 ≈ 1 − + − = 0.8415
3! 5! 7!
94 CAPITOLO 8. PROPRIETÀ DELLE FUNZIONI DERIVABILI

2) Calcoliamo in modo approssimato il numero di Nepero con un errore minore di 10−3 .


Considerato il resto della formula di Taylor per la funzione ex , si ha, per ξ ∈ (0, 1),

eξ e 3

|Rn (1, 0)| = ≤ <
(n + 1)! (n + 1)! (n + 1)!
Poiché si ha 3/7! < 10−3 ne segue che
1 1 1 1 1
e≈1+1+ + + + + = 2.718.
2 3! 4! 5! 6!

8.3 Infinitesimi e infiniti


Si dice che una funzione f è un infinitesimo per x → x0 se limx→x0 f (x) = 0. Analogamente si dice

che è un infinitesimo per x → x+ 0 oppure per x → x0 oppure per x → +∞ o ancora per x → −∞ se
il corrispondente limite è zero.
Consideriamo due funzioni f e g che siano infinitesimi, per esempio per x → x0 . Il limite per x → x0
del loro rapporto f (x)/g(x) si presenta come una forma indeterminata del tipo 0/0. Se questo limite
esiste, esso può fornire i seguenti diversi risultati


0
f (x)
lim → +∞ (oppure − ∞)
x→x0 g(x) 

l con l ̸= 0
Nel primo caso si dice che f è un infinitesimo di ordine superiore rispetto a g. Nel secondo caso si
dice che f è un infinitesimo di ordine inferiore rispetto a g. Nel terzo caso si dice che i due infinitesimi
sono dello stesso ordine.

• Esempi
Le funzioni f (x) = 1 − cos x e g(x) = x2 sono infinitesimi per x → 0. Essi sono infinitesimi dello
stesso ordine, in quanto, per un noto limite notevole (vedi par.6.4), si ha
1 − cos x 1
lim 2
= .
x→0 x 2
Le funzioni f (x) = x2 sin x1 e g(x) = x sono infinitesimi per x → 0. Poiché risulta

x2 sin x1
lim = 0,
x→0 x
la funzione f è un infinitesimo di ordine superiore rispetto a g.
Confrontiamo i due infinitesimi per x → +∞, f (x) = 1
x e g(x) = e−x . Si ha
1/x ex
lim = lim = (applicando la regola di De L’Hôpital)
x→+∞ e−x x→+∞ x
ex
= lim = +∞,
x→+∞ 1
8.3. INFINITESIMI E INFINITI 95

ne segue che 1/x è un infinitesimo di ordine inferiore rispetto a e−x .

Si dice che f è un infinitesimo di ordine α per x → x0 , se esiste un α > 0 tale che

f (x)
lim = l, con l ̸= 0.
x→x0 |x − x0 |α

Analogamente, si dice che f è un infinitesimo di ordine α per x → +∞, se

f (x)
lim = l, con l ̸= 0.
x→+∞ 1/xα


In modo analogo si definiscono gli ordini degli infinitesimi per x → x+
0 , per x → x0 e per x → −∞.

• Esempi
In forza dei limiti notevoli studiati al par. 6.4, le funzioni sin x, tan x, ex − 1, loga (1 + x) sono
infinitesimi del primo ordine per x → 0, mentre la funzione 1−cos x è un infinitesimo del secondo
ordine per x → 0.

Vale il seguente
Principio di sostituzione degli infinitesimi. Se f, g, f1 , g1 sono infinitesimi per x → x0 e se f1
e g1 sono rispettivamente di ordine superiore rispetto a f e g, si ha

f (x) + f1 (x) f (x)


lim = lim
x→x0 g(x) + g1 (x) x→x0 g(x)

La verifica di tale principio segue subito riscrivendo il limite precedente nella forma
[ ]
f1 (x)
f (x) + f1 (x) f (x) 1 + f (x)
lim = lim [ ]
x→x0 g(x) + g1 (x) x→x0
g(x) 1 + 1 (x)
g
g(x)

e osservando che i rapporti f1 /f e g1 /g tendono a zero per x → x0 . Un analogo principio si formula


nel caso di infinitesimi per x che tende a infinito.
Il principio di sostituzione degli infinitesimi rende particolarmente semplice il calcolo dei limiti per
x → x0 che si presentano sotto la forma indeterminate 0/0, se si utilizza la formula di Taylor. Infatti,
data una funzione f derivabile n + 1 volte, dall’espressione del resto nella forma di Lagrange si ha,
per ξ ∈ (x, x0 ),
Rn (x, x0 ) x − x0
lim = lim f (n+1) (ξ) = 0.
x→x0 (x − x0 )n x→x0 (n + 1)!
Ne segue che Rn (x, x0 ) è un infinitesimo di ordine superiore a n per x → x0 e si usa anche scrivere

Rn (x, x0 ) = o((x − x0 )n ).
96 CAPITOLO 8. PROPRIETÀ DELLE FUNZIONI DERIVABILI

• Esempi
1) Calcoliamo
x − sin x
lim ,
x→0 x3
che si presenta nella forma indeterminata 0/0. Scrivendo la formula di Taylor per la funzione
sin x, e utilizzando il principio di sostituzione degli infinitesimi, si ottiene
( )
x3
x − sin x x − x − 3! + o(x3) x3
1
lim 3
= lim 3
= lim 3!3 = .
x→0 x x→0 x x→0 x 6

2) Calcoliamo
1 − ex + x
lim .
x→0 x2
Utilizzando la formula di Taylor per la funzione ex , otteniamo
( )
x2
1−e +x
x 1 − 1 + x + 2 + o(x 2) + x
− x2
2
1
lim 2
= lim 2
= lim 2 = − .
x→0 x x→0 x x→0 x 2

Si dice che una funzione f è un infinito per x → x0 , (o per x → +∞) se il suo limite è +∞ o −∞.
Analogamente si definiscono gli infiniti per x → x± 0 o per x → −∞. Inoltre, a seconda che il rapporto
tra due infiniti f e g sia nullo, finito e diverso da zero, oppure infinito, si dice che f è un infinito di
ordine inferiore, uguale o superiore rispetto a g.

• Esempi
1) La funzione ex , per x → +∞ è un infinito di ordine superiore a xn , ∀n ∈ N. Infatti,
utilizzando n volte la regola di De L’Hôpital si ha
ex ex ex
lim = lim = ... = lim = +∞.
x→+∞ xn x→+∞ nxn−1 x→+∞ n!


2) Confrontiamo i due infiniti f (x) = ln x e g(x) = x per x → +∞. Utlizzando sempre la
regola di De L’Hôpital, si ha
1
ln x 2
lim √ = lim x
1 = lim √ = 0.
x→+∞ x x→+∞ √ x→+∞ x
2 x

Ne segue che f è un infinito di ordine inferiore rispetto a g, per x → +∞.

Anche per gli infiniti vale un principio di sostituzione (degli infiniti), secondo il quale, se f, f1 , g, g1
sono infiniti per x → x0 , con f1 di ordine inferiore ad f e g1 di ordine inferiore a g, si ha
f (x) + f1 (x) f (x)
lim = lim .
x→x0 g(x) + g1 (x) x→x0 g(x)
Analoghe espressioni di questo principio valgono per x → ∞.
8.4. DIFFERENZIALI 97

8.4 Differenziali
Consideriamo una funzione f derivabile in un intervallo (a, b) ed un generico punto x ∈ (a, b). Preso
un incremento ∆x di x, scriviamo la formula di Taylor relativa all’intervallo di estremi x e x + ∆x con
n = 1.
f (x + ∆x) = f (x) + f ′ (x)∆x + R1 (x + ∆x, x).
da cui si deduce che l’incremento della funzione è

∆f = f (x + ∆x) − f (x) = f ′ (x)∆x + R1 (x + ∆x, x).

Si definisce differenziale di f relativo all’incremento ∆x, la quantità

df = f ′ (x)∆x.

Poiché
R1 (x + ∆x, x)
lim = 0,
∆x→0 ∆x
l’incremento della funzione ed il suo differenziale relativi allo stesso incremento della variabile indipen-
dente ∆x, differiscono per un infinitesimo di ordine superiore rispetto a ∆x.
Il differenziale della funzione f (x) = x è dx = ∆x, in quanto f ′ (x) = 1, quindi si può anche scrivere

df = f ′ (x)dx.

Geometricamente, il differenziale di una funzione relativamente all’incremento ∆x coincide con l’incremento


di ordinata della retta tangente alla curva y = f (x), corrispondente al passaggio dell’ascissa dal valore
x al valore x + ∆x.
Poiché il differenziale è una funzione di x, si possono definire differenziali di ordine superiore di f .
Cosı̀ per esempio, se la funzione f è derivabile almeno due volte si definisce il differenziale secondo
come il differenziale del differenziale, ovvero

d2 f = d(df ) = D[f ′ (x)dx]dx = f ′′ (x)dx2


98 CAPITOLO 8. PROPRIETÀ DELLE FUNZIONI DERIVABILI

Iterando questo procedimento si ottiene, per una funzione n volte derivabile in (a, b),

dn f = f (n) (x)dxn .

Le derivate di una funzione possono essere scritte per mezzo dei differenziali, usando la seguente
notazione
df d2 f dn f
f ′ (x) = , f ′′ (x) = , ... , f (n)
(x) = ,
dx dx2 dxn
ovvero, la derivata n-esima di una funzione è uguale al rapporto tra il differenziale n-esimo della
funzione e la potenza n-esima del differenziale della variabile indipendente.
Le regole di derivazione possono essere estese facilmente ai differenziali. Si può dimostrare infatti che

d(αf + βf ) = αdf + βdg, α, β ∈ R,


d(f g) = (df )g + f (dg),
f (df )g − f (dg)
d = .
g g2

Date le funzioni f : (a, b) → (c, d), g : (c, d) → R, consideriamo la funzione composta u = g(f (x)).
Tenuto conto della formula di derivazione delle funzioni composte, il suo differenziale sarà dato da

du = g ′ [f (x)]f ′ (x)dx,

ovvero, posto y = f (x),


du = g ′ (y)dy.
Da quest’ultima formula, scrivendo le derivate secondo il formalismo del rapporto tra differenziali, si
deduce anche la seguente regola della catena,
du du dy
= .
dx dy dx

Tale regola si estende a funzioni composte mediante un arbitrario numero di funzioni u[y(z(s(r(...(t(x))...)].
La derivata di u rispetto a x sarà data allora da
du du dy dz ds dt
= ... .
dx dy dz ds dr dx
Capitolo 9

Applicazioni delle derivate allo studio


di funzioni

9.1 Funzioni monotòne


Al paragrafo 1.6 sono state date le definizioni di funzione crescente, funzione decrescente, funzione non
crescente e funzione non decrescente in un intervallo. Definiamo ora i concetti di funzione strettamente
crescente e funzione strettamente decrescente in un punto.
Sia f una funzione definita in un intervallo (a, b) e sia x0 ∈ (a, b). Si dice che f è crescente in x0
se, esiste un intorno di x0 tale che, preso un punto x in tale intorno, si ha f (x) > f (x0 ) ovvero
f (x) < f (x0 ) a seconda che x − x0 > 0 oppure x − x0 < 0. In altri termini la funzione è crescente in x0
se il rapporto incrementale di f relativo al punto x0 e all’incremento x − x0 soddisfa la disuguaglianza
f (x) − f (x0 )
>0
x − x0
per ogni x contenuto in un intorno di x0 in (a, b). Analogamente, per una funzione decrescente in x0
deve valere la disuguaglianza
f (x) − f (x0 )
< 0.
x − x0

Teorema 9.1 Data la funzione f : (a, b) → R, derivabile in un punto x0 ∈ (a, b), la condizione
f ′ (x0 ) > 0 implica che la funzione sia crescente in x0 mentre la condizione f ′ (x0 ) < 0 implica che la
funzione sia decrescente in x0 .
Dim. Per la definizione di derivata in x0 si ha
f (x) − f (x0 )
lim = f ′ (x0 ).
x→x0 x − x0
Se f ′ (x0 ) > 0, dal teorema della permanenza del segno segue che per ogni x in un opportuno intorno
di x0 , il relativo rapporto incrementale della funzione è positivo, ovvero la funzione è crescente in x0 .
Se invece risulta f ′ (x0 ) < 0, si avrà un rapporto incrementale negativo e quindi la funzione risulterà
decrescente in x0 .
È importante osservare che il teorema precedente non è invertibile nel senso che una funzione crescente
in un punto in cui è derivabile, può non avere derivata positiva in quel punto. Per rendersene conto

99
100 CAPITOLO 9. APPLICAZIONI DELLE DERIVATE ALLO STUDIO DI FUNZIONI

basta prendere ad esempio la funzione f (x) = x5 e osservare che essa è derivabile e crescente in x0 = 0
ma si ha f ′ (0) = 0.
Per quanto riguarda la monotonia di f in un intervallo, si ha il seguente risultato.

Teorema 9.2 Se f : (a, b) → R è derivabile in (a, b) e si ha f ′ (x) > 0 (f ′ (x) < 0), ∀x ∈ (a, b), allora
f è crescente (decrescente) in (a, b).
Dim. Siano x1 , x2 due punti di (a, b) con x1 < x2 . Per il teorema di Lagrange (teorema 8.3), esiste
un x0 ∈ (x1 , x2 ), tale che
f (x2 ) − f (x1 )
= f ′ (x0 ).
x2 − x1
Essendo x2 > x1 , il segno di f (x2 ) − f (x1 ) sarà lo stesso di f ′ (x0 ), quindi, per le definizioni delle
funzioni monotòne in un intervallo, si avrà f crescente se f ′ (x) > 0 e f decrescente se f ′ (x) < 0.

9.2 Massimi e minimi relativi


Data una funzione f definita in un intervallo (a, b), si dice che il punto x0 ∈ (a, b) è un punto di massimo
relativo (minimo relativo) per f se è possibile trovare un intorno di x0 tale che risulti f (x) ≤ f (x0 )
(f (x) ≥ f (x0 )) per ogni x di quell’intorno.

Teorema 9.3 Sia f : (a, b) → R e sia x0 ∈ (a, b) un punto di massimo o di minimo relativo per f .
Se f è derivabile in x0 , allora f ′ (x0 ) = 0.
Dim. Supponiamo che x0 sia un punto di massimo relativo per f . Allora, in un opportuno intorno di
x0 si ha
f (x) − f (x0 )
≤ 0, se x > x0 ,
x − x0
f (x) − f (x0 )
≥ 0, se x < x0 .
x − x0
Per la derivabilità di f in x0 devono esistere i limiti destro e sinistro, che, a causa delle diseguaglianze
precedenti hanno i seguenti segni,
f (x) − f (x0 ) f (x) − f (x0 )
lim ≤ 0, lim ≥ 0.
x→x+
0
x − x0 x→x−
0
x − x0

D’altra parte la derivabilità comporta anche l’uguaglianza dei due limiti e quindi f ′ (x0 ) = 0. Allo
stesso risultato si arriva se x0 è un punto di minimo relativo.
I punti in cui la derivata di una funzione si annulla si dicono punti di stazionarietà per la funzione. Vale
la pena sottolineare che una funzione derivabile in un punto con derivata nulla, non è detto che abbia
in quel punto un massimo o un minimo. Considerando ancora l’esempio della funzione f (x) = x5 , si
trova che x0 = 0 è un punto di stazionarietà in quanto vi si annulla la derivata prima, ma non è né
un punto di massimo relativo, né un punto di minimo relativo in quanto la funzione risulta crescente
sia a destra che a sinistra di x0 .
Questo esempio suggerisce di ricercare i massimi e minimi relativi di una funzione derivabile ana-
lizzando il comportamento della sua derivata prima. Infatti, per ogni funzione derivabile i punti a
derivata nulla sono possibili punti di massimo o minimo relativo. Se passando da sinistra a destra di
tali punti la funzione cambia tipo di monotonia, allora si tratta effettivamente di punti di massimo o
di minimo. Facciamo qualche esempio.
9.2. MASSIMI E MINIMI RELATIVI 101

• Esempi
1) Consideriamo la funzione
x2 − 2x − 2
f (x) = .
2x2 − 1
La sua derivata è definita in tutto il dominio della funzione ed è data da

2x2 + 3x + 1
f ′ (x) = 2 ,
(2x2 − 1)2

che si annulla per x = −1 e x = −1/2. Inoltre, studiando il segno della derivata prima si trova
che la funzione, a sinistra di x = −1 è crescente mentre per −1 < x < −1/2 è decrescente, e per
x > −1/2 è ancora crescente. Se ne conclude che x = −1 è un punto di massimo relativo mentre
x = −1/2 è un punto di minimo relativo.

2) Consideriamo la funzione f (x) = xe−x . La funzione è derivabile in tutto il suo dominio e si


ha
f ′ (x) = e−x (1 − x).
La derivata si annulla in x = 1. A sinistra di tale punto si ha f ′ (x) > 0 mentre a destra si ha
f ′ (x) < 0. Il punto x = 1 è allora un punto di massimo relativo. Siccome la funzione è crescente
in tutto l’intervallo (−∞, 1) e decrescente in tutto l’intervallo (1, +∞), il punto x = 1 è anche
un punto di massimo assoluto per f .

3) Consideriamo la funzione f (x) = |x|e−x , definita in R. Essa è derivabile in R \ {0} e si ha


2

{
e−x (1 − 2x2 )
2
′ x>0
f (x) = −x 2
−e (1 − 2x ) x < 0
2


Per x > 0 la derivata si annulla in x1 = 2/2 e poiché si ha f ′ (x) > 0 per x ∈ (0, x1 ) e f ′ (x) < 0
per x ∈ (x1 , +∞), la funzione ha un massimo relativo in x1 . Poiché la f (x) risulta essere una
funzione pari, anche il punto x2 = −x1 è un punto di massimo relativo. D’altra parte la funzione
risulta continua in x = 0 dove vale zero. Poiché la funzione è positiva in un intorno di x = 0, ne
segue che x = 0 è un punto di minimo relativo per f (x). Ma la funzione è strettamente positiva
per ogni x ̸= 0, quindi il punto x = 0 è anche un punto di minimo assoluto per f .

Teorema 9.4 Sia f : (a, b) → R una funzione derivabile n volte in (a, b) con derivata n-esima
continua. Supponiamo che in un punto x0 ∈ (a, b) si annullino tutte le derivate fino a quella di ordine
n−1 mentre f (n) (x0 ) ̸= 0. Allora, se n è pari, la funzione avrà in x0 un minimo relativo o un massimo
relativo a seconda che f (n) (x0 ) sia rispettivamente positiva o negativa. Se n è dispari, il punto x0 non
è nè di massimo nè di minimo.

Dim. Consideriamo la formula di Taylor per f in x0 con resto nella forma di Lagrange. Tenuto conto
dell’annullarsi delle derivate fino all’ordine n − 1 in x0 , si ha

(x − x0 )n (n)
f (x) = f (x0 ) + f (ξ),
n!
102 CAPITOLO 9. APPLICAZIONI DELLE DERIVATE ALLO STUDIO DI FUNZIONI

essendo ξ un punto interno all’intervallo di estremi x e x0 . Per la continuità di f (n) in x0 è sempre


possibile trovare un intervallo in cui f (n) (ξ) ha lo stesso segno di f (n) (x0 ). Se n è pari, in tale intorno
la differenza f (x) − f (x0 ) assume lo stesso segno di f (n) (x0 ). Ne segue che, se f (n) (x0 ) > 0, il punto x0
è un punto di minimo relativo, mentre se f (n) (x0 ) < 0, il punto x0 sarà un punto di massimo relativo.
Se invece n è dispari il segno di f (x) − f (x0 ) cambia a seconda che x > x0 o x < x0 . Quindi x0 non
può essere nè un punto di massimo relativo nè un punto di minimo relativo.
Osservazione. L’ipotesi che la derivata n-esima sia continua è stata imposta per comodità di di-
mostrazione. È infatti possibile provare il precedente teorema anche facendo a meno della continuità
di f (n) in x0 .

• Esempi
1) Consideriamo la funzione f (x) = (2 + x2 )e−x . Essa è continua e derivabile in R. Si ha
2

f ′ (x) = −2x(1 + x2 )e−x .


2

La derivata prima si annulla per x = 0. Si ha poi

f ′′ (x) = −2(1 + x2 − 2x4 )e−x ,


2

anch’essa continua in R. Ne segue che f ′′ (0) = −2 < 0, quindi, per il teorema precedente, il
punto x = 0 è un punto di massimo relativo. Naturalmente questo risultato si poteva anche
ottenere dallo studio della monotonia della funzione.

2) Consideriamo la funzione f (x) = arctan x − x. Si ha

1 −2x 7x2 − 2
f ′ (x) = − 1, f ′′ (x) = , f ′′′ (x) = .
1 + x2 (1 + x2 )2 (1 + x2 )3
Le prime due derivate si annullano per x = 0 mentre f ′′′ (0) = −2 ̸= 0. Allora il punto x = 0
non è nè di massimo nè di minimo relativo per f .

9.3 Concavità e flessi


Sia f una funzione definita nell’intervallo (a, b) e siano x0 ∈ (a, b) e c ∈ R in modo tale che x0 + c ∈
(a, b). Detti P0 e P1 i punti del grafico di f corrispondenti a x0 e a x0 + c, sia P un punto di ascissa x
appartenente al segmento P0 P1 . Si dice che f è convessa in (a, b) se comunque scelti x0 e c, f (x) ≤ yP
∀x ∈ (x0 , x0 + c). In altri termini, una funzione è convessa se i punti di una corda del suo grafico si
trovano al di sopra dell’arco di grafico che sottende quella corda. In base alla definizione appena data,
la funzione f è convessa in (a, b) se, comunque presi x0 , x0 + c ∈ (a, b), si ha
f (x0 + c) − f (x0 )
f (x) ≤ f (x0 ) + (x − x0 ), ∀x ∈ (x0 , x0 + c).
c
Una funzione f si dice concava in (a, b) se −f è convessa in (a, b).
Teorema 9.5 Sia f : (a, b) → R una funzione derivabile almeno due volte in (a, b) con derivata
seconda continua. Condizione necessaria e sufficiente affinché f sia convessa è che f ′′ (x) ≥ 0 in
(a, b).
9.3. CONCAVITÀ E FLESSI 103

Dim. Condizione necessaria. Sia x0 , x0 + c ∈ (a, b) e supponiamo che f sia convessa in (a, b). Allora

f (x0 + c) − f (x0 )
f (x) ≤ f (x0 ) + (x − x0 ), ∀x ∈ (x0 , x0 + c).
c
Per il teorema di Lagrange esisterà un punto ξ ∈ (x0 , x0 + c) tale che

f (x0 + c) − f (x0 )
= f ′ (ξ).
c
La diseguaglianza precedente è valida per ogni x in (x0 , x0 + c), quindi sarà valida anche per x = ξ,
ovvero
f (ξ) ≤ f (x0 ) + f ′ (ξ)(ξ − x0 ).
Sviluppiamo ora f (ξ) in polinomio di Taylor attorno a x0 . Avremo
1
f (ξ) = f (x0 ) + f ′ (x0 )(ξ − x0 ) + f ′′ (x̄)(ξ − x0 )2 ,
2
dove x̄ ∈ (x0 , ξ). Sostituendo nella diseguaglianza precedente otteniamo
1
[f ′ (ξ) − f ′ (x0 )](ξ − x0 ) − f ′′ (x̄)(ξ − x0 )2 ≥ 0,
2
da cui, dividendo per (ξ − x0 )2 ,

f ′ (ξ) − f ′ (x0 ) 1 ′′
− f (x̄) ≥ 0.
ξ − x0 2
Facciamo ora tendere c a 0. Allora ξ e x̄ tenderanno a x0 e, per la continuità della derivata seconda,
avremo
1 ′′
f (x0 ) ≥ 0.
2
Per l’arbitrarietà della scelta di x0 si arriva cosı̀ alla tesi.
104 CAPITOLO 9. APPLICAZIONI DELLE DERIVATE ALLO STUDIO DI FUNZIONI

Condizione sufficiente. Se f ′′ (x) ≥ 0 in (a, b) allora, per x0 < x < x0 + c si possono scrivere i seguenti
sviluppi e le conseguenti diseguaglianze,
1
f (x0 ) = f (x) + f ′ (x)(x0 − x) + f ′′ (x̄1 )(x0 − x)2 ≥ f (x) + f ′ (x)(x0 − x),
2
1
f (x0 + c) = f (x) + f (x)(x0 + c − x) + f ′′ (x̄2 )(x0 + c − x)2 ≥ f (x) + f ′ (x)(x0 + c − x).

2
Le due diseguaglianze si possono riscrivere nella forma seguente,

f (x0 ) − f (x) f (x0 + c) − f (x)


≤ f ′ (x) ≤ ,
x0 − x x0 + c − x
da cui si ricava
f (x0 + c) − f (x0 )
f (x) ≤ f (x0 ) + (x − x0 ),
c
che corrisponde alla definizione di funzione convessa.
Dal teorema precedente segue che una funzione con derivata seconda continua in (a, b) è concava se e
solo se f ′′ (x) ≤ 0 in (a, b).
Osservazione. Nella dimostrazione della parte sufficiente del teorema precedente si è dedotto che la
condizione
f (ξ) ≥ f (x) + f ′ (x)(ξ − x), ∀ξ, x ∈ (a, b)
è sufficiente per la convessità di f in (a, b). Geometricamente essa stabilisce che il grafico di una
funzione convessa si trova sempre al di sopra di ogni sua retta tangente.

• Esempio
Consideriamo al funzione f (x) = x3 e−x . Si ha

f ′ (x) = x2 (3 − x)e−x , f ′′ (x) = x(x2 − 6x + 6)e−x


√ √
= x[x − (3 − 3)][x − (3 + 3)]e−x .
√ √
La funzione allora risulta convessa negli intervalli (0, (3 − 3)) e ((3 + 3), +∞), mentre risulta
concava negli intervalli complementari in R.

Si dice che un punto x0 ∈ (a, b) è un punto di flesso per la funzione f se, passando da un intorno
sinistro ad un intorno destro del punto x0 , la funzione passa da concava a convessa o viceversa, da
convessa a concava.
Dal teorema precedente segue che data una funzione con derivata seconda continua in (a, b), se x0
è un punto di flesso, allora f ′′ (x0 ) = 0. Infatti se in un intorno sinistro la funzione è concava si ha
f ′′ (x) < 0 per x ∈ (x0 − δ, x0 ) (δ > 0), e se in un intorno destro la funzione è convessa si ha f ′′ (x) > 0
per x ∈ (x0 , x0 + δ). Per la continuità di f ′′ (x) si ottiene allora f ′′ (x0 ) = 0.

Teorema 9.6 Sia f : (a, b) → R una funzione derivabile n volte in (a, b) con derivata n-esima
continua. Supponiamo che in un punto x0 ∈ (a, b) si annullino tutte le derivate a partire dalla seconda
fino a quella di ordine n − 1 mentre f (n) (x0 ) ̸= 0. Allora, se n è dispari, la funzione avrà in x0 un
punto di flesso.
9.4. STUDIO DEL GRAFICO DI UNA FUNZIONE 105

Dim. Consideriamo la formula di Taylor per f in x0 con resto nella forma di Lagrange. Tenuto conto
dell’annullarsi delle derivate dal secondo ordine fino all’ordine n − 1 in x0 , si ha

(x − x0 )n (n)
f (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + f (ξ),
n!

essendo ξ un punto interno all’intervallo di estremi x e x0 . Per la continuità di f (n) in x0 è sempre


possibile trovare un intervallo in cui f (n) (ξ) ha lo stesso segno di f (n) (x0 ), che, per fissare le idee
supponiamo positivo. Essendo n dispari, in un intorno destro del punto si avrà

f (x) > f (x0 ) + f ′ (x0 )(x − x0 ),

mentre in un intorno sinistro si avrà

f (x) < f (x0 ) + f ′ (x0 )(x − x0 ).

Ne segue che, in base all’osservazione fatta sul teorema 9.5, e alla definizione di flesso, il punto x0 è
un punto di flesso. Allo stesso risultato si arriva supponendo f (n) (x0 ) < 0
Si noti che se, oltre alle ipotesi del teorema precedente si ha anche f ′ (x0 ) = 0, allora si ottiene come
caso particolare un flesso a tangente orizzontale.

• Esempio
Considerata la funzione f (x) = arctan(x) si ha

1 2x 2(1 − 3x2 )
f ′ (x) = , f ′′ (x) = − , f ′′′ (x) = − .
1 + x2 (1 + x2 )2 (1 + x2 )3

La derivata seconda si annulla in x = 0 mentre la prima derivata successiva diversa da zero in


x = 0 è la terza che vale −2. La funzione ha dunque un flesso in x = 0. Il fesso è discendente in
quanto f ′′′ (0) < 0.

9.4 Studio del grafico di una funzione


La teoria sui limiti, sulla continuità e sulle derivate di funzioni consentono di effettuare uno studio
qualitativo del grafico di una funzione. Gli elementi che caratterizzano questo studio sono i seguenti.
a) Determinazione del dominio della funzione (campo di esistenza).
b) Riconoscimento di eventuali simmetrie della funzione.
c) Calcolo degli zeri e dell’intersezione con l’asse delle ordinate.
d) Determinazione dei punti di discontinuità e degli eventuali asintoti verticali.
e) Comportamento della funzione per x → +∞ e/o per x → −∞, nel caso di domini illimitati e
determinazione di eventuali asintoti orizzontali o obliqui.
f) Derivabilità della funzione, monotonia e punti di massimo e minimo relativi.
g) Calcolo delle derivate successive e determinazione della concavità, convessità e degli eventuali flessi.
106 CAPITOLO 9. APPLICAZIONI DELLE DERIVATE ALLO STUDIO DI FUNZIONI
Capitolo 10

Ricerca di zeri di funzioni

10.1 Separazione delle radici ed errore di approssimazione


Consideriamo una funzione f continua in (a, b) e poniamoci il problema della ricerca delle soluzioni
reali dell’equazione
f (x) = 0.
Le soluzioni di questa equazione si dicono anche zeri della funzione f . La funzione f può ammettere
più zeri in (a, b) o, eventualmente, nessuno zero. Supporremo d’ora in poi che gli zeri di f siano isolati,
cioè che preso uno zero di f in (a, b) esista un suo intorno in cui non ci siano altri zeri.
Il problema della ricerca degli zeri di f si affronta innanzitutto separando le radici dell’equazione
f (x) = 0, ovvero determinando sottointervalli di (a, b) che contengano un solo zero reale di f . A tale
scopo richiamiamo quanto detto al par.6.3 circa l’esistenza degli zeri di una funzione continua. Se
f (a)f (b) < 0, esisterà, per il teorema di Bolzano (teorema 6.2), almeno uno zero di f in (a, b). Se poi
la funzione è derivabile in (a, b) e la derivata ha segno costante in tutto (a, b), allora c’è un solo zero di
f in (a, b). In tal caso infatti la funzione è monotòna e se si annulla in un punto dovrà necessariamente
essere diversa da zero in ogni altro punto di (a, b). Consideriamo qualche esempio.
• Esempi
1) Vogliamo determinare il numero di zeri della funzione f (x) = x + ex in R. La funzione risulta
continua e derivabile in R, e si ha f ′ (x) = 1 + ex . Ne segue che f ′ (x) > 0 in tutto R. Inoltre per
k > 0 sufficientemente grande si ha f (−k)f (k) < 0. Per l’arbitrarietà di k ne segue che esiste
un solo zero di f in R.
2) Consideriamo la funzione f (x) = x4 − 4x − 1, continua e derivabile in (a, b). Vogliamo
separare i suoi zeri reali. Osserviamo che f ′ (x) = 4(x3 − 1). La funzione ha allora un punto di
minimo relativo in x = 1. Essa è decrescente in (−∞, 1) ed è crescente in (1, +∞). Poiché si
ha f (1) = −4 < 0 e f (−k) > 0, f (k) > 0, per k positivo sufficientemente grande, ne segue che
esistono due zeri di f , uno contenuto in (−∞, 1) ed uno contenuto in (1, +∞).

Supponiamo di aver separato le radici dell’equazione f (x) = 0 in (a, b) e sia x0 lo zero contenuto nel sot-
tointervallo (α, β). Sia x̄ un valore approssimato di x0 in (α, β). L’errore commesso nell’approssimazione
soddisfa, evidentemente, la relazione
|x̄ − x0 | ≤ |β − α|.
L’errore può essere maggiorato anche diversamente. Si ha infatti il seguente risultato.

107
108 CAPITOLO 10. RICERCA DI ZERI DI FUNZIONI

Teorema 10.1 Sia f : (a, b) → R derivabile in (α, β) ⊂ (a, b) dove esiste il solo zero x0 di f , e sia
f ′ (x) ̸= 0 in (α, β). Se x̄ è una radice approssimata di f (x) = 0 in (α, β) allora si ha

|f (x̄)|
|x̄ − x0 | ≤ ,
m
dove m > 0 è il minimo di |f ′ (x)| in (α, β).

Dim. Per fissare le idee supponiamo che x̄ > x0 . Applichiamo il teorema di Lagrange all’intervallo
(x0 , x̄).
f (x̄) − f (x0 ) = (x̄ − x0 )f ′ (ξ),
essendo ξ ∈ (x0 , x̄). Prendendo il valore assoluto di ambo i membri, osservando che f (x0 ) = 0 e che
|f ′ (ξ)| ≥ m, otteniamo
|f (x̄)| ≥ m|x̄ − x0 |,
da cui segue la tesi.

• Esempio
¯ = 1.23 sono radici approssimate della equazione f (x) = x4 − x − 1 = 0.
I numeri x̄ = 1.22 e x̄
Poiché si ha
f (x̄) = −0.0047, f (x̄
¯) = 0.0588,
ne segue che la radice esatta si trova nell’intervallo (1.22, 1.23). In questo intervallo la derivata
f ′ (x) = 4x3 − 1 è crescente quindi il suo minimo è dato da f ′ (1.22) = 6.263. Usando la formula
precedente per la stima dell’errore, prendendo x̄ come zero, si ha
0.0047
|x̄ − x0 | ≤ ≈ 0.001.
6.263
Tenuto conto che |1.23 − 1.22| = 0.01, la stima dell’errore trovata è più accurata di un ordine di
grandezza rispetto alla semplice ampiezza dell’intervallo considerato.

10.2 Metodo dicotomico


Questo metodo è già stato illustrato alla fine del par.6.3. Esso si basa sul teorema di esistenza degli
zeri. Riprendendo quanto già detto, se x0 è uno zero della funzione f in (a, b) e detto xn l’n-esimo
valore ottenuto dalla suddivisione dell’intervallo (a, b) si ha
1
0 ≤ |xn − x0 | ≤ |b − a|.
2n
Prendendo il limite per n → ∞ di questa diseguaglianza e utilizzando il teorema del confronto sui
limiti di successioni, otteniamo

lim |xn − x0 | = 0, ⇒ lim xn = x0 .


n→∞ n→∞

Ne segue che la soluzione ottenuta con il metodo dicotomico converge sempre ad una radice di f (x) = 0
in (a, b). Nella pratica il calcolo viene effettuato fermandosi dopo un numero di passi tale da soddisfare
10.3. METODO DELLE CORDE 109

la precisione richiesta. Supponiamo per esempio di voler ottenere uno zero approssimato di f (x) = 0,
a meno di un errore ∆. In altri termini vogliamo che sia
|xn − x0 | ≤ ∆.
Sfruttando la disuguaglianza precedente, la condiziore richiesta è soddisfatta per
1 b−a
n
|b − a| ≤ ∆, ⇒ n ≥ log2 .
2 ∆
Il metodo dicotomico è particolarmente semplice e di facile implementazione in un calcolatore.

10.3 Metodo delle corde


Sempre nelle ipotesi del teorema degli zeri, dopo aver isolato una radice di f (x) = 0, si può effettuarne
la ricerca dividendo l’intervallo (a, b) non in parti uguali ma in parti che stanno fra loro come il rapporto
tra f (a) ed f (b). Più precisamente, sapendo che in (a, b) c’è uno zero di f e che f (a)f (b) < 0, consi-
deriamo la corda che congiunge gli estremi del grafico di f in (a, b).

Prendiamo come primo valore approssimato x1 di x0 l’intersezione di questa corda con l’asse delle x.
Se f (x1 ) ha segno opposto a f (a), consideriamo l’intervallo (a, x1 ) e calcoliamo l’intersezione della
corda che congiunge gli estremi del grafico in (a, x1 ) con l’asse x. Otteniamo cosı̀ il secondo valore
approssimato di x0 . Vogliamo fare vedere che iterando questo procedimento, la successione dei punti
xn costruiti nel modo suddetto, converge allo zero di f in (a, b).
Per fissare le idee supponiamo che la funzione sia dotata di derivate fino al secondo ordine e che
f ′′ (x) > 0 in tutto (a, b). La funzione f sarà allora convessa in (a, b). Distinguiamo i due casi.
1) f (a) > 0.
L’equazione della corda congiungente gli estremi del grafico è
y − f (b) f (a) − f (b)
= ,
x−b a−b
110 CAPITOLO 10. RICERCA DI ZERI DI FUNZIONI

e la sua intersezione con l’asse delle x è


f (b)
x1 = b − (b − a) .
f (b) − f (a)

Per l’ipotesi sulla convessità si avrà f (x1 ) < 0. Consideriamo allora il nuovo intervallo (a, x1 ) e la
nuova corda che intersecherà l’asse x nel punto
f (x1 )
x2 = x1 − (x1 − a) .
f (x1 ) − f (a)
Iterando questo procedimento si avrà
f (xn )
xn+1 = xn − (xn − a) ,
f (xn ) − f (a)

dove f (xn ) < 0. Da questa espressione, si deduce che xn+1 < xn , quindi la successione {xn } è
strettamente decrescente. Inoltre essa è limitata in quanto xn ∈ (a, b) ∀n ∈ N. Ne segue, per il
Teorema 4.2, che la successione converge a un certo numero x̄0 . Per dimostrare che questo numero è
proprio x0 , cioè lo zero di f in (a, b), facciamo il limite di ambo i membri dell’ultima uguaglianza per
n → ∞. Poiché la funzione f è continua, si ha
f (x̄0 ) f (x̄0 )
x̄0 = x̄0 − (x̄0 − a) ⇒ 0 = −(x̄0 − a) .
f (x̄0 ) − f (a) f (x̄0 ) − f (a)

Da quest’ultima si deduce allora, f (x̄0 ) = 0, ovvero x̄0 = x0 , come volevamo dimostrare.


2) f (a) < 0.
Anche in questo caso, si ha f (x1 ) < 0 ma il nuovo intervallo da considerare è (x1 , b). La nuova corda
intersecherà l’asse x nel punto

f (x1 )
x2 = x1 − (b − x1 ) .
f (b) − f (x1 )
Iterando questo procedimento otteniamo
f (xn )
xn+1 = xn − (b − xn ) ,
f (b) − f (xn )

dove ancora, f (xn ) < 0. Ne segue che xn+1 > xn e la successione {xn } risulta crescente. Essendo
anche limitata essa ammetterà limite per n → ∞. In modo analogo al caso 1) si verifica che il limite
di tale successione è proprio lo zero di f in (a, b).
Uno schema analogo si può ripetere nel caso in cui la funzione sia concava in (a, b) ovvero f ′′ (x) <
0, ∀x ∈ (a, b).
Per quanto riguarda la precisione dell’approssimazione si può usare la formula ricavata nel par. 10.1,
valida indipendentemente dal metodo usato.

10.4 Metodo di Newton


Supponiamo di aver isolato uno zero della funzione f in un intervallo (a, b) in cui f ′ (x) e f ′′ (x) sono
continue, mai nulle e di segno costante e, come sempre, f (a)f (b) < 0. Detto x1 l’estremo dell’intervallo
(a, b) nel quale f assume lo stesso segno di f ′′ , mandiamo dal punto (x1 , f (x1 )) la tangente al grafico di
10.4. METODO DI NEWTON 111

f fino a incontrare l’asse delle ascisse in un certo punto x2 . A partire dal punto (x2 , f (x2 )), tracciamo
la tangente al grafico fino a incontrare l’asse x nel punto x3 . Continuando in questo modo otteniamo
una successione di punti {xn } che, al crescere di n approssima sempre meglio lo zero di f in (a, b).
Questo metodo, detto di Newton o delle tangenti, in sostanza sostituisce il grafico della funzione con la
tangente in un suo estremo. Supponiamo, per fissare le idee che f ′′ sia positiva in (a, b) e che f (b) > 0.
Identifichiamo allora b con x1 e scriviamo l’equazione della tangente in (x1 , f (x1 )) al grafico di f . Si
ha
y − f (x1 ) = f ′ (x1 )(x − x1 ).
Ponendo y = 0 troviamo l’intersezione della retta con l’asse x, che chiamiamo x2 ,

f (x1 )
x2 = x1 − .
f ′ (x1 )

Iterando il procedimento a partire da x2 , troviamo che dopo n passi

f (xn )
xn+1 = xn − .
f ′ (xn )

È importante notare, come verrà dimostrato tra poco, che la condizione sulla scelta del primo punto
x1 garantisce che il punto successivo x2 cada in (a, b). Se, altrimenti, f (x1 ) ha segno opposto a quello
di f ′′ , allora può accadere che x2 cada al di fuori di (a, b).

Teorema 10.2 Sia f definita nell’intervallo [a, b] contenente un suo zero, tale che f (a)f (b) < 0 e
dotata di derivata prima e seconda diverse da zero e di segno costante in tutto (a, b). Detto x1 un
punto di (a, b) tale che f (x1 )f ′′ (x1 ) > 0, allora la successione definita da

f (xn )
xn+1 = xn − ,
f ′ (xn )

a partire da x1 , converge all’unico zero x0 di f in (a, b).


112 CAPITOLO 10. RICERCA DI ZERI DI FUNZIONI

Dim. Notiamo innanzitutto che, essendo f strettamente monotòna in (a, b), se ha uno zero in (a, b),
questo è l’unico zero in (a, b). Per fissare le idee supponiamo che f ′′ sia positiva in (a, b) e scegliamo
quindi x1 come l’estremo di (a, b) in cui la funzione è positiva. Detto x0 lo zero di f , usando la formula
di Taylor abbiamo
1
f (x0 ) = f (xn ) + f ′ (xn )(x0 − xn ) + f ′′ (x̄n )(x0 − xn )2 ,
2
per qualunque n, dove x̄n è un punto nell’intervallo di estremi x0 e xn . Essendo f ′′ positiva, e
f (x0 ) = 0, si ottiene
f (xn ) + f ′ (xn )(x0 − xn ) < 0
Ora, se f ′ (xn ) > 0, dalla diseguaglianza precedente si ricava
f (xn )
xn − > x0 , ⇒ xn+1 > x0 ,
f ′ (xn )
e la successione risulta decrescente e limitata, in quanto x0 < xn < x1 . Se invece, f ′ (xn ) < 0, allora
si ha
f (xn )
xn − ′ < x0 , ⇒ xn+1 < x0 ,
f (xn )
e la successione risulta crescente in quanto f (xn ) è sempre positiva, e limitata in quanto x1 < xn < x0 .
In ambedue i casi la successione {xn } risulta convergente (per il Teorema 4.2). Detto x̄0 il suo limite,
per la continuità di f e di f ′ si ha
( )
f (xn ) f (x̄0 )
x̄0 = lim xn+1 = lim xn − ′ = x̄0 − ′ ,
n→∞ n→∞ f (xn ) f (x̄0 )
da cui
f (x̄0 ) = 0 ⇒ x̄0 = x0 .
A conclusione della dimostrazione osserviamo che il punto x1 può non essere un estremo di (a, b), ma
un qualunque punto di (a, b) soddisfacente alla condizione f (x1 )f ′′ (x1 ) > 0. Trovato questo punto, lo
si può considerare come l’estremo di un sottointervallo di (a, b) contenente lo zero di f e procedere
secondo la dimostrazione data.
Sotto opportune condizioni, la convergenza del metodo di Newton è più rapida di quella ottenuta
con altri metodi. Per chiarire questo punto, ricaviamo una espressione dello scarto di x0 rispetto
all’n-esimo valore xn . Usando la formula di Taylor abbiamo
1
0 = f (x0 ) = f (xn ) + f ′ (xn )(x0 − xn ) + f ′′ (x̄n )(x0 − xn )2 ,
2

da cui, dividendo per f (xn ),
f (xn ) 1 f ′′ (x̄n )
x0 − xn + = − (x0 − xn )2 .
f ′ (xn ) 2 f ′ (xn )
o anche,
1 f ′′ (x̄n )
x0 − xn+1 = − (x0 − xn )2 .
2 f ′ (xn )
Detti M2 e m1 rispettivamente il massimo di |f ′′ | ed il minimo di |f ′ | in (a, b), si ottiene
M2
|x0 − xn+1 | ≤ |x0 − xn |2 .
2m1
Se poi accade che 2m M2
1
≤ 1, allora un errore assoluto di 10−m all’n-esimo passo implica, al passo
successivo, un errore di 10−2m . A titolo di confronto ricordiamo che nel metodo dicotomico, un errore
assoluto di 10−m all’n-esimo passo implica un errore assoluto di 10−m /2 al passo successivo.
Capitolo 11

Funzioni integrabili

11.1 Definizione di integrale


Sia f (x) definita in [a, b] e ivi limitata. Consideriamo una partizione P di [a, b], ovvero una suddivisione
di [a, b] in n intervalli chiusi
[x0 , x1 ], [x1 , x2 ], ..., [xn−1 , xn ],
dove x0 = a, xn = b. Definiamo

mi = inf{f (x), x ∈ [xi−1 , xi ]}, Mi = sup{f (x), x ∈ [xi−1 , xi ]}.

Definiamo somme integrali inferiore e superiore relative alla partizione P , le quantità



n ∑
n
s(f, P ) = mi (xi − xi−1 ), S(f, P ) = Mi (xi − xi−1 ).
i=1 i=1

Se la funzione è non negativa in [a, b], le quantità s ed S rappresentano rispettivamente l’area del
plurirettangolo inscritto e del plurirettangolo circoscritto al trapezoide di f cioè alla figura piana
compresa tra l’intervallo [a, b] e il grafico di f in [a, b]. In ogni caso, posto

m = inf{f (x), x ∈ [a, b]}, M = sup{f (x), x ∈ [a, b]},

si ha
m(b − a) ≤ s(f, P ) ≤ S(f, P ) ≤ M (b − a),
per qualunque partizione P . Si possono realizzare diverse partizioni cambiando il numero di suddi-
visioni dell’intervallo [a, b]. Questo si può fare, per esempio, suddividendo ulteriormente gli intervalli
[xi−1 , xi ] ottenendo cosı̀ un ”raffinamento” della partizione P con un n più grande. Se P ′ è una
partizione più ”raffinata” della partizione P , si avrà

s(f, P ′ ) ≥ s(f, P ), S(f, P ′ ) ≤ S(f, P ).

Consideriamo allora l’insieme di tutte le s e l’insieme di tutte le S al variare di tutte le possibili


partizioni P . Si avrà
sup[s(f, P )] ≤ inf [S(f, P )].
P P

Si dice che f (x) è integrabile in [a, b] se

sup[s(f, P )] = inf [S(f, P )] = I,


P P

113
114 CAPITOLO 11. FUNZIONI INTEGRABILI

e si pone
∫ b
I= f (x) dx,
a
che si legge ”integrale definito di f tra a e b”.
Ritorniamo ora alla costruzione di partenza e modifichiamola scambiando a con b, ovvero ponendo
x0 = b e xn = a e riscrivendo la suddivisione negli n intervalli

[xn , xn−1 ], [xn−1 , xn−2 ], ... , [x1 , x0 ].

Con le stesse definizioni date, le somme integrali s ed S cambiano ora di segno e tutte le diseguaglianze
precedenti cambiano verso. Lasciando invariata la definizione di integrabilità, scriveremo

sup[s(f, P )] = inf [S(f, P )] = I ′ ,


P P

e porremo ∫ a
I′ = f (x) dx,
b

Tenuto conto delle due costruzioni e delle posizioni fatte avremo I ′ = −I, ovvero
∫ a ∫ b
f (x) dx = − f (x) dx.
b a
∫a
Osserviamo inoltre che per ogni funzione f definita in un punto a si ha a f (x) dx = 0.
Per quanto riguarda il significato geometrico dell’integrale definito si può dire che, se la funzione
f è non negativa in [a, b], esso rappresenta l’area del trapezoide di f relativo all’intervallo [a, b].

Se invece la funzione cambia segno, una o più volte in (a, b), l’integrale definito di f è dato dalla
somma algebrica delle aree dei trapezoidi del semipiano y > 0 prese con segno positivo e delle aree dei
trapezoidi del semipiano y < 0 prese con segno negativo.
11.1. DEFINIZIONE DI INTEGRALE 115

• Esempi
1) Sia f (x) = k con k ∈ R. Verifichiamo che f è integrabile in un qualunque intervallo (a, b) ⊂ R.
In tal caso si ha mi = Mi = k per ogni sottointervallo di (a, b) relativo ad una qualunque
partizione P . Ne segue


N ∑
N
s(f, P ) = k(xi − xi−1 ) = k (xi − xi−1 ) = k(b − a),
i=1 i=1
∑N ∑N
S(f, P ) = k(xi − xi−1 ) = k (xi − xi−1 ) = k(b − a),
i=1 i=1

per una qualunque partizione. Quindi


∫ b
k dx = sup[s(f, P )] = inf [S(f, P )] = k(b − a).
a P P

2) Verifichiamo che la funzione f (x) = x è integrabile in [0, 1]. Consideriamo la partizione Pn


che divide l’intervallo [0, 1] in n parti uguali. Si ha
[ ] [ ] [ ]
1 1 2 n−1 i−1 i
0, , , , ..., , 1 , mi = , Mi = , i = 1, ..., n
n n n n n n
Si ottiene allora

n
1 1 ∑
n
1 (n − 1)n n−1
s(f, Pn ) = mi = 2 (i − 1) = 2 =
n n n 2 2n
i=1 i=1

n
1 1 ∑
n
n(n + 1) n+1
S(f, Pn ) = Mi = 2 i= = .
n n 2n2 2n
i=1 i=1

Calcolando allora il sup di s e l’inf di S, si ha


1
sup[s(f, Pn )] = inf [S(f, Pn )] =
Pn Pn 2
116 CAPITOLO 11. FUNZIONI INTEGRABILI

Ne segue che f (x) = x è integrabile in [0, 1] e si ha


∫ 1
1
f (x) dx =
0 2

Come già osservato, per l’integrabilità di una funzione non è necessario richiederne la continuità. Ci
si può allora chiedere quali condizioni risultano sufficienti per l’integrabilità.

11.2 Condizioni sull’integrabilità


∫b
La condizione di integrabilità data nella definizione dell’integrale definito a f (x) dx, può essere
tradotta in una forma più comoda per gli scopi successivi.

Teorema 11.1 Data una funzione f (x) limitata in [a, b], condizione necessaria e sufficiente affinché
sia integrabile in [a, b] è che, fissato un ε > 0, esista una partizione P̄ di [a, b] tale che

S(f, P̄ ) − s(f, P̄ ) < ε.

Dim. Condizione necessaria. Supponiamo che f (x) sia integrabile in [a, b]. Per definizione, avremo

sup[s(f, P )] = inf [S(f, P )].


P P

Per le proprietà del sup e dell’inf, fissato un ε > 0, è sempre possibile trovare un P1 ed un P2 tali che
ε
S(f, P2 ) < inf [S(f, P )] + ,
P 2
ε
s(f, P1 ) > sup[s(f, P )] − .
P 2
Sottraendo membro a membro le ultime due diseguaglianze si ottiene

S(f, P2 ) − s(f, P1 ) < ε.

Presa allora una partizione P̄ , più ”raffinata” sia di P1 che di P2 , essendo

S(f, P̄ ) ≤ S(f, P2 ), s(f, P̄ ) ≥ s(f, P1 ),

ne segue la tesi.
Condizione sufficiente. Supponiamo che, fissato ε > 0 si abbia S(f, P̄ ) − s(f, P̄ ) < ε, per una certa
partizione P̄ . Poiché si ha

inf [S(f, P )] ≤ S(f, P̄ ), sup[s(f, P )] ≥ s(f, P̄ ),


P P

ne segue che
inf [S(f, P )] − sup[s(f, P )] < ε.
P P
Per l’arbitrarietà di ε si ottiene allora che inf P [S(f, P )] = supP [s(f, P )], quindi la funzione è integrabile
in [a, b].
Dal precedente teorema si possono dedurre alcune condizioni sufficienti per l’integrabilità di una fun-
zione.
11.2. CONDIZIONI SULL’INTEGRABILITÀ 117

Teorema 11.2 Ogni funzione monotòna in un intervallo chiuso [a, b] è integrabile in [a, b].

Dim. Supponiamo, per fissare le idee, che la funzione sia non decrescente in [a, b] e fissiamo un ε > 0.
Presa una partizione P di [a, b], per ogni i = 1, ..., n, si avrà f (xi−1 ) = mi , f (xi ) = Mi , quindi


n ∑
n
S(f, P ) − s(f, P ) = (Mi − mi )(xi − xi−1 ) ≤ δ (Mi − mi ) ≤ δ[f (b) − f (a)].
i=1 i=1

dove δ è l’ampiezza del più grande intervallo della partizione P . Ovviamente, se fosse f (b) = f (a), il
teorema risulterebbe provato. Se f (b) > f (a), allora la tesi si ottiene scegliendo una partizione P tale
che
ε
δ< .
f (b) − f (a)

Teorema 11.3 Ogni funzione continua in un intervallo chiuso [a, b], è integrabile in [a, b].

Dim. Per la continuità della funzione in ogni sottointervallo chiuso di una partizione di [a, b], essa
ammetterà massimi Mi e minimi mi in ciascun sottointervallo ovvero esisteranno xM m
i e xi in [xi−1 , xi ]
tali che f (xM m
i ) = Mi e f (xi ) = mi . D’altra parte, sempre per la continuità di f si avrà

Mi − mi = f (xM
i ) − f (xi ) < ε
m
per |xi − xi−1 | < δ.

Ne segue che per una partizione P̄ tale che |xi − xi−1 | < δ (i = 1, ...n) si avrà


n ∑
n
S(f, P̄ ) − s(f, P̄ ) = (Mi − mi )(xi − xi−1 ) < ε(xi − xi−1 ) = ε(b − a).
i=1 i=1

poiché ε(b − a) può essere reso piccolo quanto si vuole, si ottiene l’integrabilità di f in base al teorema
11.1.

Introduciamo ora una ulteriore forma della condizione di integrabilità. Definiamo una nuova somma
integrale

n
σ(f, P ) = f (ξi )(xi − xi−1 ),
i=1

dove ξi è un generico punto del sottointervallo [xi−1 , xi ] della partizione P . Poniamo

δ(P ) = max{(xi − xi−1 ), i = 1, ..., n}

e osserviamo che, per ogni raffinamento P ′ della partizione P , si ha δ(P ′ ) < δ(P ). Poiché mi ≤ f (ξi ) ≤
Mi (i = 1, ..., n) e tenuto conto delle proprietà del sup e dell’inf (vedi dimostrazione del teorema 11.1),
fissato ε > 0, esisterà una partizione P̄ tale che

sup s(f, P ) − ε < s(f, P̄ ) ≤ σ(f, P̄ ) < S(f, P̄ ) < inf S(f, P ) + ε.
P P

Queste disuguaglianze valgono inoltre per ogni raffinamento P di P̄ e quindi, per 0 < δ(P ) < δ(P̄ ), si
ha
σ(f, P ) − inf S(f, P ) < ε,
P
σ(f, P ) − sup s(f, P ) > −ε.
P
118 CAPITOLO 11. FUNZIONI INTEGRABILI

Ora, se f fosse integrabile nel senso della definizione data al paragrafo 11.1, si avrebbe

|σ(f, P ) − I| < ε per 0 < δ < δ̄,

dove abbiamo usato le abbreviazioni δ(P ) = δ e δ(P̄ ) = δ̄. Ma quest’ultima disuguaglianza corrisponde
alla definizione del limite
lim σ(f, P ) = I.
δ→0

Viceversa, se esistesse il limite di σ(f, P ) per δ → 0, allora a causa dell’arbitrarietà di ξi in [xi−1 , xi ],


tale limite coinciderebbe coi limiti di s e S per δ → 0 e si avrebbe contemporaneamente

lim S(f, P ) − inf S(f, P ) < ε, sup s(f, P ) − lim s(f, P ) < ε,
δ→0 P P δ→0

da cui
lim σ(f, P ) = inf S(f, P ) = sup s(f, P ).
δ→0 P P

In definitiva, l’integrabilità di f in [a, b] risulta equivalente all’esistenza del limite della somma integrale
σ quando δ → 0 e si ha
∫ b
lim σ(f, P ) = f (x) dx.
δ→0 a

11.3 Proprietà dell’integrale


In base alla definizione, e agli ultimi risultati del paragrafo precedente si possono dimostrare alcune
proprietà fondamentali dell’integrale definito.
a) Additività rispetto all’intervallo di integrazione.
Consideriamo una funzione f limitata in [a, b] e sia c un punto interno all’intervallo [a, b]. Supponendo
che f sia integrabile in [a, c] e in [c, b], essa risulterà integrabile in [a, b] e si avrà
∫ b ∫ c ∫ b
f (x) dx = f (x) dx + f (x) dx.
a a c

Per dimostrare questa proprietà possiamo operare una partizione P di [a, b] in modo tale che [a, c] sia
suddiviso in p intervalli e [c, b] in n − p intervalli (n > p). Utilizzando la condizione di integrabilità
trovata alla fine del paragrafo precedente, abbiamo
∫ c ∑
p ∫ b ∑
n
f (x) dx = lim f (ξi )(xi − xi−1 ), f (x) dx = lim f (ξi )(xi − xi−1 ),
a δ→0 c δ→0
i=1 i=p+1

da cui  
∫ c ∫ b ∑p ∑
n
f (x) dx + f (x) dx = lim  f (ξi )(xi − xi−1 ) + f (ξi )(xi − xi−1 )
a c δ→0
i=1 i=p+1

n ∫ b
= lim f (ξi )(xi − xi−1 ) = f (x) dx.
δ→0 a
i=1

b) Linearità
11.3. PROPRIETÀ DELL’INTEGRALE 119

Se f e g sono due funzioni integrabili in [a, b], e α, β ∈ R, la funzione αf + βg risulta integrabile in


[a, b] e si ha
∫ b ∫ b ∫ b
[αf (x) + βg(x)] dx = α f (x) dx + β g(x) dx.
a a a
Osserviamo infatti che per le proprietà dei limiti,
∫ b ∫ b ∑n ∑
n
α f (x) dx + β g(x) dx = α lim f (ξi )(xi − xi−1 ) + β lim g(ξi )(xi − xi−1 )
a a δ→0 δ→0
i=1 i=

n ∫ b
= lim [αf (ξi ) + βg(ξi )] (xi − xi−1 ) = [αf (x) + βg(x)] dx.
δ→0 a
i=1

c) Disuguaglianze

1. Siano f e g due funzioni integrabili in [a, b] e tali che f (x) ≤ g(x) in [a, b]. Allora
∫ b ∫ b
f (x) dx ≤ g(x) dx.
a a

La dimostrazione segue immediatamente dal fatto che, per una qualunque partizione di [a, b],

n ∑
n
f (ξi )(xi − xi−1 ) ≤ g(ξi )(xi − xi−1 ),
i=1 i=1

da cui, passando al limite per δ → 0 si ha la disuguaglianza richiesta.


2. Sia f integrabile in [a, b]. Allora
∫ b ∫ b

f (x) dx ≤ |f (x)| dx ≤ K(b − a)

a a

essendo K un opportuno numero reale positivo. Per la dimostrazione partiamo dalla disugua-
glianza −|f (x)| ≤ f (x) ≤ |f (x)|. Utilizzando la disuguaglianza al punto 1 e la proprietà b) si
ha ∫ b ∫ b ∫ b ∫ b
(−|f (x)|) dx = − |f (x)| dx ≤ f (x) dx ≤ |f (x)| dx,
a a a a
da cui ∫ b ∫ b

f (x) dx ≤ |f (x)| dx.

a a
Inoltre, essendo f limitata, esiste un K ∈ R++
tale che |f (x)| ≤ K in [a, b], quindi, sempre
applicando la disuguaglianza al punto 1, otteniamo
∫ b ∫ b
|f (x)| dx ≤ K dx = K(b − a).
a a

Facendo uso delle diseguaglianze m(b − a) ≤ s(f, P ) ≤ S(f, P ) ≤ M (b − a), si ottiene


∫ b ∫ b
1
m(b − a) ≤ f (x) dx ≤ M (b − a), ⇒ m ≤ f (x) dx ≤ M.
a b−a a
Quest’ultima diseguaglianza ci permette di dimostrare il seguente risultato.
120 CAPITOLO 11. FUNZIONI INTEGRABILI

Teorema 11.4 (Teorema della media). Sia f una funzione continua in [a, b]. Allora esiste un punto
c ∈ [a, b] tale che
∫ b
f (x) dx = (b − a)f (c).
a

Dim. Notiamo innanzitutto che, essendo f continua in un intervallo chiuso, essa è ivi integrabile.
Inoltre, sempre per la continuità di f , il teorema di Weierstrass ci assicura che esistono il massimo M
e il minimo m di f in [a, b]. Allora per il teorema dei valori intermedi, dalla precedente diseguaglianza
si ottiene che esiste un punto c in [a, b] tale che
∫ b
1
f (x) dx = f (c).
b−a a

Dal punto di vista geometrico, il teorema della media può essere interpretato dicendo che l’area
sottostante al grafico di una funzione non negativa in un intervallo [a, b] è uguale all’area del rettangolo
avente come base l’ampiezza (b − a) dell’intervallo stesso e come altezza il valore della funzione in un
opportuno punto interno ad [a, b] (vedi figura).
Quanto detto sinora può essere utile per stimare il valore di un integrale definito.

• Esempio
Vogliamo dare una stima dell’integrale definito
∫ π/2 √
1
I= 1 + sin2 x dx.
0 2
La funzione sotto√il segno di integrale è continua in [0, π/2] e poiché 0 ≤ sin2 x ≤ 1, essa è
compresa tra 1 e 32 . Si ha allora

π π 3
<I< .
2 2 2
Osserviamo che si può sempre dare una stima più accurata di I effettuando una partizione
dell’intervallo [0, π/2] in due o più intervalli e tenendo conto del fatto che all’aumentare degli
11.4. TEOREMA FONDAMENTALE DEL CALCOLO INTEGRALE 121

intervalli si raffina la partizione ed i valori approssimati per difetto o per eccesso si avvicinano
sempre di più al valore esatto dell’integrale. Nel caso presente, per esempio, sfruttando il fatto
che la funzione data è crescente in [0, π/2] e che se ne conoscono i valori in 0, π/6, π/3, π/2 si ha


3 ( π) π ∑
3 ( π) π
f (i − 1) <I< f i ,
6 6 6 6
i=1 i=1

ottenendo cosı̀ la stima più accurata,


( √ ) ( √ √ )
3 11 π 3 11 3 π
1+ √ + √ <I< √ + √ + .
2 2 2 2 6 2 2 2 2 2 6

11.4 Teorema fondamentale del calcolo integrale


Data una funzione f : [a, b] → R, limitata e integrabile, definiamo una funzione F : [a, b] → R, nel
modo seguente, ∫ x
F (x) = f (t) dt.
a
Questa funzione, detta funzione integrale, risulta essere continua in tutto [a, b]. Per dimostrare questo
fatto, sfruttiamo la limitatezza di f . Esiste quindi un K > 0 tale che

|f (x)| ≤ K ∀x ∈ [a, b].

Facendo uso delle proprietà mostrate nel precedente paragrafo, preso un x0 ∈ [a, b], si ha
∫ x0 ∫ x ∫ x0


|F (x0 ) − F (x)| = f (t) dt −
f (t) dt = f (t) dt ≤
∫a x0 a ∫ x0 x

|f (t)| dt ≤ K dt = K|x0 − x|.

x x

Ne segue che, fissato un ε > 0 si ha |F (x) − F (x0 )| < ε per ogni x tale da soddisfare la disuguaglianza
|x − x0 | < Kε . Ciò implica la continuità di F in x0 e quindi, in [a, b].
Vale la pena notare che la funzione integrale è continua anche se la funzione f con cui è costruita non
lo è.

• Esempio
Consideriamo la funzione {
2 x ∈ [−1, 0)
f (x) =
4 x ∈ [0, 1].
Calcoliamo la funzione integrale ∫ x
F (x) = f (t) dt.
−1
Per x < 0 si ha ∫ x
2 dt = 2(x + 1) = 2x + 2.
−1
122 CAPITOLO 11. FUNZIONI INTEGRABILI

Per x > 0, ricordando le proprietà dell’integrale, si ha


∫ x ∫ 0 ∫ x
f (t) dt = f (t) dt + f (t) dt = 2 + 4x,
−1 −1 0

dove si è fatto uso del risultato dell’esempio del paragrafo precedente sull’integrazione di una
costante. In definitiva, otteniamo
{
2x + 2 x ∈ [−1, 0)
F (x) =
4x + 2 x ∈ [0, 1],

la quale risulta chiaramente continua in [−1, 1]. Si può notare che questa funzione non è però
derivabile in x = 0.

Si definisce primitiva di una funzione f , definita in [a, b], ogni funzione ϕ(x) tale che la sua derivata
coincida con f in [a, b], ovvero
ϕ′ (x) = f (x), x ∈ [a, b].
Una funzione possiede più di una primitiva in quanto, se ϕ(x) è una primitiva di f (x) allora ogni
funzione del tipo ϕ(x) + c, con c costante, è ancora una primitiva di f (x).
∫x
Teorema 11.5 Data una funzione continua f : [a, b] → R, la funzione integrale F (x) = a f (t) dt è
derivabile in tutto [a, b] e si ha
F ′ (x) = f (x),
cioè F è una primitiva di f .

Dim. Considerato un punto x0 interno ad [a, b] prendiamo un incremento h di x0 e consideriamo il


rapporto incrementale della funzione integrale F . Per definizione e per le proprietà degli integrali
avremo,
(∫ x0 +h ∫ x0 ) ∫
F (x0 + h) − F (x0 ) 1 1 x0 +h
= f (t) dt − f (t) dt = f (t) dt.
h h a a h x0
Applicando ora il teorema della media alla funzione f nell’intervallo [x0 , x0 + h], possiamo trovare un
punto x̄ ∈ [x0 , x0 + h], tale che

1 x0 +h
f (t) dt = f (x̄).
h x0
Al tendere di h a zero, il punto x̄ tende a x0 . Sostituendo allora l’ultimo risultato nell’espressione del
rapporto incrementale di F e passando al limite per h → 0, otteniamo
∫ x0 +h
′ 1
F (x0 ) = lim f (t) dt = lim f (x̄) = f (x0 ),
h→0 h x0 h→0

dove, nell’ultima eguaglianza abbiamo fatto uso della continuità della f .


Questo risultato vale anche se x0 concide con a o con b, purchè si scelga rispettivamente h > 0 oppure
h < 0 e quindi si consideri la derivata destra o sinistra di F . Ne segue F ′ (x) = f (x), ∀x ∈ [a, b].
Da questo teorema, detto anche teorema fondamentale del calcolo integrale, segue il
11.5. CALCOLO DIRETTO DI INTEGRALI 123

Corollario. Data f : [a, b] → R continua e detta ϕ una sua primitiva, si ha

F (x) = ϕ(x) − ϕ(a),

dove F è la funzione integrale di f .


Dim. Siccome sia F che ϕ sono funzioni primitive di f esse differiranno per una costante additiva,
ovvero F (x) = ϕ(x) + c. Poiché si ha F (a) = 0, ne segue allora c = −ϕ(a) e quindi la tesi.

Come conseguenza del precedente corollario, ponendo x = b, si ottiene la seguente formula fondamen-
tale del calcolo integrale,
∫ b
f (t) dt = ϕ(b) − ϕ(a).
a

L’importanza di questa formula risiede nel fatto che l’integrale definito esteso all’intervallo [a, b] della
funzione f risulta essere uguale alla differenza tra i valori assunti in b e in a da una qualunque primitiva
di f . Si potrebbe dimostrare inoltre che tale formula vale anche nel caso in cui la funzione f abbia un
numero finito di punti di discontinuità eliminabili in [a, b]. In tal caso l’integrale di f tra a e b equivale
all’integrale tra a e b della funzione continua che coincide con f laddove f è continua.

11.5 Calcolo diretto di integrali


Diciamo integrale indefinito della funzione f , definita e continua in un dato intervallo, l’insieme di
tutte le sue primitive e lo indichiamo con la scrittura

f (x) dx.

La funzione f si dirà funzione integranda. Poiché la funzione integrale di f è una primitiva di f , e


dato che tutte le primitive differiscono tra di loro per una costante, si ha

f (x) dx = {F (x) + c, c = cost}.

Nel seguito, a secondo membro di questa formula scriveremo più semplicemente F (x) + c. Notiamo
che, essendo F una primitiva di f , il differenziale dell’integrale indefinito di f è dato da

d f (x) dx = f (x) dx.

Inoltre si ha ∫
f ′ (x) dx = {f (x) + c, c = cost}

Dal teorema fondamentale del calcolo integrale si conclude che il calcolo dell’integrale definito di
f si può ricondurre alla determinazione dell’integrale indefinito di f , ovvero alla determinazione di
una primitiva di f . Non sempre è possibile trovare la primitiva di una funzione, anche se continua,
o esprimere tale primitiva in termini di funzioni elementari. Esistono tuttavia alcune tecniche che
consentono di determinare l’integrale indefinito di una funzione, a partire dal fatto che l’operazione
di ricerca di una primitiva risulta essere l’operazione inversa della derivazione. A tale proposito si
124 CAPITOLO 11. FUNZIONI INTEGRABILI

possono subito stabilire le seguenti formule,



xα+1
xα dx = + c, α ∈ R, α ̸= −1,
α+1
∫ {
1 ln x + c1 x>0
dx =
x ln(−x) + c2 x < 0
∫ ∫
sin x dx = − cos x + c, cos x dx = sin x + c,
∫ ∫
1 1
cos2 x
dx = tan x + c, 2 dx = − cot x + c,
∫ ∫ sin x
x x x x
e dx = e + c, a dx = a loga e + c,

1
√ dx = arcsin x + c,
∫ 1 − x2
1
dx = arctan x + c.
1 + x2
Le proprietà dell’integrale definito mostrate nel paragrafo 11.2 sono naturalmente valide anche per
l’integrale indefinito. Esse si possono qui rivedere come conseguenze delle corrispondenti proprietà
sulle funzioni derivabili.

• Esempi
Mediante un calcolo diretto si ha,
∫ ( )
√ 1 2 √ 1
x x + 2 dx = x2 x − + c,
x 5 x
∫ ( )
2 1
e − + 8 sin x dx = e2x − 2 ln |x| − 8 cos x + c.
2x
x 2

Dai precedenti risultati, fatta salva la continuità della f ′ (x), si ha


∫ ′
f (x)
dx = ln |f (x)| + c, f (x) ̸= 0,
f (x)

1
[f (x)]α f ′ (x) dx = [f (x)]α+1 + c, α ∈ R, α ̸= −1,
α+1
∫ ∫

exp[f (x)]f (x) dx = exp[f (x)] + c, sin[f (x)]f ′ (x) dx = − cos[f (x)] + c,
∫ ∫
f ′ (x) f ′ (x)
√ dx = arcsin[f (x)] + c, dx = arctan[f (x)] + c.
1 − [f (x)]2 1 + [f (x)]2

• Esempi
Calcoliamo i seguenti integrali indefiniti,

6
2 dx = −3 cot(2x) + c,
sin (2x)
11.6. INTEGRAZIONE PER PARTI 125

8x
dx = 4 arctan(x2 − 1) + c,
1 + (x2 − 1)2

1
xe−x dx = − e−x + c.
2 2

11.6 Integrazione per parti


Consideriamo la derivata di un prodotto di funzioni f e g aventi derivate prime continue.

D[f (x)g(x)] = f ′ (x)g(x) + f (x)g ′ (x).

Prendendo l’integrale indefinito di ambo i membri, otteniamo


∫ ∫
f (x)g(x) + c = f ′ (x)g(x) dx + f (x)g ′ (x) dx,

da cui si ricava la seguente formula,


∫ ∫
f (x)g (x) dx = f (x)g(x) − f ′ (x)g(x) dx,

utile quando l’integrando può essere visto come il prodotto di un fattore finito (f ) e di un fattore
derivato (g ′ ).

• Esempi
Calcoliamo i seguenti integrali ∫
a) ln x dx,

b) cos2 x dx

c) xex dx.

Nel caso a) si può considerare ln x come il fattore finito e 1 come il fattore derivato (la derivata
di x). Si ha allora ∫ ∫
1
ln x · 1 dx = x ln x − x dx = x ln x − x + c.
x
Nel caso b) il fattore finito è cos x ed il fattore derivato cos x. Si ha
∫ ∫
cos x cos x dx = cos x sin x + sin2 x dx.

A questo punto, scrivendo sin2 x = 1 − cos2 x nell’integrale a secondo membro, si ottiene


∫ ∫
1
2 cos x dx = cos x sin x + x, ⇒ cos2 x dx = (cos x sin x + x) + c.
2
2
Nel caso c) x è il fattore finito e ex il fattore derivato. Si ha
∫ ∫
xe dx = xe − ex dx = (x − 1)ex + c.
x x
126 CAPITOLO 11. FUNZIONI INTEGRABILI

In modo analogo si calcolano i seguenti integrali indefiniti



a) ex sin x dx,

b) arcsin2 x dx,

c) xm ex dx.

Nel caso a), ∫ ∫


e sin x dx = −e cos x +
x x
ex cos x dx,

e integrando ancora per parti,


∫ ∫
e sin x dx = −e cos x + e sin x − ex sin x dx,
x x x

da cui, ∫
1
ex sin x dx = ex (sin x − cos x) + c.
2
Nel caso b), ∫ ∫
2x arcsin x
arcsin x dx = x arcsin x −
2 2
√ dx,
1 − x2
e integrando ancora per parti,
∫ √ ∫ √
1 − x2
arcsin x dx = x arcsin x + 2 1 − x arcsin x − 2 √
2 2 2 dx
1 − x2

= x arcsin2 x + 2 1 − x2 arcsin x − 2x + c.

Nel caso c), ∫ ∫


x e dx = x e − m
m x m x
xm−1 ex dx.

Effettuando altre m − 1 integrazioni per parti, si ottiene



xm ex dx = ex (xm − mxm−1 + m(m − 1)xm−2 − ... + (−1)m m!) + c.

11.7 Integrazione per sostituzione


Sia g una funzione con derivata continua definita in un intervallo reale e sia f una funzione continua,
definita in un sottoinsieme dell’immagine di g. Detta F una primitiva di f , si ha

f (g(t))g ′ (t) dt = F (g(t)) + c.

Infatti differenziando la funzione composta F (g(t)) si ottiene

dF (g(t)) = F ′ (g(t))g ′ (t) dt = f (g(t))g ′ (t) dt.


11.7. INTEGRAZIONE PER SOSTITUZIONE 127

Questa formula consente di usare∫ una tecnica di sostituzione per il calcolo integrale. Supponiamo
di non saper
∫ calcolare l’integrale f (x) dx. Se, posto x = g(t), con g invertibile, sappiamo calcolare
l’integrale f (g(t))g ′ (t) dt, otteniamo la primitiva F (g(t)), che, ritornando alla variabile x, non è altro
che la primitiva F (x) della funzione f (x).

• Esempi
1) Calcoliamo l’integrale indefinito

tan x dx.

Scrivendo l’integrale nella forma



sin x
dx,
cos x
poniamo cos x = t. Otteniamo
∫ ∫
1
tan x dx = − dt = − ln |t| + c = − ln | cos x| + c.
t

2) Calcoliamo l’integrale indefinito


∫ √
9 − x2 dx.

Posto x = 3 sin t, si ha dx = 3 cos t dt. Effettuando la sostituzione, otteniamo allora


∫ √ ∫ √
9− x2 dx 9 − 9 sin2 t 3 cos t dt
=
∫ ( √ )
9 9 x x x 2
= 9 cos2 tdt = (t + sin t cos t) = arcsin + 1− + c.
2 2 3 3 9

dove si è usato un risultato ottenuto nel par 11.6.

3) Calcoliamo l’integrale indefinito



2
dx.
1 + ex

Effettuando la sostituzione ex = t si ha x = ln t, dx = 1t dt, quindi


∫ ∫ ∫ ( )
2 1 1 1
dx = 2 dt = 2 − dt
1 + ex t(1 + t) t 1+t
e2x
= 2 ln |t| − 2 ln |1 + t| = ln + c.
(1 + ex )2
128 CAPITOLO 11. FUNZIONI INTEGRABILI

11.8 Integrazione di funzioni razionali


Vogliamo calcolare l’integrale indefinito di una funzione razionale, ovvero del rapporto tra due polinomi
N (x) e D(x). Notiamo che, se N (x) è di grado superiore a D(x), si può sempre scrivere
N (x) R(x)
= Q(x) + ,
D(x) D(x)
dove Q(x) è il polinomio quoziente tra N e D, e R(x) è un polinomio di grado inferiore a quello di
D(x). Poiché l’integrazione del polinomio Q(x) è elementare, ci occuperemo qui dell’integrazione della
funzione razionale R(x)/D(x). Da quanto visto al paragrafo 3.5 sappiamo che se il polinomio D(x) si
fattorizza come
D(x) = (x − a1 )r1 (x − a2 )r2 ...(x − an )rn
× (x2 + p1 x + q1 )s1 (x2 + p2 x + q2 )s2 ...(x2 + pm x + qm )sm ,

dove ai , ri , (i = 1, ..., n) sono rispettivamente gli zeri reali di D(x) e le loro molteplicità mentre i
fattori x2 + pi x + qi , con p2i − 4qi < 0, (i = 1, ..., m) tengono conto degli zeri complessi di D(x) con
molteplicità si , allora la funzione razionale R(x)/D(x) può essere scomposta nella seguente forma
R(x) A11 A12 A1r1
= + + ... + + ...
D(x) x − a1 (x − a1 ) 2 (x − a1 )r1
An1 An2 Anrn
+ + + ... +
x − an (x − an ) 2 (x − an )rn
B11 x + C11 B12 x + C12 B1s x + C1s1
+ 2 + + ... + 2 1
x + p1 x + q1 (x2 + p1 x + q1 )2 (x + p1 x + q1 )s1
Bms x + Cmsm
+ ... + 2 m ,
(x + pm x + qm )sm
dove i coefficienti Aij , Bij , Cij sono costanti. Il calcolo dell’integrale indefinito di R/D richiede allora,
oltre a integrazioni elementari, l’integrazione di funzioni del tipo
Ax + B
.
(x2 + px + q)n
Consideriamo preliminarmente il caso in cui l’esponente n è uguale a 1. Poiché si può scrivere

Ax + B A 2x + p B − Ap
2
= + ,
x2 + px + q 2 x2 + px + q x2 + px + q
la funzione di partenza si riduce alla somma di una funzione immediatamente integrabile, in quanto

A 2x + p A
2
dx = ln(x2 + px + q),
2 x + px + q 2
e di una funzione riscrivibile come
B − Ap
[ 2 2
].
(q − p /4) 1 + (x+p/2)
2
2
q−p /4

Posto allora
2x + p
u= √ ,
4q − p2
11.8. INTEGRAZIONE DI FUNZIONI RAZIONALI 129

si ottiene ∫ ∫
B − Ap 2B − Ap 1
[ 2 ] dx = √ du
(x+p/2)2
(q − p /4) 1 + q−p2 /4
2 4q − p2 1 + u2

2B − Ap 2x + p
=√ arctan √ .
4q − p 2 4q − p2
L’integrale della funzione
Ax + B
,
(x2 + px + q)n
con n > 1 si effettua in modo analogo. Si ottiene, preliminarmente,
∫ ∫
Ax + B A 2 1−n 2B − Ap 1
dx = (x + px + q) + du.
2
(x + px + q)n 2(1 − n) (4q − p2 ) 2
n− 1
(1 + u2 )n

L’ultimo integrale nella formula precedente può essere calcolato iterativamente nel seguente modo. Si
ha ∫ ∫ ∫ ∫
1 1 + u2 − u2 1 u 2u
2 n
du = 2 n
du = 2 n−1
du − du.
(1 + u ) (1 + u ) (1 + u ) 2 (1 + u2 )n
Mediante una integrazione per parti, l’ultimo integrale fornisce
∫ ∫
u 2u u 1 1 1
du = − + du
2 (1 + u2 )n 2 (n − 1)(1 + u2 )n−1 2 (n − 1)(1 + u2 )n−1

u 1 1 1
=− + du.
2 (n − 1)(1 + u2 )n−1 2(n − 1) (1 + u2 )n−1

Ne segue che, posto ∫


1
In = du,
(1 + u2 )n
u 1 In−1
In = In−1 + −
2 (n − 1)(1 + u )
2 n−1 2(n − 1)
2n − 3 u 1
= In−1 + .
2n − 2 2 (n − 1)(1 + u2 )n−1

• Esempi
1) Calcoliamo ∫
3x + 1
dx.
x2 − 5x + 6
Il denominatore ha due radici reali x = 2 e x = 3, quindi il rapporto tra i polinomi si può scrivere
nella forma
3x + 1 A B
= + ,
x − 5x + 6
2 x−2 x−3
da cui
3x + 1 = A(x − 3) + B(x − 2).
Uguagliando i coefficienti di x e i termini noti di ambo i membri, si ottiene A = −7, B = 10. Si
ricava cosı̀, ∫
3x + 1
dx = 10 ln |x − 3| − 7 ln |x − 2| + c.
x − 5x + 6
2
130 CAPITOLO 11. FUNZIONI INTEGRABILI

2) Calcoliamo

x4 + 1
dx.
x3 − x2 + x − 1
Poiché il numeratore è di grado maggiore del denominatore, abbiamo

x4 + 1 2
=x+1+ 3
x −x +x−1
3 2 x −x +x−1
2

D’altra parte il denominatore si scompone in (x − 1)(x2 + 1), quindi

2 A Bx + C
= + 2 .
x3 − x2+x−1 x−1 x +1

Dall’eguaglianza 2 = A(x2 + 1) + (Bx + C)(x − 1), segue allora il sistema




A + B = 0
C −B =0


A−C =2

da cui si ricava A = 1, B = C = −1. Si ottiene cosı̀



x4 + 1 x2 |x − 1|
dx = + x + ln √ − arctan x + c.
x3 − x2 + x − 1 2 x2 + 1

3) Calcoliamo ∫
x
dx.
1 + x3
Il denominatore si scompone come 1 + x3 = (1 + x)(x2 − x + 1), quindi si ha

x A Bx + C
= + .
1 + x3 x + 1 x2 − x + 1
Si ottiene il sistema 

A + B = 0
−A + B + C = 1


A + C = 0,

la cui soluzione è A = − 13 , B = C = 13 . Si ha
∫ ∫ ∫
x 1 1 1 x+1
dx = − dx + dx
1+x 3 3 1+x 3 x −x+1
2
∫ ∫
1 1 2x − 1 1 1
= − ln |x + 1| + dx + ( )2 dx
3 6 x −x+1
2 2 x− 2 +
1 3
4

1 x2 − x + 1 1 2x − 1
= − ln + √ arctan √ + c.
3 |x + 1| 3 3
11.9. INTEGRAZIONE DI FUNZIONI GONIOMETRICHE 131

11.9 Integrazione di funzioni goniometriche


Tra gli integrali di funzioni goniometriche, prendiamo in esame, in particolare, quelli della forma

sinm x cosn x dx,

dove n, m sono numeri naturali. Consideriamo alcuni esempi.

• Esempi
1) Calcoliamo

sin3 x dx.

Si ha ∫ ∫ ∫
3
sin x dx = sin x sin x dx = (1 − cos2 x) sin x dx
2

∫ ∫
cos3 x
= sin x dx + cos2 x d(cos x) = − cos x + + c.
3
2) Calcoliamo

sin4 x dx.

Usando le formule di bisezione, si ha



sin4 x dx
∫ ( ) ∫ ∫ ∫
1 − cos(2x) 2 1 1 1
= dx = dx − cos(2x) dx + cos2 (2x) dx
2 4 2 4

1 1 1 1 + cos(4x) 1 3 1
= x − sin(2x) + dx = − sin(2x) + x + sin(4x) + c.
4 4 4 2 4 8 32

3) Calcoliamo

sin2 x cos4 x dx.

Sempre usando le formule di bisezione, si ottiene


∫ ∫
2 4 1 − cos(2x) (1 + cos(2x))2
sin x cos x dx = dx
2 4

1
= (1 + cos(2x) − cos2 (2x) − cos3 (2x)) dx.
8

Poiché ∫ ∫
1
3
cos (2x) dx = (1 − sin2 (2x))d(sin(2x))
2
( )
1 1
= sin(2x) − sin3 (2x) + c,
2 3
132 CAPITOLO 11. FUNZIONI INTEGRABILI

si ottiene

sin2 x cos4 x dx
1 1 1 1 1
= x+ sin(2x) − (2x + sin(2x) cos(2x)) − sin(2x) + sin3 (2x) + c
8 ( 16 32 ) 16 48
1 3
= 3x − sin(4x) + sin3 (2x) + c.
48 4

4) Calcoliamo

1
dx.
cos x
In questo caso è opportuno fare una sostituzione usando la formula parametrica

1 − t2 x
cos x = , con t = tan .
1 + t2 2

Si ottiene cosı̀,
∫ ∫
1 1 + t2 2 t + 1
dx =
dt = ln +c
cos x 1 − t2 1 + t2 t − 1

tan(x/2) + 1

= ln + c.
tan(x/2) − 1

11.10 Integrazione di funzioni irrazionali


Spesso l’integrazione di funzioni contenenti radicali si riesce ad effettuare con una opportuna sosti-
tuzione che razionalizza la funzione integranda. Negli esempi seguenti si considereranno alcuni di
questi casi.

• Esempi
1) Calcoliamo


x x − 1 dx.

Ponendo x − 1 = t si ha x = t2 + 1, dx = 2tdt. Otteniamo allora
∫ ∫ ∫
√ 2 2
x x − 1 dx = (t + 1)2t dt = 2 (t4 + t2 )dt = t5 + t3 + c
2 2
5 3
2 5 2 3
= (x − 1) 2 + (x − 1) 2 + c.
5 3

2) Calcoliamo

1
√ dx.
(1 − x) 1 + x
11.10. INTEGRAZIONE DI FUNZIONI IRRAZIONALI 133


Ponendo 1 + x = t si ha x = t2 − 1, dx = 2tdt. Ne segue
∫ ∫ √
2 + t
1 1 1
√ dx = 2 dt = √ ln √ +c
(1 − x) 1 + x 2 − t2 2 2 − t

2 + √1 + x
1
= √ ln √ √ + c.
2 2 − 1 + x

3) Calcoliamo ∫ √
1 + x2 dx.

In questo caso è opportuno porre x = sinh t. Si ha dx = cosh tdt. Si ottiene


∫ √ ∫ ∫ ( )
2 2 1 cosh(2t)
1 + x dx = cosh t dt = + dt
2 2
1 1 1 1 √
= t + sinh(2t) + c = sinh−1 x + x 1 + x2 + c.
2 4 2 2
4) Calcoliamo ∫ √
1 − x2 dx.

Posto x = sin t, si ha dx = cos tdt. Usando un risultato del par.11.6 si ottiene allora
∫ √ ∫
1 1
1 − x dx = cos2 t dt = t + cos t sin t + c
2
2 2
1 1 √
= arcsin x + x 1 − x2 + c.
2 2
5) Calcoliamo
∫ √ 2
x +1
dx.
x2
Usiamo la sostituzione x = tan t, da cui dx = (1 + tan2 t)dt. Otteniamo
∫ √ 2 ∫ √ ∫
x +1 1 + tan2 t 2 1
2
dx = 2 (1 + tan t) dt = 2 dt
x tan t sin t cos t
∫ ∫ ∫
sin2 t + cos2 t 1 cos t
= 2 dt = dt + dt
sin t cos t cos t sin2 t

tan(t/2) + 1 1 √ x2 + 1
= ln −
+ c = ln |x + x2 + 1| − + c.
tan(t/2) − 1 sin t x

In quest’ultimo calcolo si è fatto uso del risultato dell’esempio 4) del paragrafo precedente.
L’integrale dato può essere anche risolto per parti. Considerato 1/x2 come fattore derivato, si
ha
∫ ∫ ∫
1√ 1√ 1 x 1√ 1
2
1 + x dx = −
2 1+x +2 √ dx = − 1+x + √
2 dx
x x x 1+x 2 x 1 + x2
1√
=− 1 + x2 + sinh−1 x + c.
x
Se si esprime il settore seno iperbolico in termini di logaritmo, si ottiene il risultato precedente.
134 CAPITOLO 11. FUNZIONI INTEGRABILI

6) Calcoliamo √

1+x
x dx.
1−x

1+x
Operiamo la sostituzione t = 1−x , da cui

t2 − 1 4t
x= , dx = dt.
t2 + 1 (t2 + 1)2

Facendo uso delle tecniche di integrazione delle funzioni razionali, si ottiene


∫ √ ∫ 2 ∫ ( )
1+x (t − 1)t2 1 3 2
x dx = 4 dt = 4 − + dt
1−x (t2 + 1)3 1 + t2 (1 + t2 )2 (1 + t2 )3

t(3t2 + 1) 1+x ( x) √
= arctan t − + c = arctan − 1 + 1 − x2 + c.
(1 + t2 )2 1−x 2

11.11 Integrazione definita e calcolo di aree di figure piane


In base al corollario al teorema fondamentale del calcolo integrale, data una qualunque primitiva ϕ(x)
della funzione f (x), si ha
∫ b
f (t) dt = ϕ(b) − ϕ(a).
a
Se nel determinare la primitiva si usa una sostituzione, l’integrale definito può essere calcolato di-
rettamente nella variabile introdotta dalla sostituzione, modificando in corrispondenza gli estremi di
integrazione. Se invece si usa una integrazione per parti, si verifica subito che nel caso di integrazione
definita si ha ∫ ∫
b b
f (x)g ′ (x) dx = [f (x)g(x)]ba − f ′ (x)g(x) dx.
a a

dove si é posto [f (x)g(x)]ba = f (b)g(b) − f (a)g(a). Facciamo alcuni esempi.

• Esempi
1) Calcolare
∫ 1
x3
dx.
0 1 + x8
Posto x4 = t, si ha 4x3 dx = dt. Inoltre, per x = 0 si ha t = 0 e per x = 1 si ha t = 1.
Dal’integrale precedente si ottiene
∫ 1
1 dt 1 π
2
= [arctan t]10 = .
0 41+t 4 16

2) Calcolare
∫ π/3
x
dx.
π/4 sin2 x
11.11. INTEGRAZIONE DEFINITA E CALCOLO DI AREE DI FIGURE PIANE 135

Mediante una integrazione per parti si ha


∫ π/3 ∫ π/3
x π/3 π π/3 π 1 3
2 dx = [−x cot x]π/4 + cot x dx = + [ln | sin x|]π/4 = + ln .
π/4 sin x π/4 12 12 2 2

3) Calcoliamo ∫ a√
ax − x2 dx.
0
( )
Posto x − a2 = a2 sin t, si ha dx = a
2 cos tdt. Per x = 0 si ha t = −π/2 e per x = a si ha t = π/2.
Ne segue
∫ a√ ∫ π/2 ∫ π/2
a2 a2 1 + cos 2t a2
ax − x2 dx = cos2 t dt = dt = π.
0 −π/2 4 4 −π/2 2 8

Come applicazione del degli integrali definiti consideriamo il problema del calcolo dell’area della su-
perficie di una figura piana.
Siano f e g due funzioni integrabili nell’intervallo [a, b] e tali che f (x) ≥ g(x), ∀x ∈ [a, b]. In
base alla definizione di integrale data al par. 11.1, detta A l’area della superficie piana compresa tra
i grafici delle due funzioni in [a, b] si ha
∫ b
A= [f (x) − g(x)] dx.
a

• Esempi
1) Calcolare l’area dell’area racchiusa dall’ellisse di semiassi a, b.
Riferita ad un sistema di assi cartesiani lungo i suoi due assi, l’ellisse è descritta dall’equazione
x2 y 2
+ 2 = 1.
a2 b
L’arco di ellisse del primo quadrante è il grafico della funzione
b√ 2
f (x) = a − x2 ,
a
nell’intervallo [0, a]. L’area dell’ellisse sarà data allora da

b a√ 2
A=4 a − x2 dx.
a 0
Questo integrale si risolve mediante la sostituzione x = a sin t. Si ottiene
∫ π
2
A = 4ab cos2 t dt = abπ.
0

2) Calcolare l’area del segmento di parabola di equazione y = x2 relativo all’intervallo [−2, 2].
Si tratta dell’area della figura piana delimitata dalla retta di equazione y = 4 e dalla parabola
y = x2 , per ragioni di simmetria si ha
∫ 2
A=2 (4 − x2 ) dx.
0
136 CAPITOLO 11. FUNZIONI INTEGRABILI

Il calcolo diretto fornisce


( ) 2 ( )
x3 8 32
A = 2 4x − =2 8− = .
3 0 3 3

3) Date le due curve di equazioni y = xe−x e y = mx, (m > 0), stabilire per quale valore di m
le regioni comprese tra le due curve nell’intervallo [0, 2] hanno la stessa area.
La funzione f (x) = xe−x risulta positiva per x > 0 e si annulla solo in x = 0. Inoltre presenta
un massimo per x = 1. I grafici delle due curve sono rappresentati in figura. Esse si intersecano
in un punto. Detta α l’ascissa di tale punto la condizione imposta dal problema si traduce nella
seguente eguaglianza ∫ ∫
α 2
(xe−x − mx) dx = (mx − xe−x ) dx.
0 α

Portando il secondo integrale a primo membro, invertendo i suoi estremi di integrazione e appli-
cando la proprietà di additività sul dominio di integrazione, otteniamo
∫ 2
(xe−x − mx) dx = 0.
0

Da questa, mediante una integrazione per parti, si ottiene


∫ [ ]2
[ ]2 2
x2
−xe−x 0 − (−xe −x
) dx − m =0 =⇒ −3e−2 + 1 − 2m = 0,
0 2 0

da cui si ricava
1 − 3/e2
m= .
2
Parte II

Elementi di algebra lineare e geometria

137
Capitolo 12

Matrici e determinanti

12.1 Matrici
Una tabella rettangolare di m × n numeri reali
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
 .. .. .. .. 
 . . . . 
am1 am2 · · · amn
viene detta matrice reale di ordine m ×n. Il numero aij , con i = 1, ..., m e j = 1, ..., n si dice l’elemento
(ij) della matrice. L’insieme di elementi ai1 , ai2 , ..., ain costituisce la i-esima riga, mentre l’insieme di
elementi a1j , a2j , ..., amj costituisce la j-esima colonna. Indicheremo le matrici con lettere maiuscole
e i suoi elementi con la corrispondente lettera minuscola, ad es. gli elementi della matrice B saranno
indicati con (bij ). Se n = m, cioè se il numero di colonne è pari al numero di righe, la matrice si dice
quadrata. Gli elementi a11 , a22 , a33 , ..., ann di una matrice quadrata, si dicono elementi diagonali della
matrice. Una matrice si dice nulla se tutti i suoi elementi sono nulli. Due matrici A e B si dicono
uguali se hanno lo stesso ordine e se aij = bij per ogni coppia di indici (ij).
Data la matrice A, si chiama trasposta di A, la matrice AT ottenuta da A scambiando le righe con le
colonne, ovvero la matrice i cui elementi sono a′ij = aji per ogni i, j. Si ha (AT )T = A. La trasposta di
una matrice quadrata A ha elementi diagonali uguali a quelli della matrice A. Una matrice quadrata
A si dice simmetrica se è uguale alla sua trasposta, ovvero se aij = aji ∀i, j = 1, ..., n (A = AT ).
• Esempi
Le matrici  
( ) 1 0
1 3 −2
A= B =  3 4
0 4 1
−2 1
sono l’una la trasposta dell’altra. La matrice
 
1 −1 5
−1 0 3
5 3 1
è una matrice simmetrica.

139
140 CAPITOLO 12. MATRICI E DETERMINANTI

12.2 Somma di matrici


Date due matrici A e B dello stesso ordine, si dice matrice somma C di A e B la matrice i cui elementi
sono la somma dei corrispondenti elementi di A e di B, ovvero

cij = aij + bij .

Si può verificare subito che l’operazione di somma tra matrici gode delle proprietà commutativa e
associativa, ovvero
A + B = B + A, A + (B + C) = (A + B) + C.
Inoltre indicata con 0 la matrice nulla dello stesso ordine di A, si ha A + 0 = A. Data una matrice
A esisterà poi una matrice B la cui somma con A è uguale alla matrice nulla, cioè A + B = 0. In tal
caso si dirà che B è la matrice opposta di A e la si indicherà con −A. Gli elementi di −A sono dati
da −aij .
Una matrice quadrata si dice antisimmetrica se è l’opposta della sua trasposta, ovvero se AT = −A.
Una matrice antisimmetrica ha tutti gli elementi diagonali nulli, infatti deve essere aii = −aii per ogni
i.
Data una matrice A ed un numero k definiamo il prodotto kA come quella matrice B i cui elementi
si ottengono da quelli di A moltiplicandoli per k, ovvero

bij = kaij .

L’operazione di moltiplicazione di una matrice per un numero gode delle ovvie proprietà associative e
distributive rispetto al prodotto di numeri e alla somma di matrici.
Si verifica inoltre facilmente che (A + B)T = AT + B T e che (kA)T = kAT .

• Esempi
Date le due matrici ( ) ( )
−2 3 1 1 0 −1
A= B= ,
1 3 0 3 −2 −1
e posto k = 3 si ha
( ) ( )
−1 3 0 −6 9 3
C =A+B = , kA = 3A = .
4 1 −1 3 9 0

Date le due matrici    


0 3
A =  2 , B = 5 ,
−1 1
si ha 

−3
2A − 1B = −1 .
−3
12.3. PRODOTTO DI MATRICI 141

12.3 Prodotto di matrici


Consideriamo una matrice A di ordine m × p e una matrice B di ordine p × n. Si definisce prodotto
righe per colonne di A per B la matrice C di ordine m × n i cui elementi sono dati da


p
cij = aik bkj .
k=1

In altri termini, l’elemento di C appartenente alla i-esima riga e alla j-esima colonna, si ottiene come
somma dei prodotti degli elementi della i-esima riga di A per gli elementi della j-esima colonna di B.
Per esempio, l’elemento c12 , è dato da

c12 = a11 b12 + a12 b22 + a13 b32 + ... + a1p bp2 .

• Esempio
Siano date le matrici  
( ) −2 −1
1 −3 0
A= , B= 4 0
2 5 1
3 2
Il loro prodotto C = AB è dato da
 
( ) −2 −1 ( )
1 −3 0   −14 −1
C= 4 0 = .
2 5 1 19 0
3 2

Notiamo che il prodotto righe per colonne tra due matrici ha senso quando il numero di colonne della
prima matrice è uguale al numero di righe della seconda. In tal caso si dice che le matrici sono conformi
per il prodotto. La matrice che cosı̀ si ottiene ha un numero di righe pari al numero di righe della
prima matrice e un numero di colonne pari al numero di colonne della seconda. Inoltre il prodotto
tra due matrici conformi non è, in generale, commutativo. In altri termini AB ̸= BA. I due prodotti,
non solo possono differire per il valore degli elementi corrispondenti, ma possono non avere lo stesso
ordine.

• Esempio
Consideriamo le due matrici A e B dell’esempio precedente. Il prodotto D = BA, è dato da
   
−2 −1 ( ) −4 1 −1
1 −3 0
D= 4 0 =  4 −12 0  .
2 5 1
3 2 7 1 2
142 CAPITOLO 12. MATRICI E DETERMINANTI

Da quanto detto segue che il prodotto tra due matrici quadrate dello stesso ordine è ancora una matrice
quadrata dello stesso ordine.
Il prodotto tra matrici gode delle seguenti proprietà, di facile verifica,
(AB)C = A(BC),
A(B + C) = AB + AC,
(B + C)A = BA + CA,
A0 = 0,
A(kB) = k(AB), ∀k ∈ R.
Notiamo che il prodotto tra due matrici può dare come risultato una matrice nulla anche se ambedue
i fattori sono matrici non nulle.

• Esempio
Siano date le matrici quadrate
( ) ( )
1 2 −6 −2
A= , B= .
2 4 3 1
Si ha ( )( ) ( )
1 2 −6 −2 0 0
AB = = .
2 4 3 1 0 0

Una matrice quadrata A si dice diagonale se ha nulli tutti gli elementi non diagonali, cioè se aij = 0
per ogni i ̸= j. Gli elementi di una tale matrice si possono anche scrivere nella forma aij = λi δij , dove
δij è il simbolo di Kronecker, ovvero
{
1 se i = j
δij =
0 se i ̸= j.

e dove λ1 , λ2 , ..., λn sono gli elementi della diagonale.

• Esempio
La matrice  
2 0 0
A = 0 1 0  ,
0 0 −1
è una matrice diagonale. In tal caso λ1 = 2, λ2 = 1, λ3 = −1 sono gli elementi della sua diagonale
e si suole scrivere A = diag(2, 1, −1).

Una matrice diagonale i cui elementi sono tutti uguali a 1 si dice matrice unitaria e la si indica con I.
Si ha cioè,  
1 0 ··· 0
0 1 · · · 0
 
I = . . .
 .. .. . . ... 

0 0 ··· 1
12.3. PRODOTTO DI MATRICI 143

I suoi elementi saranno dati da δij . Il prodotto di una qualunque matrice A per la matrice unitaria,
ad essa conforme per il prodotto, è uguale ad A. Si ha infatti


p
aik δkj = aij , i = 1, ..., m, j = 1, ..., p.
k=1

Se la matrice A è quadrata, allora è possibile farne il prodotto con la stessa I sia a destra che a sinistra
e si ha
∑ n ∑
n
AI = IA = A, infatti aik δkj = δik akj = aij .
k=1 k=1

Si dice che una matrice quadrata A ammette una inversa, se esiste una matrice, che denoteremo con
A−1 , tale che moltiplicata con A dia la matrice unitaria, ovvero se

A−1 A = AA−1 = I.

Se esiste, la matrice inversa è unica. Supponiamo infatti che esistano due inverse di A e siano rispet-
tivamente B e C. Si avrà, per definizione,

AB = BA = I, AC = CA = I.

Dalla prima di queste relazioni si ottiene, BAC = IC = C, mentre dalla seconda, BAC = BI = B.
Ne segue allora, C = B, ovvero l’inversa è unica.
Sussiste la seguente regola di trasposizione del prodotto di matrici.

(AB)T = B T AT .

In altri termini, la trasposta del prodotto di due matrici è uguale al prodotto, in ordine inverso, delle
trasposte delle due matrici. Per dimostrare questa regola poniamo C = AB, ovvero


p
cij = aik bkj .
k=1

La matrice trasposta C T avrà l’elemento (ji) -denotiamolo con c′ji - pari all’elemento cij di C. Cosippure
si avrà a′ji = aij , b′ji = bij . La somma precedente si potrà allora scrivere come


p ∑
p
c′ji = a′ki b′jk = b′jk a′ki .
k=1 k=1

Quest’ultima uguaglianza equivale a scrivere

C T = B T AT .

come volevamo dimostrare.


Supponiamo che la matrice A ammetta la inversa A−1 . Allora la trasposta ammette inversa e la
trasposta dell’inversa è uguale alla inversa della trasposta. Si ha infatti, per la definizione di inversa
e per regola di trasposizione del prodotto,

AA−1 = A−1 A = I =⇒ (A−1 )T AT = AT (A−1 )T = I T = I,


144 CAPITOLO 12. MATRICI E DETERMINANTI

che, per la definizione di inversa, implica che (A−1 )T è l’inversa della trasposta, ovvero che

(A−1 )T = (AT )−1 .

Inoltre, se due matrici A e B ammettono inversa, si ha

(AB)−1 AB = I, =⇒ (AB)−1 A = B −1 =⇒ (AB)−1 = B −1 A−1 ,

ovvero, l’inversa del prodotto di due matrici invertibili è uguale al prodotto delle inverse in ordine
inverso.
Si definisce traccia di una matrice quadrata, la somma dei suoi elementi diagonali, ovvero,


n
tr(A) = aii .
i=1

Poiché la trasposta AT di una matrice quadrata A ha gli stessi elementi diagonali di A, si ha

tr(AT ) = tr(A).

Inoltre ogni matrice antisimmetrica ha traccia nulla in quanto gli elementi della sua diagonale sono
tutti nulli. Date due matrici quadrate A e B, si ha

tr(AB) = tr(BA), tr(A + B) = trA + trB, tr(kA) = k trA.

Infatti

n ∑
n ∑
n ∑
n ∑
n ∑
n
tr(AB) = aik bki = bki aik = bki aik = tr(BA),
i=1 k=1 i=1 k=1 k=1 i=1
∑n ∑ n ∑
n
tr(A + B) = (aii + bii ) = aii + bii = trA + trB,
i=1 i=1 i=1

n ∑
n
tr(kA) = (kaii ) = k aii = k trA.
i=1 i=1

Nella prima di queste relazioni si è sfruttato il fatto che l’ordine con cui si effettuano le somme è
ininfluente.

12.4 Determinanti
Sia A una matrice quadrata. Il determinante di A è un numero, che indicheremo con det(A), associato
alla matrice A secondo la seguente procedura. Consideriamo una matrice 1 × 1. In questo caso, posto
a11 = a, definiamo
det(A) = a.
Consideriamo una matrice di ordine 2 × 2. Si definisce

a11 a12
det(A) = = a11 a22 − a12 a21 .
a21 a22
12.4. DETERMINANTI 145

Il determinante di una matrice quadrata A di ordine 3 si può definire a partire da quello di una matrice
di ordine 2 secondo la seguente espressione

a11 a12 a13

det(A) = a21 a22 a23 =
a31 a32 a33

a22 a23 a21 a23 a21 a22
1+1
(−1) a11 1+2
+ (−1) a12 1+3
+ (−1) a13 =
a32 a33 a31 a33 a31 a32

a22 a23 a21 a23 a21 a22

a11
− a12
+ a13 =
a32 a33 a31 a33 a31 a32
a11 a22 a33 − a11 a32 a23 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .
La formula precedente si chiama anche sviluppo del determinante secondo la prima riga. Essa si
ottiene prendendo con un opportuno segno ciascun elemento della prima riga e moltiplicandolo per il
determinante della matrice ottenuta sopprimendo la riga e la colonna cui appartiene quell’elemento.
La somma di questi prodotti costituisce il determinante di A. In realtà il determinante di A si può
calcolare anche sviluppandolo secondo la seconda o la terza riga, ottenendo sempre lo stesso risultato.
Per esempio si ha

a11 a12 a13

det(A) = a21 a22 a23 =
a31 a32 a33

a12 a13 a11 a13 a11 a12
2+1
(−1) a21 2+2
+ (−1) a22 2+3
+ (−1) a23 =
a32 a33 a31 a33 a31 a32

a12 a13 a11 a13 a11 a12
− a21 + a22
a31 a33 − a23 a31 a32 .
a32 a33
Una analoga formula si ottiene sviluppando secondo la terza riga.
In generale si definisce la seguente formula per il determinante di una matrice quadrata di ordine n,
sviluppato secondo la i-esima riga.

a11 a12 · · · a1n

a21 a22 · · · a2n

det(A) = . .. . .. =
.. . . . .

an1 an2 · · · ann

n
(−1)i+1 ai1 det(Ai1 ) + (−1)i+2 ai2 det(Ai2 ) + ... + (−1)i+n ain det(Ain ) = (−1)i+j aij det(Aij ),
j=1

dove le matrici Ai1 , Ai2 , ..., Ain sono le matrici di ordine n − 1 ottenute dalla matrice A sopprimendo
rispettivamente la i-esima riga e la prima, seconda, ..., n-esima colonna.
Si può osservare che in base a questa definizione, il determinante di A è dato dalla somma dei
prodotti di tutte le permutazioni (che sono n!), di n elementi di righe e colonne diverse di A, prese
con segno positivo se permutazioni pari e con segno negativo se permutazioni dispari, rispetto alla
permutazione fondamentale a11 a22 ...ann . Ne segue che det(A) è indipendente dalla scelta di i (da 1
a n), e può essere calcolato mediante la formula precedente a partire da una qualunque riga. Inoltre
scambiando due righe di A tra di loro, in ciascun prodotto si produce una ed una sola permutazione,
quindi tutti i prodotti andranno presi con segno diverso ed il determinante cambierà segno. Notiamo
infine che una matrice diagonale ha come determinante il prodotto degli elementi della diagonale.
146 CAPITOLO 12. MATRICI E DETERMINANTI

• Esempio
Consideriamo la matrice 3 × 3  
2 1 0
A =  1 1 4
−3 2 5
Sviluppiamo il suo determinante secondo la prima riga. Si ha
( ) ( ) ( )
1 4 1 4 1 1
A11 = , A12 = , A13 = .
2 5 −3 5 −3 2
Ne segue che
det(A) = 2 detA11 − 1 det(A12 ) + 0 det(A13 ) = 2(5 − 8) − 1(5 + 12) + 0 = −23

Valgono inoltre le seguenti proprietà.


i) Se una riga di una matrice è nulla, il suo determinante è nullo. Ciò segue banalmente dal fatto
che lo sviluppo del determinante secondo quella riga è la somma di termini tutti nulli.
ii) Se una matrice A ha due righe uguali, allora il suo determinante è nullo. Infatti scambiando
tra loro le due righe uguali otteniamo una matrice A′ tale che det(A′ ) = −det(A). Poiché A = A′ , ne
segue che det(A) = −det(A), e quindi det(A) = 0.
iii) Moltiplicando tutti gli elementi di una riga per uno stesso numero k, il determinante risulta
moltiplicato per k. Infatti se sviluppiamo il determinante secondo gli elementi della nuova riga ot-
tenuta dopo la moltiplicazione, ciascun termine della somma verrà moltiplicato per k e cosippure il
determinante.
iv) Sostituendo gli elementi aih della i-esima riga con i termini aih + kajh , ottenuti sommando a
ciascun termine il prodotto di k per l’elemento di un’altra riga e medesima colonna, il determinante
non cambia. Infatti, per la proprietà iii), il nuovo determinante, sviluppato secondo la i-esima riga, è
dato da
(−1)i+1 (ai1 + kaj1 )det(Ai1 ) + (−1)i+2 (ai2 + kaj2 )det(Ai2 ) + ...
+ (−1)i+n (ain + kajn )det(Ain ) = det(A) + kdet(B),
dove B è una matrice in cui la riga i-esima è uguale alla riga j-esima. Ne segue, per la proprietà ii),
che det(B) = 0, e quindi il determinante calcolato è lo stesso di quello della matrice di partenza.
v) Se gli elementi della riga i-esima della matrice C sono dati dalla somma di due termini aik e
bik , k = 1, ..., n, il determinante risulta uguale alla somma dei determinanti delle matrici A e B le cui
i-esime righe sono date rispettivamente dai termini aik e bik . Infatti si ha
det(C) = (−1)i+1 (ai1 + bi1 )det(Ci1 ) + (−1)i+2 (ai2 + bi2 )det(Ci2 ) + ...
+ (−1)i+n (ain + bin )det(Cin )
= det(A) + det(B).

I coefficienti dei termini aij nello sviluppo del determinante di A si dicono anche cofattori. Il cofattore
di aij è dato da (−1)i+j det(Aij ) e si indica con ãji . La matrice à che ha per elementi i cofattori di A
si dice matrice aggiunta di A. Fissata dunque una qualunque riga, per esempio la i-esima, si ha

n ∑
n
det(A) = (−1)i+j aij det(Aij ) = aij ãji .
j=1 j=1
12.4. DETERMINANTI 147

D’altra parte se si moltiplicano gli elementi di una riga per i cofattori di un’altra riga e poi si somma,
si ottiene il determinante di una matrice con due righe uguali, cioè


n
aij ãjk = 0, se i ̸= k.
j=1

Raccogliendo questi ultimi due risultati segue che

(detA)I = AÃ,

ovvero la matrice AÃ è diagonale e i suoi elementi diagonali sono tutti uguali a det(A). In altri termini
risulta
1
det(A) = tr(AÃ).
n
Osservando l’espressione dello sviluppo esplicito del determinante di una matrice del terzo ordine si
può notare che scambiando i due indici in ciascun fattore di ogni addendo la somma rimane invariata.
In altri termini si ha det(A) = det(AT ). Questo risultato vale in generale per una matrice di ordine
qualsiasi e può essere provato mediante una dimostrazione per induzione sulla dimensione della matrice.
A tale scopo osserviamo che, per n = 1 si ha det(A) = a e quindi det(A) = det(AT ). Inoltre, come si
può verificare facilmente,
(Aij )T = (ATji ),
ovvero, la trasposta della matrice Aij equivale alla matrice che si ottiene eliminando la j-esima riga e
la i-esima colonna dalla trasposta di A. Supponiamo allora che la proprietà che vogliamo dimostrare
valga per matrici di ordine n e dimostriamo che essa vale anche per matrici di ordine n + 1. Tenuto
conto della relazione precedente e del fatto che, in tal caso, le matrici Aij sono di ordine n, si ha


n+1 ∑ n+1
n+1 ∑ ∑ n+1
n+1 ∑
(n + 1)det(A) = det(A) = (−1) i+j
aij det(Aij ) = (−1)i+j a′ji det(ATji )T
i=1 i=1 j=1 i=1 j=1
n+1 ∑
∑ n+1 ∑
n+1
= (−1)j+i a′ji det(ATji ) = det(AT ) = (n + 1)det(AT ).
j=1 i=1 j=1

dove con a′ij si sono indicati gli elementi della matrice AT . Una conseguenza di questo risultato è
che se si esegue lo sviluppo del determinante secondo gli elementi di una colonna anzichè secondo gli
elementi di una riga, il risultato non cambia. Infatti, si ha


n ∑
n
det(A) = det(AT ) = (−1)j+i a′ji det(ATji ) = (−1)i+j aij det(Aij ).
i=1 i=1

La corrispondente formula esplicita per lo sviluppo del determinante secondo la j-esima colonna è la
seguente
a11 a12 ··· a1n

a21 a22 ··· a2n

det(A) = . .. .. .. =
.. . . .

an1 an2 ··· ann
1+j
(−1) a1j det(A1j ) + (−1)2+j a2j det(A2j ) + ... + (−1)n+j anj det(Anj )
148 CAPITOLO 12. MATRICI E DETERMINANTI

con l’ovvio significato dei simboli. Si deduce cosı̀ che le proprietà i) − v) valgono inalterate se invece
di riferirle alle righe le riferiamo alle colonne di una matrice. Inoltre, si ha

n ∑
n
det(A) = (−1)i+j aij det(Aij ) = ãji aij , =⇒ (detA)I = ÃA.
i=1 i=1

Si può dimostrare che il determinante del prodotto di due matrici quadrate è uguale al prodotto dei
determinanti delle singole matrici ovvero,

det(AB) = det(A)det(B).

Sfruttando questa proprietà si verifica facilmente che il determinante dell’aggiunta di A è uguale a


[det(A)]n−1 . Infatti, poiché
det[det(A)I] = [det(A)]n ,
si ricava
[det(A)]n = det(AÃ) = det(A)det(Ã) ⇒ det(Ã) = [det(A)]n−1 ,
nell’ipotesi det(A) ̸= 0.
Sotto la stessa ipotesi, le formule det(A)I = AÃ = ÃA consentono di ricavare anche la matrice inversa
di A. Vale infatti il seguente risultato.

Teorema 12.1 Ogni matrice quadrata A avente determinante diverso da zero è invertibile e la sua
inversa è data da

A−1 = .
det(A)
Dim. Poiché si ha
(det(A))I = AÃ = ÃA,
nell’ipotesi che det(A) ̸= 0, si ottiene

à Ã
A = I, A=I
det(A) det(A)

da cui Ã/det(A) risulta soddisfare la proprietà di moltiplicazione a destra e a sinistra della matrice
inversa. Concludiamo quindi che A−1 esiste e si ha

A−1 = .
det(A)
• Esempio
Verifichiamo che la matrice  
3 1 −2
A = −1 1 2 ,
1 −2 1
è invertibile e calcoliamone l’inversa.
Si ha det(A) = 16 ̸= 0 quindi, per il teorema 12.1, la matrice è invertibile. Si hanno inoltre i
seguenti risultati.
det(A11 ) = 5 det(A12 ) = −3 det(A13 ) = 1
det(A21 ) = −3 det(A22 ) = 5 det(A23 ) = −7
det(A31 ) = 4 det(A32 ) = 4 det(A33 ) = 4.
12.4. DETERMINANTI 149

Sostituendo nella formula del teorema precedente, si ottiene


 
5 3 4
1 
−1
A = 3 5 −4 .
16
1 7 4

Osserviamo infine che il determinante dell’inversa di una matrice A è uguale al reciproco del determi-
nante di A. Infatti, dalla regola del determinante del prodotto si ha

1 = det(I) = det(A−1 A) = det(A−1 )det(A),

da cui si ricava
1
det(A−1 ) =
det(A)
150 CAPITOLO 12. MATRICI E DETERMINANTI
Capitolo 13

Spazi vettoriali

13.1 Definizioni
Uno spazio vettoriale è un insieme V di elementi, detti vettori, che possono essere sommati tra loro e
moltiplicati per un numero reale (o complesso) in modo tale che i risultati di queste operazioni siano
elementi di V e siano soddisfatte le seguenti proprietà.
1) Proprietà della somma:

a) u + v = v + u, ∀ u, v, ∈ V ,

b) (u + v) + w = u + (v + w), ∀ u, v, w ∈ V

c) ∃ 0 ∈ V : 0 + u = u + 0 = u, ∀u ∈ V

d) ∃ − u ∈ V : u + (−u) = 0, ∀ u ∈ V

2) Proprietà del prodotto per un numero reale:

a) k(u + v) = ku + kv, ∀ u, v ∈ V, ∀ k ∈ R,

b) (k + h)u = ku + hu, ∀ u ∈ V, ∀ h, k ∈ R,

c) (kh)u = k(hu), ∀u ∈ V, ∀ h, k ∈ R

d) 1u = u, ∀ u ∈ V

A partire da queste proprietà si può dimostrare che il vettore 0, detto vettore nullo e il vettore −u,
detto vettore opposto di u, sono unici. Inoltre il prodotto del numero 0 con un qualunque vettore è
uguale al vettore nullo e il prodotto di un qualunque numero per il vettore nullo è ancora il vettore
nullo.

• Esempi
1) Consideriamo l’insieme Rn , ovvero l’insieme di tutte le possibili n-uple ordinate di numeri
reali (a1 , a2 , ..., an ). Definiamo la somma di due n-uple e il prodotto di una n-upla per un numero
reale nel modo seguente

(a1 , a2 , ..., an ) + (b1 , b2 , ..., bn ) = (a1 + b1 , a2 + b2 , ..., an + bn ),


k(a1 , a2 , ..., an ) = (ka1 , ka2 , ..., kan ).

151
152 CAPITOLO 13. SPAZI VETTORIALI

Si può verificare facilmente che queste operazioni soddisfano le proprietà 1) e 2) e di conseguenza


Rn è uno spazio vettoriale. Il vettore nullo è dato dalla n-upla di zeri (0, 0, ..., 0).

2) Consideriamo l’insieme di tutte le matrici n×m. Tenuto conto delle note definizioni di somma
di due matrici e di prodotto di un numero per una matrice, si può verificare che le proprietà 1) e
2) sono interamente soddisfatte e che quindi le matrici n × m costituiscono uno spazio vettoriale.
Il vettore nullo, in questo caso è dato dalla matrice n × m nulla.

3) Consideriamo l’insieme {Pn } di tutti i polinomi di grado minore o uguale ad n in x. Definiamo


la somma di due polinomi ed il prodotto di un polinomio per un numero reale nel senso usuale.
Si possono verificare le proprietà 1) e 2) notando che il vettore nullo corrisponde al polinomio
identicamente nullo ovvero al numero 0. L’insieme {Pn } è dunque uno spazio vettoriale.

Siano V e V ′ due spazi vettoriali. Supponiamo che esista una corrispondenza biunivoca tra gli elementi
di V e quelli di V ′ tale che alla somma (a + b) di due vettori di V corrisponda la somma a′ + b′ dei
vettori corrispondenti in V ′ e al prodotto αa di un numero per un vettore di V corrisponda il prodotto
αa′ di α per il vettore corrispondente in V ′ . Si dice allora che i due spazi V e V ′ sono isomorfi tra
loro.

• Esempio
I vettori liberi in uno spazio tridimensionale, con l’usuale nozione di somma tra vettori e prodotto
di un vettore per un numero reale, costituiscono uno spazio vettoriale che chiamiamo V3 . Ogni
vettore libero v è individuato dalla terna (v1 , v2 , v3 ) delle sue componenti rispetto ad un rife-
rimento cartesiano nello spazio. Esiste quindi una corrispondenza biunivoca tra i vettori liberi
dello spazio tridimensionale e lo spazio R3 . Poiché alla somma di vettori corrisponde la somma
di terne di numeri reali e al prodotto di un numero per un vettore corrisponde il prodotto di
quel numero per una terna di numeri reali, gli spazi V3 e R3 risultano isomorfi tra loro.

Sia W un sottoinsieme di uno spazio vettoriale V . Se accade che


1) u + v ∈ W, ∀u, v ∈ W ,
2) ku ∈ W, ∀u ∈ W, ∀k ∈ R, (in particolare, 0 ∈ W ),
allora W è uno spazio vettoriale e si chiama sottospazio vettoriale di V .

• Esempi
Consideriamo lo spazio dei vettori liberi tridimensionali V3 . L’insieme dei versori di V3 costituisce
un sottoinsieme V31 che non è un sottospazio di V3 . Per provarlo basta notare che la somma di
due versori non è, in generale, un versore, oppure che il vettore nullo di V3 non è contenuto in
V31 .
Il sottoinsieme di V3 formato da tutti i vettori che hanno componente v3 = 0, è un sottospazio di
V3 . Esso rappresenta infatti l’insieme V2 dei vettori liberi del piano (x1 , x2 ). La somma di vettori
del piano è ancora un vettore del piano e il prodotto di un vettore del piano per un numero è
ancora un vettore del piano. In particolare il vettore nullo di V3 è contenuto in V2 .
13.2. COMBINAZIONI LINEARI 153

L’insieme Sym(n × n) di tutte le matrici simmetriche di ordine n × n è un sottospazio vettoriale


dell’insieme delle matrici di ordine n × n. Infatti la somma di matrici simmetriche è una ma-
trice simmetrica e il prodotto di un numero per una matrice simmetrica è ancora una matrice
simmetrica. Inoltre la matrice nulla è una particolare matrice simmetrica.

13.2 Combinazioni lineari


Siano v1 , v2 , ..., vk k vettori di uno spazio vettoriale V e siano a1 , a2 , ..., ak , k numeri reali. Il vettore

a1 v1 + a2 v2 + ... + ak vk ,

si dice combinazione lineare dei k vettori dati. È facile provare che l’insieme di tutte le combinazioni
lineari di k vettori di V costituisce un sottospazio vettoriale di V . Infatti, innanzitutto, le combinazioni
lineari di vettori di V costituiscono un sottoinsieme di V . Inoltre, date due combinazioni lineari dei k
vettori vi si ha
(a1 v1 + ... + ak vk ) + (b1 v1 + ... + bk vk ) = (a1 + b1 )v1 + ... + (ak + bk )vk ,
h(a1 v1 + ... + ak vk ) = ha1 v1 + ... + hak vk .
Ne segue che la somma di combinazioni lineari è una combinazione lineare e che il prodotto di una
combinazione lineare per un numero è una combinazione lineare. In particolare, scegliendo i coefficienti
ai tutti nulli si ottiene una particolare combinazione lineare che è il vettore nullo di V .
Il sottospazio formato da tutte le combinazioni lineari di k vettori di V si dice il sottospazio generato
da quei vettori.

• Esempio
Consideriamo lo spazio vettoriale P 4 dei polinomi di grado 4 in x. Presi i tre polinomi x2 , x, 3
costruiamo la combinazione lineare

α(x2 ) + β(x) + γ(3) α, β, γ ∈ R.

Al variare di α, β e γ, tali combinazioni lineari descrivono il sottospazio vettoriale P 2 ⊂ P 4


dell’insieme dei polinomi di grado 2 in x che risulta quindi essere generato dai tre vettori x2 , x,
3.

Dati n vettori v1 , v2 , ..., vn appartenenti a V si dice che essi sono linearmente dipendenti se è possibile
trovare n coefficienti a1 , a2 , ..., an , non tutti nulli in modo tale che

a1 v1 + a2 v2 + ... + an vn = 0.

Se, altrimenti, la eguaglianza precedente risulta verificata solo per ak (k = 1, ..., n) tutti nulli, allora i
vettori si diranno linearmente indipendenti.
Se i vettori v1 , v2 , ..., vn sono linearmente dipendenti, allora uno di essi può essere espresso come
combinazione lineare degli altri. Infatti se

a1 v1 + a2 v2 + ... + an vn = 0,
154 CAPITOLO 13. SPAZI VETTORIALI

per coefficienti ai non tutti nulli, dividendo per un coefficiente non nullo, per esempio il j-esimo, si
ottiene
a1 a2 aj an
v1 + v2 + ... + vj + ... + vn = 0,
aj aj aj aj
da cui
a1 a2 aj−1 aj+1 an
vj = − v1 − v2 − ... − vj−1 − vj+1 − ... − vn .
aj aj aj aj aj
Viceversa, se uno di n vettori è combinazione lineare degli altri n − 1, allora gli n vettori sono linear-
mente dipendenti.

• Esempi
1) Consideriamo lo spazio vettoriale Rn e gli n vettori
e1 = (1, 0, ..., 0), e2 = (0, 1, ..., 0), ... en = (0, 0, ..., 1).
Consideriamo n coefficienti α1 , α2 , ..., αn e costruiamo la combinazione lineare
α1 e1 + α2 e2 + ... + αn en = (α1 , α2 , ..., αn ).
Tale combinazione lineare risulta nulla se e solo se tutti i coefficienti αi sono nulli. Ne segue che
i vettori ei sono linearmente indipendenti.

2) Nello spazio vettoriale P 4 dei polinomi di grado minore o uguale a quattro consideriamo i
cinque polinomi 1, x − 1, x2 + 2x, x3 , x4 − x2 . Costruiamo la combinazione lineare
c1 (1) + c2 (x − 1) + c3 (x2 + 2x) + c4 x3 + c5 (x4 − x2 ).
In base al principio di equivalenza tra polinomi si ha
(c1 − c2 ) + (c2 + 2c3 )x + (c3 − c5 )x2 + c4 x3 + c5 x4 = 0
se e solo se
c1 − c2 = 0, c2 + 2c3 = 0, c3 − c5 = 0, c4 = 0, c5 = 0.
Ma questo sistema è soddisfatto solo se tutti i coefficienti c1 , c2 , c3 , c4 , c5 sono nulli, quindi i
cinque polinomi sono linearmente indipendenti. I tre polinomi x, 2x2 − x, x2 + x sono invece
linearmente dipendenti in quanto
c1 x + c2 (2x2 − x) + c3 (x2 + x) = 0 =⇒ c1 − c2 + c3 = 0, 2c2 + c3 = 0,
che ammette, tra le altre, la soluzione c1 = 3, c2 = 1, c3 = −2

Si dice che n vettori v1 , v2 , ..., vn formano una base dello spazio vettoriale V se essi generano V e sono
linearmente indipendenti.

• Esempio
I vettori ei dell’esempio precedente, formano una base di Rn . Infatti essi sono linearmente
indipendenti ed inoltre, dato un qualunque elemento a di Rn , si può scrivere
a = a1 e1 + a2 e2 + ... + an en ,
quindi i vettori ei , generano Rn .
13.2. COMBINAZIONI LINEARI 155

Teorema 13.1 Ogni vettore di uno spazio vettoriale V può essere espresso in modo unico come
combinazione lineare dei vettori di una sua base.

Dim. Sia {e1 , e2 , ..., en } una base di V . Per definizione i vettori {ei } sono linearmente indipendenti
e generano V . Dato un qualunque vettore v ∈ V , esistono n numeri vi , (i = 1, ..., n) tali che


n
v= vi ei ,
i=1

e∑tali numeri sono univocamente determinati da v. Infatti se ci fossero altri numeri vi′ tali che v =
n ′
i=1 vi ei si avrebbe
∑n ∑
n ∑
n
0=v−v = vi ei − vi′ ei = (vi − vi′ )ei ,
i=1 i=1 i=1

ma, per l’indipendenza lineare dei vettori {ei } si ha vi − vi′ = 0, (i = 1, ..., n).
Siano v1 , v2 , ..., vr un sottoinsieme massimale di vettori linearmente indipendenti di V ovvero un
sottoinsieme tale che, preso un qualunque altro elemento v ∈ V , gli r + 1 vettori v1 , v2 , ..., vr , v
risultino linearmente dipendenti. Possiamo allora dimostrare il seguente risultato.

Teorema 13.2 Ogni sottoinsieme massimale di vettori linearmente indipendenti di V è una base di
V.

Dim. La dimostrazione consiste nel fare vedere che un sottoinsieme massimale di V , v1 , v2 , ..., vn ,
genera V . A tale scopo prendiamo un qualunque elemento v ∈ V . I vettori v1 , v2 , ..., vn , v risulteranno
allora linearmente dipendenti, ovvero esisteranno n + 1 numeri a0 , a1 , ..., an , non tutti nulli, tali che

a0 v + a1 v1 + a2 v2 + ... + an vn = 0.

Il coefficiente a0 non può essere nullo perché altrimenti, per l’indipendenza lineare dei vettori vi ,
tutti gli altri coefficienti sarebbero nulli. Possiamo allora dividere l’uguaglianza precedente per a0 ,
ottenendo
a1 a2 an
v = − v1 − v2 − ... − vn .
a0 a0 a0
Ma quest’ultima relazione implica che il vettore v è una combinazione lineare dei vettori vi . Per
l’arbitrarietà del vettore v, i vettori vi generano V , ovvero {vi } è una base di V .
Per definizione, il numero di vettori di un sottoinsieme massimale di V è il massimo numero di vettori
linearmente indipendenti che si possono trovare in V . Tale numero si dice dimensione dello spazio
vettoriale V . Dal teorema precedente abbiamo allora che ogni base contiene un numero di vettori pari
alla dimensione dello spazio.
Due spazi vettoriali A e B isomorfi, hanno la stessa dimensione. Infatti, siano {ai } i vettori di una
base di A e siano {bi } i loro corrispondenti in B tramite l’isomorfismo. Ad ogni vettore di A, cioè ad
ogni combinazione lineare dei vettori ai , corrisponde una ed una sola combinazione lineare dei vettori
bi . Ne segue che ogni vettore di B si può esprimere come unica combinazione lineare dei vettori bi .
Inoltre i vettori bi sono linearmente indipendenti. Infatti se cosı̀ non fosse, uno di essi, ad es. bk ,
sarebbe uguale ad una combinazione lineare degli altri e quindi il vettore corrispondente in A, ak ,
sarebbe combinazione lineare degli altri vettori ai . Ma ciò non è possibile perché i vettori {ai } sono
linearmente indipendenti. Ne segue che i vettori {bi } sono linearmente indipendenti e generano B e
quindi costituiscono una base di B. Concludiamo allora che B ha la stessa dimensione di A.
156 CAPITOLO 13. SPAZI VETTORIALI

• Esempi
Lo spazio Rn è uno spazio vettoriale a n dimensioni in quanto ne abbiamo costruito una base
formata da n vettori. L’insieme P 3 di tutti i polinomi di grado 3 in x è uno spazio vettoriale di
dimensione 4, in quanto è facile dimostrare che, per esempio, i polinomi x3 , x2 , x, 1, costituiscono
una base di P 3 . L’insieme Mat(n×n) delle matrici quadrate di ordine n è uno spazio vettoriale di
dimensione n2 . Per dimostrare questo fatto si può sfruttare l’isomorfismo dello spazio Mat(n×n)
con le n2 -uple di numeri reali (a11 , a12 , ..., a1n , a21 , a22 , ..., a2n , ..., an1 , an2 , ..., ann ), ovvero con lo
2
spazio Rn , che è uno spazio a n2 dimensioni. Analogamente si può dimostrare che lo spazio
delle matrici simmetriche Sym(n × n) è uno spazio vettoriale di dimensione n(n + 1)/2.

13.3 Rango di una matrice


Consideriamo una matrice A di ordine m × n e riguardiamo le sue n colonne come n vettori i quali
generano un sottospazio di Rm . Analogamente si possono riguardare le m righe della matrice come m
vettori i quali generano un sottospazio di Rn .

Teorema 13.3 Se una matrice ha r colonne linearmente dipendenti ( r ≤ min{m, n}), il determinante
di ogni matrice quadrata di ordine r costruita con quelle colonne è nullo.

Dim. Per ipotesi sappiamo che r colonne sono linearmente dipendenti, cioè è possibile esprimere una
di queste colonne, diciamo la j-esima, come combinazione lineare delle altre r − 1. Allora si avrà
     
a1j a11 a12
 a2j   a21   a22 
     
 ..  − c1  ..  − c2  ..  + ...
 .   .   . 
amj am1 am2
       
a1(j−1) a1(j+1) a1r 0
 a2(j−1)   a2(j+1)   a2r  0
       
− cj−1  .  − cj+1  .  − ... − cr  .  =  .  .
 ..   ..   ..   .. 
am(j−1) am(j+1) amr 0

Consideriamo ora una qualunque matrice quadrata formata con le r colonne date. Per la proprietà
(iv) del par. 12.4 sui determinanti, applicata ripetutamente alle colonne di questa matrice, si può
sostituire alla j-esima colonna tutta l’espressione a primo membro della precedente uguaglianza, senza
che il determinante cambi. In tal modo si ottiene una matrice con una colonna costituita tutta da zeri
e quindi il suo determinante risulta nullo.
Utilizzando un procedimento del tutto analogo, il teorema precedente, stabilito per i vettori colonna,
vale anche nel caso in cui si considerino r vettori riga linearmente dipendenti.
Consideriamo adesso r colonne ed r righe di una matrice m × n, (r ≤ min{m, n}). Gli elementi
all’intersezione di queste righe e di queste colonne costituiscono una matrice quadrata di ordine r.
Chiameremo minore di ordine r, il determinante di questa matrice. Se in una matrice ogni minore di
ordine r risulta nullo, allora ogni minore di ordine r + 1 è ancora nullo, infatti lo sviluppo del minore
di ordine r + 1 è dato, per esempio, dalla somma dei prodotti degli elementi di una riga con minori di
13.3. RANGO DI UNA MATRICE 157

ordine r. Se allora, in una matrice, siamo in grado di trovare un minore non nullo di ordine r mentre
tutti i minori di ordine superiore sono nulli, avremo che l’ordine massimo dei minori non nulli di quella
matrice è r. L’ordine massimo dei minori non nulli si dice caratteristica della matrice.
Si definisce rango per colonne di una matrice il numero massimo di colonne linearmente indipendenti
della matrice. Analogamente il rango per righe di una matrice è il numero massimo di righe linearmente
indipenenti della matrice.

Teorema 13.4 La caratteristica di una matrice è uguale al rango per colonne e al rango per righe
della matrice.

Dim. Sia r ≤ min{m, n} la caratteristica di una generica matrice A di ordine m × n. Esisterà


allora un minore di ordine r diverso da zero, ovvero un determinante non nullo di una matrice Ar ,
di ordine r, ottenuta intersecando r colonne con r righe. Queste r colonne costituiranno r vettori
linearmente indipendenti di Rm perché se cosı̀ non fosse, per il teorema 13.3, ogni matrice costruita
con tali colonne avrebbe determinante nullo. Prendiamo ora una qualsiasi delle altre n − r colonne
della matrice, supponiamo sia la j-esima, e dimostriamo che essa è combinazione lineare delle r colonne
considerate precedentemente. Ciò equivale a dimostrare che il numero massimo di colonne linearmente
indipendenti, cioè il rango per colonne di A, è r. Costruiamo la matrice di ordine r + 1 ottenuta
aggiungendo alla matrice Ar la j-esima colonna e la i-esima riga,
 
a11 a12 ··· a1j ··· a1(r+1)
 a21 a22 ··· a2j ··· a2(r+1) 
 
 .. .. .. .. 
 . . ··· . ··· . 

A = .
 ai1 ai2 ··· aij ··· ai(r+1) 

 .. .. .. .. 
 . . ··· . ··· . 
a(r+1)1 a(r+1)2 · · · a(r+1)j · · · a(r+1)(r+1)

Poiché la caratteristica della matrice è r, il determinante di A′ è nullo. Sviluppando questo determi-


nante secondo la riga i si ha

0 = det(A′ ) = (−1)i+1 ai1 det(A′i1 ) + ... + (−1)i+j aij det(A′ij )


+ ... + (−1)i+r+1 ai(r+1) det(A′i(r+1) ).

Poiché det(A′ij ) = det(Ar ) ̸= 0, da quest’ultima espressione possiamo ricavare aij , ottenendo


r+1−j det(A′
(−1)1−j det(A′i1 ) (−1) i(r+1) )
aij = −ai1 − ... − ai(r+1) .
det(Ar ) det(Ar )

Questa uguaglianza vale per una qualunque scelta di i tra 1 e m ed inoltre le quantità det(A′i1 ),
det(A′i2 ),..., det(A′i(r+1) ) risultano essere indipendenti da i. Ne segue allora che il vettore della colonna
j-esima è combinazione lineare delle r colonne date. Poiché queste r colonne sono linearmente in-
dipendenti, il rango per colonne di A è r.
Il ragionamento precedente può essere ripetuto considerando, al posto dei vettori colonna, i vettori
riga, ricavando che il rango per righe di A è ancora r.
In seguito, il rango (per righe o per colonne) di una matrice A verrà indicato con rank(A).
Operativamente, per calcolare il rango di una matrice basta calcolarne la caratteristica, individuando
l’ordine massimo dei minori non nulli. Una volta trovato un minore non nullo di ordine massimo, le
158 CAPITOLO 13. SPAZI VETTORIALI

righe e le colonne corrispondenti a questo minore formeranno rispettivamente un sistema di vettori


riga linearmente indipendenti ed un sistema di vettori colonna linearmente indipendenti. È inoltre
ovvio, ma lo ricordiamo, che il rango di una matrice è sempre inferiore o uguale al numero di righe e
al numero di colonne.

• Esempi
1) Vogliamo calcolare il rango della matrice
 
1 3 −1 0
A = 4 2 0 1 .
2 −4 2 1

Osserviamo che tutti i minori di ordine 3 di questa matrice sono nulli mentre, per esempio, il
minore di ordine due corrispondente alle prime due righe e alle prime due colonne è diverso da
zero. Ne segue che rank(A) = 2 e che, per esempio, le prime due colonne sono linearmente
indipendenti e cosippure le prime due righe.

2) Dato il sottoinsieme V di R3 , costituito dai quattro vettori

v1 = (2, −2, −4), v2 = (1, 9, 3), v3 = (−2, −4, 1), v4 = (3, 7, −1),

vogliamo determinare un sottoinsieme massimale di vettori linearmente indipendenti di V .


A tale scopo possiamo pensare i vettori di V come le colonne di una matrice. Calcolando il
rango di questa matrice avremo la dimensione del sottoinsieme massimale cercato e dai minori
non nulli potremo dedurre il sottoinsieme stesso. Si ha
 
2 1 −2 3
A = −2 9 −4 7  .
−4 3 1 −1

Si verifica facilmente che la caratteristica di questa matrice è 2, quindi rank(A) = 2. Un minore


diverso da zero è per esempio quello che si ottiene dalle prime due righe e dalle prime due
colonne. Un sistema massimale di vettori linearmente indipendenti di V è allora dato da v1 e
v2 . Naturalmente, in questo caso, esistono altri sistemi massimali di V in corrispondenza ad
altri minori non nulli di ordine 2. Essi sono dati da tutte le possibili coppie di vettori di V .
Capitolo 14

Sistemi lineari

14.1 Sistemi compatibili


Una equazione nelle incognite x1 , x2 , ..., xn , del tipo

a1 x1 + a2 x2 + ... + an xn = b,

dove a1 , a2 , ..., an , b sono numeri dati, reali o complessi, si dice equazione lineare. In particolare i numeri
ai , (i = 1, ..., n) si dicono coefficienti dell’equazione e il numero b si dice termine noto. Ogni n-upla
di numeri, reali o complessi, (x̄1 , x̄2 , ..., x̄n ) si dice soluzione dell’equazione lineare data se risulta

a1 x̄1 + a2 x̄2 + ... + an x̄n = b.

Una equazione lineare può avere una o più soluzioni o può anche non ammettere alcuna soluzione.
L’insieme di m equazioni lineari nella stessa n-upla di incognite (x1 , x2 , ..., xn ),


 a11 x1 + a12 x2 + ... + a1n xn = b1


a x + a x + ... + a x = b
21 1 22 2 2n n 2

 ··· ··· ··· ··· ···


a x + a x + ... + a x = b ,
m1 1 m2 2 mn n m

si dice sistema di m equazioni lineari nelle incognite (x1 , x2 , ..., xn ). I numeri aij , (i = 1, ..., m, j =
1, ..., n) si dicono coefficienti del sistema e i numeri bi , termini noti. Se i termini noti sono tutti nulli il
sistema si dice omogeneo. Una n-upla di numeri (x̄1 , x̄2 , ..., x̄n ) è una soluzione particolare del sistema
se soddisfa contemporaneamente tutte le m equazioni del sistema. L’insieme di tutte le soluzioni
particolari del sistema si dice soluzione generale del sistema. Un sistema che ammetta almeno una
soluzione si dice compatibile o risolubile, altrimenti si dice incompatibile o impossibile.

I coefficienti del sistema lineare formano una matrice di ordine (m×n), mentre le incognite xj e i termini
noti bi possono essere visti come matrici rispettivamente di ordine (n × 1) e (m × 1). Sinteticamente
si può scrivere il sistema nella forma equivalente


n
AX = B, ovvero aij xj = bi , (i = 1, ..., m).
j=1

159
160 CAPITOLO 14. SISTEMI LINEARI

In termini delle colonne della matrice A si può anche scrivere il sistema nella forma
       
a11 a12 a1n b1
 a21   a22   a2n   b2 
       
x1  .  + x2  .  + ... + xn  .  =  . 
 ..   ..   ..   .. 
am1 am2 amn bm
In quest’ultimo caso risulta evidente come le incognite del sistema sono i coefficienti di una combi-
nazione lineare dei vettori colonna della matrice dei coefficienti.

• Esempio
Il sistema lineare {
x1 − x2 + 4x3 + x4 = 0
2x1 − 3x2 + x3 − x4 = 2
può essere scritto nelle forma AX = B, dove
 
( ) x1 ( )
1 −1 4 1 x2  0
A= , X= 
x3  , B= ,
2 −3 1 −1 2
x4
o anche nella forma
( ) ( ) ( ) ( ) ( )
1 −1 4 1 0
x1 + x2 + x3 + x4 = .
2 −3 1 −1 2

La matrice A dei coefficienti del sistema viene anche detta matrice incompleta del sistema. Se alla
matrice incompleta di un sistema aggiungiamo la matrice colonna B dei termini noti otteniamo una
nuova matrice detta matrice completa del sistema che denoteremo con Ā. Si ha cioè,
 
a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 
 
Ā =  . .. .. .. .. 
 .. . . . . 
am1 am2 · · · amn bm
Il seguente teorema stabilisce una condizione necessaria e sufficiente per l’esistenza della soluzione di
un sistema lineare.

Teorema 14.1 (di Rouché-Capelli) Un sistema lineare è compatibile se e solo se il rango della matrice
incompleta è uguale al rango della matrice completa.
Dim. Condizione necessaria. Supponiamo che il sistema AX = B sia compatibile e cioè che esista
una n-upla (x̄1 , x̄2 , ..., x̄n ), soluzione del sistema. Ne segue che
       
a11 a12 a1n b1
 a21   a22   a2n   b2 
       
x̄1  .  + x̄2  .  + ... + x̄n  .  =  .  .
 ..   ..   ..   .. 
am1 am2 amn bm
14.1. SISTEMI COMPATIBILI 161

Quest’ultima eguaglianza implica che il vettore colonna B dei termini noti sia una combinazione lineare
dei vettori colonna di A. Ne segue che aggiungendo il vettore colonna B alla matrice A non se ne
aumenta il numero di colonne linearmente indipendenti e quindi il numero massimo di tali colonne è
lo stesso in A e in Ā. In altre parole, il rango della matrice incompleta è uguale al rango della matrice
completa.
Condizione sufficiente. Supponiamo che le due matrici A e Ā abbiano lo stesso rango r. Allora il
vettore dell’ultima colonna di Ā, cioè il vettore colonna B, è esprimibile come combinazione lineare di
r vettori colonna di A. Senza perdere in generalità possiamo supporre che questi vettori siano i primi
r vettori colonna di A. Avremo allora
       
a11 a12 a1r b1
 a21   a22   a2r   b2 
       
h1  .  + h2  .  + ... + hr  .  =  .  .
 . 
.  . 
.  .   .. 
.
am1 am2 amr bm
Ma questa uguaglianza si può sempre scrivere nella forma
           
a11 a12 a1r a1(r+1) a1n b1
 a21   a22   a2r   a2(r+1)   a2n   b2 
           
h1  .  + h2  .  + ... + hr  .  + 0  .  + ... + 0  .  =  .  .
 . 
.  . 
.  . 
.  . .  .   .. 
.
am1 am2 amr am(r+1) amn bm
Ne segue che il sistema è compatibile in quanto ammette come soluzione la n-upla
(h1 , h2 , ..., hr , 0, ..., 0).

• Esempi
1) Consideriamo il sistema lineare


5x1 − x2 + 2x3 + x4 = 7
2x1 + x2 + 4x3 − 2x4 = 1


x1 − 3x2 − 6x3 + 5x4 = 0.
Si ha    
5 −1 2 1 5 −1 2 1 7
A = 2 1 4 −2 , Ā = 2 1 4 −2 1 .
1 −3 −6 5 1 −3 −6 5 0
Il rango della matrice incompleta è 2, mentre il rango della matrice completa è 3. Ne segue che
il sistema dato è incompatibile.

2) Consideriamo il sistema lineare




7x1 + 3x2 = 2
x1 − 2x2 = −3


4x1 + 9x2 = 11.
Le matrici incompleta e completa sono
   
7 3 7 3 2
A = 1 −2 , Ā = 1 −2 −3
4 9 4 9 11
162 CAPITOLO 14. SISTEMI LINEARI

Si trova che ambedue le matrici A e Ā hanno rango 2. Ne segue che il sistema è compatibile.

14.2 Regola di Cramer


Il teorema di Rouché-Capelli fornisce un criterio per verificare l’esistenza delle soluzioni di un si-
stema lineare. Il passo successivo è stabilire quando un sistema lineare compatibile ammette una sola
soluzione. A tale scopo cominciamo con il considerare un sistema lineare di n equazioni in n incognite,
ovvero un sistema del tipo AX = B, dove A è una matrice quadrata di ordine n e dove X e B sono
vettori colonna di Rn . Esplicitamente,


 a11 x1 + a12 x2 + ... + a1n xn = b1


a x + a x + ... + a x = b
21 1 22 2 2n n 2

 · · · · · · · · · · · · · ··


a x + a x + ... + a x = b .
n1 1 n2 2 nn n n

Teorema 14.2 (di Cramer). Se il determinante della matrice incompleta di un sistema lineare di n
equazioni in n incognite è diverso da zero, allora il sistema ammette una e una sola soluzione.
Dim. Notiamo innanzitutto che l’ipotesi detA ̸= 0 implica che il rango della matrice A sia massimo e
quindi uguale al rango della matrice Ā. Il teorema di Rouché-Capelli ci assicura allora che il sistema
è compatibile. Inoltre, per il teorema 13.4, le colonne di A sono vettori linearmente indipendenti di
Rn e, poiché essi generano Rn , formano una base in Rn . Ne segue, per il teorema 13.1, che il vettore
colonna B è esprimibile in un unico modo come combinazione delle colonne di A, ovvero esiste un
unica n-upla (x1 , x2 , ..., xn ) tale che
       
a11 a12 a1n b1
 a21   a22   a2n   b2 
       
x1  .  + x2  .  + ... + xn  .  =  .  .
 ..   ..   ..   .. 
an1 an2 ann bn
Questa n-upla risulta essere l’unica soluzione del sistema.
La soluzione di un sistema di n equazioni in n incognite può essere ricavata usando il seguente risultato.

Teorema 14.3 (Regola di Cramer). Sia (k1 , k2 , ..., kn ) la soluzione di un sistema lineare di n equazioni
in n incognite AX = B, con det(A) ̸= 0. Si ha

a11 · · · a1(i−1) b1 a1(i+1) · · · a1n

a21 · · · a2(i−1) b2 a2(i+1) · · · a2n

.. .. .. .. ..
. . . . .

an1 · · · an(i−1) bn an(i+1) · · · ann
ki = i = 1, ..., n.
a11 a12 · · · a1n

a21 a22 · · · a2n

.. .. . ..
. . . . .

an1 an2 · · · ann
14.2. REGOLA DI CRAMER 163

Dim. Poiché (k1 , k2 , ., kn ) è soluzione del sistema, deve essere


       
a11 a12 a1n b1
 a21   a22   a2n   b2 
       
k1  .  + k2  .  + ... + kn  .  =  . 
 ..   ..   ..   .. 
an1 an2 ann bn
cioè il vettore colonna B risulta combinazione lineare dei vettori colonna di A mediante i coefficienti
(k1 , k2 , ..., kn ). Calcoliamo ora il determinante della matrice
 
a11 · · · a1(i−1) b1 a1(i+1) · · · a1n
 a21 · · · a2(i−1) b2 a2(i+1) · · · a2n 
 
 .. .. .. .. ..  .
 . . . . . 
an1 · · · an(i−1) bn an(i+1) · · · ann
Alla colonna i-esima possiamo sostituire il vettore colonna B ottenuto dall’equazione precedente.
Allora per le proprietà iii) e v) dei determinanti, il determinante di questa matrice si spezza nella
somma di n determinanti del tipo

a11 · · · a1(i−1) a1j a1(i+1) · · · a1n

a21 · · · a2(i−1) a2j a2(i+1) · · · a2n

kj . .. .. .. ..
.. . . . .

an1 · · · an(i−1) anj an(i+1) · · · ann

con j = 1, ..., n. Per j ̸= i questi determinanti sono nulli in quanto due colonne risultano uguali.
L’unico determinante diverso da zero è dato da

a11 · · · a1(i−1) a1i a1(i+1) · · · a1n

a21 · · · a2(i−1) a2i a2(i+1) · · · a2n

ki . .. .. .. .. = ki det(A)
.. . . . .

an1 · · · an(i−1) ani an(i+1) · · · ann

Otteniamo cosı̀
a11 · · · a1(i−1) b1 a1(i+1) ··· a1n

a21 · · · a2(i−1) b2 a2(i+1) ··· a2n

.. .. .. .. .. = ki det(A)
. . . . .

an1 · · · an(i−1) bn an(i+1) · · · ann
da cui, essendo det(A) ̸= 0, ricaviamo quanto volevamo dimostrare.
La regola di Cramer afferma che la componente i-esima della soluzione di un sistema di n equazioni in
n incognite è data dalla frazione avente come denominatore il determinante della matrice incompleta
e come numeratore il determinante della stessa matrice in cui si è sostituita la colonna i-esima con il
vettore colonna dei termini noti.

• Esempi
1) Consideriamo il sistema lineare di tre equazioni in tre incognite,


x1 + x2 − 2x3 = 3
4x1 + 3x2 − x3 = 1


2x1 + x2 + x3 = −1
164 CAPITOLO 14. SISTEMI LINEARI

Si ha det(A) = 2 ̸= 0, quindi il sistema ammette una unica soluzione che possiamo ricavare
mediante la regola di Cramer. Detta (x̄1 , x̄2 , x̄3 ) la soluzione del sistema si ha

3 1 −2 1 3 −2

1 3 −1 4 1 −1

−1 1 1 4 2 −1 1 −6
x̄1 = = = 2, x̄2 = = = −3,
det(A) 2 det(A) 2

1 1 3

4 3 1

2 1 −1 −4
x̄3 = = = −2
det(A) 2

2) Discutere, al variare del parametro k la compatibilità del seguente sistema calcolandone le


eventuali soluzioni. 

x1 + 2x3 = k
(k − 1)x1 + x2 − x3 = 0


−x1 + x2 = 0
Si tratta di un sistema lineare di tre equazioni in tre incognite. Si ha det(A) = 2k + 1. Il
determinante della matrice dei coefficienti si annulla per k = − 21 . Per tale valore di k si ha
rank(A) = 2, rank(Ā) = 3. Il sistema è dunque incompatibile. Se invece k ̸= − 21 , rank(A) =
rank(Ā) = 3 e, per il teorema di Cramer, il sistema ammette una sola soluzione. Utilizzando la
regola di Cramer si ottiene

k k k2
x1 = , x2 = , x3 = .
2k + 1 2k + 1 2k + 1
In particolare, per k = 0 il sistema risulta omogeneo e l’unica soluzione è quella banale.

Osservazione. Alla luce del teorema 12.1 e del teorema di Cramer, la soluzione di un sistema lineare di
n equazioni in n incognite può essere ricavata dalla condizione detA ̸= 0, sulla matrice dei coefficienti,
nel modo seguente. Sia dato il sistema

AX = B, con detA ̸= 0.

Poiché A risulta invertibile, moltiplicando a sinistra per A−1 si ottiene

A−1 AX = A−1 B =⇒ IX = A−1 B =⇒ X = A−1 B.

• Esempio
Risolvere il sistema lineare non omogeneo di tre equazioni in tre incognite dato nei precedenti
esempi, utilizzando l’inversa della matrice dei coefficienti.


x1 + x2 − 2x3 = 3
4x1 + 3x2 − x3 = 1


2x1 + x2 + x3 = −1
14.2. REGOLA DI CRAMER 165

Si ha    
1 1 −2 2 − 23 5
2
A = 4 3 −1 detA = 2 ̸= 0, A−1 = −3 25 − 72 
2 1 1 −1 21 − 12
Ne segue       
x1 2 − 32 5
2 3 2
  
X = x2 = −3 52 − 27   1  = −3  .
x3 −1 12 − 21 −1 −2

Il teorema di Cramer può essere generalizzato al caso di un sistema compatibile di m equazioni in


n incognite. Enunceremo questa generalizzazione, senza dimostrarla ma illustrandola con qualche
esempio.

Teorema 14.4 Condizione necessaria e sufficiente affinché un sistema compatibile abbia una unica
soluzione è che il rango della matrice incompleta sia uguale al numero delle incognite.

• Esempi
1) Consideriamo il sistema lineare di 4 equazioni in 3 incognite,


 2x3 = 1


2x + x = 1
1 2

 2x1 + x3 = 0


x + x = 2
2 3

Si ha    
0 0 2 0 0 2 1
2 1 0 2 1 0 1
A=
2
, Ā =  .
0 1 2 0 1 0
0 1 1 0 1 1 2
Ne segue che rank(A) = rank(Ā) = 3, quindi il sistema è compatibile. Inoltre il rango di A
coincide con il numero delle incognite quindi, per il teorema 14.4, il sistema ammette una sola
soluzione. Per determinare questa soluzione osserviamo che dal calcolo del rango, si riconosce
che le prime tre righe di A sono linearmente indipendenti e quindi il sistema costituito dalle
prime tre equazioni, nelle tre incognite x1 , x2 , x3 ammette una sola soluzione. Questa soluzione
sarà la soluzione del sistema di partenza quindi, ricavando x3 dalla prima equazione, sostituendo
nella terza e infine nella seconda si ottiene
1 3 1
x1 = − , x2 = , x3 = .
4 2 2
Si verifica subito, che, come deve essere, la quarta equazione è soddisfatta da questa soluzione.

2) Consideriamo il sistema di 3 equazioni in 3 incognite




x1 − x2 + 3x3 = 1
4x1 + 2x2 − x3 = 3


2x1 + 4x2 − 7x3 = 1
166 CAPITOLO 14. SISTEMI LINEARI

Si ha
1 −1 3

det(A) = 4 2 −1 = 0,
2 4 −7
quindi il sistema non ammette una unica soluzione. Inoltre rank(A) = rank(Ā) = 2, e in
particolare le prime due righe di A sono linearmente indipendenti. Ne segue che è possibile
risolvere le prime due equazioni rispetto a due delle tre incognite, scrivendo per esempio,
{
x1 − x2 = 1 − 3x3
4x1 + 2x2 = 3 + x3 .
Risolvendo mediante la regola di Cramer o per semplice sostituzione, si ha
5 − 5x3 13x3 − 1
x̄1 = , x̄2 = .
6 6
Assegnando a x3 valori arbitrari si ottengono tutte le possibili soluzioni del sistema. La soluzione
generale del sistema può essere scritta nella forma
{( ) }
5 − 5h 13h − 1
, ,h ,h ∈ R .
6 6

3) Consideriamo il sistema lineare di 3 equazioni in 4 incognite




x1 − 2x2 + x3 − x4 = 1
3x1 + 2x2 − x3 + x4 = 0


4x1 + 2x3 + 2x4 = 1.
Si ha    
1 −2 1 −1 1 −2 1 −1 1
A = 3 2 −1 1  Ā = 3 2 −1 1 0 .
4 0 2 2 4 0 2 2 1
Si verifica facilmente che rank(A) = rank(Ā) = 3. Ne segue che il sistema è compatibile e che
non ammette una unica soluzione, in quanto il numero di incognite è superiore al rango di A. Le
soluzioni del sistema si possono allora ottenere assegnando ad una incognita un valore arbitrario
e calcolando le altre incognite usando la regola di Cramer. Ponendo x4 = h, il sistema diventa


x1 − 2x2 + x3 = 1 + h
3x1 + 2x2 − x3 = −h


4x1 + 2x3 = 1 − 2h.
Poiché il determinante della matrice dei coefficienti di questo nuovo sistema è 16, dalla regola di
Cramer otteniamo

1 + h −2 1 1 1 + h 1

−h 2 −1 3 −h −1

1 − 2h 0 2 1 4 1 − 2h 2 −3 − 8h
x̄1 = = , x̄2 = = ,
16 4 16 8
1 −2 1 + h

3 2 −h

4 0 1 − 2h
x̄3 = = −h.
16
14.3. METODO DI GAUSS 167

La soluzione generale del sistema può essere scritta nel seguente modo
{( ) }
1 −3 − 8h
, , −h, h , h ∈ R .
4 8

I sistemi lineari degli ultimi due esempi sono compatibili ma non hanno una unica soluzione. Essi
infatti ammettono infinite soluzioni che si ottengono al variare del parametro h. Si può dimostrare che
un sistema compatibile in n incognite ammette ∞n−r soluzioni, essendo r(< n) il rango della matrice
incompleta (o completa) del sistema. Negli esempi citati n − r = 1 e le soluzioni sono ∞1 . Per un
sistema compatibile con n = r la soluzione è unica in forza del teorema 14.4. Usando la convenzione
∞0 = 1, l’affermazione precedente vale allora per un qualunque sistema compatibile.

14.3 Metodo di Gauss


Se due sistemi lineari hanno le stesse soluzioni, essi si dicono equivalenti. Un sistema lineare può essere
quindi risolto dopo averlo trasformato in un sistema equivalente più semplice. Il metodo di Gauss, o
metodo di eliminazione successiva delle incognite, sfrutta questa possibilità. Notiamo innanzitutto che
scambiando tra di loro due equazioni, oppure, moltiplicando ambo i membri di una equazione per uno
stesso numero, oppure, sommando membro a membro una equazione con il prodotto di un numero
per un’altra equazione, il sistema lineare viene trasformato in un sistema equivalente. L’obiettivo
della trasformazione è quello di eliminare successivamente una o più incognite da una o più equazioni
e ottenere cosı̀ un sistema risolubile con sostituzioni elementari. Si può osservare che le suddette
operazioni lasciano invariato sia il rango della matrice incompleta che quello della matrice completa.
Illustriamo il metodo con qualche esempio.

• Esempi
1) Consideriamo il sistema lineare


x1 − 2x2 + x3 = 0
−x1 + 3x2 + x3 = 4


4x1 − x2 + 2x3 = 12

La matrice completa è data da


 
1 −2 1 0
Ā = −1 3 1 4 
4 −1 2 12
Operiamo, in successione le seguenti trasformazioni. Sostituiamo la seconda riga con la somma
della prima e seconda riga. Sostituiamo la terza riga con la differenza tra la terza riga e la prima
moltiplicata per quattro. Sostituiamo la terza riga con la differenza tra la terza e la seconda
moltiplicata per sette. Otteniamo allora la matrice
 
1 −2 1 0
0 1 2 4 
0 0 −16 −16
168 CAPITOLO 14. SISTEMI LINEARI

la quale rappresenta la matrice completa di un sistema equivalente a quello dato. Si ha rank(A) =


rank(Ā) = 3, quindi il sistema è compatibile e poiché il numero di incognite è pari al rango
trovato, esso ammette una unica soluzione. Si scrive


x1 − 2x2 + x3 = 0
x2 + 2x3 = 4


−16x3 = −16
Dall’ultima equazione ricaviamo x3 = 1. Sostituendo successivamente nelle altre si ricava la
soluzione
x1 = 3, x2 = 2, x3 = 1.

2) Consideriamo il sistema lineare




 x1 − 3x2 + x3 = 1


2x − x − x = 2
1 2 3

 x1 + 2x2 + 3x3 = −1


2x + 4x + x = 0
1 2 3

La matrice completa è data da


 
1 −3 1 1
2 −1 −1 2 
Ā = 
1 2

3 −1
2 4 1 0
Sostituiamo la seconda riga con la differenza tra la seconda e il doppio della prima riga. Sosti-
tuiamo la terza riga con la differenza tra la terza e la prima riga. Sostituiamo la quarta riga con
la differenza tra la quarta e la seconda riga. Nella matrice cosı̀ ottenuta, sostituiamo la terza
riga con la differenza tra la terza e la seconda riga e sostituiamo la quarta riga con la differenza
tra la quarta e la terza riga. Otteniamo cosı̀ la matrice completa di un sistema equivalente
 
1 −3 1 1
0 5 −3 0 
Ā = 
0 0

5 −2
0 0 0 0
Si ha rank(A) = rank(Ā) = 3. Il sistema equivalente avrà una unica soluzione e sarà dato da


x1 − 3x2 + x3 = 1
5x2 − 3x3 = 0


5x3 = −2.
La soluzione è
17 6 2
x1 = , x2 = − , x3 = − .
25 25 5

3) Consideriamo il sistema lineare




x1 − x2 + 2x3 + 3x4 = 1
2x1 + x2 + x4 = 3


x1 + 2x2 − 2x3 − 2x4 = 2,
14.4. SISTEMI LINEARI OMOGENEI 169

la cui matrice completa è  


1 −1 2 3 1
Ā = 2 1 0 1 3 .
1 2 −2 −2 2
Sostituiamo la seconda riga con la differenza tra la seconda e il doppio della prima riga. Sosti-
tuiamo la terza riga con la differenza tra la terza e la prima riga. Nella matrice cosı̀ ottenuta
sostituiamo la terza riga con la differenza tra la terza e la seconda riga. Otteniamo la matrice
completa di un sistema equivalente
 
1 −1 2 3 1
Ā = 0 3 −4 −5 1
0 0 0 0 0

Poiché rank(A) = rank(Ā) = 2, si ha n − r = 2 quindi il sistema ammetterà ∞2 soluzioni. Si ha


{
x1 − x2 + 2x3 + 3x4 = 1
3x2 − 4x3 − 5x4 = 1.

Ponendo x3 = h e x4 = k, il sistema può essere risolto rispetto a x1 e a x2 , ovvero


{
x1 − x2 = 1 − 2h − 3k
3x2 = 1 + 4h + 5k,

la cui soluzione generale è


{( ) }
4 − 2h − 4k 1 + 4h + 5k
, , h, k , h, k ∈ R .
3 3

14.4 Sistemi lineari omogenei


Consideriamo un sistema omogeneo, cioè un sistema i cui termini noti sono tutti nulli.


 a11 x1 + a12 x2 + ... + a1n xn = 0


a x + a x + ... + a x = 0
21 1 22 2 2n n

 ··· ··· ··· ··· ···


a x + a x + ... + a x = 0.
m1 1 m2 2 mn n

Si può notare che un sistema omogeneo è sempre compatibile in quanto il rango della matrice incom-
pleta è sempre uguale al rango della matrice completa. D’altra parte, un sistema omogeneo ammette
sempre la soluzione banale, cioè la soluzione x1 = x2 = ... = xn = 0. Dal teorema 14.4 segue che se il
rango r della matrice dei coefficienti è uguale al numero delle incognite, il sistema ammette una sola
soluzione, e quindi questa soluzione è quella banale. Poiché r ≤ min{m, n} si ha il seguente risultato.

Teorema 14.5 Affinché un sistema lineare omogeneo abbia soluzioni diverse da quella banale, il rango
della matrice dei coefficienti deve essere minore del numero delle incognite.
170 CAPITOLO 14. SISTEMI LINEARI

Come diretta conseguenza di questo teorema, o, equivalentemente, del teorema di Cramer, si ha il


Corollario. Affinché un sistema lineare omogeneo di n equazioni in n incognite abbia soluzioni
diverse dalla banale il determinante della matrice dei coefficienti deve essere uguale a zero.

• Esempi
1) Consideriamo il sistema lineare omogeneo


 x1 + 3x3 − x4 = 0


4x + 3x + x = 0
1 2 4

 2x + x = 0


1 3
3x + 5x + 2x + 2x = 0
1 2 3 4

Si tratta di un sistema di 4 equazioni in 4 incognite. La matrice dei coefficienti è data da


 
1 0 3 −1
4 3 0 1 
A= 2 0 1 0  .

3 5 2 2

Poiché det(A) ̸= 0, ne segue, per il corollario precedente, che il sistema ammette la sola soluzione
banale.

2) Consideriamo il sistema lineare omogeneo




x1 − 3x2 − 2x3 = 0
2x1 − 6x2 − 4x3 = 0


6x1 + 3x2 + 2x3 = 0.

La matrice dei coefficienti è data da


 
1 −3 −2
A = 2 −6 −4 .
6 3 2

Poiché la seconda riga di questa matrice è fatta di termini doppi dei corrispondenti elementi
della prima riga, il suo determinante è nullo. Per il corollario precedente il sistema avrà soluzioni
diverse da quella banale. Poiché il rango di A è 2, si ha n − r = 1 e si otterranno ∞1 soluzioni
oltre a quella nulla. Il sistema dato è equivalente al sistema formato, ad esempio, dalla prima e
dalla terza equazione, cioè {
x1 − 3x2 − 2x3 = 0
6x1 + 3x2 + 2x3 = 0.
Sommando membro a membro queste due equazioni si ottiene x1 = 0 e, ponendo x3 = h, si
ottiene la soluzione generale del sistema nella forma
{( ) }
2
0, − h, h , h ∈ R .
3

Si noti che, per h = 0, si ritrova la soluzione banale.


14.4. SISTEMI LINEARI OMOGENEI 171

3) Consideriamo il sistema lineare omogeneo




 3x1 + x2 − 8x3 + 2x4 + x5 = 0


2x − 2x − 3x − 7x + 2x = 0
1 2 3 4 5

 x1 + 11x2 − 12x3 + 34x4 − 5x5 = 0


x − 5x + 2x − 16x + 3x = 0
1 2 3 4 5

Si ha  
3 1 −8 2 1
2 −2 −3 −7 2
A= 
1 11 −12 34 −5 .
1 −5 2 −16 3
Applicando il metodo di Gauss riduciamo il sistema di partenza ad un sistema equivalente.
Operiamo sulla matrice A nel modo seguente. Sostituiamo la seconda riga con la differenza tra
la seconda ed il doppio della quarta riga. Sostituiamo la terza riga con la differenza tra la quarta
riga e la terza. Nella matrice risultante sostituiamo la terza riga con la somma della terza per il
doppio della seconda e sostituiamo la quarta riga con la differenza tra la prima ed il triplo della
quarta riga. Infine dalla matrice cosı̀ ottenuta, sostituiamo la quarta riga con la differenza tra
la quarta riga ed il doppio della seconda. Si ottiene una nuova matrice data da
 
3 1 −8 2 1
0 8 −7 25 −4
A=
0
,
0 0 0 0
0 0 0 0 0

il cui rango è 2. Ne segue che n − r = 3 ed il sistema equivalente ammette ∞3 soluzioni. Si ha


{
3x1 + x2 − 8x3 + 2x4 + x5 = 0
8x2 − 7x3 + 25x4 − 4x5 = 0

Pongo x5 = g, x4 = k, x3 = h e risolvo il sistema rispetto a x1 e x2 . Si ricava


{( ) }
19h + 3k − 4g 7h − 25k + 4g
, , h, k, g , h, k, g ∈ R .
8 8

L’insieme di tutte le soluzioni di un sistema lineare omogeneo costituisce uno spazio vettoriale. Per
dimostrare questa affermazione osserviamo che se un sistema omogeneo ammette la sola soluzione
banale, ovvero la n-upla (0, 0, ..., 0), essa rappresenta il vettore nullo di Rn che, da solo, costituisce
certamente un sottospazio di Rn . Se invece il sistema omogeneo ammette anche una soluzione non
banale (x̄1 , x̄2 , ..., x̄n ) esso ammetterà anche tutte le soluzioni (kx̄1 , kx̄2 , ..., kx̄n ) ottenute dalla prece-
dente moltiplicandola per un qualunque numero k. Inoltre, se si sommano tra loro due soluzioni di
un sistema omogeneo si ottiene ancora una soluzione del sistema omogeneo. Poiché l’elemento nullo
di Rn è anch’esso soluzione del sistema, se ne conclude che tutte le soluzioni di un sistema omogeneo
costituiscono un sottospazio vettoriale di Rn .
172 CAPITOLO 14. SISTEMI LINEARI

L’osservazione precedente ci permette di stabilire un legame tra sistemi omogenei e sistemi non omo-
genei. Consideriamo il sistema lineare di m equazioni in n incognite


 a11 x1 + a12 x2 + ... + a1n xn = b1


a x + a x + ... + a x = b
21 1 22 2 2n n 2

 ··· ··· ··· ··· ···


a x + a x + ... + a x = b ,
m1 1 m2 2 mn n m

Si dice sistema omogeneo associato, il sistema che si ottiene dal precedente annullando tutti i termini
noti, ovvero il sistema 

 a11 x1 + a12 x2 + ... + a1n xn = 0


a x + a x + ... + a x = 0
21 1 22 2 2n n

 · · · · · · · · · ··· ···


a x + a x + ... + a x = 0,
m1 1 m2 2 mn n

Dimostriamo il seguente risultato.

Teorema 14.6 Sia ū = (x̄1 , x̄2 , ..., x̄n ) una soluzione particolare del sistema non omogeneo e sia V
lo spazio vettoriale delle soluzioni del sistema omogeneo associato. Allora la soluzione generale del
sistema non omogeneo è data dall’insieme
{ū + v : v ∈ V }
Dim. Osserviamo innanzitutto che ū + v, con v ∈ V è soluzione del sistema non omogeneo in quanto,
posto v = (v1 , v2 , ..., vn ),
ai1 (x̄1 + v1 ) + ... + ain (x̄n + vn ) = ai1 x̄1 + ... + ain x̄n = b, i = 1, 2, ..., m.
Detta w̄ = (ȳ1 , ȳ2 , ..., ȳn ) una qualunque altra soluzione particolare del sistema non omogeneo, si ha
 

 11 1
a x̄ + a x̄ + ... + a x̄ = b 
 a11 ȳ1 + a12 ȳ2 + ... + a1n ȳn = b1


12 2 1n n 1 

a x̄ + a x̄ + ... + a x̄ = b a ȳ + a ȳ + ... + a ȳ = b
21 1 22 2 2n n 2 21 1 22 2 2n n 2

 · · · · · · · · · · · · · · · 
 · · · · · · · · · · · · ···

 

a x̄ + a x̄ + ... + a x̄ = b , a ȳ + a ȳ + ... + a ȳ = b ,
m1 1 m2 2 mn n m m1 1 m2 2 mn n m

Sottraendo membro a membro ciascuna equazione del secondo sistema con la corrispondente del primo
sistema si ottiene


 a11 (ȳ1 − x̄1 ) + a12 (ȳ2 − x̄2 ) + ... + a1n (ȳn − x̄n ) = 0


a (ȳ − x̄ ) + a (ȳ − x̄ ) + ... + a (ȳ − x̄ ) = 0
21 1 1 22 2 2 2n n n

 · · · · · · · · · · · · · · ·


a (ȳ − x̄ ) + a (ȳ − x̄ ) + ... + a (ȳ − x̄ ) = 0,
m1 1 1 m2 2 2 mn n n

ovvero, il vettore w̄ − ū è una soluzione del sistema omogeneo associato. Ne segue che w̄ − ū ∈ V ,
qualunque sia la coppia di soluzioni ū e w̄ del sistema non omogeneo. Concludiamo allora che, data
una soluzione particolare ū del sistema non omogeneo, tutte le altre soluzioni w di questo sistema
avranno la forma
w = ū + v, v ∈ V.
In particolare, la soluzione ū si ottiene dalla formula precedente scegliendo v = 0.
Capitolo 15

Geometria dello spazio

15.1 Retta
Consideriamo lo spazio tridimensionale riferito ad un sistema di assi cartesiani ortogonali con origine
O. Dato un punto P0 ed un vettore libero v ∈ V3 , vogliamo rappresentare i punti di una retta
passante per P0 e parallela al vettore v. Detto P il generico punto di tale retta, esso si può pensare
come l’estremo di un vettore applicato in P0 e parallelo a v, ovvero, si può scrivere

P0 P = (P0 , tv), t ∈ R.

Denotate con x, y, z e x0 , y0 , z0 rispettivamente le coordinate di P e di P0 , e con vx , vy , vz le componenti


di v, si ha  

 x − x 0 = tv x 
x = x0 + tvx
y − y0 = tvy =⇒ y = y0 + tvy

 

z − z0 = tvz , z = z0 + tvz .
Queste ultime equazioni si dicono equazioni parametriche della retta per un punto. Al variare del
parametro t esse determinano le coordinate di tutti i punti della retta data.
Si può osservare che, oltre che dal punto P0 , la retta è individuata dalla sola direzione del vettore
libero. Al posto del vettore v, nelle equazioni precedenti si può sostituire allora il suo versore. In tal
modo le componenti vx , vy , vz saranno sostituite dai coseni direttori della direzione di v.
Consideriamo ora due punti P1 e P2 . Vogliamo determinare le equazioni che descrivono la retta
passante per questi due punti. Anche qui, detto P il generico punto della retta si può pensare che

esso sia l’estremo di un vettore applicato in P1 e parallelo al vettore libero v, individuato da P1 P2 . In

altri termini si ha P1 P = (P1 , tv), ed essendo v = (x2 − x1 , y2 − y1 , z2 − z1 ), si ottiene


x − x1 = t(x2 − x1 )
y − y1 = t(y2 − y1 ) t ∈ R.


z − z1 = t(z2 − z1 ),

Se x1 ̸= x2 , y1 ̸= y2 , z1 ̸= z2 , da quest’ultima, eliminando il parametro t, si ricava l’equazione della


retta per due punti in forma normale,
x − x1 y − y1 z − z1
= = .
x2 − x1 y2 − y1 z2 − z1

173
174 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

Osserviamo che questa forma delle equazioni di una retta per due punti, vale qualora i due punti non
abbiano una o due coordinate corrispondenti uguali. Inoltre i denominatori risultano proporzionali ai
coseni direttori della retta.

• Esempio
Scriviamo l’equazione della retta passante per i punti di coordinate (0, 1, 3) e (−1, 5, 1). Utiliz-
zando la formula precedente si ottiene
x y−1 z−3
= = .
−1 4 −2

15.2 Piano
Sia P0 un punto dello spazio tridimensionale e v, w due vettori liberi, non paralleli, di V3 . I vettori
applicati (P0 , v) e (P0 , w) individueranno un piano π passante per P0 .

Ogni vettore applicato P0 P , appartenente al piano π, si potrà allora scrivere nella forma

P0 P = (P0 , u), con u = αv + βw, α, β ∈ R,

in quanto, ogni vettore libero u del piano è una combinazione lineare dei due vettori non paralleli
v, w. Usando le notazioni precedenti, si può scrivere
 

x − x0 = αvx + βwx 
x = x0 + αvx + βwx
y − y0 = αvy + βwy =⇒ y = y0 + αvy + βwy α, β ∈ R,

 

z − z0 = αvz + βwz . z = z0 + αvz + βwz .
15.2. PIANO 175

dette equazioni parametriche del piano per P0 .


Chiamiamo P1 e P2 rispettivamente gli estremi dei vettori applicati (P0 , v) e (P0 , w). Avremo allora
v = (x1 − x0 , y1 − y0 , z1 − z0 ), w = (x2 − x0 , y2 − y0 , z2 − z0 ). La condizione di dipendenza lineare dei
vettori u, v, w, comporta u · v × w = 0, ovvero

x − x0 y − y0 z − z0

x1 − x0 y1 − y0 z1 − z0 = 0,

x2 − x0 y2 − y0 z2 − z0

che rappresenta l’equazione del piano passante per i tre punti P0 , P1 , P2 . Sviluppando esplicitamente
il determinante, si ricava l’equazione del piano nella forma

a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0

dove
y1 − y0 z1 − z0
a= = (y1 − y0 )(z2 − z0 ) − (y2 − y0 )(z1 − z0 )
y2 − y0 z2 − z0

x1 − x0 z1 − z0
b = − = (z1 − z0 )(x2 − x0 ) − (z2 − z0 )(x1 − x0 )
x2 − x0 z 2 − z 0

x1 − x0 y1 − y0
c = = (x1 − x0 )(y2 − y0 ) − (x2 − x0 )(y1 − y0 ).
x2 − x0 y2 − y0
Si può osservare che, in forza del fatto che i due vettori v e w non sono paralleli, l’ordine massimo dei
minori non nulli, nella matrice scritta sopra, è due. Ne segue che i coefficienti a, b, c non sono tutti
nulli. Inoltre essi rappresentano le componenti del vettore v × w, cioè di un vettore perpendicolare
al piano π. La direzione di questo vettore individua, insieme al punto P0 , il piano. L’equazione
precedente può anche essere scritta nella usuale forma cartesiana,

ax + by + cz + d = 0,

dove
d = −ax0 − by0 − cz0 .
176 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

Quanto detto sinora dimostra che le coordinate dei punti di un piano soddisfano una equazione lineare
in x, y, z. Viceversa, una qualunque equazione lineare in x, y, z rappresenta un piano nello spazio.

• Esempi
1) Vogliamo determinare l’equazione del piano passante per il punto P0 = (1, 0, −3) e parallelo
ai due vettori v = (2, 3, 4), w = (0, 0, 2). Utilizzando l’espressione dedotta precedentemente
otteniamo
x − 1 y z + 3

2 3 4 = 0,

0 0 2
da cui sviluppando il determinante,

3x − 2y − 3 = 0.

2) Determiniamo l’equazione del piano passante per i punti P0 = (3, 4, 2), P1 = (5, −1, 1), P2 =
(2, −3, −2).
Preliminarmente, verifichiamo che i punti dati non sono allineati. A tale scopo consideriamo i
→ →
due vettori applicati P0 P1 e P1 P2 . Questi vettori sono rispettivamente paralleli ai vettori liberi
v1 = (2, −5, −1) e v2 = (−3, −2, −3). Poiché v1 non è parallelo a v2 , i tre punti non sono
allineati. L’equazione del piano sarà

x − 3 y − 4 z − 2

2 −5 −1 = 0 ⇒ 13x + 9y − 19z − 37 = 0.

−1 −7 −4

3) Determiniamo l’equazione del piano passante per il punto P0 = (−2, 1, 1) e perpendicolare


al vettore v = (2, 3, 1). Ripercorrendo il ragionamento fatto prima, i punti P del piano devono

essere tali che il vettore applicato P0 P risulti ortogonale al vettore v. In altri termini, essendo

P0 P = (P0 , w), con w = (x − x0 , y − y0 , z − z0 ), la condizione di ortogonalità implica v · w = 0,
cioè
2(x + 2) + 3(y − 1) + 1(z − 1) = 0, =⇒ 2x + 3y + z = 0.

Il fatto che i coefficienti a, b, c nell’equazione cartesiana di un piano siano le componenti di un vettore


perpendicolare al piano stesso ci permette di stabilire un criterio di parallelismo tra due piani. Infatti,
affinché due piani siano paralleli è necessario e sufficiente che i vettori ad essi ortogonali risultino
paralleli. Siano
ax + by + cz + d = 0, a′ x + b′ y + c′ z + d′ = 0,
le equazioni di due piani paralleli. Dobbiamo avere allora

(a′ , b′ , c′ ) = k(a, b, c),

per un certo k ∈ R. Analogamente, la condizione di perpendicolarità tra due piani, implica la con-
dizione di perpendicolarità tra le loro normali. In questo caso, date le equazioni

ax + by + cz + d = 0, a′ x + b′ y + c′ z + d′ = 0,
15.2. PIANO 177

di due piani perpendicolari, si avrà


aa′ + bb′ + cc′ = 0.
Notiamo infine che i piani coordinati xy, xz, yz hanno rispettivamente equazioni

z = 0, y = 0, x = 0.

Ne segue che ogni piano parallelo al piano coordinato xy ha equazione z = d. Analogamente, le


equazioni dei piani paralleli agli altri due piani coordinati xz e yz sono rispettivamente, y = h e
x = k.

• Esempi
1) Determinare l’equazione del piano parallelo al piano di equazione 3x−2y +z −4 = 0 e passante
per il punto P0 = (0, 5, −1). Senza perdita di generalità possiamo scrivere l’equazione del piano
richiesto nella forma
3x − 2y + z + d = 0
in cui, i coefficienti a, b, c sono gli stessi dell’equazione del piano dato. Per determinare il
parametro d, imponiamo la condizione di passaggio per il punto P0 e otteniamo

3 · 0 − 2 · 5 + 1 · (−1) + d = 0, =⇒ d = 11.

2) Determinare l’equazione del piano passante per il punto P0 = (2, −1, 1) e perpendicolare ai
piani di equazioni
x − y + 1 = 0, 3x + y − 2z + 4 = 0.
I coefficienti a, b, c dell’equazione del piano cercato devono soddisfare le due condizioni di orto-
gonalità {
a−b=0
3a + b − 2c = 0,
le quali rappresentano un sistema omogeneo di due equazioni in tre incognite. Il sistema può
essere risolto rispetto a b e a c e si ottiene la soluzione non banale (a ̸= 0) b = a, c = 2a.
L’equazione del piano richiesto può essere scritta allora in funzione dei due parametri a e d nella
forma
ax + ay + 2az + d = 0.
Imponiamo ora la condizione di passaggio per il punto P0 . Otteniamo

a · 2 + a · (−1) + 2a · 1 + d = 0, =⇒ d = −3a.

L’equazione del piano si riduce alla forma

ax + ay + 2az − 3a = 0,

ovvero, dividendo per a,


x + y + 2z − 3 = 0.
178 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

15.3 Fasci di piani


Date le due equazioni lineari in x, y, z,

a1 x + b1 y + c1 z + d1 = 0, a2 x + b2 y + c2 z + d2 = 0,

ciascuna di esse è soddisfatta dalle coordinate dei punti di un dato piano. Se tali piani π1 e π2 non sono
paralleli, non lo saranno neppure i vettori ad essi ortogonali. In altri termini i vettori di componenti
(a1 , b1 , c1 ) e (a2 , b2 , c2 ) saranno linearmente indipendenti. Di conseguenza il sistema lineare
{
a1 x + b1 y + c1 z + d1 = 0
a2 x + b2 y + c2 z + d2 = 0,

avrà rango della matrice dei coefficienti pari a due e quindi ammetterà ∞1 soluzioni. Dal punto di
vista geometrico, tali soluzioni rappresentano le terne di coordinate di tutti i punti comuni ai piani π1
e π2 , cioè dei punti di una retta. Il sistema precedente rappresenta le equazioni cartesiane di questa
retta.

• Esempi
1) Consideriamo la retta passante per i due punti P1 = (2, −3, 1) e P2 = (−1, −3, 0). Vogliamo
scrivere le equazioni cartesiane di questa retta. I due punti hanno la stessa coordinata y, quindi
non è possibile scrivere l’equazione della retta in forma normale. Osserviamo che se due punti di
una retta hanno la medesima coordinata y allora tutti i punti di quella retta avranno quella stessa
coordinata y. Questa è una conseguenza diretta delle equazioni parametriche della retta e vale,
naturalmente, per una qualunque delle tre coordinate x, y, z. Ne segue che la retta considerata
appartiene al piano π1 di equazione y = −3. D’altra parte si ha
x−2 z−1
= , =⇒ x − 3z − 1 = 0.
−1 − 2 0−1
che rappresenta l’equazione di un secondo piano π2 contenente la retta. Il sistema formato dalle
equazioni dei piani π1 e π2 , {
y = −3
x − 3z − 1 = 0,
rappresenta, in forma cartesiana, la retta cercata.

2) In modo analogo si ragiona per determinare le equazioni cartesiane della retta passante per i
due punti P1 = (4, −4, 3) e P2 = (4, 5, 3). In tal caso sono due le coordinate che hanno lo stesso
valore in P1 e P2 . Ne seguono immediatamente le equazioni cartesiane
{
x=4
z = 3.

La forma cartesiana di una retta non è unica nel senso che esistono infiniti piani contenenti una data
retta. Alle due equazioni cartesiane rappresentanti una retta si possono quindi sostituire altre due
equazioni di piani contenenti quella stessa retta. Tutti i piani contenenti una data retta r costituiscono
un fascio di piani di asse r.
15.3. FASCI DI PIANI 179

Sia {
a1 x + b1 y + c1 z + d1 = 0
a2 x + b2 y + c2 z + d2 = 0,
l’equazione cartesiana della retta r. Dimostriamo che tutti e soli i piani di un fascio di asse r hanno
equazione del tipo

λ(a1 x + b1 y + c1 z + d1 ) + µ(a2 x + b2 y + c2 z + d2 ) = 0, (∗)

con λ, µ parametri reali non contemporaneamente nulli.


Osserviamo innanzitutto che i punti della retta r, dovendo soddisfare ambedue le equazioni del cor-
rispondente sistema cartesiano, soddisfano anche l’equazione precedente per qualunque coppia di λ e
µ non contemporaneamente nulli. Poiché si tratta di una equazione lineare in x, y, z, essa descriverà
un piano contenente r. Dimostriamo ora che un qualunque piano per r ha equazione (∗) con dati λ e
µ. A tale scopo, considerate le equazioni cartesiane di r, notiamo che i vettori

v = (a1 , b1 , c1 ), w = (a2 , b2 , c2 ),

sono perpendicolari ad r. Più in generale, ogni vettore u, ortogonale ad un qualunque piano per r è
ortogonale anche a r. Poiché v e w sono linearmente indipendenti, il vettore u può essere espresso
come una loro combinazione lineare,

u = λv + µw, λ, µ ∈ R.

con λ, µ non contemporaneamente nulli. L’equazione del generico piano perpendicolare ad u è allora

(λa1 + µa2 )x + (λb1 + µb2 )y + (λc1 + µc2 )z + d = 0.

Imponendo il passaggio per un qualunque punto di r si ottiene

d = λd1 + µd2 ,

da cui sostituendo nell’equazione precedente, si ottiene la (∗).


Poiché λ e µ non sono contemporaneamente nulli, possiamo supporre µ ̸= 0 e dividere l’equazione (∗)
per µ. Posto k = λ/µ, l’equazione del fascio di asse r si scrive

k(a1 x + b1 y + c1 z + d1 ) + a2 x + b2 y + c2 z + d2 = 0

Quest’ultima equazione descrive tutti i piani per r tranne quello di equazione a1 x + b1 y + c1 z + d1 = 0.

Si definisce fascio di piani paralleli, l’insieme dei piani che hanno in comune la medesima giacitura.
Dato l’equazione ax + by + cz + d = 0 di uno dei piani di tale fascio, ogni altro piano avrà equazione
del tipo ax + by + cz + d′ = 0 per un opportuno valore di d′ .

• Esempi
1) Determinare l’equazione del piano passante per i due punti P1 = (0, 1, 1) e P2 = (1, 0, 0) e
perpendicolare al piano π di equazione x − 3y + 2z = 0. Determiniamo prima la retta r per P1
e P2 . Si ha
x y−1 z−1
= = ,
1 −1 −1
180 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

da cui seguono le equazioni cartesiane


{
x+y−1=0
y − z = 0.

Si ottiene cosı̀ l’equazione del fascio di asse r,

λ(x + y − 1) + µ(y − z) = 0.

Il piano cercato appartiene a questo fascio. Imponendo la condizione di perpendicolarità rispetto


al piano π si ottiene

λ · 1 − (λ + µ) · 3 − µ · 2 = 0 ⇒ −2λ − 5µ = 0.

Scelto, ad es. λ = 5 si ottiene µ = −2, da cui l’equazione del piano richiesto

5x + 3y + 2z − 5 = 0.

2) Determinare l’equazione del piano passante per i tre punti P1 = (1, 3, 1), P2 = (4, 2, 0), P3 =
(1, 3, 5).
La retta r passante per P1 e P2 è data da
x−4 y−2 z
= = ,
3 −1 −1
e le corrispondenti equazioni cartesiane della retta sono
{
y−z−2=0
x + 3y − 10 = 0.

Possiamo scrivere l’equazione del fascio di piani di asse r nella forma

k(x + 3y − 10) + y − z − 2 = 0, k ∈ R.

Imponiamo allora la condizione di passaggio per il punto P3 e otteniamo

0 − 4 = 0.

Poiché questa eguaglianza non è mai verificata, non esiste alcun valore di k corrispondente al
piano per P3 . Ne segue che il piano cercato è proprio quello non contenuto nel fascio, cioè quello
di equazione
x + 3y − 10 = 0.

3) Determinare l’equazione del piano parallelo al piano di equazione

2x + 4y − 6z + 5 = 0

e passante per il punto P0 = (−1, 1, 1).


Il piano richiesto appartiene al fascio di piani paralleli a quello dato. Il fascio è individuato dalla
giacitura ortogonale al vettore
v = (1, 2, −3),
15.4. CONDIZIONI DI PARALLELISMO E PERPENDICOLARITÀ 181

e di conseguenza la sua equazione sarà

x + 2y − 3z + d = 0.

Imponendo la condizione di passaggio per P0 troviamo

−1 + 2 − 3 + d = 0, =⇒ d = 2.

L’equazione richiesta è
x + 2y − 3z + 2 = 0.

15.4 Condizioni di parallelismo e perpendicolarità


Le condizioni di parallelismo e di perpendicolarità tra due rette sono evidenti se le due rette sono scritte
in forma parametrica. Supponiamo infatti di avere una retta r1 per P1 = (x1 , y1 , z1 ) e parallela al
vettore v, ed una retta r2 per P2 = (x2 , y2 , z2 ) e parallela al vettore w. Le loro equazioni parametriche
saranno  

x = x1 + tvx 
x = x2 + twx
r1 : y = y1 + tvy r2 : y = y2 + twy t ∈ R.

 

z = z1 + tvz , z = z2 + twz ,
Affinché esse siano parallele dovrà essere v ∥ w ovvero

(vx , vy , vz ) = k(wx , wy , wz ),

o, equivalentemente, le due rette devono avere gli stessi coseni direttori, mentre, affinché esse siano
perpendicolari dovrà essere v · w = 0, ovvero

vx wx + vy wy + vz wz = 0.

Nel caso delle equazioni di due rette r ed r′ passanti rispettivamente per P1 , P2 e per P1′ , P2′ , ci sarà
parallelismo tra loro se esiste un k ∈ R tale che

(x2 − x1 , y2 − y1 , z2 − z1 ) = k(x′2 − x′1 , y2′ − y1′ , z2′ − z1′ ),

mentre ci sarà perpendicolarità se

(x2 − x1 )(x′2 − x′1 ) + (y2 − y1 )(y2′ − y1′ ) + (z2 − z1 )(z2′ − z1′ ) = 0.

Consideriamo ora lo stesso problema per due rette scritte in forma cartesiana,
{ {
a1 x + b1 y + c1 z + d1 = 0 a′1 x + b′1 y + c′1 z + d′1 = 0
r: r′ :
a2 x + b2 y + c2 z + d2 = 0 a′2 x + b′2 y + c′2 z + d′2 = 0

Posto
v = (a1 , b1 , c1 ), w = (a2 , b2 , c2 ), v′ = (a′1 , b′1 , c′1 ), w′ = (a′2 , b′2 , c′2 ),
182 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

ricordiamo che i vettori


u = v × w, u′ = v ′ × w ′ ,
risultano rispettivamente paralleli alle rette r ed r′ . Le condizioni di parallelismo e di perpendicolarità
diventano, rispettivamente
u = ku′ , u · u′ = 0.
Il calcolo esplicito dei vettori u e u′ , secondo la regola di calcolo del prodotto vettoriale, fornisce

b1 c1 a1 c1 a1 b1
ux = , uy = −
a2 c2 , uz = a2 b2 ,
b2 c2

e le analoghe formule per le componenti di u′ .

• Esempi
1) Determinare l’equazione della retta r passante per il punto P1 = (3, 2, −1) e perpendicolare
alle due rette r1 ed r2 di equazioni


x = 1 − t x−3 y−1 z+1
r1 : y =2+t r2 : = = .

 2 4 −3
z = −2 + 3t

Le equazioni parametriche di una retta passante per P1 sono




x = 3 + tvx
y = 2 + tvy


z = −1 + tvz .

Le rette r1 ed r2 sono rispettivamente parallele ai vettori

u1 = (−1, 1, 3), u2 = (2, 4, −3).

Ne segue che la retta r è parallela al vettore v = u1 × u2 , dato da

v = (−15, 3, −6) = 3(−5, 1, −2).

La retta cercata ha allora equazioni parametriche




x = 3 − 5t
y =2+t


z = −1 − 2t.

2) Determinare le equazioni cartesiane della retta passante per il punto P0 = (1, 2, −1) e parallela
alla retta di equazioni cartesiane
{
x − 3y + 2z − 1 = 0
2x − y + 4z = 0.

Dalle due equazioni precedenti che descrivono due piani, ricaviamo i due vettori v, w ortogonali
ai piani,
v = (1, −3, 2), w = (2, −1, 4).
15.4. CONDIZIONI DI PARALLELISMO E PERPENDICOLARITÀ 183

Il loro prodotto vettoriale sarà un vettore parallelo alla retta data, ovvero

u = v × w = (−10, 0, 5) = 5(−2, 0, 1).

Le equazioni parametriche della retta per P0 e parallela al vettore u, saranno




x = 1 − 2t
y=2


z = −1 + t.

Tali equazioni possono essere riscritte in forma cartesiana, eliminando il parametro t. Si ottiene
{
y−2=0
x + 2z + 1 = 0.

Illustriamo le condizioni di parallelismo e perpendicolarità tra rette e piani con alcuni esempi.

• Esempi
1) Determinare l’equazione del piano passante per il punto P0 = (−1, 2, 4) e perpendicolare alla
retta di equazioni cartesiane {
x + 2y − 3z + 5 = 0
2x + 3y − z + 8 = 0.
La retta data risulta parallela al vettore u di componenti

2 −3 1 −3 1 2
ux = = 7 uy = −
2 −1 = −5, uz = = −1.
3 −1 2 3

Tutti i piani perpendicolari a u avranno equazione

7x − 5y − z + d = 0.

Imponendo il passaggio per il punto P0 si ottiene d = 21, da cui l’equazione del piano richiesto è

7x − 5y − z + 21 = 0.

2) Determinare le equazioni della retta r passante per il punto P0 = (−3, 2, 1) e parallela ai due
piani π e π ′ rispettivamente di equazioni

x − 4y + z − 3 = 0, 3x − y + 2z + 5 = 0.

Poiché la retta è parallela ad ambedue i piani, essa sarà parallela alla retta r′ intersezione di π
e π ′ . Poiché la retta r′ è parallela al vettore u di componenti

−4 1 1 1 1 −4
ux = = −7 uy = −
3 2 = 1, uz = 3 −1 = 11,
−1 2
184 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

imponendo il passaggio per P0 si ottiene




x = −3 − 7t
y =2+t


z = 1 + 11t.

Tali equazioni possono essere espresse in forma normale, eliminando il parametro t. Si ottiene
x+3 y−2 z−1
= = .
−7 1 11

15.5 Distanze da rette e piani


Consideriamo un punto dello spazio P0 = (x0 , y0 , z0 ) ed un piano π di equazione

ax + by + cz + d = 0.

Vogliamo determinare una formula per la distanza δ di P0 da π. A questo scopo prendiamo un



qualunque punto P del piano ed il vettore applicato P0 P = (P0 , w).

Denotato, come al solito, con v = (a, b, c) il vettore perpendicolare al piano π, si ha


|w · v|
δ = |w · vers(v)| = .
∥v∥
Traducendo questa formula in termini delle componenti dei vettori w e v, si ottiene
|a(x − x0 ) + b(y − y0 ) + c(z − z0 )|
δ= √ .
a2 + b2 + c2
15.5. DISTANZE DA RETTE E PIANI 185

D’altra parte, avendo supposto che P è un punto di π, le sue coordinate soddisfano l’equazione del
piano, quindi ax + by + cz = −d. La formula precedente diventa allora

|ax0 + by0 + cz0 + d|


δ= √ .
a2 + b2 + c2
• Esempio
Calcolare la distanza del punto P0 = (1, −2, 3) dal piano di equazione

x − y + 3z − 5 = 0.

Utilizzando la formula trovata, si ha

|1 + 2 + 9 − 5| 7
δ= √ =√ .
1+1+9 11

Per determinare la distanza di un dato punto P0 da una retta r possiamo ragionare nel modo seguente.


Preso il generico punto P di r ed il versore vers(u) lungo la retta r, consideriamo il vettore P0 P =
(P0 , w) e calcoliamo il prodotto vettoriale

w × vers(u).

La norma di questo vettore è pari alla lunghezza del vettore P0 P per il seno dell’angolo che questo
stesso vettore forma con la retta r. Ma questa norma è esattamente la distanza δ di P0 da r. Si ha
dunque
∥w×u∥
δ= .
∥u∥
186 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

In alternativa si può osservare che, preso il piano passante per P0 e perpendicolare a r, la sua in-
tersezione con r non è altro che il piede H della perpendicolare condotta da P0 ad r. In tal modo,
determinata l’intersezione H, si ha
δ = P0 H.

• Esempio
Calcolare la distanza del punto P0 = (1, −3, 0) dalla retta di equazioni
{
2x − y + 3z − 4 = 0
x + 2y − z − 1 = 0.

Riscriviamo preliminarmente le equazioni della retta in forma parametrica. Risolvendo il sistema


precedente, ponendo z = t si ha
{
2x − y = 4 − 3t
x + 2y = 1 + t,

da cui si ottengono le equazioni parametriche




x = 5 − t
9

y = − 25 + t


z = t.

Ne segue che il vettore parallelo alla retta è u = (−1, 1, 1). Per t = 1 si ottiene il punto

P1 = (4/5, 3/5, 1), ed il vettore w definito da P0 P1 = (P0 , w), sarà
( )
1 18
w = − , ,1 .
5 5

Dalla formula per la distanza di un punto da una retta si ottiene infine



∥w×u∥ 158
δ= = .
∥u∥ 5

Completiamo il paragrafo calcolando la distanza tra due rette sghembe.

Consideriamo due rette r ed r1 non parallele e non intersecantesi in alcun punto (rette sghembe).
Esisteranno allora un piano π contenente r e un piano π1 contenente r1 paralleli tra di loro (vedi
figura). La distanza tra questi due piani coincide con la distanza δ tra le due rette sghembe.
Indicati con v e con v1 i vettori paralleli rispettivamente a r e r1 , il vettore v × v1 risulterà ortogonale

ai due piani π e π1 . Sia P un punto di r e P1 un punto di r1 e poniamo P1 P = (P1 , w). Si avrà

|w · v × v1 |
δ=
∥ v × v1 ∥
15.6. TRASLAZIONI E ROTAZIONI NELLO SPAZIO 187

15.6 Traslazioni e rotazioni nello spazio


Le equazioni di curve e superfici nello spazio, in un dato riferimento cartesiano, possono assumere
espressioni più semplici se riferite ad altri sistemi di riferimento aventi diversa origine e/o diversa
orientazione degli assi. Prendiamo prima in esame il cambiamento di riferimento per traslazione di
assi. Siano (x, y, z) le coordinate di un sistema di riferimento cartesiano ortogonale R con origine nel
punto O. Consideriamo un nuovo sistema di riferimento cartesiano ortogonale R′ con assi coordinati
paralleli e concordi agli assi del primo riferimento, con nuove coordinate (x′ , y ′ , z ′ ) e con origine in
O′ . Dette (x0 , y0 , z0 ) le coordinate del punto O′ rispetto ad R, sia P un generico punto dello spazio e
→ →
chiamiamo OP = (O, x), O′ P = (O′ , x′ ) i vettori posizione del punto P rispetto ai due riferimenti R

e R′ . Sia OO′ = (O, x0 ) il vettore posizione di O′ rispetto a R. Si ha
→ → →
OP =OO′ + O′ P ⇒ x = x0 + x′ .

Poiché le componenti di x e x′ non sono altro che le coordinate di P , rispettivamente in R e in R′ , si


ha
x = x0 + x′ x′ = x − x0
y = y0 + y ′ ⇔ y ′ = y − y0
z = z0 + z ′ z ′ = z − z0 .

• Esempio
Siano {
2x − y + z − 6 = 0
y + 3z + 3 = 0,
le equazioni cartesiane di una retta r, riferita al sistema di riferimento R. Considerato il nuovo
riferimento R′ avente origine nel punto O′ = (1, −3, 2), e assi paralleli ed equiversi a quelli di R,
l’equazione della stessa retta rispetto a R′ si ottiene mediante le sostituzioni

x = x′ + 1, y = y ′ − 3, z = z ′ + 2.
188 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

Si ottiene cosı̀, {
2x′ − y ′ + z ′ + 1 = 0
y ′ + 3z ′ + 6 = 0.

Da questo esempio si può notare che una traslazione di assi lascia invariate le direzioni delle normali
ad un piano e quindi la direzione di una retta, ovvero i suoi coseni direttori.
Supponiamo ora che il riferimento ortogonale R′ abbia assi non paralleli agli assi di R, e, per il
momento, consideriamo la sua origine O′ coincidente con O. Chiamiamo e1 , e2 , e3 i versori degli assi
di R e con e′1 , e′2 , e′3 i versori degli assi di R′ . Denoteremo poi con (x1 , x2 , x3 ) le coordinate di un

punto P in R e con (x′1 , x′2 , x′3 ) le coordinate dello stesso punto P in R′ . Detto OP = (O, x) il vettore
posizione di P , si ha
∑3 ∑3
x= xj ej , x= x′i e′i ,
j=1 i=1

dove
xj = x · ej , x′i = x · e′i ,
sono, rispettivamente, le componenti di x in R e in R′ . Dall’ultima relazione si ottiene
 
∑3 ∑
3
x′i =  xj ej  · e′i = xj (ej · e′i ),
j=1 j=1

e, posto
rij = e′i · ej ,
otteniamo

3
x′i = rij xj .
j=1
15.6. TRASLAZIONI E ROTAZIONI NELLO SPAZIO 189

I numeri rij , (i, j = 1, 2, 3) non sono altro che i coseni direttori dei versori di R′ rispetto alle direzioni
dei versori di R. Essi formano una matrice R, quadrata di ordine 3, detta matrice di rotazione da R
a R′ . Introdotti i vettori colonna
   ′
x1 x1

X = x2 ,  X = x′2  ,
′ 
x3 x′3

la relazione precedente si può scrivere come prodotto di matrici, ovvero

X ′ = RX,

e sintetizza le formule di passaggio dalle coordinate di P in R alle coordinate di P in R′ . Per ottenere


le formule inverse, basta osservare che
( 3 )
∑ ∑3 ∑
3
′ ′ ′ ′
xj = xi ei · ej = xi (ei · ej ) = rij x′i ,
i=1 i=1 i=1

da cui
X = RT X ′ .
dove RT è la matrice trasposta di R. Moltiplicando la relazione X ′ = RX a sinistra per RT e la
relazione X = RT X ′ a sinistra per R e confrontando i risultati si ottiene RT R = RRT = I. Ne segue
che la matrice di rotazione ammette inversa che coincide con la trasposta.
Osserviamo che la composizione di due rotazioni successive equivale ad una rotazione la cui matrice è
data dal prodotto delle matrici delle singole rotazioni. Infatti, se dopo aver effettuato una rotazione
da R a R′ mediante la trasformazione X ′ = R1 X supponiamo di effettuare una seconda rotazione da
R′ a R′′ mediante la trasformazione X ′′ = R2 X ′ , otteniamo

X ′′ = R2 (R1 X) = (R2 R1 )X.

E’ immediato verificare che anche la matrice prodotto gode della proprietà per cui l’inversa è uguale
alla trasposta.
190 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

• Esempio
Consideriamo un riferimento cartesiano ortogonale R con origine in O e due rotazioni successive,
la prima di un angolo θ = π/6 attorno all’asse e3 e la seconda di un angolo ψ = π/4 attorno
all’asse e′1 .

Si avrà
rij = e′i · ej , rij = e′′i · e′j ,
(1) (2)

dove    √3 1

cos θ sin θ 0 0
 2 √2 
R(1) = − sin θ cos θ 0 = − 1 3
0
2 2
0 0 1 0 0 1
   
1 0 0 1 √0 √
0
 2
R(2) = 0 cos ψ sin ψ  = 0 2√
2
√2 
0 − sin ψ cos ψ 0 − 22 22
Si ottiene cosı̀  √ 
3 1
2√ √2
0

 2
R(2) R(1) = − 2 6

√4 4√ √2
4
2
− 4
6
2
2

da cui si ricava la relazione tra le coordinate di P in R′′ e le coordinate di P in R,



′′ 3 1
x1 = x1 + x2
2√ 2√ √
′′ 2 6 2
x2 = − x1 + x2 + x3
√4 √4 √2
2 6 2
x′′3 = x1 − x2 + x3 .
4 4 2
15.7. COORDINATE SFERICHE E COORDINATE CILINDRICHE 191

Consideriamo ora una rototraslazione ovvero una trasformazione del sistema di riferimento dovuta ad
una traslazione ed una rotazione. Se si effettua una traslazione con nuova origine in O′ = (x0 , y0 , z0 )
ed una successiva rotazione con matrice R, otteniamo

x′ = r11 (x − x0 ) + r12 (y − y0 ) + r13 (z − z0 )


X ′ = R(X − X0 ) ⇔ y ′ = r21 (x − x0 ) + r22 (y − y0 ) + r23 (z − z0 )
z ′ = r31 (x − x0 ) + r32 (y − y0 ) + r33 (z − z0 )

• Esempio
Consideriamo il piano π, che nel riferimento cartesiano ortogonale R ha equazione

2x + 3y − z − 1 = 0.

Vogliamo ricavare l’equazione del piano π nel riferimento cartesiano ortogonale rototraslato R′
avente origine in O′ = (1, 1, 2) e assi ruotati di un angolo θ = π/3 attorno all’asse y di R. La
matrice di rotazione, è in questo caso,
   1 √ 
cos θ 0 − sin θ 0 − 3
   2 2 
R= 0 1 0 =  √0 1 0 .
sin θ 0 cos θ 3 1
2 0 2

Si ottiene allora
 ′  1 √   1 √ √ 
x 0 − 23 x−1 x − 23 z + 3 − 12
y ′  =    
2 2
 √0 1 0  y − 1 =  √ y−1 √ 
z′ z−2
2 x + 2z − 1 − 2
3 1 3 1 3
2 0 2

A questo punto, per ottenere la trasformazione inversa, osserviamo che si ha X = X0 + RT X ′ ,


ovvero      1 √  
3 ′

1 ′

3 ′

x 1 0 x 1 + x + z
y  = 1 + 
2 2   2 2 
 0√ 1 0  y ′  =  1 + y′
√ 
′ ′ ′
z 2 − 3
0 2
1 z
2 2− x + z
3 1
2 2
Infine, sostituendo nell’equazione del piano π otteniamo il risultato richiesto
( √ ) ( )
3 ′ ′
√ 1
1+ x + 3y + 3− z ′ + 2 = 0.
2 2

15.7 Coordinate sferiche e coordinate cilindriche


Le coordinate cartesiane nello spazio possono essere sostituite da altri tipi di coordinate, cioè da
altre terne di numeri che possono essere poste in corrispondenza biunivoca con i punti dello spazio
tridimensionale. La scelta di queste diverse terne dipende dalle particolari simmetrie del problema
geometrico che si vuole studiare.

Coordinate sferiche
192 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

Nello spazio tridimensionale fissiamo un punto O, una retta orientata a passante per O ed un piano
Π contenente a. Preso un generico punto P dello spazio denotiamo con r(≥ 0) la sua distanza da O

e con θ l’angolo (0 ≤ θ ≤ π) che il vettore OP forma con la retta orientata a. Denotiamo poi con
ψ (0 ≤ ψ < 2π) l’angolo che il piano per P e per a forma con il piano Π. Le quantità r, θ, ψ si dicono
coordinate sferiche e, precisati i loro domini di variabilità, possono essere messe in corrispondenza con
i punti dello spazio. Notiamo in particolare che tutti i punti dell’asse a si ottengono in corrispondenza
di θ = 0 e di θ = π, al variare di r, per valori arbitrari di ψ. Inoltre il punto O corrisponde a r = 0,
per valori arbitrari di θ e di ψ. Questo significa che è possibile stabilire una corrispondenza biunivoca
tra le coordinate sferiche e i punti dello spazio non appartenenti all’asse a.

Il legame tra le coordinate sferiche (r, θ, ψ) e le coordinate cartesiane ortogonali (x, y, z) si può dedurre
identificando, per esempio, l’asse z con l’asse a e l’asse x con una retta di Π passante per O e
perpendicolare ad a. In tal modo si ottiene

x = r sin θ cos ψ
y = r sin θ sin ψ r ∈ R++ , θ ∈ (0, π), ψ ∈ [0, 2π).
z = r cos θ,

Coordinate cilindriche
Fissato un punto O, una retta orientata a ed un piano Π contenente a, consideriamo un generico
punto P . Denotiamo con r(≥ 0) la distanza di P da a e con z(∈ R) la quota di P rispetto al piano
per O perpendicolare ad a. Come nel caso precedente, chiameremo ψ (0 ≤ ψ < 2π) l’angolo che il
piano per P e per a forma con Π. Le quantità (r, ψ, z) si dicono coordinate cilindriche. Notiamo che
tutti i punti dell’asse a sono individuati dalla coordinata z per r = 0 e per valori arbitrari di ψ. Ciò
comporta che è possibile stabilire una corrispondenza biunivoca tra le terne (r, ψ, z) ed i punti dello
spazio non appartenenti all’asse a. Anche in questo caso, per determinare il legame tra coordinate
cartesiane ortogonali e coordinate cilindriche, identifichiamo l’asse a con l’asse z e la normale ad a per
15.8. ESEMPI NOTEVOLI DI CURVE E SUPERFICI 193

O in Π con l’asse x. Si ottiene


x = r cos ψ
y = r sin ψ r ∈ R++ , ψ ∈ [0, 2π), z ∈ R.
z = z,

Le formule che definiscono le coordinate sferiche e le coordinate cilindriche possono essere invertite
per ricavare le terne (r, θ, ψ) e (r, ψ, z) a partire dalle coordinate cartesiane (x, y, z). Si ha
 y

π(1 − sgn(y)) + arctan x per x > 0
√ z
r = x2 + y 2 + z 2 , θ = arccos √ , ψ = π2 (2 − sgn(y)) per x = 0 ,
x2 + y 2 + z 2 
 y
π + arctan x per x < 0

per le coordinate sferiche, e


 y

π(1 − sgn(y)) + arctan x per x > 0

r= x2 + y 2 , ψ = π2 (2 − sgn(y)) per x = 0 , z = z,


π + arctan xy per x < 0

per le coordinate cilindriche.

15.8 Esempi notevoli di curve e superfici


Abbiamo visto che un piano è descritto da una equazione lineare in x, y, z. Più in generale, una
qualunque superficie nello spazio può essere descritta in forma cartesiana mediante una equazione del
tipo
F (x, y, z) = 0,
dove F è una funzione delle tre coordinate cartesiane. Abbiamo anche visto che le equazioni cartesiane
di una retta si scrivono sotto la forma di un sistema di due equazioni cartesiane rappresentanti due
piani. Più in generale una curva nello spazio può essere descritta in forma cartesiana dal sistema delle
equazioni cartesiane di due superfici. Le equazioni di una curva si possono scrivere allora nella forma
{
M (x, y, z) = 0
N (x, y, z) = 0.

Se le tre variabili x, y, z vengono sostituite da nuove coordinate a, b, c legate alle precedenti dalle
formule di trasformazione
x = α(a, b, c),
y = β(a, b, c),
z = γ(a, b, c),
dove α, β, γ sono opportune funzioni di a, b, c, tali da garantire, entro opportuni domini, la corrispon-
denza biunivoca tra le vecchie e le nuove coordinate, le equazioni di curve e superfici assumono una
forma diversa, ovvero

F (x, y, z) = F (α(a, b, c), β(a, b, c), γ(a, b, c)) = F̂ (a, b, c) = 0.


{
M (x, y, z) = M (α(a, b, c), β(a, b, c), γ(a, b, c)) = M̂ (a, b, c) = 0
N (x, y, z) = N (α(a, b, c), β(a, b, c), γ(a, b, c)) = N̂ (a, b, c) = 0.
194 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

Negli esempi che seguiranno useremo coordinate sferiche e cilindriche per descrivere esempi comuni di
curve e di superfici di rotazione aventi centro di simmetria nell’origine del riferimento, e ricaveremo le
loro equazioni in forma cartesiana.
• Equazione della sfera
Consideriamo una sfera di raggio R, avente il centro nell’origine di un dato riferimento. In coordinate
sferiche l’equazione di questa sfera è
r − R = 0,
mentre, usando coordinate cilindriche, si ha

r − R2 − z 2 = 0, |z| ≤ R.

Usando le formule di passaggio dalle coordinate sferiche a quelle cartesiane otteniamo l’equazione della
sfera in coordinate cartesiane
x2 + y 2 + z 2 − R2 = 0.
Una traslazione di assi ci permette poi di scrivere l’equazione della sfera di raggio R con centro in un
qualunque punto (x0 , y0 , z0 ) dello spazio,

(x − x0 )2 + (y − y0 )2 + (z − z0 )2 − R2 = 0.

• Equazione della circonferenza


Consideriamo una circonferenza di raggio R e centro nell’origine, sul piano z = 0 di un riferimento in
coordinate cilindriche. La sua equazione sarà
{
r−R=0
z = 0.

La corrispondente equazione in coordinate sferiche è


{
r−R=0
θ − π2 = 0.

In coordinate cartesiane otteniamo,


{
x2 + y 2 + z 2 − R2 = 0
z = 0.

L’equazione di una circonferenza di raggio R e centro (x0 , y0 , 0) nello stesso piano sarà
{
(x − x0 )2 + (y − y0 )2 + z 2 − R2 = 0
z = 0.

Ovviamente si possono considerare circonferenze su diversi piani. Per esempio, nel piano

tan ψ = c,

essendo c un numero reale fissato, l’equazione dello stesso tipo di circonferenza sarà
{ { √
r−R=0 r − R2 − z 2 = 0
|z| ≤ R,
tan ψ − c = 0, tan ψ − c = 0,
15.8. ESEMPI NOTEVOLI DI CURVE E SUPERFICI 195

rispettivamente in coordinate sferiche e in coordinate cilindriche. La stessa circonferenza in coordinate


cartesiane sarà {
x2 + y 2 + z 2 − R2 = 0
y − cx = 0.

• Equazione del cilindro


Consideriamo un cilindro di sezione circolare con raggio R, avente asse di simmetria coincidente con
l’asse z di un riferimento cartesiano. In coordinate cilindriche la sua equazione sarà

r − R = 0,

mentre, in coordinate sferiche


r sin θ − R = 0.
La sua equazione in coordinate cartesiane è

x2 + y 2 − R2 = 0.

Se l’asse del cilindro è l’asse x oppure l’asse y, si ottengono rispettivamente le equazioni cartesiane

y 2 + z 2 − R2 = 0, x2 + z 2 − R2 = 0.

• Equazione della elica cilindrica


Consideriamo una elica cilindrica di raggio R, con asse coincidente con l’asse z e passo p. L’equazione,
in coordinate cilindriche sarà {
r−R=0
p ψ∈R
z − 2π ψ=0
mentre, in coordinate sferiche si ha
{
r sin θ − R = 0
√ ( p )2 ψ ∈ R.
r − R2 + 2π ψ = 0,

In coordinate cartesiane, limitatamente alla porzione di spazio x > 0, |z| < p/4, si ottiene
{
x2 + y 2 − R 2 = 0
p
z − 2π arctan xy = 0.

• Equazione del cono


Consideriamo una superficie conica con asse coincidente con l’asse z e apertura α. In coordinate
cilindriche si ha
r2 − (tan2 α)z 2 = 0,
mentre in coordinate sferiche
sin θ − sin α = 0.
La corrispondente equazione in coordinate cartesiane è

x2 + y 2 − (tan2 α)z 2 = 0.
196 CAPITOLO 15. GEOMETRIA DELLO SPAZIO

Consideriamo infine alcune superfici ottenute mediante la rotazione di un angolo giro attorno all’asse
z di una curva generatrice rappresentata nel piano y, z. Nello schema seguente riportiamo la curva
generatrice e l’equazione cartesiana della conseguente superficie di rotazione.

z = ay 2 + c −→ z − a(x2 + y 2 ) − c = 0 paraboloide di rotazione


y2 z2 x2 + y 2 z 2
+ 2 =1 −→ + 2 − 1 = 0 ellissoide di rotazione
a2 b a2 b
y2 z2 x2 + y 2 z 2
− 2 =1 −→ − 2 − 1 = 0 iperboloide di rotaz. ad una falda
a2 b a2 b
z2 y2 z 2 x2 + y 2
− 2 =1 −→ − − 1 = 0 iperboloide di rotaz. a due falde
a2 b a2 b2
Capitolo 16

Geometria del piano

16.1 Coordinate polari


Come abbiamo visto al paragrafo 2.2, nel piano è possibile introdurre un sistema di coordinate po-
lari (ρ, θ). Tale sistema coincide col sistema di coordinate a cui si riducono le coordinate sferiche
e cilindriche, rispettivamente nel piano θ = π/2 e z = 0. Anche da questa osservazione, oltre che
dalla definizione data al paragrafo 2.2 si possono dedurre le formule di trasformazione dalle coordinate
polari a quelle cartesiane e viceversa, che qui riscriviamo.

ρ = x2 + y 2
 y
x = ρ cos θ, 
π(1 − sgn(y)) + arctan x x > 0
y = ρ sin θ θ = π2 (2 − sgn(y)) x=0.

 y
π + arctan x x<0

• Esempi
L’equazione della circonferenza di centro O e raggio R, in coordinate polari, è data da

ρ − R = 0.

Un altro esempio di equazione in coordinate polari è

ρ − | sin θ cos θ| = 0,

(rosa a quattro foglie). Mediante le coordinate polari, assumendo θ ∈ R, si possono scrivere


in modo semplice le equazioni di curve non chiuse e non limitate come le spirali. Per esempio,
l’equazione
ρ = aekθ , θ ∈ R,
con a e k parametri reali e positivi, rappresenta una spirale logaritmica, mentre l’equazione

ρ = pθ, θ ∈ R+ ,

con p reale e positivo rappresenta una spirale di Archimede.

197
198 CAPITOLO 16. GEOMETRIA DEL PIANO

16.2 Traslazioni e rotazioni


Analogamente al caso dello spazio tridimensionale, una traslazione nel piano è una trasformazione di
coordinate da un riferimento cartesiano ortogonale di origine O ad un nuovo riferimento avente assi
paralleli ed equiversi a quelli del primo riferimento e origine in un punto O′ distinto da O. Dette
x0 , y0 le coordinate di O′ rispetto al vecchio riferimento, le formule di trasformazione tra le vecchie
coordinate x, y e le nuove coordinate x′ , y ′ di un dato punto P saranno
x = x′ + x0 x′ = x − x0
y = y ′ + y0 , y ′ = y − y0 .
Introdotti i vettori colonna
( ) ( ′) ( )
x ′ x x0
X= , X = , X0 = ,
y y′ y0
le formule precedenti si possono scrivere come

X = X ′ + X0 , X ′ = X − X0 .

Consideriamo ora le trasformazioni dovute a rotazioni del sistema di assi coordinati. Siano (O, x, y) e
(O, x′ , y ′ ) due riferimenti cartesiani ortogonali aventi la stessa origine ma assi x′ , y ′ ruotati, rispetto a
x e y di un angolo α.
In questo caso la matrice di rotazione, definita da Rij = e′i · ej (vedi par. 15.6), è data da
( )
cos α sin α
R= .
− sin α cos α
( ) ( ′)
x ′ x
Introdotti i vettori colonna X = ,X = , si ha
y y′
( ′) ( )( )
x cos α sin α x
X ′ = RX ⇔ = ,
y′ − sin α cos α y
da cui si ottiene
x′ = x cos α + y sin α
y ′ = −x sin α + y cos α.
Si ha poi R−1 = RT e quindi le formule di trasformazione inversa danno
( ) ( ) ( ′)
x cos α − sin α x
X = RT X ′ ⇔ = ,
y sin α cos α y′
da cui
x = x′ cos α − y ′ sin α
y = x′ sin α + y ′ cos α.

Più in generale, si possono effettuare trasformazioni che comportino contemporaneamente una trasla-
zione ed una rotazione degli assi coordinati nel piano. Se operiamo infatti una traslazione X =
X ′ + X0 ed una successiva rotazione X ′′ = RX ′ , otteniamo una rototraslazione descritta dalle leggi di
trasformazione
X ′′ = R(X − X0 ), X = RT X ′′ + X0 .
16.3. RETTA 199

• Esempio
Siano (O, x, y) e (O′ , x′ , y ′ ) due sistemi di riferimento ortogonali nel piano, con gli assi x′ , y ′
ruotati di un angolo α = π/6 rispetto agli assi x, y e siano (−1, 3) e (5, −2), rispettivamente, le
coordinate di O′ e di un punto P rispetto al riferimento (O, x, y). Determiniamo le coordinate
di P nel riferimento (O′ , x′ , y ′ ). In questo caso si ha
( ) (√ )
−1 2
3 1
√2
X0 = , R= ,
3 − 12 23

da cui si ottiene ( ′ ) ( √3 )( ) ( √ )
x 2
1
√2
5+1 3 3 −√52
= = .
y′ −1 3 −2 − 3 −3 − 25 3
2 2

16.3 Retta
Sia dato nel piano, un riferimento cartesiano ortogonale con origine in O. Presi un punto P0 = (x0 , y0 )
e un vettore v di componenti vx , vy vogliamo determinare l’equazione della retta r passante per P0 e
parallela a v.
Indicato con P il generico punto di tale retta si ha

P0 P = (P0 , tv).

con t ∈ R, da cui {
x = x0 + tvx
t ∈ R,
y = y0 + tvy ,
dette equazioni parametriche della retta per P0 e parallela a v.
200 CAPITOLO 16. GEOMETRIA DEL PIANO

La retta passante per due punti P1 = (x1 , y1 ) e P2 = (x2 , y2 ) si può determinare in modo analogo,
se si osserva che il vettore w = (x2 − x1 , y2 − y1 ) risulta parallelo alla retta. Si può scrivere allora

P1 P = (P1 , tw), ovvero
{
x − x1 = t(x2 − x1 )
y − y1 = t(y2 − y1 ),

dette equazioni parametriche della retta per due punti. Eliminando il parametro t da queste ultime,
nell’ipotesi che x2 ̸= x1 e y2 ̸= y1 si ha

x − x1 y − y1
=
x2 − x1 y2 − y1

detta equazione in forma normale della retta per due punti. Nel caso in cui x2 = x1 e y2 ̸= y1 ,
l’equazione della retta sarà x − x1 = 0, mentre se x2 =
̸ x1 e y2 = y1 , si avrà y − y1 = 0.
Dall’equazione normale, si ha poi

(x − x1 )(y2 − y1 ) − (y − y1 )(x2 − x1 ) = 0,

da cui,
ax + by + c = 0,

dove
a = y2 − y1 , b = x1 − x2 , c = y1 x2 − y2 x1 ,

detta equazione cartesiana della retta. Osserviamo che il vettore u = (a, b) risulta ortogonale al vettore
w = (x2 − x1 , y2 − y1 ), infatti

u · w = (y2 − y1 )(x2 − x1 ) + (x1 − x2 )(y2 − y1 ) = 0.

Ne segue che ogni retta di equazione ax + by + c = 0 risulta perpendicolare al vettore u = (a, b).
16.3. RETTA 201

• Esempi
1) Determinare l’equazione della retta r passante per P0 = (1, 3) e perpendicolare al vettore
v = (2, 5). L’equazione della generica retta perpendicolare a v sarà

2x + 5y + c = 0.

Imponendo il passaggio per P0 si ottiene

2 + 15 + c = 0, ⇒ c = −17.

2) Determinare l’equazione della retta passante per P0 = (2, −1) e perpendicolare alla retta r
di equazione 2x − 3y − 1 = 0. Poiché il vettore u = (2, −3) è ortogonale alla retta r, esso sarà
parallelo alla retta richiesta. Si ha allora
{
x = 2 + 2t
y = −1 − 3t

da cui, in forma cartesiana,


3x + 2y − 4 = 0.

Le condizioni di parallelismo e di perpendicolarità tra due rette di equazioni

ax + by + c = 0, a′ x + b′ y + c′ = 0,

sono, rispettivamente,
(a, b) = k(a′ , b′ ), k∈R
′ ′
aa + bb = 0.

• Esempio
L’esempio precedente può essere risolto utilizzando esplicitamente la condizione di perpendico-
larità. Detta ax + by + c = 0 l’equazione della retta cercata, si avrà

2a − 3b = 0,

da cui b = (2/3)a. Si ottiene cosı̀ l’equazione


2
ax + ay + c = 0.
3
Imponendo il passaggio per P0 = (2, −1) si ha
2 4
2a − a + c = 0 ⇒ c = − a,
3 3
e, infine
2 4
ax + ay − a = 0 ⇒ 3x + 2y − 4 = 0.
3 3
202 CAPITOLO 16. GEOMETRIA DEL PIANO

Consideriamo ora due rette r ed r′ aventi equazioni parametriche

{ {
x = x0 + tvx x = x′0 + tvx′
(r) (r′ )
y = y0 + tvy y = y0′ + tvy′ .

Vogliamo determinare l’angolo θ tra r ed r′ . Poiché le due rette sono rispettivamente parallele ai
vettori v e v′ , dalla proprietà del prodotto scalare tra due vettori si ha

v · v′ = ∥v∥ ∥v′ ∥ cos θ,

da cui
v · v′
cos θ = .
∥v∥ ∥v′ ∥

L’angolo trovato sarà quello acuto tra r ed r′ se cos θ > 0, sarà invece quello ottuso tra r ed r′ se
cos θ < 0. Analogamente se le due rette sono date in forma cartesiana,

ax + by + c = 0 a′ x + b′ y + c′ = 0,

osservando che l’angolo tra le due rette è uguale all’angolo tra i vettori ad esse ortogonali, u = (a, b)
e u′ = (a′ , b′ ), si ha
u · u′
cos θ = .
∥u∥ ∥u′ ∥

• Esempio
Trovare le equazioni delle rette che passano per il punto P0 = (3, 2) e che formano un angolo
θ = π/6 con la retta r di equazione

2x − 2y + 1 = 0.
16.3. RETTA 203

Scriviamo l’equazione della retta cercata nella forma

ax + by + c = 0,

e imponiamo il passaggio per P0 . Si ha

c = −3a − 2b.

La condizione sull’angolo che le rette devono formare con r si scrive



2a − 2b 3
√ √ = ,
2
2 2 a +b 2 2

e da questa, quadrando, otteniamo


3 1 2
a2 + b2 − 2ab = (a2 + b2 ) ⇒ (a + b2 ) + 2ab = 0.
2 2

Posto b = 1 l’equazione precedente fornisce a = −2 ± 3. Allora le due rette cercate avranno
equazioni, √ √
(−2 + 3)x + y + 4 − 3 3 = 0,
√ √
(−2 − 3)x + y + 4 + 3 3 = 0.

Supponiamo ora b ̸= 0 e dividiamo ambo i membri della equazione cartesiana della retta per b.
Otteniamo
y = mx + q,
dove
a c
m=− , q=− .
b b
L’equazione ottenuta si dice equazione cartesiana della retta in forma esplicita. Il parametro m è detto
coefficiente angolare della retta in quanto individua l’angolo θ che la retta forma con l’asse delle x. Si
può osservare infatti che il vettore u′ = (a, b) risulta ortogonale alla retta e si ha

u′ · e1 a
tan θ = − ′
= − = m.
u · e2 b

Le condizioni di parallelismo e di perpendicolarità tra le due rette di equazioni

y = mx + q y = m′ x + q ′ ,
sono, rispettivamente
m = m′ , 1 + mm′ = 0.

• Esempi
1) Determinare la retta parallela alla retta r di equazione y = 2x − 1 passante per P0 = (1, 1).
Si ha m = 2, quindi la retta cercata ha la forma

y = 2x + q.
204 CAPITOLO 16. GEOMETRIA DEL PIANO

Imponendo il passaggio per P0 si ottiene q = −1.

2) Tra le rette passanti per P0 = (5, 2) determinare quella parallela alla bisettrice del 1o e 3o
quadrante.
Poiché detta bisettrice forma un angolo θ = π/4 con l’asse delle x, si ha tan θ = 1, quindi la
retta cercata ha la forma
y = x + q.
Il parametro q si determina imponendo il passaggio per P0 . Si ottiene q = 3.

L’angolo α tra due rette aventi equazioni esplicite

y = m 1 x + q1 , y = m 2 x + q2 ,

coincide con l’angolo formato dai due vettori u1 = (a1 , b1 ) = b1 (−m1 , 1) = b1 u′1 e u2 = (a2 , b2 ) =
b2 (−m2 , 1) = b2 u′2 . Si ha cosı̀
u′1 · u′2 1 + m1 m2
cos α = =√ √ .
∥u′1 ∥ ∥u′2 ∥ 1 + m21 1 + m22

Determiniamo infine una formula per il calcolo della distanza di un punto da una retta nel piano e
una formula per la distanza tra due rette parallele. Sia

ax + by + c = 0,

l’equazione cartesiana di una retta e P0 = (x0 , y0 ) un punto fissato del piano. In modo perfettamente
analogo a quanto visto nello spazio per il calcolo della distanza di un punto da un piano, chiamiamo
P = (x, y) un generico punto della retta e u = (a, b) il vettore ad essa perpendicolare. Posto

P0 P = (P0 , w) con w = (x − x0 , y − y0 ),
16.4. ELLISSE, IPERBOLE, PARABOLA: EQUAZIONI POLARI E CANONICHE 205

si ha
|w · u| |a(x − x0 ) + b(y − y0 )|
δ= = √ .
∥u∥ a2 + b2
Tenuto conto del fatto che il punto P appartiene alla retta, si ha ax + by = −c, da cui segue la formula

|ax0 + by0 + c|
δ= √ .
a2 + b2

Siano
ax + by + c = 0, ax + by + c′ = 0,
le equazioni di due rette parallele. Poiché la distanza tra le due rette può essere pensata come la
distanza di un qualunque punto della seconda rispetto alla prima, consideriamo un punto P0 = (x0 , y0 )
appartenente alla seconda retta. Si avrà

ax0 + by0 = −c′ .

Sostituendo nella formula precedente avremo

|c − c′ |
δ=√ .
a2 + b2

16.4 Ellisse, iperbole, parabola: equazioni polari e canoniche


Fissiamo una retta t sul piano e su di essa un punto F . Consideriamo poi una seconda retta d
ortogonale alla prima che abbia distanza q da F . Vogliamo determinare i punti P del piano che hanno
distanza r da F e distanza s da d in modo tale che, fissato ϵ ∈ R++ si abbia
r
= ϵ.
s
206 CAPITOLO 16. GEOMETRIA DEL PIANO

A tale scopo introduciamo un riferimento polare con asse polare coincidente con t e origine nel punto
F . Indicati, come sempre, con ρ e θ il raggio polare e l’angolo polare del generico punto P , si ha r = ρ
ed s = q + ρ cos θ. I punti cercati soddisfano quindi la condizione

ρ = ϵ(q + ρ cos θ).

Posto qϵ = p, questa equazione si può anche scrivere nella forma


p
ρ= ,
1 − ϵ cos θ
che rappresenta una curva piana C caratterizzata dai due parametri p ed ϵ. Le rette t e d vengono
dette rispettivamente asse focale e direttrice di C, mentre il punto F si dice fuoco di C. I parametri p
ed ϵ si dicono rispettivamente parametro focale ed eccentricità di C.
Studiamo la curva C al variare del parametro ϵ ∈ R++ , considerando p fissato.
Caso 1: 0 < ϵ < 1.
In questo caso la funzione ρ(θ) = p/(1 − ϵ cos θ) risulta sempre definita in [0, 2π], ed è tale che
ρ(0) = ρ(2π). La curva C risulta dunque chiusa e occupa una regione finita del piano, in quanto
p p
≤ρ≤ .
1+ϵ 1−ϵ
Tale curva si chiama ellisse. Allo scopo di determinare una equazione cartesiana dell’ellisse, introdu-
ciamo un sistema di riferimento cartesiano con asse x coincidente con l’asse polare e con origine in F .
Usando le formule di trasformazione da coordinate polari a coordinate cartesiane, otteniamo
( )
√ x
p = x2 + y 2 1 − ϵ √ ,
x2 + y 2

da cui, quadrando,
x2 (1 − ϵ2 ) + y 2 = 2pϵx + p2 .
Osserviamo che la curva C interseca l’asse x in due punti V1 e V2 detti vertici, di ascisse
p p
x1 = − , x2 = .
1+ϵ 1−ϵ
Operiamo allora una traslazione di assi in modo tale che la nuova origine O coincida col punto medio
tra V1 e V2 . Si ha
x1 + x2 pϵ
x=X+ =X+
2 1 − ϵ2
y = Y.
Sostituendo nell’equazione precedente otteniamo

X2 Y 2
+ 2 = 1,
a2 b
dove
p p
a= , b= √ .
1 − ϵ2 1 − ϵ2
L’equazione cosı̀ ottenuta si dice equazione canonica dell’ellisse. La curva risulta simmetrica rispetto
agli assi X e Y e, quindi, simmetrica rispetto all’origine O. In forza di questa simmetria possiamo
16.4. ELLISSE, IPERBOLE, PARABOLA: EQUAZIONI POLARI E CANONICHE 207

dire che la curva ammette un secondo fuoco F ′ situato sull’asse in posizione simmetrica ad F rispetto
all’origine O. Cosippure esisterà una seconda direttrice d′ anch’essa simmetrica di d rispetto ad O.
Riscrivendo ϵ e p in termini di a e b, si ottiene

b2 b2
ϵ = 1 − 2, p= ,
a a
da cui seguono le coordinate di F , F ′ e le equazioni di d e d′ ,
√ √
F = (− a2 − b2 , 0), F ′ = ( a2 − b2 , 0),
a2 a2
(d) : X = − √ , (d′ ) : X = √ .
a2 − b2 a2 − b 2
I parametri a e b vengono anche detti semiassi dell’ellisse.
Caso 2: ϵ = 1.
In questo caso la funzione ρ(θ) non è definita per θ = 0. La curva C, detta parabola, risulterà occupare
una regione non finita del piano e non sarà chiusa. Essa interseca l’asse polare nel punto medio V tra
il fuoco F e l’intersezione della direttrice con l’asse polare. Tale punto si chiama vertice della parabola.
Per ricavare l’equazione cartesiana della parabola scegliamo preliminarmente il riferimento cartesiano
con origine in F . Avremo
y 2 = 2px + p2 .
Operiamo una traslazione di assi portando la nuova origine nel vertice V , ovvero
p
x=X−
2
y = Y.
Sostituendo si ha
Y 2 = 2pX,
detta equazione canonica della parabola. In questo riferimento si ha V = (0, 0) e
(p ) p
F = ,0 , (d) : X = − .
2 2
Caso 3: ϵ > 1.
In questo caso la funzione ρ(θ) è definita per cos θ < 1/ϵ. La curva C si dice ramo di iperbole ed
è ancora una curva aperta che occupa una regione di piano non limitata. L’intersezione di C con
l’asse polare, detta ancora vertice, ha distanza p/(1 + ϵ) dal fuoco, analogamente al caso dell’ellisse.
L’equazione cartesiana, in un riferimento con origine in F è data da
( )
√ x
p = x2 + y 2 1 − ϵ √ .
x2 + y 2
Quadrando si ottiene
p
x2 (1 − ϵ2 ) + y 2 = 2pϵx + p2 , per x≥− .
1+ϵ
Analogamente a quanto fatto per l’ellisse operiamo la traslazione

x=X+
1 − ϵ2
y = Y,
208 CAPITOLO 16. GEOMETRIA DEL PIANO

e otteniamo
X2 Y 2
− 2 = 1, per X > a,
a2 b
dove
p p
a= b= √
, .
ϵ2 −1 ϵ −1
2

Notiamo che, se ignoriamo la restrizione X > a, la curva cosı̀ ottenuta consiste in due rami simmetrici
rispetto all’asse Y . Essa possiede quindi due fuochi F ed F ′ e due direttrici d e d′ e risulta simmetrica
anche rispetto all’asse X che viene detto asse trasverso. Essa sarà quindi simmetrica rispetto all’origine
O del nuovo riferimento. L’equazione precedente, per |X| > a, si dice equazione canonica dell’iperbole.
Ricavando p ed ϵ in funzione di a e di b si ottiene

b2 b2
ϵ = 1 + 2, p= ,
a a
e, infine √ √
F =( a2 + b2 , 0), F ′ = (− a2 + b2 , 0),
a2 a2
(d) : X = √ , (d′ ) : X = − √ .
a2 + b2 a2 + b2

Dall’equazione canonica dell’iperbole si ricava


b√ 2
Y =± X − a2 .
a
Calcolando il limite per X → ∞ del rapporto Y /X troviamo allora che ciascun ramo dell’iperbole
ammette due asintoti obliqui di equazioni
b b
Y = X, Y = − X.
a a

L’equazione polare generale della curva C si presta anche a descrivere la circonferenza. Se infatti
consideriamo ϵ = 0, dall’equazione ρ = p/(1 − ϵ cos θ), otteniamo l’equazione polare ρ = p che
rappresenta la circonferenza di raggio p e centro nell’origine del riferimento. E’ necessario tuttavia
osservare che in questo caso, la costruzione del luogo geometrico a partire dal fuoco e dalla direttrice
non è applicabile.
Le curve C ottenute dall’equazione polare ρ = p/(1 − ϵ cos θ) si dicono anche coniche.

• Esempi
1) Determinare √ l’equazione canonica dell’ellisse avente asse focale coincidente con l’asse y, ec-
centricità ϵ = 2/2 e passante per P = (2, −1).
In questo caso i fuochi si trovano sull’asse y e l’espressione dell’eccentricità è

a2
ϵ= 1− 2
b

Assumendo ϵ = 2/2 e imponendo il passaggio per P nell’equazione

x2 y 2
+ 2 = 1,
a2 b
16.4. ELLISSE, IPERBOLE, PARABOLA: EQUAZIONI POLARI E CANONICHE 209

si ottiene √
3 2
a= , b = 3.
2

2) Determinare l’equazione della parabola di vertice V = (2, 1) e direttrice y = 2.


Si tratta di una parabola con asse focale parallelo all’asse delle y ma orientato in verso opposto.
Nel riferimento che ha per origine il vertice V , l’equazione sarà
p
X 2 = −2pY, con direttrice di equazione Y = .
2
Operiamo allora la traslazione

x = X + 2, y = Y + 1.

Dopo la sostituzione, l’equazione della parabola e quella della sua direttrice assumono la forma
p
−2py = x2 − 4x + 4 − 2p, y =1+ .
2
A questo punto, sapendo che l’equazione della direttrice è y = 2, si ricava p = 2, da cui il
risultato
1
y = − x2 + x.
4

3) Determinare l’equazione canonica dell’iperbole avente asse focale coincidente con l’asse x,
asintoti y = ±2x e un vertice in V = (3, 0).
L’equazione cercata ha la forma
x2 y 2
− 2 = 1.
a2 b
La condizione sugli asintoti fornisce
b
= 2,
a
mentre, essendo i vertici di coordinate (±a, 0), si ha

a = 3,

da cui b = 6.
210 CAPITOLO 16. GEOMETRIA DEL PIANO
Capitolo 17

Applicazioni lineari

17.1 Definizione, esempi e proprietà


Consideriamo due spazi vettoriali V e W e stabiliamo una legge L : V → W che ad ogni elemento
v ∈ V faccia corrispondere un elemento w = L(v) ∈ W . Tale legge si dice una applicazione lineare
dallo spazio V allo spazio W se, per ogni scelta di due elementi u, v in V e di uno scalare c (numero
reale o complesso), si ha
L(u + v) = L(u) + L(v),
L(cu) = cL(u).

Facciamo subito alcuni esempi.

1) Sia I : V → V una applicazione dallo spazio V in se stesso, definita da

I(u) = u, ∀u ∈ V.

Questa applicazione si dice identità ed è ovviamente lineare in quanto, per ogni u, v ∈ V e per ogni c,
si ha
I(u + v) = u + v = I(u) + I(v),
I(cu) = cu = cI(u).

2) Sia A ∈ Mat(m × n) una matrice di ordine m × n. Definiamo l’applicazione LA : Rn → Rm , nel


modo seguente
LA (X) = AX, per ogni vettore colonna X ∈ Rn .

La linearità di LA segue dalle proprietà delle matrici. Infatti, dati due vettori colonna X, Y di Rn ed
un numero c, si ha
A(X + Y ) = AX + AY, A(cX) = cAX.

3) Sia V l’insieme di tutte le funzioni di variabile reale x definite in [a, b], aventi derivate di qualsiasi
ordine. L’applicazione D : V → V , definita da

d
D(f ) = f, ∀f ∈ V,
dx

211
212 CAPITOLO 17. APPLICAZIONI LINEARI

è un’applicazione lineare in quanto, per le proprietà delle derivate di funzioni,


d d d
D(f + g) = (f + g) = f+ g = D(f ) + D(g),
dx dx dx
d d
D(cf ) = (cf ) = c f = cD(f ),
dx dx
per ogni f, g ∈ V e ogni scalare c.

4) Sia V un generico spazio vettoriale e sia u un elemento fissato di V . Consideriamo l’applicazione


Tu : V → V definita da
Tu (v) = u + v, ∀v ∈ V.
Questa applicazione si chiama traslazione (mediante il vettore u) in V . Essa non risulta lineare.
Infatti,
Tu (v + w) = u + v + w, Tu (cv) = u + cv,
mentre
Tu (v) + Tu (w) = 2u + v + w, cTu (v) = cu + cv.

5) Sia P : R3 → R2 l’applicazione che ad ogni terna di numeri reali (x, y, z) ∈ R3 fa corrispondere


la coppia (x, y) ∈ R2 , ovvero

P [(x, y, z)] = (x, y), ∀(x, y, z) ∈ R3 .

Tale applicazione si chiama proiezione di R3 in R2 e risulta lineare in quanto

P [(x1 , y1 , z1 ) + (x2 , y2 , z2 )] = P [(x1 + x2 , y1 + y2 , z1 + z2 )]


= (x1 + x2 , y1 + y2 ) = (x1 , y1 ) + (x2 , y2 ) = P [(x1 , y1 , z1 )] + P [(x2 , y2 , z2 )],
P [c(x1 , y1 , z1 )] = P [(cx1 , cy1 , cz1 )] = (cx1 , cy1 ) = c(x1 , y1 ) = cP [(x1 , y1 , z1 )],

per ogni scelta di (x1 , y1 , z1 ), (x2 , y2 , z2 ) in R3 ed ogni scalare c.

Consideriamo due applicazioni lineari L : V → W e H : V → W , e definiamo l’applicazione somma


(L + H) : V → W in modo tale che

(L + H)(u) = L(u) + H(u), ∀u ∈ V.

Questa nuova applicazione risulta lineare, infatti si ha

(L + H)(u + v) =L(u + v) + H(u + v) = L(u) + L(v) + H(u) + H(v) =


L(u) + H(u) + L(v) + H(v) = (L + H)(u) + (L + H)(v),

per ogni coppia u, v ∈ V . Inoltre, per ogni scalare c e ogni vettore u ∈ V ,

(L + H)(cu) = L(cu) + H(cu) = cL(u) + cH(v) = c[L(u) + H(u)] = c(L + H)(u).

Date le due applicazioni lineari L : V → W e H : W → U , definiamo composizione (o prodotto) di L


con H, l’applicazione H ◦ L : V → U , tale che

(H ◦ L)(u) = H[(L(u)], ∀u ∈ V.
17.2. IMMAGINE E NUCLEO DI UNA APPLICAZIONE LINEARE 213

Questa applicazione risulta lineare, infatti


(H ◦ L)(u + v) = H[L(u + v)] = H[L(u) + L(v)] = H[L(u)] + H[L(v)] = (H ◦ L)(u) + (H ◦ L)(v),
∀u, v ∈ V , e inoltre,
(H ◦ L)(cu) = H[L(cu)] = H[cL(u)] = cH[L(u)] = c(H ◦ L)(u),
∀u ∈ V e per ogni scalare c.
Si dimostra facilmente che l’operazione di composizione tra applicazioni lineari gode della proprietà
associativa e della proprietà distributiva rispetto alla somma definita precedentemente. In altri termini,
considerate le tre applicazioni lineari L : V → W, H : W → U, G : U → Z, si ha
G ◦ (H ◦ L) = (G ◦ H) ◦ L,
mentre, date le applicazioni lineari M : V → W, N : V → W, H : W → U , si verifica che
H ◦ (M + N ) = H ◦ M + H ◦ N.

Diamo infine la definizione di applicazione inversa. Si dice che l’applicazione lineare L : V → W


ammette inversa F : W → V se,
F ◦ L = IV , L ◦ F = IW ,
dove IV e IW sono, rispettivamente, le applicazioni identità in V e in W . Si può provare che, se esiste,
l’inversa di una applicazione lineare è una applicazione lineare.

17.2 Immagine e nucleo di una applicazione lineare


Si dice immagine di un’applicazione lineare L : V → W , l’insieme degli elementi w ∈ W per ciascuno
dei quali esiste un elemento v ∈ V tale che L(v) = w. Si dice nucleo dell’applicazione L : V → W
l’insieme degli elementi v ∈ V tali che L(v) = 0, dove 0 è l’elemento nullo di W . Indicheremo con il
simbolo ImL l’immagine di L, e con il simbolo KerL il nucleo di L.

Teorema 17.1 L’immagine e il nucleo di una applicazione lineare L : V → W sono sottospazi vetto-
riali rispettivamente di W e di V .
Dim. Osserviamo preliminarmente che L(0) = 0, in quanto, per la linearità di L, si può scrivere
L(0) = L(u + (−u)) = L(u) + L(−u) = L(u) − L(u) = 0.
Ne segue che l’immagine di L contiene il vettore nullo di W . Prendiamo ora due vettori w1 e w2 di
ImL. Per definizione, esisteranno due vettori v1 , v2 ∈ V , tali che L(v1 ) = w1 , L(v2 ) = w2 . Per la
linearità di L, avremo
L(v1 + v2 ) = L(v1 ) + L(v2 ) = w1 + w2 , L(cv1 ) = cL(v1 ) = cw1 .
Ciò significa che w1 +w2 appartiene ad ImL e che cw1 appartiene ad ImL. Possiamo allora concludere
che ImL è un sottospazio di W . Osserviamo ora che poiché L(0) = 0, il vettore nullo di V appartiene
al nucleo di L. Inoltre, in modo perfettamente analogo a quanto visto per ImL, presi due elementi
v1 , v2 ∈ KerL, si ha
L(v1 + v2 ) = L(v1 ) + L(v2 ) = 0 + 0 = 0, L(cv1 ) = cL(v1 ) = c0 = 0,
quindi anche v1 + v2 e cv1 appartengono a KerL. Concludiamo allora che KerL è un sottospazio di
V.
214 CAPITOLO 17. APPLICAZIONI LINEARI

• Esempi
1) Per definizione, l’applicazione lineare LA : Rn → Rm dell’esempio 2) del paragrafo precedente,
ha come nucleo l’insieme dei vettori colonna X di Rn tali che LA (X) = 0, ovvero

AX = 0 ⇔ X ∈ KerLA .

In altri termini, il nucleo di LA non è altro che l’insieme di tutte le soluzioni del sistema lineare
omogeneo AX = 0 di m equazioni in n incognite. Come già sappiamo dalla teoria dei sistemi
lineari, tale insieme è un sottospazio di Rn .

2) La proiezione da R3 in R2 , (vedi esempio 5) del paragrafo precedente) ha come nucleo tutti i


vettori di R3 della forma (0, 0, z) i quali costituiscono il sottospazio R1 di R3 .

3) Tenuto conto del fatto che l’elemento nullo dell’insieme V delle funzioni di variabile reale
è la funzione identicamente nulla, l’applicazione di derivazione su V (esempio 3) del paragrafo
precedente) ha come nucleo l’insieme delle funzioni costanti. È immediato verificare che tali
funzioni costituiscono un sottospazio di V .

Teorema 17.2 Dati due spazi vettoriali V e W e l’applicazione lineare L : V → W , la somma delle
dimensioni del nucleo e dell’immagine di L è uguale alla dimensione di V , cioè

dim(KerL) + dim(ImL) = dimV.

Dim. Sia {w1 , w2 , ..., ws } una base di ImL e siano v1 , v2 , ..., vs , gli elementi di V tali che L(vi ) = wi ,
(i = 1, ..., s). Presa una base {u1 , u2 , ..., up } di KerL vogliamo dimostrare che l’insieme dei vettori

{v1 , v2 , ..., vs , u1 , u2 , ..., up }

costituisce una base di V . Sappiamo che ciò equivale a dimostrare che dimV = s + p, cioè la tesi.
Verifichiamo innanzitutto che i vettori v1 , ..., vs , u1 , ..., up generano V . Preso un generico vettore
v ∈ V , si può scrivere
L(v) = x1 w1 + x2 w2 + ... + xs ws ,
in quanto L(v) ∈ ImL. Per la definizione dei vettori vi , (i = 1, ..., s) e per la linearità di L si ha

L(v) = x1 L(v1 ) + x2 L(v2 ) + ... + xs L(vs ) = L(x1 v1 + x2 v2 + ... + xs vs ).

Sempre per la linearità di L quest’ultima relazione si può scrivere come

L(v − x1 v1 − ... − xs vs ) = 0.

Ne segue che il vettore v − x1 v1 − ... − xs vs ∈ KerL e quindi si può esprimere come combinazione
lineare dei vettori uj , (j = 1, ..., p). In altri termini si ha

v = x1 v1 + x2 v2 + ... + xs vs + y1 u1 + y2 u2 + ... + yp up .

Rimane ora da dimostrare che i vettori v1 , ..., vs , u1 , ..., up risultano linearmente indipendenti. A tale
scopo poniamo
x1 v1 + x2 v2 + ... + xs vs + y1 u1 + y2 u2 + ... + yp up = 0.
17.3. OPERATORI LINEARI IN VN 215

Applicando ad ambo i membri di questa uguaglianza l’applicazione lineare L, per la definizione dei
vettori u1 , ..., up , avremo

x1 L(v1 ) + ... + xs L(vs ) = 0 da cui x1 w1 + ... + xs ws = 0.

Per l’indipendenza lineare dei vettori wi , segue necessariamente x1 = x2 = ... = xs = 0. La posizione


di partenza si riduce allora a
y1 u1 + y2 u2 + ... + yp up = 0.
Ma per l’indipendenza lineare dei vettori uj anche i coefficienti yj saranno tutti nulli. Ne segue che

x1 v1 + x2 v2 + ... + xs vs + y1 u1 + y2 u2 + ... + yp up = 0

se e solo se x1 = ... = xs = y1 = ... = yp = 0, come volevamo dimostrare.

• Esempio
Riprendiamo l’esempio dell’applicazione lineare LA : Rn → Rm e verifichiamo il risultato del teo-
rema appena dimostrato. Dalla definizione di LA abbiamo AX = 0 per ogni X ∈ KerLA . Posto
r = rank(A), il sistema omogeneo AX = 0, ammette n − r soluzioni linearmente indipendenti.
Questo significa che dim(KerLA ) = n − r. D’altra parte ImLA ha come dimensione proprio r.
Infatti, dato un generico vettore X ∈ Rn , si può scrivere
     
1 0 0
0 1 0
     
X = c1  .  + c2  .  + ... + cn  .  ,
 ..   ..   .. 
0 0 1
da cui      
a11 a12 a1n
 a21   a22   a2n 
     
AX = c1  .  + c2  .  + ... + cn  .  .
 . 
.  . 
.  . 
.
am1 am2 amn
Poiché AX risulta dato da una combinazione lineare dei vettori colonna di A, e di questi, solo
r sono linearmente indipendenti, al variare di X in Rn , AX genera uno spazio di dimensione r.
Ne segue
dim(KerLA ) = n − dim(ImLA ),
in accordo con il teorema precedente.

17.3 Operatori lineari in Vn


Consideriamo una applicazione lineare L : Vn → Vn , da uno spazio vettoriale n-dimensionale Vn in se
stesso. Chiameremo operatore lineare in Vn una tale applicazione. Sia {e1 , e2 , ..., en } una base di Vn
ed esprimiamo il generico vettore x ∈ Vn tramite le sue componenti xj , (j = 1, ..., n) in questa base.
Si ha
∑n
x= xj ej .
j=1
216 CAPITOLO 17. APPLICAZIONI LINEARI

Applicando l’operatore L : Vn → Vn ad ambo i membri di questa uguaglianza, grazie alla linearità di


L, otteniamo  
∑n ∑
n ∑
n
L(x) = L  xj ej  = L(xj ej ) = xj L(ej ).
j=1 j=1 j=1

D’altra parte, i vettori L(ej ) appartengono a Vn e possono essere espressi come combinazioni lineari
dei vettori di base, ovvero,

n
L(ej ) = aij ei .
i=1

Ne segue che  

n ∑
n ∑
n ∑
n
L(x) = xj aij ei =  aij xj  ei .
j=1 i=1 i=1 j=1

Ciò significa che, posto L(x) = y, le componenti di y rispetto alla base data, saranno


n
yi = aij xj .
j=1

In altri termini, il vettore colonna Y delle componenti di y è dato dal prodotto della matrice A, di
elementi {aij }, per il vettore colonna X delle componenti di x, ovvero

Y = AX.

Ne segue che ad ogni operatore lineare in Vn è possibile associare una matrice n × n, A, i cui elementi
dipendono dalla scelta della base in Vn . In forza di questo risultato useremo la seguente notazione

L(x) = Ax,

e scriveremo
y = Ax,
dove l’operatore lineare è rappresentato dallo stesso simbolo della matrice associata A, ma in grassetto.
In questa notazione la composizione C = A ◦ B di due operatori lineari A e B in Vn , implica, per ogni
x,
(AB)x = A(Bx).
Diremo che A è l’operatore nullo in Vn , se

Ax = 0, ∀ x ∈ Vn .

Osserviamo che, fissata una qualunque base, all’operatore nullo è sempre associata la matrice nulla.
Infatti, scelta la base, la definizione precedente implica

AX = 0, ∀ X ∈ Rn .

Per l’arbitrarietà di X, si può scrivere

AX1 = 0, AX2 = 0, ... AXn = 0,


17.3. OPERATORI LINEARI IN VN 217

dove i vettori colonna Xi sono stati scelti nel seguente modo,

X1 = (1, 0, 0, ..., 0)T , X2 = (0, 1, 0, ..., 0)T , ... Xn = (0, 0, 0, ...1)T .

Sviluppando i prodotti righe per colonne si ottiene

(a11 , a21 , ..., an1 )T = 0, (a12 , a22 , ..., an2 )T = 0, ... (a1n , a2n , ..., ann )T = 0,

e quindi la matrice A ha elementi tutti nulli.


L’operatore identità I, in Vn è definito dalla relazione

Ix = x, ∀ x ∈ Vn .

A quest’ultimo operatore è associata la matrice identità I = diag(1, 1, ..., 1), indipendentemente dalla
scelta della base. Infatti, detta C la matrice associata ad I in una data base si ha

CX = X, ∀ X ∈ Rn ,

da cui (C − I)X = 0, ∀ X ∈ Rn . Per quanto osservato sull’operatore nullo, ne segue che C = I.


Indicheremo con A−1 , se esiste, l’operatore inverso di A, ovvero l’operatore tale che

AA−1 = A−1 A = I.

Se A è la matrice associata ad A in una data base, all’operatore A−1 sarà associata la matrice inversa
A−1 , infatti, detta B la matrice associata ad A−1 in quella base, si ha

x = A−1 Ax = AA−1 x, ∀ x ∈ Vn , ⇐⇒ X = BAX = ABX, ∀ X ∈ Rn ,

da cui BA = AB = I e quindi B = A−1 .


Infine, se in una data base, all’operatore A è associata la matrice A, denoteremo con AT l’operatore
a cui è associata, nella stessa base, la matrice AT .

• Esempio
Sia L : V4 → V4 un operatore lineare che, rispetto alla base {e1 , e2 , e3 , e4 } è definito da

L(e1 ) = e1 − 2e4
L(e2 ) = e1 + e2 − 5e3
L(e3 ) = e2 + e3
L(e4 ) = 2e3 − 3e4
∑4
Vogliamo determinare la matrice associata a L rispetto alla base data. Posto L(ei ) = j=1 aji ej ,
le relazioni che definiscono L implicano
 
1 1 0 0
0 1 1 0
A=  0 −5 1 2  .

−2 0 0 −3

che è la matrice cercata. Considerato ora il vettore x = e1 −e2 −3e3 +2e4 , vogliamo determinare
le componenti del vettore trasformato y = L(x).
218 CAPITOLO 17. APPLICAZIONI LINEARI


Tenuto conto della relazione yi = 4j=1 aij xj , le componenti di y sono date dalle componenti
del vettore colonna       
y1 1 1 0 0 1 0
 y2   0 1 1 0  −1 −4
 =    
y3   0 −5 1 2  −3 =  6  .
y4 −2 0 0 −3 2 −8

Vediamo ora in che modo la matrice A dipende dalla scelta della base. Siano {ej } e {e′i } due basi di
Vn . Ciascun vettore della seconda base sarà esprimibile mediante una combinazione lineare dei vettori
della prima, ovvero esisteranno n × n coefficienti tij , (i, j = 1, ..., n) tali che


n
e′i = tij ej .
j=1

La matrice T di elementi tij ha determinante diverso da zero. Infatti, poiché i vettori e′i sono linear-
mente indipendenti, si ha
∑n
ci e′i = 0 se e solo se ci = 0 ∀i.
i=1

Sostituendo in quest’ultima l’espressione di e′i , otteniamo


( n )

n ∑
n ∑
n ∑
ci tij ej = 0, =⇒ ci tij ej = 0,
i=1 j=1 j=1 i=1

e per l’indipendenza lineare dei vettori ei , ne segue


n
ci tij = 0.
i=1

Quest’ultimo può essere visto come un sistema omogeneo nelle incognite ci con matrice dei coefficienti
T T . Affinché esso abbia la sola soluzione banale, deve essere detT ̸= 0.
Preso ora un generico vettore x ∈ Vn si può scrivere


n
x= xk ek ,
k=1

e, contemporaneamente,
( n )

n ∑
n ∑
n ∑
n ∑
x= x′i e′i = x′i tik ek = tik x′i ek .
i=1 i=1 k=1 k=1 i=1

Sottraendo membro a membro le ultime due relazioni ricaviamo


( )
∑n ∑n

xk − tik xi ek = 0,
k=1 i=1
17.4. PRODOTTO SCALARE 219

da cui, per l’indipendenza lineare dei vettori {ek }, si ottiene la legge con cui variano le componenti di
un vettore al variare della base,
∑n
xk = tik x′i .
i=1
Mediante l’usuale notazione possiamo anche scrivere quest’ultima relazione nella forma

X = T T X ′,

dove T è la matrice che ha per elementi i coefficienti tij . Posto T T = Q, poiché detT ̸= 0, Q è una
matrice invertibile. Moltiplicando a sisnistra l’eguaglianza precedente per Q−1 , si ha

X ′ = Q−1 X.

A questo punto consideriamo le rappresentazioni, nelle due basi, della relazione y = Ax. Si ha, con
ovvio significato dei simboli,
Y = AX, Y ′ = A′ X ′ .
D’altra parte, essendo Y = QY ′ , X = QX ′ , si ha

Y ′ = Q−1 Y = Q−1 AX = Q−1 AQX ′ ,

da cui, confrontando con Y ′ = A′ X ′ si ricava

A′ X ′ = Q−1 AQX ′ ⇒ (A′ − Q−1 AQ)X ′ = 0.

Quest’ultima eguaglianza deve valere per ogni scelta di X ′ e quindi A′ − Q−1 AQ deve essere la matrice
nulla. In altri termini l’arbitrarietà di X ′ nella uguaglianza precedente implica

A′ = Q−1 AQ.

Questa è la relazione che lega gli elementi della matrice associata all’operatore A rispetto alle due
diverse basi. Come vedremo più avanti, la legge di variazione di A al variare della base può essere
sfruttata per ottenere forme particolarmente semplici della matrice associata ad un operatore lineare.
Concludiamo con alcune importanti osservazioni.
La trasformazione della matrice A da una base ad un’altra lascia inalterato il determinante e la traccia
di A. Si ha infatti, per le proprietà sui determinanti e sulla traccia,
1
detA′ = det(Q−1 AQ) = detQ−1 detA detQ = detA detQ = detA,
detQ
trA′ = tr(Q−1 AQ) = tr(AQQ−1 ) = tr(AI) = trA.
Una conseguenza di questo risultato è che se la matrice associata ad un operatore lineare è invertibile,
lo è anche ogni matrice associata in una qualunque altra base. Ne segue che un operatore lineare in
Vn risulta invertibile se lo è la sua matrice associata in una qualunque base.

17.4 Prodotto scalare


In un generico spazio vettoriale V è possibile introdurre il concetto di prodotto scalare tra vettori, in
modo assiomatico, tramite la seguente definizione.
Si dice prodotto scalare in V una legge che ad ogni coppia di vettori u, v ∈ V associa un numero, che
denoteremo con ⟨u, v⟩, e che soddisfa le seguenti proprietà
220 CAPITOLO 17. APPLICAZIONI LINEARI

1) ⟨u, v⟩ = ⟨v, u⟩,

2) Dati u, v, w ∈ V , si ha ⟨u, v + w⟩ = ⟨u, v⟩ + ⟨u, w⟩.

3) Dato un numero c, si ha ⟨cu, v⟩ = c⟨u, v⟩.

4) ⟨u, u⟩ ≥ 0, con ⟨u, u⟩ = 0 se e solo se u = 0.

• Esempi
1) Sia V lo spazio delle funzioni reali di variabile reale, integrabili in [−a, a]. Introduciamo il
prodotto scalare tra due funzioni f e g, nel modo seguente.
∫ a
⟨f, g⟩ = f (x)g(x) dx.
−a

Si verifica facilmente che, in base alle proprietà degli integrali, questo prodotto soddisfa le
proprietà 1) − 4).

2) Dato V = Rn , siano X = (x1 , ..., xn ), Y = (y1 , ..., yn ) due vettori riga. Definiamo, mediante
l’usuale prodotto righe per colonne,

⟨X, Y ⟩ = XY T .

Anche questa definizione soddisfa tutte le proprietà del prodotto scalare. Analogamente in Rn
si possono considerare i vettori colonna X = (x1 , ..., xn )T , Y = (y1 , ..., yn )T e definire

⟨X, Y ⟩ = X T Y.

La definizione data generalizza ad un qualunque spazio vettoriale quella studiata nel caso dei vettori
liberi in un riferimento cartesiano ortogonale nello spazio tridimensionale o bidimensionale. Genera-
lizzeremo quindi i concetti di ortogonalità, di norma, di componente di un vettore rispetto ad un altro
e applicheremo tali concetti al caso di uno spazio vettoriale n-dimensionale.
Due vettori u, v ∈ V , non nulli, si dicono ortogonali se hanno prodotto scalare nullo ovvero se ⟨u, v⟩ =
0.
Si definisce norma di un vettore u, la quantità

∥u∥ = ⟨u, u⟩.

L’uso delle proprietà 1) e 3) ci consente di scrivere


√ √
∥cu∥ = ⟨cu, cu⟩ = c2 ⟨u, u⟩ = |c|∥u∥.

Consideriamo un vettore v ∈ V , non nullo. Un generico vettore u ∈ V , può essere scomposto nella
somma di due vettori, uno proporzionale ed uno ortogonale a v. Infatti, posto

u = cv + w, ⇒ w = u − cv,
17.5. BASI ORTONORMALI IN EN 221

imponendo la condizione ⟨w, v⟩ = 0, si ha

⟨u, v⟩ ⟨u, v⟩
⟨u − cv, v⟩ = 0 ⇒ c= = .
⟨v, v⟩ ∥v∥2

Diremo c la componente di u rispetto a v e chiameremo il vettore cv la proiezione di u lungo v. Vale


la seguente
Disuguaglianza di Schwarz. Per ogni coppia di vettori u, v ∈ V , si ha

|⟨u, v⟩| ≤ ∥u∥∥v∥.

Per dimostrare questa disuguaglianza osserviamo prima di tutto che se fosse v = 0 essa sarebbe
comunque soddisfatta. Infatti

⟨u, 0⟩ = ⟨u, a − a⟩ = ⟨u, a⟩ − ⟨u, a⟩ = 0.

Supponiamo allora v ̸= 0 e scomponiamo il vettore u nella sua componente lungo v e in una parte
ortogonale a v. Si ha

∥u∥2 = ∥(u − cv) + cv∥2 = ∥u − cv∥2 + ∥cv∥2 = ∥u − cv∥2 + |c|2 ∥v∥2 .

Ne segue che
|c|∥v∥ ≤ ∥u∥.
Poiché si ha c = ⟨u, v⟩/∥v∥2 , sostituendo, si ottiene

|⟨u, v⟩| ≤ ∥u∥∥v∥.

Vale anche la seguente disuguaglianza triangolare

∥u + v∥ ≤ ∥u∥ + ∥v∥.

Utilizzando la disuguaglianza di Schwarz infatti,

∥u + v∥2 = ∥u∥2 + ∥v∥2 + 2⟨u, v⟩ ≤ ∥u∥2 + ∥v∥2 + 2|⟨u, v⟩|


≤ ∥u∥2 + ∥v∥2 + 2∥u∥∥v∥ = (∥u∥ + ∥v∥)2 .

17.5 Basi ortonormali in En


D’ora in poi considereremo uno spazio vettoriale avente dimensione finita n, nel quale sia stato in-
trodotto un prodotto scalare soddisfacente le proprietà 1) − 4). Lo chiameremo spazio vettoriale
euclideo n-dimensionale e lo indicheremo con En . Presi due vettori u, v ∈ En , indicheremo il loro
prodotto scalare con l’usuale punto, ovvero

⟨u, v⟩ = u · v.

Consideriamo k vettori non nulli di En u1 , u2 , ..., uk che siano a due a due ortogonali, ovvero, tali che

ui · uj = 0, per i ̸= j (i, j = 1, ..., k).


222 CAPITOLO 17. APPLICAZIONI LINEARI

Dimostriamo che questi vettori sono linearmente indipendenti. Prendiamo infatti una loro combi-
nazione lineare e poniamola uguale a zero,

c1 u1 + c2 u2 + ... + ck uk = 0.

Moltiplichiamo scalarmente ambo i membri per ciascuno dei vettori ui , (i = 1, ..., k). A causa della
condizione di ortogonalità avremo

c1 u1 · u1 = 0, c2 u2 · u2 = 0, ... ck uk · uk = 0.

Poiché i vettori ui sono tutti non nulli, ne segue necessariamente

c1 = c2 = ... = ck = 0

quindi i vettori dati sono linearmente indipendenti.


Viceversa, dati k vettori non nulli linearmente indipendenti è sempre possibile, a partire da questi,
costruire un insieme di k vettori mutuamente ortogonali. Descriviamo uno dei possibili processi di
ortogonalizzazione, detto anche metodo di Gram-Schmidt. Siano vi , (i = 1, .., k), vettori linearmente
indipendenti. Poniamo innanzitutto
u1 = v1 .
Definiamo un secondo vettore
u2 = v2 + c1 u1 ,
e richiediamo che esso sia ortogonale a u1 cioè che u1 · u2 = 0. Otteniamo
u1 · v2
c1 = − ,
∥u1 ∥2
e quindi
u1 · v2
u2 = v2 − u1 .
∥u1 ∥2
In modo analogo possiamo costruire i vettori successivi u3 , ...., uk , imponendo la loro ortogonalità con
quelli precedenti e ottenendo cosı̀ la k-upla di vettori

u1 = v1
u1 · v2
u2 = v2 − u1
∥u1 ∥2
u2 · v3 u1 · v3
u3 = v3 − u2 − u1
∥u2 ∥ 2 ∥u1 ∥2
...
uk−1 · vk u1 · vk
uk = vk − uk−1 − ... − u1 ,
∥uk−1 ∥ 2 ∥u1 ∥2
i quali risultano a due a due ortogonali. Il processo di ortogonalizzazione può essere applicato ad
una base di En . In tal modo abbiamo dimostrato che ogni spazio euclideo n-dimensionale ammette
basi ortogonali. Dividendo un vettore per la sua norma otteniamo un vettore unitario cioè un ver-
sore. Se dividiamo ciascun vettore di una base ortogonale per la propria norma otteniamo una base
ortonormale. Ogni spazio euclideo n-dimensionale ammette allora basi ortonormali. In base alla loro
definizione i vettori {ei } di una base ortonormale soddisfano le relazioni

ei · ej = δij ,
17.5. BASI ORTONORMALI IN EN 223

dove δij è il simbolo di Kronecker.


Rispetto ad una base ortonormale si ha

n
x= xi ei ,
i=1

dove ciascun xi non è altro che la componente di x lungo il vettore di base ei , in quanto

x · ei = (x1 e1 + x2 e2 + ... + xn en ) · ei = xi .

Scelta una base ortonormale in En , il prodotto scalare tra due vettori assume una forma particolar-
mente semplice. Posto infatti,
∑n ∑n
x= xi ei , y= yj ej ,
i=1 j=1

facendo uso delle proprietà del prodotto scalare, si ha


n ∑
n ∑
n ∑
n ∑
n ∑
n
x·y = xi ei · yj ej = xi yj ei · ej = xi yj δij = xi yi .
i=1 j=1 i=1 j=1 i,j=1 i=1

• Esempi
1) La base canonica di Rn ,
e1 = (1, 0, 0..., 0),
e2 = (0, 1, 0..., 0),
...
en = (0, 0, 0, ..., 1),
è evidentemente una base ortonormale.

2) Consideriamo il sistema omogeneo di due equazioni in quattro incognite


{
3x1 − 2x2 + x3 + x4 = 0
x1 + x2 + 2x4 = 0

Sappiamo che le soluzioni di questo sistema formano uno spazio vettoriale che è un sottospazio
di R4 . Poiché il rango della matrice dei coefficienti è 2, lo spazio delle soluzioni ha dimensione
4 − 2 = 2. Determiniamo una base in questo spazio. Per fare ciò poniamo x4 = k, x3 = h.
Abbiamo {
3x1 − 2x2 = −h − k
x1 + x2 = −2k
le cui soluzioni sono {( ) }
h h
− − k, − k, h, k , h, k ∈ R
5 5
scegliendo una volta h = 0, k = 1 e un’altra h = 1, k = 1 si ottengono le due soluzioni indipen-
denti
(−1, −1, 0, 1), (−6, −4, 5, 5),
224 CAPITOLO 17. APPLICAZIONI LINEARI

che costituiscono una base dello spazio delle soluzioni. Costruiamo ora una base ortonormale di
questo stesso spazio. In base al metodo di Gram-Schmidt abbiamo

u1 =(−1, −1, 0, 1),


15
u2 =(−6, −4, 5, 5) − (−1, −1, 0, 1) =
3
(−6, −4, 5, 5) − (−5, −5, 0, 5) = (−1, 1, 5, 0)

Infine normalizzando i due vettori otteniamo


1 1
e1 = √ (−1, −1, 0, 1), e2 = √ (−1, 1, 5, 0)
3 3 3

Consideriamo ora un operatore lineare A in En ed un vettore x ∈ En . Posto y = Ax e scelta una


base ortonormale {ei }, i = 1, 2, ..., n in En , si ha


n ∑
n
yi = ei · y = ei · Ax = ei · A xj ej = (ei · Aej )xj .
j=1 j=1
∑n
Confrontando quest’ultima con la relazione yi = j=1 aij xj del paragrafo precedente, troviamo
l’espressione degli elementi della matrice A associata all’operatore A nella base ortonormale {ei },

aij = ei · Aej .

Osserviamo poi che, dati due vettori x, y di En ed un operatore lineare A, si ha


n ∑
n
y · Ax = yi aij xj = Y T AX,
i=1 j=1

dove X e Y sono i vettori colonna delle componenti di x e y nella base ortonormale {ei }. Poiché si
ha Y T AX = (AT Y )T X, si ottiene la relazione

y · Ax = x · AT y,

che risulterà utile in seguito.

17.6 Operatori ortogonali, operatori simmetrici


Ci chiediamo ora se sia possibile trovare operatori lineari in En tali da lasciare invariata la norma di
un vettore. In altri termini cerchiamo un operatore U tale che, dato un qualunque vettore x ∈ En ,

∥Ux∥ = ∥x∥, o, anche Ux · Ux = x · x.

Tenuto conto del risultato dedotto alla fine del paragrafo precedente, si ha

Ux · Ux = UT Ux · x,
17.6. OPERATORI ORTOGONALI, OPERATORI SIMMETRICI 225

quindi la condizione richiesta si può porre nella forma


(UT Ux − x) · x = 0.
Quest’ultima deve valere per qualunque x in En . Ma allora, deve essere
UT U = I.
Gli operatori che soddisfano questa condizione vengono detti ortogonali. Si dimostra facilmente che
un operatore ortogonale lascia invariato il prodotto scalare tra due vettori. A tale scopo consideriamo
due qualsiasi vettori x, y ∈ En . Dall’invarianza della norma del vettore x + y si ottiene
U(x + y) · U(x + y) = (x + y) · (x + y),
da cui, per la linearità dell’operatore e per le proprietà del prodotto scalare,
Ux · Ux + Uy · Uy + 2Ux · Uy = x · x + y · y + 2x · y.
Tenuto conto della definizione di operatore ortogonale si ricava infine
Ux · Uy = x · y.
Detta U la matrice associata all’operatore U, si ha U T U = I, da cui
(detU )2 = 1, ⇒ |detU | = 1.
Esiste allora la matrice inversa U −1 e l’operatore risulta invertibile. Un operatore ortogonale è allora
caratterizzato dalla condizione
UT = U−1 .
Come ovvia conseguenza di quanto detto, un operatore ortogonale trasforma basi ortonormali in basi
ortonormali. Infatti, se {ei } è una base ortonormale in En ed U è un operatore ortogonale, la nuova
base e′i = Uei soddisfa la relazione
e′i · e′j = Uei · Uej = ei · UT Uej = ei · ej = δij

• Esempio
Siano e1 , e2 , e3 i versori di una terna cartesiana ortogonale nello spazio tridimensionale. {ei } è
una base ortonormale dello spazio E3 dei vettori liberi tridimensionali. In E3 consideriamo un
operatore ortogonale R. Per ogni j = 1, 2, 3 poniamo
e′j = Rej .
La terna {e′j } è ancora una base ortonormale in E3 , corrispondente ai versori di una nuova terna
cartesiana ortogonale. La matrice associata a R in {ei } è
rij = ei · Rej = ei · e′j
e corrisponde alla trasposta della matrice di rotazione Rij introdotta in geometria dello spazio
(vedi paragrafo 15.6). Coerentemente con quanto visto in quel contesto, il legame tra le compo-
nenti di un vettore x nella base {ei } e le componenti dello stesso vettore nella base {e′i } si può
riottenere scrivendo

3 ∑
3 ∑
3
x′i =x· e′i = x · Rei = xj ej · Rei = xj rji = Rij xj .
j=1 j=1 j=1
226 CAPITOLO 17. APPLICAZIONI LINEARI

Un operatore lineare A in En si dice simmetrico se, per ogni coppia di vettori x, y ∈ En , si ha

y · Ax = Ay · x.

A causa della proprietà y · Ax = AT y · x, un operatore simmetrico gode della proprietà A = AT e la


matrice che rappresenta tale operatore, in una qualunque base ortonormale, è simmetrica in quanto

ei · Aej = ej · Aei ⇔ aij = aji .

Un operatore lineare A in En si dice antisimmetrico se, per ogni coppia di vettori x, y ∈ En , si ha

y · Ax = −Ay · x.

Per le stesse proprietà citate prima, un operatore antisimmetrico gode della proprietá AT = −A e la
sua matrice in una qualunque base ortonormale risulta antisimmetrica, ovvero aij = −aji .

• Esempio
Nello spazio E3 dei vettori liberi tridimensionali, ad ogni operatore antisimmetrico A è sempre
possibile associare un unico vettore a tale che

Ax = a × x, ∀x ∈ E3 .

Verifichiamo che, presa una base ortonormale {ei } in E3 , il vettore a ha la seguente espressione

1∑
3
a= ei × Aei .
2
i=1

Per le proprietà del doppio prodotto vettoriale e per l’antisimmetria di A, si ha infatti

1 ∑ ∑ 1∑
3 3
a×x= ( ei × Aei ) × xj ej = xj (ei × Aei ) × ej =
2 2
i=1 j=1 i,j
1∑
xj [(ei · ej )Aei − (Aei · ej )ei ] =
2
i,j
1∑ 1∑
xj [δij Aei − aji ei ] = xj [δij Aei + aij ei ] =
2 2
i,j i,j

1 ∑
3
1 ∑
3 ∑
3
xi Aei + ( aij xj )ei =
2 2
i=1 i=1 j=1

1 ∑ 1∑
3 3
1 1
A( xi ei ) + (ei · Ax)ei = Ax + Ax = Ax.
2 2 2 2
i=1 i=1

Infine, il vettore a è unico in quanto, se esistesse b ̸= a tale che Ax = b × x, ∀x ∈ E3 , si


dovrebbe avere b × x = a × x, ∀x ∈ E3 , ovvero, necessariamente b = a.
17.7. AUTOVETTORI E AUTOVALORI 227

17.7 Autovettori e autovalori


Sia A un operatore lineare in En . Un vettore non nullo x ∈ En si dice un autovettore di A se esiste
un numero (reale o complesso) λ tale che

Ax = λx.

È evidente che, dato un autovettore x ̸= 0, esiste un unico λ soddisfacente questa condizione. Tale
numero si dice allora autovalore di A relativo all’autovettore x. Viceversa, ad uno stesso autovalore
possono essere associati più autovettori. Se x1 , x2 , ..., xk sono autovettori di A corrispondenti allo
stesso autovalore λ, allora ogni combinazione lineare di questi autovettori è un autovettore di A,
infatti si ha

A(c1 x1 + c2 x2 + ... + ck xk ) = c1 Ax1 + c2 Ax2 + ... + ck Axk = λ(c1 x1 + c2 x2 + ... + ck xk ).

Ne segue che gli autovettori di un operatore A corrispondenti a λ costituiscono un sottospazio vettoriale


di En . Tale sottospazio si dice autospazio di A relativo a quell’autovalore.

Teorema 17.3 Sia A un operatore lineare in En e siano x1 , x2 , ..., xk (k ≤ n) autovettori di A


corrispondenti ad autovalori λ1 , λ2 , ..., λk tutti distinti. Allora i vettori x1 , x2 , ..., xk sono linearmente
indipendenti.

Dim. Costruiamo una combinazione lineare dei k autovettori e uguagliamola a zero,

c1 x1 + c2 x2 + ... + ck xk = 0.

Applichiamo l’operatore lineare A ad ambo i membri e troviamo

c1 λ1 x1 + c2 λ2 x2 + ... + ck λk xk = 0.

A quest’ultima relazione sottraiamo quella precedente moltiplicata per λ1 e otteniamo

c2 (λ2 − λ1 )x2 + ... + ck (λk − λ1 )xk = 0.

Di nuovo, applichiamo a quest’ultima l’operatore A e al risultato sottraiamo la stessa combinazione


moltiplicata per λ2 . Ripetendo questo procedimento k − 1 volte arriviamo ad avere le seguenti k − 1
relazioni
c2 (λ2 − λ1 )x2 + ... + ck (λk − λ1 )xk = 0,
c3 (λ3 − λ1 )(λ3 − λ2 )x3 + ... + ck (λk − λ1 )(λk − λ2 )xk = 0,
..
.
ck (λk − λ1 )(λk − λ2 )(λk − λ3 )...(λk − λk−1 )xk = 0.
A questo punto, osservando che gli autovettori sono tutti diversi da zero e sfruttando il fatto che
λi ̸= λj , (i ̸= j), dall’ultima relazione si ottiene ck = 0. Sostituendo nella penultima si ricava ck−1 = 0
e cosı̀ via sino a c2 = 0 e, quindi, c1 = 0. Ne segue che x1 , ..., xk sono linearmente indipendenti.
Se k = n allora gli autovettori x1 , ..., xn corrispondenti ad autovalori distinti formeranno una base in
En .
Osservazione. Sebbene per scopi successivi abbiamo considerato qui un operatore lineare in uno
spazio euclideo, le nozioni di autovettore e di autovalore di un operatore lineare possono essere date
228 CAPITOLO 17. APPLICAZIONI LINEARI

per un qualsiasi spazio vettoriale V anche a dimensione non finita. Il teorema precedente vale anche
in questo caso generale.
Sia A una matrice n × n. Si dice polinomio caratteristico di A il polinomio di grado n dato da

PA (t) = det(A − tI),

ovvero,
a11 − t a12 ··· a1n

a21 a22 − t · · · a2n

PA (t) = . .. .. .. .
.. . . .

an1 an2 ··· ann − t
Il polinomio caratteristico di una matrice associata ad un operatore A è lo stesso qualunque sia la
base scelta per determinare la matrice A. Infatti, sapendo che per una trasformazione della base in
En si ha A′ = Q−1 AQ, si ottiene

PA′ (t) = det(A′ − tI) = det(Q−1 AQ − tQ−1 Q) = det[Q−1 (A − tI)Q]


= detQ−1 det(A − tI) detQ = det(A − tI) = PA (t).

Questa osservazione ci permette di parlare di polinomio caratteristico dell’operatore A, intendendo


con ciò il polinomio caratteristico di una qualunque matrice associata ad A.

Teorema 17.4 Sia dato un operatore lineare A. Allora tutti e soli gli autovalori di A sono radici del
suo polinomio caratteristico.
Dim. Partiamo dall’assunto che λ sia un autovalore dell’operatore A. Allora esiste almeno un au-
tovettore x ̸= 0 tale che Ax − λx = 0, ovvero, fissata una qualunque base in En ,

(A − λI)X = 0, con X ̸= 0.

Ma quest’ultimo si può riguardare come un sistema lineare omogeneo di n equazioni in n incognite


che ammette una soluzione non banale. Ne segue necessariamente

det(A − λI) = 0,

cioè λ è soluzione di PA (t) = 0.


Viceversa, supponiamo che λ sia una radice del polinomio caratteristico di A, cioè

det(A − λI) = 0.

Questo comporta che il sistema omogeneo (A − λI)X = 0, ammette soluzioni non banali, ovvero esiste
un vettore x ∈ En , le cui componenti in una data base sono date dal vettore colonna X, tale che
(A − λI)x = 0. In altri termini in corrispondenza della radice λ del polinomio caratteristico, abbiamo
trovato un vettore x soddisfacente la condizione

Ax = λx.

Concludiamo allora che λ è un autovalore di A.


Poiché gli autovalori di un operatore A sono individuati dalla matrice associata, in una qualunque base,
talvolta anzichè parlare di autovalori e autovettori dell’operatore A, useremo l’espressione ”autovalori
e autovettori della matrice A”.
17.7. AUTOVETTORI E AUTOVALORI 229

• Esempi
1) Determinare gli autovalori ed una base per ciascuno degli autospazi dell’operatore associato
alla matrice  
2 1 0
A= 0  1 −1 .
0 2 4
Il polinomio caratteristico di A è

2 − λ 1 0


det(A − λI) = 0 1 − λ −1 = −(λ − 3)(λ − 2)2 .
0 2 4 − λ

Gli autovalori di A sono dunque λ1 = 2 e λ2 = 3. Per determinare gli autovettori scriviamo il


sistema omogeneo (A − λI)X = 0, ovvero


(2 − λ)x1 + x2 = 0
(1 − λ)x2 − x3 = 0


2x2 + (1 − λ)x3 = 0.

Consideriamo il primo autovalore λ1 = 2. Sostituendo nel sistema otteniamo




x2 = 0
−x2 − x3 = 0


2x2 + 2x3 = 0,

che ha come soluzione  


α
X (1) 
= 0 , α ∈ R.
0
L’autospazio corrispondente all’autovalore λ1 è allora uno spazio ad una dimensione ed assegnato
un qualunque valore ad α si ottiene una base di questo spazio.
Consideriamo il secondo autovalore λ2 = 3. Sostituendo nel sistema otteniamo


−x1 + x2 = 0
−2x2 − x3 = 0


2x2 + x3 = 0,

la cui soluzione è  
α
X (2) =  α , α ∈ R.
−2α
Anche l’autospazio corrispondente all’autovalore λ2 è uno spazio ad una dimensione ed assegnato
un qualunque valore ad α si ottiene una base.
Osserviamo che, in accordo con il teorema 17.3, ai due autovalori distinti corrispondono i due
vettori, X (1) , X (2) , linearmente indipendenti.
230 CAPITOLO 17. APPLICAZIONI LINEARI

2) Determinare gli autovalori e una base per ciascuno degli autospazi dell’operatore associato
alla matrice  
1 1 2
A = 0 5 −1 .
0 0 7
Il polinomio caratteristico è

1 − λ 1 2

0 5 − λ −1 = (1 − λ)(5 − λ)(7 − λ),

0 0 7λ

le cui radici sono gli autovalori λ1 = 1, λ2 = 5, λ3 = 7. Il sistema omogeneo (A − λI)X = 0, per


il calcolo degli autovettori, è il seguente


(1 − λ)x1 + x2 + 2x3 = 0
(5 − λ)x2 − x3 = 0


(7 − λ)x3 = 0

Consideriamo λ1 = 1. Il sistema diventa




x2 + 2x3 = 0
4x2 − x3 = 0


6x3 = 0

da cui otteniamo  
α
X (1) = 0 , α ∈ R.
0
Consideriamo λ2 = 5. Il sistema si riduce a


−4x1 + x2 + 2x3 = 0
−x3 = 0


2x3 = 0

da cui si ricava  
α
X (2) = 4α , α ∈ R.
0
Infine, per λ3 = 7, si ha {
−6x1 + x2 + 2x3 = 0
−2x2 − x3 = 0
da cui  
α
X (3) = −2α , α∈R

Anche in questo caso abbiamo autospazi monodimensionali le cui basi si ottengono fissando un
valore di α.
17.7. AUTOVETTORI E AUTOVALORI 231

3) Determinare gli autovalori e una base per gli autospazi dell’operatore associato alla matrice
 
1 1 −1
A = 0 1 0  .
1 0 1

Si ottiene
det(A − λI) = (1 − λ)(λ2 − 2λ + 2) = 0,
che ha per soluzioni
λ1 = 1, λ2 = 1 + i, λ3 = 1 − i.
Per la ricerca degli autovettori si ha il sistema


(1 − λ)x1 + x2 − x3 = 0
(1 − λ)x2 = 0


x1 + (1 − λ)x3 = 0

da cui si ottiene,
     
0 α α
per λ1 , X (1) 
= α , per λ2 , X (2) =  0 , per λ3 , X (3) 
= 0 .
α −iα iα

con α ∈ R.

L’ultimo esempio illustra come, nonostante la matrice A sia reale, si possono ottenere autovalori
complessi e autovettori con componenti complesse. È tuttavia possibile dimostrare, che se l’operatore
lineare è simmetrico e la matrice associata è reale, i suoi autovalori sono tutti reali. Sussiste infatti il
seguente risultato.

Teorema 17.5 Sia A un operatore lineare simmetrico in En , la cui matrice associata in una data
base abbia elementi reali. Allora ogni autovalore di A è reale.
Dim. Osserviamo innanzitutto che, dato un vettore complesso z = x+iy, fissata una base ortonormale
in En e posto Z = X + iY , si ha
T
z · z = Z Z = (X T − iY T )(X + iY ) = X T X + Y T Y,

in quanto X T Y = Y T X. Ne segue che z · z ∈ R. Inoltre, per la simmetria e la realtà di A si ha


T T
z · Az = Z AZ = Z T AZ = Z T AZ = Z AZ = z · Az.

Ne segue che anche z · Az ∈ R. Dall’equazione agli autovettori Az = λz, moltiplicando a sinistra per
z si ottiene
z · Az
z · Az = λz · z λ= ∈ R.
z·z
Osservazione Se un operatore con matrice reale ammette autovalori reali, anche i corrispondenti
autovettori sono reali. Infatti la relazione AX = λX implica che la n-upla delle componenti di X sia
la soluzione di un sistema lineare a coefficienti reali.
232 CAPITOLO 17. APPLICAZIONI LINEARI
Capitolo 18

Diagonalizzazione e forme quadratiche

18.1 Diagonalizzazione di una matrice


Sappiamo che la matrice associata ad un operatore lineare in uno spazio n-dimensionale si trasforma,
per un cambiamento di base, secondo la legge

A′ = Q−1 AQ,

dove Q = T T , essendo T la matrice della trasformazione dei vettori di base, di elementi tij tale che


n
e′i = tij ej .
j=1

Ci chiediamo se sia possibile individuare una trasformazione della base in modo che la matrice A
assuma la forma diagonale, che denoteremo con Λ. Se questa trasformazione esiste si dice che la
matrice è diagonalizzabile. Si può provare, ma per brevità ne ometteremo la dimostrazione, la seguente
affermazione:
Una matrice n × n è diagonalizzabile se e solo se essa ammette n autovettori linearmente indipendenti.
A questo punto possiamo dimostrare il seguente utile risultato.

Teorema 18.1 Sia A una matrice n × n diagonalizzabile e siano X (1) , X (2) , ..., X (n) i vettori colonna
linearmente indipendenti che rappresentano i suoi autovettori. Siano poi λ1 , λ2 , ..., λn i corrispondenti
autovalori. Allora la matrice Q avente per colonne ordinatamente i vettori X (i) (i = 1, .., n), trasforma
la matrice A nella matrice diagonale Λ i cui elementi sono gli autovalori λi , (i = 1, ..., n).

Dim. Per ipotesi abbiamo


n
(i) (i)
AX (i) = λi X (i) ⇔ ajk xk = λi xj i = 1, ..., n.
k=1

(i)
Posto xk = qki si ottiene


n ∑
n
ajk qki = λi qji = qjk δki λk ⇔ AQ = QΛ,
k=1 k=1

233
234 CAPITOLO 18. DIAGONALIZZAZIONE E FORME QUADRATICHE

dove gli elementi di Λ = diag(λ1 , ..., λn ) sono stati scritti nella forma Λki = δki λk . Poiché i vettori
X (i) sono linearmente indipendenti, la matrice Q ha rango n quindi è invertibile. Moltiplicando allora
a sinistra l’ultima relazione per Q−1 , si arriva al risultato cercato

Q−1 AQ = Λ.

• Esempio
Consideriamo la matrice  
1 1 0 0
4 1 0 0
A=
0

0 2 4
0 0 4 2
si ha
det(A − λI) = [(1 − λ)2 − 4][(2 − λ)2 − 16]
le cui radici sono
λ1 = −2, λ2 = −1, λ3 = 3, λ4 = 6.
Poiché si hanno 4 radici distinte, la matrice ammette quattro autovettori linearmente indipen-
denti e quindi è diagonalizzabile. Dal sistema


 (1 − λ)x1 + x2 = 0


4x + (1 − λ)x = 0
1 2

 (2 − λ)x + 4x4 =0


3
4x + (2 − λ)x = 0,
3 4

si ricavano i seguenti autovettori


       
0 1 1 0
0 −2 2 0
X (1) = 
 1 , X (2) = 
 0 , X (3) = 
0 , X (4) = 
1 .
−1 0 0 1

La matrice di trasformazione Q e la conseguente matrice diagonale Λ sono allora


   
0 1 1 0 −2 0 0 0
 0 −2 2 0  0 −1 0 0
Q=
1
, Λ= .
0 0 1 0 0 3 0
−1 0 0 1 0 0 0 6

Una matrice reale simmetrica è sempre diagonalizzabile. Questa affermazione si basa sul seguente
risultato.

Teorema 18.2 Sia A un operatore lineare in En , simmetrico con matrice reale. Allora è sempre
possibile determinare una base ortonormale costituita da autovettori di A.
18.1. DIAGONALIZZAZIONE DI UNA MATRICE 235

Dim. Da un teorema sugli autovettori di matrici reali sappiamo che l’operatore A ammette un auto-
valore reale λ1 ed un corrispondente autovettore reale non nullo w1 . Sia W 1 lo spazio generato dal
solo vettore w1 e sia V 1 il sottospazio di En formato da tutti i vettori ortogonali a w1 . Preso un
vettore v1 ∈ V 1 , per le ipotesi fatte si ha

Av1 · w1 = v1 · Aw1 = v1 · (λ1 w1 ) = λ1 v1 · w1 = 0.

Ne segue che il vettore Av1 appartiene a V 1 . Possiamo considerare allora l’operatore A come operatore
lineare in V 1 . Ripetendo il ragionamento precedente, esisterà un autovalore λ2 ed un autovettore non
nullo w2 ∈ V 1 . Detto W 2 il sottospazio generato da w2 chiameremo V 2 il sottospazio dei vettori di V 1
ortogonali a w2 . Continuando cosı̀ possiamo costruire un insieme di n autovettori di A, w1 , w2 , ..., wn ,
appartenenti a En e mutuamente ortogonali. Tali vettori potranno essere poi normalizzati per ottenere
una base ortonormale di En .

Osserviamo che, determinata la base ortonormale {êi }, (i = 1, 2, ..., n), di autovettori dell’operatore
simmetrico A, si ha
êi · Aêj = êi · λj êj = λj êi · êj = λj δij .
In altri termini, la matrice associata all’operatore A, in questa base, è la matrice diagonale Λ =
diag(λ1 , λ2 , ..., λn ).

• Esempio
Vogliamo diagonalizzare la matrice simmetrica
 
6 2 2
A = 2 3 −4 .
2 −4 3

Innanzitutto calcoliamone gli autovalori risolvendo l’equazione caratteristica



6 − λ 2 2

det(A − λI) = 2 3 − λ −4 = −(7 − λ)2 (2 + λ) = 0.
2 −4 3 − λ

Si trova λ1 = 7, (2 volte), λ2 = −2. Determiniamo allora gli autospazi corrispondenti. So-


stituendo nel sistema (A − λI)X = 0, il valore λ1 = 7 otteniamo


x1 − 2x2 − 2x3 = 0
2x1 − 4x2 − 4x3 = 0


2x1 − 4x2 − 4x3 = 0.

Il sistema risulta equivalente alla sola equazione

x1 − 2x2 − 2x3 = 0,

che ammette come soluzione l’insieme

{(2k + 2h, k, h), k, h ∈ R},


236 CAPITOLO 18. DIAGONALIZZAZIONE E FORME QUADRATICHE

che risulta essere un sottospazio bidimensionale di R3 . Una base di questo spazio è, per esempio,
   
2 2
X (1) = 1 , X (2) = 0 .
0 1

Per λ = λ2 = −2 si ha il sistema


8x1 + 2x2 + 2x3 = 0
2x1 + 5x2 − 4x3 = 0


2x1 − 4x2 + 5x3 = 0,

da cui si ha
2x1 = −x3 , x2 = x 3 ⇒ {(−k, 2k, 2k), k ∈ R}.

Una base del corrispondente autospazio è data da


 
−1
X (3) =  2 .
2

A questo punto possiamo scrivere la matrice Q che diagonalizza A e la matrice diagonale risul-
tante.    
2 2 −1 7 0 0
Q= 1  0 2 , Λ = 0 7 0  .
0 1 2 0 0 −2

Notiamo che, l’autovettore X (3) è ortogonale agli altri due autovettori, infatti si ha

(X (1) )T X (3) = (X (2) )T X (3) = 0.

D’altra parte si può sempre scegliere il vettore X (1) in modo che sia ortogonale agli altri due per
formare una terna di vettori ortogonali. A tale scopo nell’insieme delle soluzioni dell’equazione
del sistema per λ1 ,
{(2k + 2h, k, h), k, h ∈ R},

consideriamo una volta k = 0, h = 1 e imponiamo l’ortogonalità con la soluzione generica, ovvero


 
2
(2k + 2h, k, h) 0 = 0
 ⇒ 4k + 5h = 0.
1

Scegliamo allora k = 5 e h = −4 e troviamo cosı̀


 
2
X (1) =  5 .
−4
18.2. OPERATORI SIMMETRICI DEFINITI 237

Il fatto che l’autovettore X (3) dell’esempio precedente risulti ortogonale agli altri due autovettori non è
un caso. Infatti, se la matrice A è simmetrica, ad autovalori distinti corrispondono sempre autovettori
ortogonali. Per dimostrarlo consideriamo due autovalori distinti λ1 , λ2 di un operatore simmetrico
A. Detti x(1) e x(2) due corrispondenti autovettori, avremo

Ax(1) = λ1 x(1) , Ax(2) = λ2 x(2) .

Moltiplicando scalarmente queste due eguaglianze membro a membro rispettivamente per x(2) e x(1)
otteniamo
x(2) · Ax(1) = λ1 x(2) · x(1) , x(1) · Ax(2) = λ2 x(1) · x(2) .
Ma i primi membri di queste eguaglianze sono uguali per la simmetria di A, quindi, eguagliando i
secondi membri avremo

λ1 x(2) · x(1) = λ2 x(1) · x(2) , =⇒ (λ1 − λ2 )x(1) · x(2) = 0,

da cui, tenuto conto che λ1 ̸= λ2 , segue l’ortogonalità di x(1) e x(2) .


Osserviamo infine che, trovati n autovettori ortonormali di una matrice simmetrica A, la matrice
Q che diagonalizza A risulta ortogonale. In questo caso infatti dallo sviluppo del prodotto C = QT Q
righe per colonne si ottiene una matrice che ha per elementi


n ∑
n
(i) (j)
cij = qki qkj = xk xk = x(i) · x(j) ,
k=1 k=1

e poiché i vettori x(i) sono ortonormali, si ottiene x(i) · x(j) = δij e quindi

QT Q = I.

Quest’ultima condizione, come sappiamo, caratterizza le matrici ortogonali.

18.2 Operatori simmetrici definiti


Sia A un operatore lineare simmetrico in En . Diremo che A è definito positivo se

x · Ax ≥ 0, ∀x ∈ En , (= 0 solo se x = 0).

Analogamente si dice che un operatore lineare simmetrico in En è definito negativo se

x · Ax ≤ 0, ∀x ∈ En , (= 0 solo se x = 0).

Vale la seguente proprietà.

Teorema 18.3 Condizione necessaria e sufficiente affinché un operatore lineare simmetrico sia definito
positivo (negativo) è che ammetta autovalori tutti positivi (negativi).

Dim. Condizione necessaria. Supponiamo che A sia definito positivo (negativo). Sia λ un qualunque
autovalore (reale) dell’operatore A e x un corrispondente autovettore,

Ax = λx.
238 CAPITOLO 18. DIAGONALIZZAZIONE E FORME QUADRATICHE

Moltiplicando scalarmente ambo i membri per x, che è diverso dal vettore nullo, otteniamo

x · Ax = λ∥x∥2 .

Poiché il primo membro di questa uguaglianza è positivo (negativo), si ha λ > 0(< 0).
Condizione sufficiente. Poiché A è simmetrico, esiste una base ortonormale {êi } in En fatta di au-
tovettori di A rispetto a cui la matrice di A è diagonale, ovvero

êi · Aêj = λj δij .

Dato un generico vettore x, non nullo, rispetto alla base {êi } si avrà


n
x= xi êi ,
i=1

da cui, per la linearità di A,


n ∑
n
x · Ax = ( xi êi ) · A xj êj =
i=1 j=1
∑ ∑
xi xj êi · Aêj = λi δij xi xj =
i,j i,j

n
λi x2i .
i=1

Poiché le xi non sono tutte nulle, dall’ipotesi λi > 0 (λi < 0), ∀i, si ottiene x · Ax > 0 (< 0), ∀x ∈ En .
Osserviamo che la traccia delle matrici associate ad un operatore definito positivo (negativo), risulta
positiva (negativa). Infatti essendo trA indipendente dalla base ortonormale {ei } rispetto a cui si
esprime la matrice dell’operatore A, si può sempre scegliere una base fatta di autovettori ortonormali
di A. Rispetto a tale base
∑n
trA = λi > 0 (< 0).
i=1

Per stabilire la definitezza di un operatore simmetrico non è comunque necessario diagonalizzare la


sua matrice. Si può anche procedere in un altro modo.
Siano |Ak |, k = 1, 2, ..., n, i minori principali della matrice A associata all’operatore simmetrico A,
ovvero
a11 a12 a13
a a
|A1 | = a11 , |A2 | = 11 12 , |A3 | = a12 a22 a23 , ...
a12 a22 a13 a23 a33

Si dimostra la seguente proprietà.

Teorema 18.4 Condizione necessaria e sufficiente affinché un operatore simmetrico sia definito po-
sitivo (negativo) è che, rispetto ad una qualunque base, si abbia
( )
|Ak | > 0, (−1)k |Ak | > 0 , k = 1, 2, ..., n.
18.3. FORME QUADRATICHE E LORO RIDUZIONE 239

• Esempi
1) Sia  
1 −1 0
A = −1 3 −1 ,
0 −1 1
la matrice di un operatore lineare simmetrico A, in una data base. Verifichiamo che A è definito
positivo. Risolvendo l’equazione caratteristica si trovano i tre autovalori
√ √
λ1 = 1, λ2 = 2 − 3, λ3 = 2 + 3,

che risultano tutti positivi. Quindi l’operatore è definito positivo. In alternativa si può verificare
che
|A1 | = 1, |A2 | = 2, |A3 | = 1,
quindi tutti i suoi minori principali sono positivi.

2) Verifichiamo che l’operatore simmetrico A con matrice


 
−1 2 1
2
 2 −5 0  ,
1
2 0 −2
è definito negativo. I suoi autovalori sono gli zeri del polinomio
51 3
det(A − λI) = −λ3 − 8λ2 − λ− .
4 4
Poiché i segni del polinomio presentano tre permanenze, i suoi zeri saranno tutti negativi. D’altra
parte si ha anche
3
|A1 | = −1 |A2 | = 1, |A3 | = − ,
4
da cui, in base al teorema 18.4, si deduce che A è definito negativo.

Un operatore lineare simmetrico si dice semidefinito positivo (negativo) se

x · Ax ≥ 0 (≤ 0), ∀x ∈ En .

In tal caso si dimostra, in modo analogo al caso precedente, che un operatore semidefinito positivo
(negativo) ammette autovalori non negativi (non positivi).

18.3 Forme quadratiche e loro riduzione


Sia A un operatore lineare simmetrico su En . Dati due vettori x, y ∈ En , la quantità

y · Ax,

si dice forma bilineare associata all’operatore A. Il termine ”bilineare” è dovuto al fatto che l’espressione
y · Ax è lineare in x in forza della linearità dell’operatore A ed è lineare in y in forza delle proprietà
del prodotto scalare. Poiché A è simmetrico, si ha

y · Ax = x · Ay.
240 CAPITOLO 18. DIAGONALIZZAZIONE E FORME QUADRATICHE

Se A, X, Y sono rispettivamente la matrice associata ad A e i vettori colonna delle componenti di x e


y relativamente ad una data base ortonormale in En , tenuto conto della simmetria di A si avrà

n ∑
n
y · Ax = Y T AX = aij xj yi = aij xi yj .
i,j=1 i,j=1

Osserviamo, a titolo di esempio, che il prodotto scalare in Rn è un esempio di forma bilineare, associata
all’operatore identità.
Preso un generico x ∈ En , l’espressione
x · Ax
si dice forma quadratica associata all’operatore A in En . In una forma quadratica compare solo la
parte simmetrica dell’operatore A. Infatti, posto A = As + Aa , dove gli operatori
1 1
As = (A + AT ), Aa = (A − AT ),
2 2
sono rispettivamente la parte simmetrica e la parte antisimmetrica di A, si ha
x · Ax = x · (As + Aa )x = x · As x + x · Aa x.
D’altra parte, per l’antisimmetria di Aa si ha x · Aa x = −x · Aa x, da cui x · Aa x = 0, identicamente.
Ne segue
x · Ax = x · As x.
Scelta una base ortonormale in En si ha

n
x · Ax = X T AX = aij xi xj .
i,j=1

Per esempio, una forma quadratica in E3 ha la forma



3
T
X AX = aij xi xj = a11 x21 + a22 x22 + a33 x23 + 2a12 x1 x2 + 2a13 x1 x3 + 2a23 x2 x3 .
i,j=1

Una forma quadratica si dice in forma normale se, rispetto alla base data, contiene i soli quadrati
delle xi . Ciò accade quando la matrice associata ad A ha la forma diagonale. Poiché una matrice
simmetrica è sempre diagonalizzabile, ogni forma quadratica può essere ridotta in forma normale con
una opportuna trasformazione dei vettori di base.
Sia x · Ax una forma quadratica in En e siano λ1 , λ2 , ..., λn gli autovalori di A, non necessariamente
tutti distinti. Sappiamo che a tali autovalori possiamo far corrispondere n autovettori ortonormali ẽi ,
(i = 1, ..., n). La matrice Q che ha per colonne le componenti di tali autovettori trasforma la matrice
A nella forma diagonale
QT AQ = Λ = diag(λ1 , λ2 , ..., λn ),
D’altra parte il vettore colonna X e delle componenti del vettore x nella base trasformata {ẽi } sarà
legato al vettore colonna X delle componenti nella base {ej } dalla relazione
e
X = QX.
Osservando infine che Λ = QT AQ, si ottiene
e T A(QX)
X T AX = (QX) e =X
e T QT AQX
e =X
e T ΛX,
e

ovvero la forma normale della forma quadratica data.


18.3. FORME QUADRATICHE E LORO RIDUZIONE 241

• Esempio
Data la forma quadratica
2x21 + 5x22 + 2x23 − 4x1 x2 − 2x1 x3 + 4x2 x3 ,
determinare la sua forma normale.
La matrice associata alla forma quadratica data è
 
2 −2 −1
A = −2 5 2
−1 2 2
i cui autovalori sono λ1 = 1 (2 volte), λ2 = 7. La forma normale è quindi
e T ΛX
X e = x̃21 + x̃22 + 7x̃23 .
Agli autovalori trovati corrispondono i seguenti autovettori ortonormali
     
1 −1 −1
1 1 1
X (1) = √ 0 X (2) = √ −1 X (3) = √  2  ,
2 1 3 1 6 1
da cui si ottiene la matrice Q e la trasformazione delle componenti di x,
1 1
e1 = √ x1 + √ x3
x
2 2
1 1 1
e2 = − √ x1 − √ x2 + √ x3
x
3 3 3
1 2 1
e3 = − √ x1 + √ x2 + √ x3
x
6 6 6

Una forma quadratica in En , x · Ax, si dice definita positiva se


x · Ax ≥ 0 ∀x ∈ En , (= 0, se e solo se x = 0).
Una forma quadratica è quindi definita positiva se e solo se lo è l’operatore A. In modo analogo si
definiscono forme quadratiche definite negative,
x · Ax ≤ 0 ∀x ∈ En , (= 0, se e solo se x = 0).
Una forma quadratica x · Ax si dice poi semidefinita positiva (negativa) se
x · Ax ≥ 0 (≤ 0) ∀x ∈ En .
• Esempio
Stabilire se la seguente forma quadratica è definita.
2xy + 2yz + 2xz.
Si ha  
0 1 1
A = 1 0 1  ,
1 1 0
da cui si ricavano gli autovalori λ1 = 2, λ2 = −1 (2 volte). Ne segue che la forma quadratica
data non è definita.
242 CAPITOLO 18. DIAGONALIZZAZIONE E FORME QUADRATICHE

18.4 Classificazione delle superfici del secondo ordine


Una equazione del secondo ordine in x, y, z ha la forma
a11 x2 + a22 y 2 + a33 z 2 + 2a12 xy + 2a13 xz + 2a23 yz + 2a14 x + 2a24 y + 2a34 z + a44 = 0,
con aij (i, j = 1, 2, 3) non tutti nulli. Tale equazione rappresenta, in generale, una superficie nello
spazio tridimensionale riferito ad un sistema di assi cartesiani ortogonali. Posto
     
a11 a12 a13 a14 x

A = a12 a22 a23  
B = a24  c = a44 , X = y ,

a13 a23 a33 a34 z
l’equazione precedente può essere scritta nella forma
X T AX + 2B T X + c = 0.
Come sappiamo la forma quadratica X T AX può essere ridotta in forma normale mediante una trasfor-
mazione della base, ovvero esiste una matrice ortogonale Q tale che
QT AQ = Λ,
essendo Λ una matrice diagonale. Poiché mediante tale trasformazione si ha X = QX, e B = QB, e
e
essendo X il vettore colonna delle nuove componenti di x rispetto alla nuova base, l’equazione della
superficie del secondo ordine nella nuova base assume la forma
e T ΛX
X e + 2B
eT X
e + c = 0.

Esplicitamente, detti λ1 , λ2 , λ3 gli autovalori di A, si ha


λ1 x̃2 + λ2 ỹ 2 + λ3 z̃ 2 + 2ã14 x̃ + 2ã24 ỹ + 2ã34 z̃ + a44 = 0.
Le superfici descritte da queste equazioni possono essere classificate in base ai valori di λ1 , λ2 , λ3 .
Consideriamo separatamente i seguenti tre casi.

• λ1 ̸= 0, λ2 ̸= 0, λ3 ̸= 0.
Mediante la trasformazione
ã14 ã24 ã34
x′ = x̃ + , y ′ = ỹ + , z ′ = z̃ + ,
λ1 λ2 λ3
l’equazione della superficie diviene
λ1 x′ + λ2 y ′ + λ3 z ′ + a′44 = 0,
2 2 2

dove
ã214 ã224 ã234
a′44 = a44 − − − .
λ1 λ2 λ3
– Se a′44 ̸= 0 e λ1 , λ2 , λ3 hanno lo stesso segno, opposto a quello di a′44 , dividendo per a′44 e
ponendo
a′ a′ a′
a2 = − 44 , b2 = − 44 , c2 = − 44 ,
λ1 λ2 λ3
si ottiene l’equazione di un ellissoide
x′ 2 y ′ 2 z ′ 2
+ 2 + 2 = 1.
a2 b c
18.4. CLASSIFICAZIONE DELLE SUPERFICI DEL SECONDO ORDINE 243

– Se a′44 ̸= 0 e se a′44 e λ3 hanno lo stesso segno, opposto a quello di λ1 e di λ2 allora si ottiene


l’equazione di un iperboloide a una falda,

x′ 2 y ′ 2 z ′ 2
+ 2 − 2 = 1.
a2 b c
dove a2 e b2 sono gli stessi del sottocaso precedente e c2 = a′44 /λ3 .
– Se a′44 ̸= 0 e se λ1 , λ2 e a′44 hanno lo stesso segno, opposto a quello di λ3 si ottiene l’equazione

x′ 2 y ′ 2 z ′ 2
+ 2 − 2 = −1.
a2 b c
che rappresenta un iperboloide a due falde. In questo sottocaso a2 = a′44 /λ1 , b2 = a′44 /λ2 e
c2 = −a′44 /λ3 .
– Se a′44 = 0 e uno degli autovalori λi ha segno opposto a quello degli altri due, si ottiene
l’equazione di un cono, ad esempio

x′ 2 y ′ 2 z ′ 2
+ 2 − 2 = 0.
a2 b c
• Uno degli autovalori è uguale a zero, ad esempio λ3 . In questo caso, mediante la traslazione
ã14 ã24
x′ = x̃ + , y ′ = ỹ + , z ′ = z̃,
λ1 λ2
otteniamo l’equazione
λ1 x′ + λ2 y ′ + 2ã34 z ′ + a′44 = 0.
2 2

dove
ã214 ã224
a′44 = a44 − − .
λ1 λ2
– se ã34 ̸= 0, mediante la traslazione
a′44
x = x′ , y = y′, z = z′ + ,
2ã34
si ottiene un paraboloide ellittico se λ1 e λ2 hanno lo stesso segno,

x2 y 2
+ = 2z,
p q

dove p = − ãλ341 , q = − ãλ342 , mentre, se λ1 e λ2 hanno segno opposto si ottiene un paraboloide


iperbolico di equazione
x2 y 2
− = 2z,
p q
dove p = − ãλ341 , q = ã34
λ2 .
– Se ã34 = 0 si ottiene l’equazione

λ1 x′ + λ2 y ′ + a′44 = 0,
2 2

che rappresenta, in generale, una superficie cilindrica con generatrici parallele all’asse delle
z.
244 CAPITOLO 18. DIAGONALIZZAZIONE E FORME QUADRATICHE

• λ2 = λ3 = 0, λ1 ̸= 0. In questo caso, aggiungendo alla traslazione


ã14
x = x̃ + ,
λ1
la rotazione nel piano ỹ, z̃
ã24 ỹ + ã34 z̃ −ã34 ỹ + ã24 z̃
y= √ 2 , z= √ 2 ,
ã24 + ã234 ã24 + ã234
si ottiene
x2 + 2αy + a′44 = 0,
dove
ã214
a′44 = a44 − ,
λ1

e purchè α = ã224 + ã234 ̸= 0. La superficie corrispondente è un cilindro parabolico.

Quanto determinato fin qui può essere riassunto e completato mediante il seguente schema.

{
a′44 = 0, punto
λ1 > 0, λ2 > 0, λ3 > 0
a′44 < 0, ellissoide

 ′
a44 < 0, iperboloide a una falda
λ1 > 0, λ2 > 0, λ3 < 0 a′44 > 0, iperboloide a due falde

 ′
a44 = 0, cono ellittico

ã34 ̸= 0, paraboloide
 { ellittico
λ1 > 0, λ2 > 0, λ3 = 0 ′
a44 = 0, retta

ã34 = 0
a′44 < 0, cilindro ellittico

ã34 ̸= 0, paraboloide
 { iperbolico
λ1 > 0, λ2 < 0, λ3 = 0 ′
a44 = 0, coppia di piani non paralleli

ã34 = 0
a′44 ̸= 0, cilindro iperbolico
{
ã224 + ã234 ̸= 0, cilindro parabolico
λ1 > 0, λ2 = 0, λ3 = 0
ã224 + ã234 = 0, ã214 − λ1 a44 ≥ 0, coppia di piani paralleli

Si tenga presente che le altre combinazioni di segni degli autovalori si possono ottenere dallo stesso
schema dopo un cambio di segno nell’equazione e che i sottocasi non esplicitamente menzionati nello
schema precedente danno luogo ad equazioni incompatibili.

• Esempio
Stabilire la natura della superficie definita dall’equazione

5x2 − y 2 + z 2 + 4xy + 6xz + 2x + 4y + 6z − 8 = 0

La forma quadratica corrispondente ha matrice


 
5 2 3
A = 2 −1 0 ,
3 0 1
18.4. CLASSIFICAZIONE DELLE SUPERFICI DEL SECONDO ORDINE 245

con autovalori λ1 = −2, λ2 = 0, λ3 = 7. In corrispondenza si hanno gli autovettori ortonormali


     
1 1 4
1   1   1  
X =√
(1)
−2 , X =√
(2)
2 , X =√
(3)
1 ,
6 −1 14 −3 21 2

da cui si ricava
   
√1 x̃ + √1 ỹ + √4 z̃
−2 0 0 6 14 21
e= − √2 x̃ + √2 ỹ + √1 z̃ 
Λ =  0 0 0 , X = QX  6 14 21 
,
0 0 7 − √16 x̃ − √314 ỹ + √221 z̃

e quindi
√ 4√ 8√
−2x̃2 + 7z̃ 2 − 2 6x̃ − 14ỹ + 21z̃ − 8 = 0.
7 7
In base alla classificazione precedente questa equazione rappresenta un paraboloide iperbolico.
In particolare, mediante la traslazione
√ √
′ 6 ′ ′ 4 21
x = x̃ + , y = ỹ, z = z̃ + ,
2 49
si ottiene
4√ 293
−2x′ + 7z ′ − 14y ′ −
2 2
= 0,
7 49
e, mediante l’ulteriore traslazione
293
x = x′ , y = y′ + √ , z = z′,
28 14
si ottiene
4√ z2 x2
−2x2 + 7z 2 − 14y = 0, ovvero √ − √ = 2y.
7 4/7 14 2/ 14
246 CAPITOLO 18. DIAGONALIZZAZIONE E FORME QUADRATICHE
Testi per l’esercitazione e
l’approfondimento

[1] L. Recine, M. Romeo, Esercizi di Analisi Matematica (vol 1, Funzioni reali di variabile reale), 2a
edizione, Maggioli (2013).

[2] M. Romeo, B. Scimmi, Esercizi di Algebra Lineare e Geometria, 2a edizione, Maggioli (2013).

[3] M. Bramanti, C.D. Pagani, S. Salsa, Matematica (calcolo infinitesimale e algebra lineare),
Zanichelli (2000).

[4] M. Bertsch, R. Dal Passo, L. Giacomelli, Analisi Matematica, McGraw-Hill (2011).

[5] J. Stewart, Calcolo (Funzioni di una variabile), Apogeo (2001).

247