Sei sulla pagina 1di 118

ANALISI 3

Anno 2019/2020

Giuseppe Molteni
versione 4.4
2

Questi sono gli appunti relativi al corso che ho tenuto negli Anni Accademici 2017–’20
presi e redatti da Manuel Luigi Trezzi sulla base delle note che avevo messo a disposizione
degli studenti quale traccia delle lezioni. In seguito ho provveduto ad integrarli espandendo
alcune sezioni e verificandone la coerenza generale. Ritengo siano abbastanza accurati per
essere utilizzati nello studio dei contenuti del corso, ma potrebbero esserci ancora refusi
ed imprecisioni, che, se presenti, sono da imputarsi solo a me. Ringrazio Luca Perone ed
Emma Albertelli per avermi segnalato alcune imprecisioni. Ringrazio fin da ora anche tutti
coloro che volessero segnalarmi eventuali ulteriori carenze ancora presenti nel testo.

Giuseppe Molteni

This work is licensed under a Creative Commons Attribution-NonCommercial-


NoDerivatives 4.0 International License. This means that: (Attribution) You must give
appropriate credit, provide a link to the license, and indicate if changes were made. You
may do so in any reasonable manner, but not in any way that suggests the licensor endorses
you or your use. (NonCommercial) You may not use the material for commercial purposes.
(NoDerivatives) If you remix, transform, or build upon the material, you may not distribute
the modified material.
Indice

1 Successioni e serie di funzioni 5


1.1 Successioni di funzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Convergenza puntuale . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Convergenza uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Proprietà della convergenza uniforme . . . . . . . . . . . . . . . . . . 8
1.1.4 Il teorema di densità di Weierstrass . . . . . . . . . . . . . . . . . . . 14
1.2 Serie di funzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.1 Convergenza di una serie di funzioni . . . . . . . . . . . . . . . . . . 16
1.2.2 La funzione di Takagi . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.3 Serie di potenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2 Funzioni implicite 31
2.1 Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2 Teorema di Dini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3 Contrazioni e Teorema del punto fisso . . . . . . . . . . . . . . . . . . . . . 36
2.4 Teorema di invertibilità locale . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.5 Teorema di Dini multidimensionale . . . . . . . . . . . . . . . . . . . . . . . 45
2.6 Estremi vincolati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

3 Equazioni Differenziali 53
3.1 Equazioni di forma speciale . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.1 Equazioni lineari del primo ordine . . . . . . . . . . . . . . . . . . . 55
3.1.2 Equazioni a variabili separabili . . . . . . . . . . . . . . . . . . . . . 56
3.1.3 Equazioni di Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2 Standardizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2.1 Da equazione di ordine k a equazione del primo ordine . . . . . . . . 59
3.2.2 Passaggio alla formulazione integrale . . . . . . . . . . . . . . . . . . 60
3.3 Teoremi di esistenza e unicità . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.4 Stabilità rispetto al modello e ai dati iniziali . . . . . . . . . . . . . . . . . . 66
3.5 Equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.5.1 Costruzione di una base . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.5.2 Matrice Wronskiana . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.5.3 Costruzione di una soluzione . . . . . . . . . . . . . . . . . . . . . . 72
3.5.4 Equazioni lineari a coefficienti costanti: descrizione del nucleo . . . . 75
3.6 Alcuni esempi interessanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.7 Soluzione particolare per le lineari a coefficienti costanti . . . . . . . . . . . 79
3.7.1 Generalizzare l’esponenziale . . . . . . . . . . . . . . . . . . . . . . . 82

3
4 INDICE

4 Curve, campi vettoriali, forme differenziali 89


4.1 Curve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.1.1 Classe di equivalenza e orientazione . . . . . . . . . . . . . . . . . . . 90
4.1.2 Concatenazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.2 Campi vettoriali e forme differenziali . . . . . . . . . . . . . . . . . . . . . . 94
4.2.1 Notazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.2.2 Integrazione di forme/campi lungo curve . . . . . . . . . . . . . . . . 97
4.2.3 Condizioni di esattezza . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.3 Omotopìe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.4 Divagazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

5 Bibliografia 115

6 Indice dei nomi 117


Capitolo 1

Successioni e serie di funzioni

1.1 Successioni di funzioni


1.1.1 Convergenza puntuale
Definizione 1.1.1. Sia X un insieme qualunque e sia {fn }n∈N una successione di funzioni
fn : X → R. Diciamo che la successione converge puntualmente (o semplicemente) in X
alla funzione f : X → R se e solo se per ogni x0 ∈ X si ha che:

lim fn (x0 ) esiste e vale f (x0 ).


n→∞

Equivalentemente possiamo dire che:

∀x0 ∈ X e ∀ϵ > 0 ∃N = N (x0 , ϵ) tale che se n ≥ N =⇒ |fn (x0 ) − f (x0 )| ≤ ϵ.

Osservazione 1.1.2.

• L’eventuale struttura di X non ha ruolo, ovvero non ha importanza si tratti di un insieme


di numeri, uno spazio metrico od un insieme dotato di topologia: perché la definizione
abbia senso basta che esso sia un qualunque insieme di oggetti.

• Il punto x0 svolge il ruolo di parametro che resta fissato durante il processo di limite, il
quale coinvolge solo la sequenza numerica {fn (x0 )}n∈N ed il numero f (x0 ). La relazione
limn→∞ fn (x0 ) = f (x0 ) è quindi quella per successioni in R.

• R è uno spazio metrico quindi rispetta la proprietà di Hausdorff (punti distinti sono
separati da aperti disgiunti). Questo garantisce che il limite se esiste è unico. La funzione
f è quindi univocamente determinata dalla relazione secondo cui

f (x0 ) := lim fn (x0 ).


n→∞

• Nella definizione si può sostituire R con Rn o un qualsiasi altro spazio metrico o un


qualunque altro spazio topologico Y : basterà tenere conto di come debba essere intesa
l’operazione di limite per successioni a valori in Y .

I seguenti esempi mostrano che per quanto sia di facile comprensione, la convergenza
puntuale non preserva proprietà importanti quali: limitatezza, continuità, integrabilità e
derivabilità.

5
6 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Esempio 1.1.3. fn (x) → f (x) con fn limitata per ogni n non implica che f sia limitata.
fn (x) = min(|x|, n), ogni fn è limitata ma la successione converge puntualmente a f (x) =
|x| che non è limitata.
y f

f2

f1

x
−2 −1 1 2

Esempio 1.1.4. fn → f puntualmente con fn continua per ogni n non implica che f sia
continua.
fn (x) : [0, 1] → R, fn (x) = xn . Le fn sono continue in tutti i punti di [0, 1] ma la successione
converge puntualmente a
(
1 se x = 1
f (x) = che non è continua in 1.
0 se x ∈ [0, 1)
y

f1
f2
f3

x
1

Esempio 1.1.5. fn → f puntualmente con fn integrabile per ogni n non implica che f sia
integrabile.
fn (x) : [0, 1] → R con (
1 se x = 2an , a ∈ N
fn (x) =
0 altrimenti.
Ogni fn ha un numero finito di discontinuità e quindi è Riemann integrabile. La successione
converge puntualmente a
(
1 se x = 2ab , a, b ∈ N
f (x) =
0 altrimenti.
Questa funzione non è Riemann integrabile poiché sia l’insieme { 2ab , a, b ∈ N} (i numeri
diadici) che il suo complementare sono densi in [0, 1] (e quindi in ogni intervallo I con
interno non vuoto si ha supx∈I f (x) = 1 ed inf x∈I f (x) = 0).
1.1. SUCCESSIONI DI FUNZIONI 7

Esempio 1.1.6. fn → f puntualmente con fn derivabile per ogni n non implica che f sia
derivabile. q
fn (x) : Ω ⊆ R → R con Ω aperto fn (x) = x2 + n1 , tutte le fn sono derivabili ma la
successione converge puntualmente a f (x) = |x| che non è derivabile.
y
f

1.1.2 Convergenza uniforme


Definizione 1.1.7. Sia X un insieme qualunque e sia {fn }n∈N una successione di funzioni
fn : X → R. Diciamo che {fn } converge uniformemente in X alla funzione f : X → R se:

∀ϵ > 0 ∃N = N (ϵ) tale che se n ≥ N =⇒ |fn (x0 ) − f (x0 )| ≤ ϵ ∀x0 ∈ X.

Si osservi che la convergenza uniforme si differenzia dalla convergenza puntuale per il


fatto che ora si chiede l’indipendenza (ovvero uniformità) di N dal punto di convergenza.
Graficamente, la convergenza uniforme corrisponde a richiedere che per ogni ϵ esista un N
tale per cui il grafico di fn con n ≥ N sia interamente nell’intorno tubolare f ± ϵ.
y
f +ϵ
f
f −ϵ

Definizione 1.1.8. Data g : X → R definiamo ∥g∥∞,X := supx∈X |g(x)|.


Vedremo in seguito perché questa quantità sia indicata con il simbolo di norma. Utilizzando
questo nuovo concetto, la definizione di convergenza uniforme può essere formulata in uno
qualunque dei modi seguenti:

∀ϵ > 0 ∃N = N (ϵ) tale che se n ≥ N =⇒ ∥fn − f ∥∞,X ≤ ϵ;

ovvero che:
n ≥ N ⇒ sup |fn (x) − f (x)| ≤ ϵ;
x∈X
ovvero che:
lim sup |fn (x) − f (x)| = 0;
n→∞ x∈X

ovvero che:
lim ∥fn − f ∥∞,X = 0.
n→∞
8 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Proposizione 1.1.9. Siano {fn }n∈N , f : X → R e supponiamo che fn converga ad f


uniformemente in X. Allora la successione fn converge ad f anche puntualmente X. In
particolare, quindi, anche il limite uniforme è necessariamente unico.

Questo fatto consente di vedere la convergenza uniforme come una (possibile) caratteristica
della convergenza puntuale.

Dimostrazione. Fissiamo x0 ∈ X. Dalla stima

|fn (x0 ) − f (x0 )| ≤ sup |fn (x) − f (x)| = ∥fn − f ∥∞,X


x∈X

segue immediatamente che se limn→∞ ∥fn − f ∥∞,X = 0 allora anche limn→∞ |fn (x0 ) −
f (x0 )| = 0, ovvero che la convergenza uniforme implica la convergenza puntuale alla
medesima funzione.

1.1.3 Proprietà della convergenza uniforme


Teorema 1.1.10. Siano {fn }n∈N , f : X → R e supponiamo che fn converga uniformemen-
te a f in X. Supponiamo che ogni fn sia limitata. Allora anche f è limitata e la sequenza
{fn }n∈N è equi-limitata (ovvero esiste M ∈ R tale che ∥fn ∥∞,X ≤ M per ogni n).

Dimostrazione. Sia ϵ = 1. Dalla definizione di convergenza uniforme deduciamo l’esistenza


di un indice N con la proprietà secondo cui |fn (x) − f (x)| ≤ 1, comunque si prendano
x ∈ X ed n ≥ N .
Dalla disuguaglianza triangolare segue che

|f (x)| = |f (x) − fN (x) + fN (x)| ≤ |f (x) − fN (x)| + |fN (x)| ∀x ∈ X,

e questo è ≤ 1 + ∥fN ∥∞,X per come abbiamo scelto N .


Dall’ipotesi di limitatezza si ha che ∥fN ∥∞,X < ∞, così dalla relazione precedente dedu-
ciamo che
sup |f (x)| ≤ 1 + ∥fN ∥∞,X < ∞,
X

che dimostra la limitatezza di f .


Per la seconda tesi procediamo in modo analogo. Supponiamo n ≥ N , ed osserviamo che

|fn (x)| = |fn (x) − f (x) + f (x)| ≤ |fn (x) − f (x)| + |f (x)| ≤ 1 + ∥f ∥∞,X < +∞

(poiché sappiamo che f è limitata). visto che il lato destro della relazione è indipendente
da x, questa disuguaglianza dimostra che

∥fn ∥∞,X ≤ 1 + ∥f ∥∞,X

quando n ≥ N . Per ipotesi ogni fn è limitata, quindi la quantità

M := max{∥f1 ∥∞,X , ∥f2 ∥∞,X , . . . , ∥fN ∥∞,X , 1 + ∥f ∥∞,X }

è una quantità finita e per costruzione garantisce la stima ∥fn ∥∞,X ≤ M per ogni n ∈
N.
1.1. SUCCESSIONI DI FUNZIONI 9

Teorema 1.1.11. Siano {fn }n∈N , f : X ⊆ R → R e supponiamo che fn → f uniforme-


mente in X. Sia x0 ∈ X e supponiamo che ogni fn sia continua in x0 . Allora anche f è
continua in x0 e la sequenza {fn }n∈N è equi-continua in x0 (ovvero il modulo di continuità
δ di fn può essere scelto in modo da essere indipendente da n).
Dimostrazione. Nei punti isolati tutte le funzioni risultano continue, quindi per dimostrare
la tesi possiamo assumere che x0 sia d’accumulazione per X. Fissiamo ϵ > 0. Dalla ipotesi di
convergenza uniforme segue l’esistenza di N = N (ϵ) tale che se n ≥ N allora ∥fn −f ∥∞,X ≤
ϵ. Dalla disuguaglianza triangolare in R, segue che comunque si scelga x si ha:

|f (x) − f (x0 )| = |f (x) − fN (x) + fN (x) − fN (x0 ) + fN (x0 ) − f (x0 )|


≤ |f (x) − fN (x)| + |fN (x) − fN (x0 )| + |fN (x0 ) − f (x0 )|.

Il primo e il terzo addendo sono ciascuno minori di ϵ, perciò:

|f (x) − f (x0 )| ≤ 2ϵ + |fN (x) − fN (x0 )|.

Questa relazione vale comunque venga scelto x, e per la sua validità non abbiamo ancora
utilizzato l’ipotesi di continuità delle fn , che invece interviene ora. Dalla ipotesi secondo
cui fN è continua in x0 deduciamo l’esistenza di δ = δ(ϵ) tale che se |x − x0 | ≤ δ allora
|fN (x)−fN (x0 )| ≤ ϵ. Per tali x quindi la stima precedente di f diventa |f (x)−f (x0 )| ≤ 3ϵ,
che dimostra la continuità di f .
La seconda parte della tesi è dimostrata in modo analogo, osservando che se n ≥ N , allora

|fn (x) − fn (x0 )| = |fn (x) − f (x) + f (x) − f (x0 ) + f (x0 ) − fn (x0 )|
≤ |fn (x) − f (x)|+|f (x) − f (x0 )|+|f (x0 ) − fn (x0 )| ≤ 2ϵ+|f (x) − f (x0 )|.

Ma f è continua in x0 , quindi esiste δ = δ(ϵ) tale che se |x−x0 | ≤ δ allora |f (x)−f (x0 )| ≤ ϵ.
Per tali x quindi la stima precedente diventa |fn (x)−fn (x0 )| ≤ 3ϵ, indipendentemente dalla
scelta di n, purché sia ≥ N .
Visto che per ipotesi ogni elemento della successione è continuo in x0 , esistono poi anche le
quantità δ1 , δ2 , . . . , δN tali per cui se |x − x0 | ≤ δj allora |fj (x) − fj (x0 )| ≤ ϵ, per ciascuno
dei j = 1, 2, . . . , N . Fissando quindi

δ ′ := min{δ1 , δ2 , . . . , δN , δ}

(che non è 0, essendo il minimo tra quantità positive) si deduce che

|x − x0 | ≤ δ ′ =⇒ |fn (x) − fn (x0 )| ≤ ϵ ∀n ∈ N,

ovvero la equicontinuità della famiglia di funzioni fn nel punto x0 .

Definizione 1.1.12. Definiamo B(X, R) := {f : X → R, ∥f ∥∞,X < ∞}, che quindi è


l’insieme delle funzioni limitate da X in R.
Osservazione 1.1.13. L’insieme B(X, R) è uno spazio vettoriale. Infatti

|(f + g)(x)| = |f (x) + g(x)| ≤ |f (x)| + |g(x)| ≤ ∥f ∥∞,X + ∥g∥∞,X < ∞,

che dimostra che la somma di due funzioni limitate è limitata. Passando al sup in x questa
stessa disuguaglianza mostra anche che

∥(f + g)∥∞,X ≤ ∥f ∥∞,X + ∥g∥∞,X .


10 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Analogamente, se si moltiplica per uno scalare si ha

|(λf )(x)| = |λ| · |f (x)| ≤ |λ| · ∥f ∥∞,X ,

che dimostra come anche λf sia una funzione limitata, e che

∥λf ∥∞,X ≤ |λ| · ∥f ∥∞,X .

Osservazione 1.1.14. ∥f ∥∞,X è una norma su B(X, R). Infatti

• ∥f ∥∞,X ≥ 0 e ∥f ∥∞,X = 0 ⇐⇒ f ≡ 0,

• rispetta la disuguaglianza triangolare (si veda sopra),

• ∥λf ∥∞,X = |λ| · ∥f ∥∞,X

Dimostrazione. Qui sopra abbiamo verificato che ∥λf ∥∞,X ≤ |λ| · ∥f ∥∞,X . Per dimo-
strare la disuguaglianza opposta basta osservare che la tesi è sicuramente vera se λ = 0,
e che se λ ̸= 0 allora quella stessa stima dà che |λ| · ∥f ∥∞,X = |λ| · ∥ λ1 λf ∥∞,X ≤
1
|λ| · |λ| · ∥λf ∥∞,X = ∥λf ∥∞,X .

Proposizione 1.1.15. B(X, R) dotato della norma ∥f ∥∞,X è uno spazio normato com-
pleto (è quindi uno spazio di Banach).

Dimostrazione. Vogliamo dimostrare che ogni sequenza di Cauchy è convergente.


Sia {fn }n∈N una successione di Cauchy. In base alla definizione questo significa che per
ogni ϵ > 0 esiste N = N (ϵ) tale che se n, m ≥ N allora ∥fn − fm ∥∞,X ≤ ϵ.
Fissiamo dunque ϵ > 0 e sia N come sopra. Sia poi x0 ∈ X arbitrariamente preso. Allora
per m, n ≥ N si ha

|fn (x0 ) − fm (x0 )| ≤ sup |fn (x) − fm (x)| = ∥fn − fm ∥∞,X ≤ ϵ.


x∈X

Quindi la successione {fn (x0 )}n∈N è di Cauchy in R. Dalla completezza di R segue che
essa converge a qualche elemento di R. Visto che questo argomento vale qualunque sia la
scelta di x0 , deduciamo che limn→∞ fn (x0 ) esiste per ogni x0 ∈ X. Questo mostra sia che la
funzione f (x) := limn→∞ fn (x) è ben definita in X, sia che fn converge ad f puntualmente.
Verifichiamo ora che la convergenza è in realtà uniforme. Infatti, sappiamo che la scelta
di N garantisce che se n, m ≥ N allora |fn (x) − fm (x)| ≤ ϵ, per ogni x ∈ X. Una volta
fissato n, mandando m all’infinito in questa stima deduciamo che |fn (x)−f (x)| ≤ ϵ. Ma x è
arbitrario e N non dipende da esso, quindi la stima precedente implica che ∥fn −f ∥∞,X ≤ ϵ,
che dimostra la convergenza uniforme.
Osserviamo infine che per il Teorema 1.1.10 la funzione f è limitata, visto che è limite
uniforme di funzioni limitate.

Definizione 1.1.16. Sia Ω ⊆ R aperto, e sia C(Ω, R) := {f : Ω → R, f continua}. Indi-


chiamo con BC(Ω, R) l’intersezione B(Ω, R) ∩ C(Ω, R) =: BC(Ω, R), ovvero l’insieme delle
funzioni continue e limitate in Ω.

Proposizione 1.1.17. BC(Ω, R) dotato della norma ∥ · ∥∞,Ω è uno spazio di Banach.
1.1. SUCCESSIONI DI FUNZIONI 11

Dimostrazione. L’insieme BC(Ω, R) è un sottoinsieme di B(Ω, R), che è completo per la


proposizione precedente. Per dimostrare la tesi basta quindi dimostrare che BC(Ω, R) è
un sottoinsieme chiuso di B(Ω, R). Di fatto questo è immediato poiché sappiamo che se
{fn }n∈N ⊆ BC(Ω, R) converge uniformemente a f ∈ B(Ω, R), allora f stessa è continua
per il Teorema 1.1.11, visto che è limite uniforme di funzioni continue.

Teorema 1.1.18. Siano {fn }n∈N , f : [a, b] ⊂ R → R con fn → f uniformemente. Se


fn ∈ R([a, b]) per ogni n, allora anche f ∈ R([a, b]) ed inoltre
Z b Z b
fn (x) dx − f (x) dx ≤ (b − a) · ∥fn − f ∥∞,X


a a

quindi
Z b Z b
lim fn (x) dx = f (x) dx
n→∞ a a

ovvero
Z b Z b
lim fn (x) dx = lim fn (x) dx.
n→∞ a a n→∞

Dimostrazione. Fissiamo ϵ > 0. Per l’ipotesi di convergenza uniforme sappiamo che esiste
N = N (ϵ) tale che se n ≥ N allora ∥fn − f ∥∞,[a,b] ≤ ϵ. Siccome fN ∈ R([a, b]), sappiamo
che esiste una partizione P := {a = x0 ≤ x1 ≤ · · · ≤ xk = b} per la quale:
k
X
fj,N − m
(M e j,N ) · (xj − xj−1 ) ≤ ϵ,
j=1

dove M
fj,N := sup[x ,x ] fN (x) e m
j−1 j
e j,N := inf [xj−1 ,xj ] fN (x).
Osserviamo che f (x) = fN (x) + f (x) − fN (x) da cui:

f (x) ≤ fN (x) + |f (x) − fN (x)| ≤ fN (x) + ∥fN − f ∥∞,[a,b] ≤ fN (x) + ϵ.

Quindi se x ∈ [xj−1 , xj ] si ha f (x) ≤ sup[xj−1 ,xj ] fN (x) + ϵ = M


fj,N + ϵ e perciò

Mj := sup f (x) ≤ M
fj,N + ϵ.
[xj−1 ,xj ]

Analogamente si ha f (x) ≥ fN (x) − |f (x) − fN (x)| ≥ fN (x) − ∥fN − f ∥ ≥ fN (x) − ϵ quindi


se x ∈ [xj−1 , xj ] si ha f (x) ≥ inf [xj−1 ,xj ] fN (x) − ϵ = m
e j,N − ϵ e perciò

mj := inf f (x) ≥ m
e j,N − ϵ.
[xj−1 ,xj ]

Da queste stime segue che:


k
X k
X
(Mj − mj )(xj − xj−1 ) ≤ fj,N − m
(M e j,N + 2ϵ) · (xj − xj−1 )
j=1 j=1
k
X k
X
= fj,N − m
(M e j,N ) · (xj − xj−1 ) + 2ϵ (xj − xj−1 ) ≤ ϵ + 2ϵ(b − a)
j=1 j=1
12 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

che conclude la dimostrazione della prima tesi. Per la seconda basta osservare che
Z b Z b Z b
fn (x) dx − f (x) dx = (fn (x) − f (x)) dx


a a a
Z b Z b

≤ fn (x) − f (x) dx ≤ ∥fn − f ∥∞,[a,b] dx = ∥fn − f ∥∞,[a,b] (b − a).
a a

Osservazione 1.1.19. Abbiamo già visto che la sola convergenza puntuale non garantisce la
Riemann integrabilità della funzione limite. Il seguente esempio mostra che anche nel caso
in cui la funzione limite sia comunque Riemann integrabile, non è comunque detto che il
suo integrale sia pari al limite degli integrali delle funzioni della successione. Prendiamo
(
n se x ∈ ( n1 , n2 )
fn (x) =
0 altrimenti

È chiaro che fn (x) → 0 per ogni scelta di x, ovveroR che la successione converge (pun-
1 R1
tualmente) alla funzione identicamente nulla. Quindi 0 limn→∞ fn (x) dx = 0 f (x) dx =
R1 R1 R1
0 0 dx = 0. Tuttavia 0 fn (x) dx = 1 per ogni n quindi limn→∞ 0 fn (x) dx = 1.
Osservazione 1.1.20. La tesi del teorema non è estendibile agli integrali di Riemann im-
propri, neppure in presenza di convergenza uniforme su R. Ad esempio, prendiamo
(
1
se x ∈ (−n, n)
fn (x) = n
0 se |x| ≥ n.

Visto che supR |fn (x)| = n1 → 0, deduciamo che la sequenza fRn converge uniformemen-
te in R Ralla funzione f identicamente
R nulla.
R Ciononostante R fn (x) dx = 2 e quindi
limn→∞ R fn (x) dx = 2 ̸= 0 = R 0 dx = R f (x) dx.
Osservazione 1.1.21. La convergenza uniforme non preserva la derivabilità. Si consideri
l’Esempio 1.1.6 e si osservi che in quel caso fn → f uniformemente in R, visto che
p 1/n 1/n 1
|fn (x) − f (x)| = | x2 + 1/n − |x|| = p ≤p =√
x2 + 1/n + |x| 1/n n

e che quindi ∥fn − f ∥∞,R ≤ √1 → 0.


n

Teorema 1.1.22. Sia {fn }n∈N : (a, b) ⊆ R → R. Supponiamo che esista un punto x0 ∈
(a, b) tale per cui la sequenza numerica {fn (x0 )}n∈N converga a un numero ℓ. Assumiamo
inoltre che ogni fn sia derivabile in (a, b) e che esista g : (a, b) → R tale che {fn′ }n∈N → g
uniformemente in (a, b). Allora:

• esiste f : (a, b) → R tale che fn → f puntualmente in (a, b),

• la convergenza è uniforme sui compatti contenuti in (a, b),

• f è derivabile e f ′ (x) = g(x) per ogni x ∈ (a, b), ovvero


d   d 
lim fn (x) = lim fn (x).
dx n→∞ n→∞ dx
1.1. SUCCESSIONI DI FUNZIONI 13

Dimostrazione. Dimostriamo la tesi sotto l’ipotesi che le funzioni fn′ siano continue ∀n;
questo consente di semplificare notevolmente la dimostrazione della tesi (che tuttavia è
valida anche senza questa assunzione).
Dal teorema fondamentale
Rx ′ del calcolo integrale sappiamo che sotto quella ipotesi si ha che
fn (x) = fn (x0 ) + x0 fn (u) du. La funzione g è per ipotesi il limite uniforme delle {fn′ }n∈N
che sono continue, quindi anche g è continua. Questo suggerisce di porre
Z x
f (x) := ℓ + g(u) du.
x0

Infatti, da quanto detto su g segue che f è ben definita in (a, b), è derivabile in (a, b) con
derivata g continua, e quindi f ∈ C 1 ((a, b)). Rx
Sottraendo le due relazioni abbiamo l’uguaglianza fn (x) − f (x) = fn (x0 ) − ℓ + x0 (fn′ (u) −
g(u)) du, che per la disuguaglianza triangolare dà:
Z x
|fn (x) − f (x)| ≤ |fn (x0 ) − ℓ| + |(fn′ (u) − g(u))| du

x0
Z x
≤ |fn (x0 ) − ℓ| + ∥fn′ − g∥∞,(a,b) du

x0
= |fn (x0 ) − ℓ| + |x − x0 | · ∥fn′ − g∥∞,(a,b) .

Sia K un qualunque compatto in (a, b) che senza ledere di generalità possiamo immaginare
contenga x0 (altrimenti basta considerare {x0 }∪K che è ancora un compatto di (a, b)). Sia-
no α, β ∈ R scelti in modo da garantire che K ⊆ [α, β] ⊆ (a, b). Allora dalla disuguaglianza
precedente e per ogni x ∈ K si ha:

|fn (x) − f (x)| ≤ |fn (x0 ) − ℓ| + (β − α)∥fn′ − g∥∞,(a,b) .

(Nell’ultimo passaggio si è usato il fatto che dovendo x ed x0 essere in K si ha per certo


|x − x0 | ≤ β − α).
Abbiamo quindi ottenuto la stima secondo cui

∥fn − f ∥∞,K ≤ |fn (x0 ) − ℓ| + (β − α)∥fn′ − g∥∞,(a,b) ,

ma entrambi gli addendi per ipotesi tendono a zero quando n diverge, quindi ∥fn − f ∥∞,K
stessa tende a zero. Questo dimostra la convergenza uniforme di fn ad f sul compatto K.
Visto che K è del tutto arbitrario, da questo segue poi che la convergenza è certa in ogni
punto di (a, b), ovvero la convergenza puntuale di fn ad f è vera in (a, b).

Esercizio 1.1.23. Sia BC 1 ((a, b), R) := {f : (a, b) → R, f ∈ C 1 , f, f ′ limitate}. Verificare


che è uno spazio vettoriale e che posto ∥|f ∥|1 := ∥f ∥∞,(a,b) + ∥f ′ ∥∞,(a,b) , questa è una
norma in BC 1 . Verificare poi che BC 1 con questa norma è uno spazio di Banach.
Esercizio 1.1.24. Sia BC 1 ((a, b), R) := {f : (a, b) → R, f ∈ C 1 , f, f ′ limitate}. Sia x0 ∈
(a, b) fissato e sia ∥|f ∥|2 := |f (x0 )| + ∥f ′ ∥∞,(a,b) . Verificare che anche ∥| · ∥|2 è una norma
in BC 1 ((a, b), R). Verificare poi che
1
∥|f ∥|1 ≤ ∥|f ∥|2 ≤ ∥|f ∥|1
b−a+1
per ogni f ∈ BC 1 ((a, b), R). Osservare che questo dimostra che le due norme sono equiva-
lenti e che quindi BC 1 è uno spazio di Banach anche con la norma ∥| · ∥|2 .
14 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

1.1.4 Il teorema di densità di Weierstrass


Nel 1885 Weierstrass1 mostrò che nonostante i polinomi siano una famiglia di funzioni
decisamente speciali, essi sono però sufficientemente numerosi da riuscire ad approssimare
in ogni intervallo compatto ed in norma sup ogni funzione continua. Ecco il suo risultato:

Teorema 1.1.25. L’insieme dei polinomi a coefficienti reali è denso in C([0, 1], R), in
norma sup. Ciò significa che dato una qualunque f : [0, 1] → R, continua, per ogni scelta
di ϵ > 0 esiste un polinomio q ∈ R[x] tale che ∥f − q∥∞,[0,1] ≤ ϵ.

In seguito tale risultato fu rivisto e notevolmente generalizzato, individuando nella compat-


tezza del dominio e nel fatto che i polinomi siano una sotto-algebra separante ed invariante
per coniugio le proprietà chiave che rendono possibile questo risultato2 . La generalizzazione
è nota con il nome di teorema di Stone–Weierstrass.
Di seguito esponiamo la dimostrazione che Bernstein3 diede nel 1912 del teorema nella ver-
sione originale di Weierstrass. Questa dimostrazione non solo unisce semplicità e profondità,
ma è pure costruttiva.

Dimostrazione. Per ogni coppia di interi k, n con 0 ≤ k ≤ n, sia


 
n k
Bk,n (x) := x (1 − x)n−k .
k

Tracciare un grafico di questi polinomi è istruttivo: ognuno di essi è un polinomio a valori


non negativi con un unico massimo (su [0, 1]) in k/n, con gran parte della loro “massa”
concentrata attorno al loro punto di massimo k/n. In un certo senso quindi sono delle
versioni “polinomiali” delle delta di Dirac nei punti razionali k/n. Osserviamo che
n
X n
X n
X
Bk,n (x) = 1, kBk,n (x) = nx, k(k − 1)Bk,n (x) = n(n − 1)x2 .
k=0 k=0 k=0

Queste relazioni possono essere dimostrate in vari modi; il più veloce è però attraverso la
funzione generatrice
n n  
X
ky
X n
R(y) := e Bk,n (x) = (xey )k (1 − x)n−k = (xey + 1 − x)n ,
k
k=0 k=0

identità che segue dallo sviluppo del binomio. Le uguaglianze precedenti allora diventano:
n
X
Bk,n (x) = R(0) = 1,
k=0

1
in Über die analytische Darstellbarkeit sogenannter willkürlicher Functionen einer reellen Veränderli-
chen, Verl. d. Kgl. Akad. d. Wiss. Berlin, vol. 2 (1885) p. 633–639.
2
Sotto-algebra significa che possono essere sommati, moltiplicati per costanti ma anche moltiplicati tra
loro, senza uscire dalla loro classe di funzioni; separante significa che dati due qualunque punti distinti
esiste sempre un elemento della sotto-algebra che assume in quei due punti valori diversi e che quindi
li distingue, ed invariante per coniugio significa che se un elemento g è nella sotto-algebra allora anche
l’elemento ḡ i cui valori sono dati da ḡ(x) := g(x) appartiene alla sotto-algebra.
3
in Démonstration du théorème de Weierstrass fondée sur le calcul des probabilités, Communications of
the Kharkov Mathematical Society, Vol. XIII (1912/13), p. 1–2.
1.1. SUCCESSIONI DI FUNZIONI 15

n
X
kBk,n (x) = R′ (0) = nxey (xey + 1 − x)n−1 y=0 = nx,

k=0
n
X
k 2 Bk,n (x) = R′′ (0) = nxey (xey + 1 − x)n−1 y=0 + n(n − 1)x2 e2y (xey + 1 − x)n−2 y=0

k=0
= nx + n(n − 1)x2 .
Da queste identità segue che
n
X n
X
2
(k − nx) Bk,n (x) = (k 2 − 2nkx + n2 x2 )Bk,n (x)
k=0 k=0
n
= n(n − 1)x2 + nx − 2nx · nx + n2 x2 = nx − nx2 = nx(1 − x) ≤ .
4
Sia ora f ∈ C([0, 1]) e sia
n
X k
qn (x) := f Bk,n (x),
n
k=0
quindi una combinazione lineare dei polinomi Bk,n , con i valori di f nei punti k/n (i massimi
dei Bk,n ) quali coefficienti. Sia ϵ > 0 scelto ad arbitrio e sia δ = δ(ϵ) > 0 una costante con
la proprietà per cui ogni qual volta |u − v| ≤ δ vale la stima |f (u) − f (v)| ≤ ϵ: tale valore
esiste per la uniforme continuità di f (che è continua su compatto). Allora
n k n n   
X X X k 
|qn (x) − f (x)| = f Bk,n (x) − f (x) Bk,n (x) = f − f (x) Bk,n (x)

n n
k=0 k=0 k=0
n
X k
≤ f − f (x) Bk,n (x),

n
k=0

dove si è usato il fatto che i Bk,n (x) sono non negativi e si sommano a 1, e la disuguaglianza
triangolare. Spezziamo la somma in due parti, quella sui termini in cui k/n è vicino a x e
gli altri (dove per “vicino” si intende a distanza inferiore di δ). Si ottiene:
n
X k n
X k
= f − f (x) Bk,n (x) + f − f (x) Bk,n (x).

n n
k=0 k=0
|k/n−x|≤δ |k/n−x|>δ

Nella prima somma il termine f nk − f (x) è inferiore ad ϵ, perché per quei termini


la distanza | nk − x| è inferiore a δ. Nella seconda questa stima non è più garantita, ma


comunque quel termine è dominato da 2∥f ∥∞ . Questo dà:
n
X n
X
≤ϵ Bk,n (x) + 2∥f ∥∞ Bk,n (x).
k=0 k=0
|k/n−x|≤δ |k/n−x|>δ

La prima somma è dominata da 1 (ancora perché i Bk,n sono non negativi e si sommano
a 1), mentre nella seconda introduciamo il peso quadratico (|k/n − x|/δ)2 che è maggiore
di 1, ottenendo:
n n
2∥f ∥∞ X k 2 2∥f ∥∞ X
≤ϵ+ −x Bk,n (x) = ϵ + 2 2 (k − nx)2 Bk,n (x)
δ2 n n δ
k=0 k=0
|k/n−x|>δ |k/n−x|>δ
16 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

2∥f ∥∞ n ∥f ∥∞
≤ϵ+ 2 2
=ϵ+ ,
n δ 4 2nδ 2
dove per la seconda somma si è usato la stima dimostrata precedentemente. Scegliendo n
abbastanza grande possiamo fare in modo che anche il secondo termine sia ≤ ϵ, così che
questo dimostra che ∥qn − f ∥∞,[0,1] ≤ 2ϵ.

La parte più innovativa della procedura è l’idea di introdurre il peso quadratico. Bernstein
concepì questa dimostrazione ragionando in termini probabilistici; infatti, se X1 , . . . , Xn
sono variabili aleatorie indipendenti ognuna delle quali assume solo i valori 1 ed 0 con
probabilità rispettivamente x ed 1−x, allora la variabile S := X1 +· · ·+Xn assume i valori
k = 1, . . . , n con probabilità p([S = k]) = Bk,n (x); le varie identità trovate sono legate alla
media ed alla varianza di S (e la R è legata alla funzione generatrice dei momenti di S)
e l’introduzione del peso quadratico corrisponde all’uso della disuguaglianza di Chebyshev
che stima la probabilità di un evento in termini della varianza.

1.2 Serie di funzioni


1.2.1 Convergenza di una serie di funzioni
P∞
Siano date {fk }k∈N : X → R, con le quali costruiamo
Pn k=0 fk come limite (in qualche sen-
so) della successione delle somme parziali Sn := k=0 fk . In particolare ogni affermazione
fatta sulla serie riceve significato dalla sua interpretazione attraverso le somme parziali.
Quindi, ad esempio, la frase

“La ∞
P
k=1 fk converge uniformemente in X”

è da intendersi come
Pn
“La successione Sn := k=1 fk converge uniformemente in X”.
Osservazione 1.2.1. Questa definizione identifica le serie come caso particolare delle suc-
cessioni. In realtà è possibile anche l’approccio opposto, visto che ogni successione {fn }n∈N
è scrivibile come
X n
fn = fn − f−1 = (fk − fk−1 )
k=0
(dove si è introdotta la funzione f−1 (x) := 0 per ogni x ∈ X), e quindi come sequenza
delle somme parziali di una serie. È quindi solo per una certa maggior semplicità notazio-
nale che tradizionalmente si studiano prima le successioni: dal punto di vista strettamente
matematico i due linguaggi sono del tutto equivalenti.
Osservazione 1.2.2. Si faccia attenzione
P∞ a questo fatto: fino a che la convergenza della serie
non sia stata indagata, il simbolo k=0 fk indica unicamente la successione delle somme
parziali (più precisamente indica una domanda: tale successione converge?); una volta
stabilita la sua convergenza lo stesso simbolo passa ad indicare il limite della successione.
Proposizione 1.2.3 (Criterio di c.u.). Siano {fk }k∈N : X → R una successione di funzioni
limitate. Allora la serie ∞
P
k=0 k converge uniformemente in X se e solo se
f
m
X
∀ϵ > 0 ∃N = N (ϵ) tale che se m > n ≥ N =⇒ fk ≤ ϵ.

∞,X
k=n+1
1.2. SERIE DI FUNZIONI 17

Pn le funzioni fk sono limitate; questo garantisce che anche le


Dimostrazione. Per ipotesi
somme parziali Sn := k=0 fk lo sono. In particolare sia le fk che le Sn sono funzioni
in B(X, R). Per definizione, la serie è detta convergere uniformemente in X quando la
successione {Sn }n∈N converge uniformemente. Dalla completezza di B(X, R) segue che
questo accade se e solo se {Sn }n∈N ha la proprietà di Cauchy, ovvero se e solo se

∀ϵ > 0 ∃N = N (ϵ) tale che se m > n ≥ N =⇒ Sm − Sn ∞,X ≤ ϵ.
La tesi segue immediatamente per il fatto che
Xm n
X m
X

Sm − Sn =

fk − fk

=

fk

.
∞,X ∞,X ∞,X
k=0 k=0 k=n+1

P∞
Corollario 1.2.4. Sia {fk }k∈N : X → R una successione di funzioni limitate. Se k=0 fk
converge uniformemente in X allora ∥fk ∥∞,X → 0 al divergere di k.
Dimostrazione. Basta prendere m = n + 1 nel criterio di convergenza uniforme (Proposi-
zione 1.2.3).

Si osservi che il corollario esprime solo una condizione necessaria: non basta che ∥fk ∥∞,X
tenda a zero perché la serie converga. Tuttavia se opportunamente rafforzata, questa
condizione è in grado di garantire la convergenza della serie. Ecco come.
Corollario 1.2.5 (Test di Weierstrass). Se ∞
P P∞
k=0 ∥fk ∥∞,X converge allora k=0 fk con-
verge uniformemente in X.
P∞
Dimostrazione. Fissiamo ϵ > 0. Per ipotesi la serie P k=0 ∥fk ∥∞,X numerica converge,
quindi esiste N = N (ϵ) tale che se m > n ≥ N allora m k=n+1 ∥fk ∥∞,X ≤ ϵ. Ma allora
dalla disuguaglianza triangolare segue che
m
X m
X
f ≤ fk ≤ ϵ,

k ∞,X
∞,X
k=n+1 k=n+1
P∞
e quindi la serie k=0 fk soddisfa il criterio di convergenza uniforme.

Osservazione 1.2.6. Il valore di ∞


P
k=0 ∥fk ∥∞,X non ha alcun ruolo, quindi per poter appli-
care il test basta stabilire la sua esistenza come numero in R e per fare questo non serve
calcolare il valore esatto di ∥fk ∥∞,X ma basta avere una sua stima per eccesso.
Esempio 1.2.7. Verificare che ∞ sin kx
P
k=1 k2 +ekx converge uniformemente in R.
sin(kx)
Poniamo fk := k2 +ekx
, ed osserviamo che
1 1
|fk (x)| ≤ ≤ 2
k 2 + ekx k
1
comunque si scelga x ∈ R. Quindi ∥fk ∥∞,R ≤ k2
, così che
∞ ∞
X X 1
∥fk ∥∞,R ≤ < ∞.
k2
k=1 k=1

In base al test di Weierstrass questo è sufficiente per dimostrare la convergenza uniforme


in R della serie.
18 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Vista l’importanza del test, si è introdotto un termine specifico per indicare le serie di
funzioni che lo soddisfano:
Definizione 1.2.8. Se ∞
P
k=0 ∥fk ∥∞,X < ∞ allora diciamo che la serie converge totalmen-
te in X: il test di Weierstrass mostra che la terminologia è corretta, ovvero che si tratta
effettivamente di una convergenza della serie di funzioni (e non solo della convergenza di
una serie numerica ad essa collegata).
Osservazione 1.2.9. Dal fatto che ∥fk ∥∞,XP= ∥ |fk | ∥∞,X segue che la convergenza totale

implica anche la convergenza della serie k=0 |fk (x0 )|, ovvero la convergenza puntuale
assoluta della serie data.
Non vale però il viceversa, ovvero una serie di funzioni che converga sia uniformemente e
sia puntualmente assolutamente non è detto che converga totalmente, come mostrato dal
seguente esempio.
Esempio 1.2.10. Per ogni k ∈ N, k ≥ 1, sia fk (x) := x1 χ[k,k+1) (x). Allora le somme parziali
sono le funzioni
n n n
X X 1 1X 1
Sn (x) := fk (x) = χ[k,k+1) (x) = χ[k,k+1) (x) = χ[1,n+1) (x)
x x x
k=1 k=1 k=1

ed è chiaro che tali funzioni convergono assolutamente alla funzione f (x) := x1 χ[1,+∞) (x).
Inoltre si ha
1 1 1
Sn (x) − f (x) = χ[1,n+1) (x) − χ[1,+∞) (x) = χ[n+1,+∞) (x)
x x x
quindi
1 1
∥Sn − f ∥∞,R = sup χ[n+1,+∞) (x) =
x∈R x n+1
per cui la convergenza è uniforme in R. D’altra parte ∥fk ∥∞,R = ∥ x1 χ[k,k+1) (x)∥∞,R = k1 ,
quindi
∞ ∞
X X 1
∥fk ∥∞,R = = +∞
k
k=1 k=1
per cui la serie non converge totalmente.
P∞ (−1)k
Esercizio 1.2.11. Dimostrare che la serie k=1 k+x converge uniformemente in [0, +∞)
ma non totalmente.
Proposizione 1.2.12. Sia {fkP }k∈N : Ω ⊆ R → R e sia x0 ∈ Ω. Supponiamo che le fk siano

continue
P∞ in x 0 e che la serie k=0 fk converga uniformemente in Ω. Allora la funzione
F := k=0 fk è continua in x0 .
Dimostrazione. Per ipotesi le somme parziali sono continue in x0 (perché somme delle fk
che lo sono) e convergono uniformemente ad F , quindi la tesi segue dal Teorema 1.1.11.

P∞ 1.2.13. Sia {fk }k∈N : [a, b] ⊆ R → R. Supponiamo che fk ∈ R([a, b])


Proposizione P∞e che
la serie k=0 fk converga uniformemente in [a, b]. Allora anche la funzione F := k=0 fk
è in R([a, b]) e inoltre:
Z bX∞ Z b ∞ Z b
X
fk (x) dx = F (x) dx = fk (x) dx.
a k=0 a k=0 a
1.2. SERIE DI FUNZIONI 19

Dimostrazione. Per ipotesi le somme parziali sono Riemann integrabili (perché somme
delle fk che lo sono) e convergono uniformemente ad F , quindi dal Teorema 1.1.18 e dalla
linearità dell’integrale segue che
Z b Z b Z b n
Z bX
F (x) dx = lim Sn (x) dx = lim Sn (x) dx = lim fk (x) dx
a a n→∞ n→∞ a n→∞ a
k=0
n Z
X b ∞ Z
X b
= lim fk (x) dx = fk (x) dx.
n→∞ a a
k=0 k=0

Proposizione 1.2.14. P {fk }k∈N : (a, b) ⊆ R → R con ogni fk èPderivabile in (a, b) ed esiste
x0 ∈ (a, b) tale che ∞ f
k=0 k P(x 0 ) converge. Supponiamo che ∞
f
k=0 k
′ converge uniforme-

mente in (a, b). Allora la serie ∞ k=0 fk converge semplicemente in (a,Pb), la convergenza è
uniforme su Pogni compatto contenuto in (a, b) e la funzione F (x) = ∞ k=0 fk è derivabile
′ ∞ ′
con F (x) = k=0 fk ovvero:

 d X ∞
 X dfk
fk (x) = (x).
dx dx
k=0 k=0

1.2.2 La funzione di Takagi


Sia φ : R → R la funzione definita da φ(x) := min{|x − n|, n ∈ Z}, ovvero la funzione
che in x assume la minima distanza di x dagli interi. Dalla definizione stessa segue subito
che φ(1 + x) = φ(x) (quindi è 1-periodica), a valori in [0, 1/2], lineare a tratti, e continua,
ma non derivabile in 1/2 (e quindi in tutti i punti Z + 1/2), dove presenta un punto
angoloso. Inoltre, il suo valore può essere calcolato anche usando l’espressione φ(x) =
min{x − ⌊x⌋ , ⌈x⌉ − x} (che è computazionalmente vantaggiosa visto che richiede un solo
confronto). Tramite φ costruiamo una nuova funzione, nel modo seguente:

X 1
Φ(x) := φ(2n x).
2n
n=0

Visto che φ assume valori in [0, 1/2], si vede subito che ∥ 21n φ(2n x)∥∞,R = 2n+1 1
, che è
evidentemente il termine generale di una serie convergente: la serie converge quindi to-
talmente in R e la funzione Φ risultante è certamente continua (perché limite uniforme
di continue.) A dispetto della sua costruzione dall’aria “innocente”, il grafico di Φ appare
invece estremamente elaborato.
Un calcolo semplice basta per mostrare la non derivabilità di Φ in 0. Infatti, osserviamo
che φ(x) vale zero negli interi, e coincide con x quando x ∈ [0, 1/2]. Prendiamo allora la
sequenza di punti 1/2k , ed osserviamo che questo fatto implica le seguenti uguaglianze:
∞ k−1 k−1
k
X
k 1 n k
X 1 n k
X 1 k
Φ(1/2 ) − Φ(0) = Φ(1/2 ) = n
φ(2 · 1/2 ) = n
φ(2 · 1/2 ) = k
= k.
2 2 2 2
n=0 n=0 n=0

Di conseguenza il rapporto incrementale vale


Φ(1/2k ) − Φ(0)
= 2k (Φ(1/2k ) − Φ(0)) = k
1/2k − 0
20 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

e quindi diverge per k → ∞. Questo basta a dimostrare che Φ′ (0) non esiste, almeno non
come quantità finita. In effetti si può dimostrare che Φ non è derivabile in alcun punto. Il
fatto di essere una funzione di semplice definizione, continua ovunque e mai derivabile ne
fa una importante fonte di esempi e controesempi in analisi. Ad esempio, si dimostra che
soddisfa la relazione Φ(x) = φ(x) + 21 Φ(2x) che, insieme alla relazione Φ(1 + x) = Φ(x) di
periodicità, è responsabile dell’aspetto di autosimiliarità del suo grafico e la connette agli
insiemi frattali. Oltre a non essere derivabile, in realtà non è di tipo Lipschitz (ma è di
tipo α-Hölder per ogni α ∈ [0, 1)) ma il suo grafico ha dimensione di Hausdorff 1 (come
una normale curva C 1 nel piano).
y

2/3

1/2

0 x
0 1/2 1
La funzione di Takagi.

Esercizio 1.2.15. Sia Lip([0, 1]) l’insieme delle funzioni f : [0, 1] → R che sono Lip–continue,
ovvero per le quali
n |f (x) − f (y)| o
sup , x, y ∈ [0, 1], x ̸= y =: Lf
|x − y|
è una quantità finita. Sia ∥f ∥L := |f (0)| + Lf . Verificare le seguenti proprietà:
i. Lip([0, 1]) è uno spazio vettoriale reale, e ∥ · ∥L è una norma in tale spazio.

ii. Verificare che per ogni f ∈ Lip([0, 1]) si ha |f (x)| ≤ |f (0)| + Lf · |x| e che quindi

∥f ∥∞,[0,1] ≤ ∥f ∥L .

iii. Sia {fn }nN ∈ Lip([0, 1]), una sequenza di Cauchy rispetto alla norma ∥ · ∥L ; verificare
che la sequenza di numeri {∥fn ∥L }n∈N è una sequenza limitata.
Suggerimento: Questo è in realtà un fatto generale: le norme di una sequenza di
Cauchy sono sempre un insieme limitato.

iv. Usando ii. e iii., verificare che Lip([0, 1]) con la norma ∥ · ∥L è di Banach.
Suggerimento: usare ii. per dimostrare l’esistenza della funzione limite, ed usare
iii. per dimostrare che essa è di tipo Lip.

v. Sia ι : Lip([0, 1]) → C([0, 1]) la mappa di inclusione, ovvero la mappa secondo cui
ι(f ) = f . Si prenda Lip([0, 1]) normato con la norma ∥ · ∥L ed C([0, 1]) con la norma
∥ · ∥∞,[0,1] : verificare che ι è continua.
Suggerimento: cosa dice ii.?
1.2. SERIE DI FUNZIONI 21

vi. Verificare che ι(Lip([0, 1])) non è un sottoinsieme chiuso in C([0, 1]).
Suggerimento: considerare le somme parziali della serie che definisce la funzione Φ
di Takagi.

Esercizio 1.2.16. Siano Lip([0, 1]), Lf ed ∥f ∥L come nel precedente esercizio. Verificare i
seguenti fatti:

i. Se f è in C 1 ([0, 1]), allora Lf = ∥f ′ ∥∞,[0,1] , ovvero la costante di Lipschitz di f


coincide con il sup della sua derivata.

ii. Sia ι : C 1 ([0, 1]) → Lip([0, 1]) la mappa di inclusione, ovvero la mappa secondo cui
ι(f ) = f . Si prenda C 1 ([0, 1]) normato con la norma ∥ · ∥2 data da ∥|f ∥|2 := |f (0)| +
∥f ′ ∥∞,[0,1] (vedasi Esercizio 1.1.24) ed Lip([0, 1]) con la norma ∥ · ∥L : verificare che ι
è continua.
Suggerimento: cosa dice i.?

iii. Verificare che ι(C 1 ([0, 1])) è un sottoinsieme chiuso in Lip([0, 1]).

1.2.3 Serie di potenze


Definizione 1.2.17. Chiamiamo serie di potenze ogni serie che abbia la struttura:

X
ak (x − x0 )k ,
k=0

con {ak }k∈N successione numerica e x0 ∈ R. Il numero x0 è detto centro della serie.

Osservazione 1.2.18. Per lo sviluppo di buona parte della teoria delle serie di potenze è
sufficiente
P∞ restringersi al caso in cui il centro della serie è lo 0. Questo perché ogni serie
k
k=0 ak (x − x0 ) di centro x0 è ricondotta ad una di centro zero semplicemente mediante
la traslazione w := x − x0 alla serie ∞ k
P
k=0 k w che ha centro 0.
a
Data una serie di potenze anzitutto cerchiamo di
Pcaratterizzarne il dominio di convergenza,
∞ k converge}.
ovvero di determinare l’insieme D := {x ∈ R : a
k=0 k x
Osservazione 1.2.19. Il dominio non è mai vuoto, infatti 0 ∈ D.

Lemma 1.2.20. Se la serie converge in w allora converge puntualmente in (−|w|, |w|) e


la convergenza è totale nei compatti K contenuti in (−|w|, |w|).

Dimostrazione. Sia w un punto di convergenza.


P∞Se w =k 0 allora la tesi è certamente vera,
quindi possiamo supporre w ̸= 0. Per ipotesi k=0 ak w è una serie numerica convergente,
perciò la quantità ak wk tende a 0. Questa sequenza quindi è limitata ovvero esiste c tale
che |ak wk | < c per ogni k. Quindi
 x k  |x| k
|ak xk | = ak wk · ≤c· .

w |w|

Per ogni compatto K ∈ (−|w|, |w|) esiste un numero α con 0 < α < |w| tale che
α k P∞
K ⊆ [−α, α]. Quindi quando x ∈ K si ha |ak xk | ≤ c |w| k

e quindi k=0 ∥ak x ∥ ≤
α k
c ∞
P 
k=0 |w| e questa è una serie convergente, visto che α/|w| < 1. Questo dimostra che
la serie data converge totalmente in K.
22 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Definizione 1.2.21. Chiamiamo raggio di convergenza la quantità ρ := sup{|x| : x ∈ D}.


Dal lemma precedente e dalla definizione di raggio di convergenza seguono immediatamente
le inclusioni
(−ρ, ρ) ⊆ D ⊆ [−ρ, ρ],
che nel caso ρ sia infinito vanno intese come D = R.
p
Proposizione 1.2.22 (Criterio di Cauchy–Hadamard). Sia l := lim supk→∞ k |ak |. Allora
ρ = 1l (con la convenzione che se l = ∞ allora ρ = 0 e se l = 0 allora ρ = +∞).

Proposizione 1.2.23 (Criterio di d’Alembert). Supponiamo che ak ̸= 0 per ogni k e che


a
l := limk→∞ k+1ak
esista in R (quindi con +∞ ammesso tra i possibili valori). Allora
ρ = 1l (con la convenzione che se l = +∞ allora ρ = 0 e se l = 0 allora ρ = +∞).

Dimostrazione. Entrambi i criteri seguono immediatamente dal criterio della radice e da


quello del confronto per le serie numeriche.

Osservazione 1.2.24. Consideriamo la serie ∞ k


P
k=0 ak x con ak = 1 se k è pari, e ak = 2
se k è dispari. In tale situazione il criterio della radice mostra immediatamente che ρ = 1,
mentre quello del quoziente non dà alcuna indicazione visto che |ak+1 |/|ak | = 2 per k
dispari e |ak+1 |/|ak | = 1/2 per k pari, per cui il limite non esiste.
Per questa serie inoltre si ha lim supk→∞ |ak+1 |/|ak | = 2, che non è l’inverso del suo raggio
di convergenza. Questo esempio mostra che quindi in generale si può calcolare il raggio
di convergenza a partire dalla successione dei quozienti successivi solo se questa ammette
un limite. Con il criterio della radice invece il calcolo è sempre possibile, visto che per
esso basta il limite superiore e che esso esiste sempre. Per questo motivo il criterio di
Cauchy–Hadamard è sicuramente di maggior interesse e generalità.
Esempio 1.2.25. Alcuni esempi:
xk = k2 2 → 1 si deduce che ρ = 1. Inoltre la serie converge
ak+1
• sia ∞
P
k=1 k2 . Visto che

ak (1+k)
sia in x = 1 e x = −1, quindi D = [−1, 1];

• sia ∞ 2 k
P
k=0 k x . Come prima dal criterio del rapporto segue subito che ρ = 1. La serie
però non converge né in 1 né in −1, quindi in questo caso D = (−1, 1);
xk
• la serie ∞
P
k=1 k converge in D = [−1, 1);
P∞ α k
• sia α ∈ R; la serie k=1 k x ha sempre raggio 1. Inoltre D = (−1, 1) se α ≥ 0,
D = [−1, 1) se −1 ≤ α < 0 e D = [−1, 1] se α < −1;
xk
ak+1
• sia ∞ = 1 → 0, quindi ρ = ∞ e D = R;
P
k=0 k! . Allora

ak k+1
P∞ a
• sia k=0 k!xk . Allora k+1 ak
= k + 1 → ∞, quindi ρ = 0 e D = {0}.

Teorema 1.2.26 (Abel). Se la serie ∞ k


P
k=0 ak x converge in un punto w > 0 allora conver-
ge uniformemente in [0, w] (se invece converge in w < 0 allora la convergenza è uniforme
in [w, 0]).

Dimostrazione. PSenza ledere la generalità della dimostrazione


P∞ possiamo supporre w = 1
∞ k k k
(perché la serie k=0 ak x può anche essere scritta
P∞come k=0 ak w (x/w) che ponendo
z := x/w risulta convergente in z = 1) e che k=0 ak = 0 (basta cambiare il termine
1.2. SERIE DI FUNZIONI 23

costante a0Pcon a0 − ∞
P
k=0 ak ).
Sia Ak := l≤k al (con A−1 := 0). Allora:

n
X n
X n
X n
X n
X n−1
X
ak xk = (Ak − Ak−1 )xk = Ak x k − Ak−1 xk = Ak x k − Ak xk+1
k=0 k=0 k=0 k=0 k=0 k=0

(questo perché abbiamo posto A−1 = 0), che possiamo riorganizzare come:

n−1
X
n
= An x − Ak (xk+1 − xk ).
k=0

Da questo calcolo segue che se m > n allora


m
X m
X n
X m−1
X
ak xk = ak xk − ak xk = Am xm − An xn − Ak (xk+1 − xk ).
k=n+1 k=0 k=0 k=n

Sia ϵ > 0 fissato ad arbitrio. Per ipotesi ∞


P
k=0 ak = 0, ovvero Ak → 0 per k → ∞. Quindi
esiste N tale che |Ak | ≤ ϵ per ogni k ≥ N . Assumendo m > n ≥ N , dalla uguaglianza
precedente deduciamo che
m
X m−1
X
k m n
ak x ≤ ϵ|x| + ϵ|x| + ϵ |xk+1 − xk |. (1.1)


k=n+1 k=n

Se inoltre x ∈ [0, 1], allora |xk+1 − xk | = xk − xk+1 così che


m−1
X m−1
X
|xk+1 − xk | = (xk − xk+1 ) = xn − xm ≤ xn ≤ 1,
k=n k=n

e la (1.1) dà
m
X
ak xk ≤ 3ϵ ∀x ∈ [0, 1],


k=n+1
ovvero
m
X
k
ak x ≤ 3ϵ.


∞,[0,1]
k=n+1

Questo mostra che il criterio per la convergenza uniforme in [0, 1] è soddisfatto.

Corollario 1.2.27. Sia data una serie di potenze di centro 0 e raggio di convergenza ρ > 0.
Se la serie converge nel punto x = ρ allora essa converge uniformemente nei compatti di
(−ρ, ρ].
Dimostrazione. Ogni compatto K di (−ρ, ρ] è unione di due compatti, K0 e K1 , con K0 ⊆
(−ρ, 0] e K1 ⊆ [0, ρ]. La serie converge uniformemente sia in K0 (per il Lemma 1.2.20)
sia in K1 (per il Teorema 1.2.26), quindi converge uniformemente anche nella loro unione,
ovvero in K.
P∞ k
Teorema 1.2.28. Sia k=0 ak x una Pserie di potenze con raggio ρ > 0. La funzione
f : (−ρ, ρ) → R i cui valori sono f (x) = ∞ k ∞
k=0 ak x è una funzione in C ((−ρ, ρ)). Inoltre:
24 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

i. La derivata ℓ-esima di f è calcolabile nel modo seguente:



X ∞
X
f (ℓ) = ak ·k(k − 1) · · · (k − ℓ + 1) ·xk−ℓ = ak+ℓ ·(k + ℓ)(k + ℓ − 1) · · · (k + 1) ·xk ,
| {z } | {z }
k=0 k=0
ℓ fattori ℓ fattori

in particolare anche le derivate sono serie di potenze;


ii. il raggio di convergenza di f (ℓ) è ancora ρ;
f (ℓ) (0)
iii. f (ℓ) (0) = ℓ!aℓ e quindi aℓ = ℓ! .
Dimostrazione. Osserviamo che f è per ipotesi scritta come una serie di funzioni della
forma ak xk che quindi sono certamente funzioni di classe C 1 (in quanto polinomi). D’altra
parte la serie delle derivate è

X ∞
X
ak kxk−1 = a1 + 2a2 x + 3a3 x2 + · · · = ak+1 (k + 1)xk
k=0 k=0

che è ancora una serie di potenze. Sia ρ′ il suo raggio di convergenza. Osserviamo che la
serie derivata può anche essere scritta come
∞ ∞
X 1X
ak kxk−1 = ak kxk
x
k=0 k=0

e che quindi l’insieme di convergenza della serie derivata coincide con quello della serie a
destra (a parte il punto x = 0 che è un punto di convergenza per la serie a sinistra ed invece
un punto di discontinuità eliminabile per l’espressione a destra). In particolare il raggio
di convergenza ρ′ della serie derivata coincide con il raggio ρ̃ della serie ∞ k . Dal
P
k=0 ka kx
criterio di Hadamard sul raggio di convergenza segue allora che

1/ρ′ = 1/ρ̃ = lim sup k k|ak | = lim k lim sup k |ak | = lim sup k |ak | = 1/ρ
p k  p p
k→∞ k→∞ k→∞ k→∞

(si noti che in un passo intermedio si è usato il fatto che limk→∞ k 1/k = 1), e questo
dimostra che appunto che ρ′ = ρ. In particolare la serie delle derivate converge in (−ρ, ρ),
totalmente nei compatti. Ma allora su ciascun aperto (a, b) con −ρ < a < 0 < b < ρ
valgono le ipotesi del teorema di derivazione (ProposizioneP 1.2.14, con 0 quale punto x0
di convergenza). Questo dimostra che f è C 1 con f ′ (x) = ∞ k=0 ak kx
k−1 in tutto (a, b),

e quindi in (−ρ, ρ). Iterando il processo (cosa possibile perché la derivata è una serie di
potenze) si ha la tesi.

Osservazione 1.2.29. La convergenza è totale (quindi uniforme) nei compatti contenuti in


(−ρ, ρ), perciò
Z xX∞ ∞ Z x ∞
 X X ak xk+1
ak uk du = ak uk du = ∀x ∈ (−ρ, ρ).
0 0 k+1
k=0 k=0 k=0

Osservazione 1.2.30. Dal teorema di Abel segue che se ∞ k


P
k=0 ak ρ converge allora l’ugua-
glianza
Z xX∞ ∞
 X ak xk+1
ak uk du =
0 k+1
k=0 k=0
vale anche per x = ρ (perché allora la convergenza è uniforme nei compatti di (−ρ, ρ]).
1.2. SERIE DI FUNZIONI 25

Osservazione 1.2.31. Sia S0 l’insieme delle serie di potenze formali di centro 0. Ovvero

X
ak xk , ak ∈ R, ∀k .

S0 =
k=0

L’aggettivo formale deriva dal fatto che non valutiamo questa serie per alcun valore di x,
ma usiamo xk solo come segnaposto del posto k-esimo. Il suo unico ruolo è quindi quello di
distinguere
P P ak P
P∞ i vari knumeri che compongono la serie. Siano dati due serie di potenze in S0 :
∞ k
1 := k=0 ka x e 2 := k=0 bk x , e un numero reale λ. Definiamo la serie somma, la
serie prodotto per lo scalare λ e la serie prodotto come:
P P P∞ k
• 1+ 2 := k=0 (ak + bk )x ,

• λ 1 := ∞ k
P P
k=0 λak x ,
P P P∞ P k
• 1· 2 := k=0 ( u,v≥0 au bv )x .
u+v=k

Con queste definizioni l’insieme S0 acquista la struttura di algebra reale commutativa con
unità. (che il prodotto
P sia commutativo è evidente dalla sua definizione, così come il fatto
che la serie E(x) := ∞ e
k=0 k x k con e = 1 ed e = 0 per ogni k ≥ 1 è l’unità moltiplicativa).
0 P k
È interessante verificare che un elemento ∞ k
k=0 ak x è invertibile in S0 se e solo se a0 ̸= 0.

Osservazione 1.2.32. Date due serie di potenze: 1 := ∞


P P k
P P∞ k
k=0 ak x e 2 := k=0 bk x di
raggio rispettivamente ρ1 e ρ2 . Definiamo la serie somma e la serie prodotto come fatto in
S0 , ovvero ponendo:
P P P∞ k
• 1+ 2 := k=0 (ak + bk )x ,
P P P∞ P k
• 1· 2 := k=0 ( u,v≥0 au bv )x .
u+v=k

Allora si hanno le seguenti proprietà (da verificare)

i. ρ(P1 + P2 ) e ρ(P1 · P2 ) sono entrambi ≥ min{ρ1 , ρ2 };


P P P P
ii. ( 1 + 2 )(x) = 1 (x) + 2 (x) se |x| < min{ρ1 , ρ2 };
P P P P
iii. ( 1 · 2 )(x) = 1 (x) · 2 (x) se |x| < min{ρ1 , ρ2 };

iv. Se ρ1 ̸= ρ2 allora ρ(P1 + P2 ) = min{ρ1 , ρ2 }.

Esercizio 1.2.33. Sia α ∈ R fissato. Sia


(
  1
α α(α − 1) · · · (α − k + 1) se k ≥ 1
:= k!
k 1 se k = 0.

Si osservi che per α ∈ N questa funzione coincide con l’usuale coefficiente binomiale, ma
l’espressione data ha perfettamente senso per ogni α ∈ R.

i. Sia fα (x) := ∞ α k
P 
k=0 k x . Verificare che il raggio di convergenza di fα è 1 per α ∈ R\N
ed ∞ per α ∈ N.
26 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

ii. Verificare che


fα (x) = (1 + x)α |x| < 1.

(questo è un po’ difficile, ma può essere fatto in vari modi; ad esempio usando lo
sviluppo noto di Taylor della funzione (1 + x)α . In alternativa si può osservare che sia
fα (x) che (1 + x)α soddisfano l’equazione differenziale (1 + x)y ′ = αy con condizione
iniziale y(0) = 1. Dal teorema di esistenza ed unicità della soluzioni di questo tipo di
equazioni (che dimostreremo in seguito) segue allora l’uguaglianza fα (x) = (1 + x)α ).

iii. Osservare che f1/2 (x) · f1/2 (x) = 1 + x e che quindi il raggio di convergenza della serie
prodotto è ∞, mentre i raggi di convergenza dei fattori sono entrambi 1. Ciò mostra
che la stima ρ(P1 · P2 ) ≥ min{ρ1 , ρ2 } può di fatto essere una disuguaglianza stretta.

Osservazione 1.2.34. L’insieme { ∞ k


P
k=0 ak x , ρ ≥ 1} gode di buone proprietà algebriche (è
un’algebra reale commutativa con unità di cui l’insieme dei polinomi è una sottoalgebra)
ed analitiche (i suoi elementi sono di classe C ∞ e contiene sia le loro derivate che le loro
primitive, ovvero è un’algebra differenziale).
Il teorema precedente mostra che se una funzione f è esprimibile come serie di potenze di
centro x0 allora essa è di classe C ∞ e la serie di potenze che la rappresenta è necessariamente
la sua serie di Taylor di centro x0 , ovvero la serie

X f (ℓ) (x0 )
(x − x0 )k .
ℓ!
k=0

Il seguente esempio mostra che però non ogni funzione di classe C ∞ ammette una tale
rappresentazione.
Esempio 1.2.35. Sia f : R → R la funzione i cui valori sono
( 2
e−1/x x ̸= 0
f (x) =
0 x = 0.

La funzione f è C ∞ (R), con derivate date da


( 2
(ℓ) Pℓ ( x1 )e−1/x x ̸= 0
f (x) = ∀ℓ ∈ N,
0 x=0

dove Pℓ è un polinomio (questo può essere dimostrato per induzione su ℓ. Volendo si può
anche ricavare la formula Pℓ+1 (u) = u2 (2Pℓ (u) − Pℓ′ (u)) che con la condizione P0 (u) = 1
consente di determinare i polinomi per ricorsione). Ma allora se f fosse rappresentabile
come serie di potenze di centro 0, la sua rappresentazione dovrebbe essere la serie
∞ ∞
X f (ℓ) (0) k
X
x = 0 · xk = 0
ℓ!
k=0 k=0

la quale certamente converge ovunque, ma rappresenta la funzione identicamente 0 e non


la f .
1.2. SERIE DI FUNZIONI 27

Definizione 1.2.36. Sia Ω ⊆ R un aperto. Indichiamo con C ω (Ω) l’insieme di funzioni


n tali che ∀x0 ∈ Ω la serie di Taylor di f in x0 o
f : Ω → R, f ∈ C ∞ (Ω)| .
converge ad f in un opportuno U (x0 ) aperto
Le funzioni di C ω (Ω) sono dette analitiche in Ω e l’Esempio 1.2.35 mostra che l’inclusione
C ω (Ω) ⊆ C ∞ (Ω) è stretta.
P∞ k
Proposizione 1.2.37 (Analiticità delle serie di potenze). Sia k=0 ak x una serie di
potenze
P∞ con ρ > 0. Allora la funzione f : (−ρ, ρ) → R i cui valori sono definiti da f (x) =
k
k=0 ak x è analitica in (−ρ, ρ).

Dimostrazione. Sia x0 ∈ (−ρ, ρ) fissato ad arbitrio. Per dimostrare la tesi dobbiamo dimo-
f (ℓ)
strare che la serie di Taylor ∞ ℓ
P
ℓ=0 ℓ! (x − x0 ) converge ad f (x) in un opportuno intorno
aperto del punto x0 . Dal Teorema 1.2.28 sappiamo che

X k!
f (ℓ) (x0 ) = ak xk−ℓ ∀ℓ,
(k − ℓ)! 0
k=ℓ

quindi la serie di Taylor di f con centro x0 è la serie


∞ ∞ X
∞ ∞ X

f (ℓ) (x0 )
 
X

X k! k−ℓ ℓ
X k k−ℓ
(x − x0 ) = ak x0 (x − x0 ) = ak x (x − x0 )ℓ .
ℓ! (k − ℓ)!ℓ! ℓ 0
ℓ=0 ℓ=0 k=ℓ ℓ=0 k=ℓ

In effetti, supponiamo di poter scambiare le due serie senza modificare il valore. Facendolo
otteniamo
∞ k  
X X k k−ℓ
= ak x (x − x0 )ℓ
ℓ 0
k=0 ℓ=0

(si osservi il nuovo range per k ed ℓ). Per il teorema del binomiale la somma interna è
semplicemente (x0 + x − x0 )k = xk , quindi la serie è

X
= ak xk
k=0

che è appunto f (x). Perché l’argomento sia completo dobbiamo però ancora giustifica-
re
P∞lo scambio
P∞ delle due serie. Il teorema generalePsulle P serie doppie Pgarantisce che se
∞ ∞ ∞ P∞
m=0 n=0 |a m,n | < ∞, allora vale l’uguaglianza m=0 n=0 a m,n = n=0 m=0 am,n
(ovvero, se la serie doppia converge assolutamente, allora le serie possono essere commu-
tate). Quindi verifichiamo che quel passaggio è corretto mostrando che
∞ X ∞  
X k
|ak | |x0 |k−ℓ |x − x0 |ℓ < +∞. (1.2)

ℓ=0 k=ℓ

Sappiamo anche che le serie a termini reali nonnegativi possono essere sempre commutate,
senza modificare il valore (che però potrebbe essere +∞). Quindi non sappiamo ancora
se (1.2) sia effettivamente corretta, ma sicuramente si ha
∞ X
∞   ∞ X
k  
X k k−ℓ ℓ
X k
|ak | |x0 | |x − x0 | = |ak | |x0 |k−ℓ |x − x0 |ℓ
ℓ ℓ
ℓ=0 k=ℓ k=0 ℓ=0
28 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI


X
= |ak |(|x0 | + |x − x0 |)k
k=0

(per l’ultimo passo si è usato ancora il teorema del binomiale). Per concludere basta allora
osservare che questa serie è sicuramente convergente se |x0 |+|x−x0 | < ρ (perché sappiamo
che la serie di potenze originaria converge assolutamente in (−ρ, ρ)). Visto che |x0 | < ρ
per ipotesi, basta quindi prendere x in modo che |x − x0 | < ρ − |x0 |: questa disuguaglian-
za definisce un intorno aperto di x0 e i calcoli precedenti sono quindi giustificati pur di
prendere x in questo aperto. La tesi è quindi dimostrata.

In base alla sua definizione, essere analitico in Ω significa essere localmente rappresentabile
come serie di potenze. La Proposizione 1.2.37 precedente mostra che se una funzione è
globalmente rappresentabile in serie di potenze in (−ρ, ρ), allora lo è anche localmente. La
proposizione quindi esprime una situazione in cui la proprietà globale implica la presenza
della analoga proprietà locale in ogni punto. Altri concetti hanno la medesima interpreta-
zione, ad esempio la continuità, l’invertibilità (lo vedremo fra poco), l’integrabilità, nonché
contesti algebrici in cui ad esempio l’esistenza di soluzioni in interi o in razionali dell’equa-
zione P (x) = 0 con P ∈ Z[x] è messa in relazione alla sua risolubilità in R e nei campi
finiti Z/pZ (principio di Hasse). Come spesso accade, non è vero il contrario, ovvero il fatto
che una funzione sia localmente sempre rappresentabile in serie di potenze di per sé non
garantisce che quella funzione sia globalmente rappresentabile in serie di potenze (ovvero
che esista una serie di potenze che la rappresenta su tutto il suo dominio). Un esempio di
questo fenomeno è la funzione f (x) = 1/(1 + x2 ), che è analitica in R ma non ammette
alcuna rappresentazione in serie di potenze convergente su R.
Abbiamo già visto che se una funzione f è rappresentabile come serie di potenze di centro
x0 in un intorno di x0 allora tale serie deve essere quella associata al suo sviluppo di Taylor
centrato in x0 , ma l’esempio precedente mostra anche che non sempre tale sviluppo effet-
tivamente converge o converge ad f . La seguente proposizione mostra però che sotto una
opportuna condizione uniforme di crescita sulle derivate si ha effettivamente la convergenza
della serie ad f .

Proposizione 1.2.38. Sia f : (−r, r) ⊆ R → R di classe C ∞ in (−r, r). Supponiamo che


∥f (k) ∥∞,(−r,r) ≪ rk!k per k → ∞. Allora f è rappresentata in (−r, r) dalla sua serie di
Taylor di centro 0.

È possibile dimostrare che la stima enunciata nella proposizione è di fatto anche condizione
necessaria per la convergenza ad f della serie di Taylor; la dimostrazione di questo fatto
però pertiene all’analisi complessa e non sarà discussa in queste note.
P −1 f (k) (0) k
Dimostrazione. Fissato x ∈ (−r, r) valutiamo la differenza f (x) − N k=0 k! x e verifi-
chiamo che tende a 0. Il secondo termine della differenza è il polinomio di Taylor arrestato
all’ordine N − 1. Dal teorema di Lagrange sappiamo che esiste ξ tra 0 ed x tale per cui la
(N )
differenza considerata sopra è uguale a f N !(ξ) xN . Visto che |ξ| ≤ |x| < r, abbiamo
N −1 (k)
X f (0) k f (N ) (ξ) N |x|N
f (x) − x = x ≤ ∥f (N ) ∥∞,(−r,r) ·

k! N! N!
k=0
N ! |x|N  |x| N
≪ N · = → 0 per N → ∞ (con x ed r fissati)
r N! r
1.2. SERIE DI FUNZIONI 29

poiché |x| < r.

Teorema 1.2.39. Per ogni x ∈ R valgono le uguaglianze


∞ ∞ ∞
x
X xk X (−1)k 2k+1 X (−1)k
e = , sin x = x e cos x = x2k .
k! (2k + 1)! (2k)!
k=0 k=0 k=0

Dimostrazione. Sia f (x) := ex e sia r un qualunque reale positivo fissato. Per ogni k ∈ N
si ha f (k) (x) = ex , così che ∥f (k) ∥∞,(−r,r) = er . Questa quantità è ≪ rk!k poiché il rapporto
er rk
k! tende a 0 (al divergere di k, con r fissato). Questo dimostra che ∥f (k) ∥∞,(−r,r) ≪ rk!k ,
che per la Proposizione 1.2.37 garantisce la rappresentabilità di ex tramite la sua serie
di potenze nell’insieme (−r, r). Visto che r è arbitrario, la rappresentabilità di fatto è
dimostrata in R.
Le altre identità sono dimostrate in modo analogo.

Queste identità presuppongono l’aver definito ex (risp. sin x, cos x) come quella funzione
che soddisfa l’equazione differenziale y ′ − y = 0 (risp. y ′′ + y = 0) con condizione iniziale
y(0) = 1 (risp. y(0) = 0, y ′ (0) = 1 per il seno e y(0) = 1, y ′ (0) = 0 per il coseno). In realtà
sarebbe del tutto logico usare l’identità per definire le funzioni e ritrovare a posteriori le
usuali proprietà di queste funzioni a partire da queste rappresentazioni in serie di potenze.
Questo modo di procedere ha il vantaggio di essere completamente analitico (senza l’uso ad
esempio della circonferenza goniometrica o di altri artifici geometrici). L’unico punto di una
qualche complessità è dimostrare l’esistenza di π, ovvero di un numero in cui sin π = 0, e la
2π periodicità di seno e coseno. La cosa è però perfettamente possibile e chi è interessato
può trovare questa trattazione nelle prime pagine di [R1].
Esercizio 1.2.40. Utilizzando la loro rappresentazione in serie di potenze, verificare le
identità seguenti:

i. ex · ey = ex+y ,

ii. sin(x + y) = sin x cos y − cos x sin y,

iii. eix = cos x + i sin x.

Osservazione 1.2.41. A stretto rigore l’ultima identità esula dalla nostra trattazione delle
serie di potenze, poiché abbiamo sempre assunto che le funzioni oggetto della trattazione
fossero di variabile reale e a valori reali. Un momento di riflessione mostra però che di R
abbiamo sempre e solo usato la struttura di campo e la completezza come spazio metrico. In
particolare tutti i teoremi dimostrati restano validi se i coefficienti {ak }k∈N e la variabile
x che appaiono in ∞ k
P
k=0 k x sono presi in C: l’unica differenza è che ora la regione di
a
convergenza individuata dal raggio sarà il disco aperto {x ∈ C : |x| < ρ}, anziché il solo
segmento (−ρ, ρ). In particolare, le identità del Teorema 1.2.39 risultano valide anche
quando le funzioni sono immaginate di variabile complessa. È a tale estensione che si
riferisce l’identità (iii.) dell’esercizio.
30 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI
Capitolo 2

Funzioni implicite

2.1 Premessa
Supponiamo sia data una funzione f : Ω ⊆ Rm → R, chiamiamo luogo degli zeri di f
l’insieme
Zf := {x ∈ Ω : f (x) = 0}.
L’obiettivo di questo capitolo è fornire risultati che consentano di descrive Zf per opportune
classi di funzioni.
Osservazione 2.1.1.
i. L’unione (anche molteplice) e l’intersezione di luoghi di zeri sono a loro volta luogo di
zeri: infatti, se Zf = {x : f (x) = 0} e Zg = {x : g(x) = 0} allora Zf ∪ Zg = Zf ·g e
Zf ∩ Zg = Zf 2 +g2 .
ii. Ogni grafico di funzione è il luogo degli zeri di una qualche funzione; infatti, data la
funzione g, la funzione f (x, y) := y − g(x) ha per luogo degli zeri proprio il grafico di g.
iii. In generale i luoghi di zeri non sono grafici di funzioni, ad esempio la circonferenza di
centro (0, 0) e raggio 1 è il luogo degli zeri di x2 + y 2 − 1 ma non è il grafico di alcuna
funzione.
L’obiettivo dei prossimi teoremi è dimostrare che se f è abbastanza “buona” allora Zf è
localmente il grafico di una funzione. Per esempio:
y

x La porzione
√ a tratto continuo è il grafico di
y = 1−x . 2

x La porzione
p a tratto continuo è il grafico di
x= 1−y . 2

31
32 CAPITOLO 2. FUNZIONI IMPLICITE

In seguito vedremo che senso dare all’espressione informale “funzione buona”. Possiamo
però anticipare già ora che esso non si riferisce alla sola regolarità di f : esistono funzioni
f di classe C ∞ o addirittura analitiche, quindi decisamente regolari, che però non sono
sufficientemente “buone”.
Il seguente risultato è decisamente elementare, tuttavia esso è di facile implementazione
poiché consente di determinare l’esistenza degli zeri sotto ipotesi molto deboli.

Proposizione 2.1.2. Data f : [a, b] × [c, d] → R supponiamo:

1. ∀x ∈ [a, b], f (x, ·) : [c, d] → R è continua e f (x, c) · f (x, d) < 0;

2. ∀x ∈ [a, b], f (x, ·) : [c, d] → R è strettamente monotona.

Allora l’insieme degli zeri di f in [a, b] × [c, d] coincide con il grafico di una funzione
ϕ : [a, b] → [c, d].

Dimostrazione. Sia x0 ∈ [a, b] fissato. Dalla prima ipotesi (via il teorema degli zeri) segue
che esiste almeno un punto in cui la funzione f (x0 , ·) : [c, d] → R si annulla, dalla seconda
ipotesi segue che esso è unico. Poiché questo vale per ogni x0 ∈ [a, b] si ha la tesi.

2.2 Teorema di Dini


Una volta stabilita l’esistenza della funzione ϕ vorremmo conoscerne la regolarità. Questa
informazione è esattamente quanto fornito dal risultato seguente.

Teorema 2.2.1 (Dini monodimensionale). Sia f : Ω ⊆ R2 → R, con Ω aperto e f ∈ C 1 (Ω).


Sia poi (x0 , y0 ) ∈ Ω tale che:

i. f (x0 , y0 ) = 0,

ii. ∂y f (x0 , y0 ) ̸= 0.

Allora esistono un rettangolo aperto (a, b)×(c, d) con (x0 , y0 ) ∈ (a, b)×(c, d) e [a, b]×[c, d] ⊆
Ω ed una funzione ϕ : (a, b) → (c, d) tali che:

iii. il luogo degli zeri di f in (a, b) × (c, d) coincide con il grafico di ϕ,

iv. la funzione ϕ è in C 1 ((a, b)) ed

∂x f
ϕ′ (x) = − (x, ϕ(x)) ∀x ∈ (a, b).
∂y f

Dimostrazione. Assumiamo ∂y f (x0 , y0 ) > 0 (altrimenti basta cambiare f con −f , cosa


che modifica il segno della derivata senza modificare il luogo degli zeri). Visto che ∂y f è
continua e che Ω è aperto, esiste [a′ , b′ ] × [c, d] ⊆ Ω contenente il punto (x0 , y0 ) in cui
∂y f > 0.
2.2. TEOREMA DI DINI 33

d Ω
(x0 , y0 )

c x
a′ b′

Consideriamo la restrizione di f lungo la retta x = x0 , ovvero la mappa f (x0 , ·) : [c, d] → R.


Essa vale 0 in y0 ed è strettamente crescente, quindi f (x0 , c) < 0 e f (x0 , d) > 0. Ma f è
continua perciò esiste U ((x0 , c)) dove f < 0 ed esiste U ((x0 , d)) dove f > 0. Allora esiste
[a, b] con a′ ≤ a < x0 < b ≤ b′ in cui f (x, c) < 0 e f (x, d) > 0 per ogni x ∈ [a, b].

+ + +++
d d d

(x0 , y0 ) (x0 , y0 ) (x0 , y0 )

c c c
− −−−

a′ b′ a′ b′ a′ a b b′

Ristretta ad [a, b] × [c, d] la funzione f soddisfa le ipotesi della Proposizione 2.1.2, perciò
esiste ϕ : [a, b] → [c, d] tale che il luogo degli zeri di f in [a, b] × [c, d] coincide con il grafico
di ϕ. Si osservi che non vi sono zeri sui lati [a, b] × {c} e [a, b] × {d} del rettangolo, così
che la mappa ϕ è in realtà a valori in (c, d). È quindi possibile considerare ϕ come mappa
da (a, b) in (c, d) (in questo modo sia il dominio che il codominio sono aperti, cosa che
semplifica la dimostrazione della regolarità di ϕ).
Dimostriamo ora la regolarità della funzione ϕ. Sia x ∈ (a, b) fissato e sia h ̸= 0 ma
abbastanza piccolo perché si abbia comunque x + h ∈ (a, b). La funzione f si annulla sia in
(x, ϕ(x)) che in (x + h, ϕ(x + h)) (per come è stata costruita ϕ), e inoltre è C 1 (Ω), quindi
per il teorema di Lagrange si ha

0 = f (x + h, ϕ(x + h)) − f (x, ϕ(x)) = ⟨∇f (α, β), (h, ϕ(x + h) − ϕ(x))⟩,

dove (α, β) è un punto opportuno sul segmento congiungente (x, ϕ(x)) e (x + h, ϕ(x + h)).

(x + h, ϕ(x + h))
(α, β)

(x, ϕ(x))

Perciò:
(ϕ(x + h) − ϕ(x)) · ∂y f (α, β) + h∂x f (α, β) = 0
34 CAPITOLO 2. FUNZIONI IMPLICITE

ovvero
∂x f
ϕ(x + h) − ϕ(x) = − (α, β) · h (2.1)
∂y f
(questa relazione è corretta perché sappiamo che ∂y f (α, β) ̸= 0 visto che (α, β) ∈ [a, b] ×
[c, d] e che ∂y f non si annulla in questo rettangolo). Ma ∂∂xy ff è continua in [a, b] × [c, d]
(quoziente di funzioni continue e denominatore diverso da zero) e [a, b]×[c, d] è un compatto.
Questo garantisce l’esistenza del numero M := ∥ ∂∂xy ff ∥∞,[a,b]×[c,d] , e visto che (α, β) ∈ [a, b]×
[c, d] da (2.1) segue che
|ϕ(x + h) − ϕ(x)| ≤ M · |h|.
Questa relazione mostra che ϕ è lipschitziana in x e quindi in particolare che è continua.
∂x f
Questo implica che se h → 0 allora (α, β) → (x, ϕ(x)). Insieme alla continuità di ∂yf questo
∂x f ∂x f
garantisce che limh→0 ∂yf (α, β) esiste e vale ∂y f (x, ϕ(x)). Così

ϕ(x + h) − ϕ(x) ∂x f ∂x f
=− (α, β) → − (x, ϕ(x)),
h ∂y f ∂y f

che dimostra sia la derivabilità di ϕ in x sia la formula ϕ′ (x) = − ∂∂xy ff (x, ϕ(x)). Poiché x è
stato scelto ad arbitrio in (a, b), di fatto la formula è valida in tutto (a, b). L’uguaglianza
allora mostra anche che ϕ′ è continua, perché la funzione − ∂∂xy ff (x, ϕ(x)) risulta composizione
di mappe continue.

Corollario 2.2.2. Supponiamo valide le ipotesi e le notazioni del teorema precedente. Se


poi f ∈ C k (Ω), allora ϕ è di classe C k ((a, b)).

Dimostrazione. La dimostrazione è per induzione su k. La tesi vale per k = 1 in virtù del


teorema. Sia inoltre k > 1, e che la la tesi sia già stata dimostrata per tutti gli ordini fino
a k − 1. consideriamo la relazione
∂x f
ϕ′ (x) = − (x, ϕ(x)),
∂y f

il cui lato destro esprime una funzione di classe C k−1 , poiché composizione delle derivate
parziali di f (che sono di classe C k−1 ) e della ϕ (che è di classe C k−1 per ipotesi induttiva).
Ma allora ϕ′ è di classe C k−1 , ovvero ϕ è di classe C k .

Osservazione 2.2.3. Il Teorema 2.2.1 assume (tra le altre cose) che ∂y f (x0 , y0 ) ̸= 0, ma
è facilmente adattabile alla situazione in cui si abbia invece ∂x f (x0 , y0 ) ̸= 0: in tal caso
infatti basta scambiare il ruolo delle coordinate x ed y e concludere che sotto la nuova
ipotesi risulta garantita l’esistenza di una funzione ψ : (c, d) → (a, b) per la quale l’insieme
x = ψ(y) coincide localmente col luogo degli zeri di f . In sostanza, quindi, il teorema di
Dini fornisce informazioni sul luogo degli zeri ogni qual volta almeno una delle derivate
parziali è diversa da zero (e lo descriverà come grafico di una y funzione di x quando
∂y f (x0 , y0 ) ̸= 0, di x funzione di y quando ∂x f (x0 , y0 ) ̸= 0, ed in entrambi i modi quando
entrambe le derivate sono diverse da zero). Ciò porta a definire critici quei punti che oltre
ad essere zeri di f sono anche zeri del gradiente di f : sono questi i punti in cui il luogo
degli zeri non può essere studiato con il teorema di Dini.
2.2. TEOREMA DI DINI 35

Esempio 2.2.4.

• Sia f (x, y) = x2 − y 2 . Allora f (0, 0) = 0 ma ∇f (0, 0) = (0, 0). In questo caso l’insieme
degli zeri di f è l’unione delle rette y = x e y = −x che in un intorno di (0, 0) non è il
grafico di una funzione.

• Sia f (x, y) = x2 + y 2 . Allora f (0, 0) = 0 ma ∇f (0, 0) = (0, 0). In questo caso il luogo
degli zeri di f è il solo punto (0, 0) che non è un grafico di una qualche funzione (che sia
definita in un aperto).

• Sia f (x, y) = y 2 − x2 (x + 1). Allora f (0, 0) = 0 ma ∇f (0, 0) = (0, 0). Anche in questo
caso il luogo degli zeri non è il grafico di alcuna funzione in un intorno aperto di (0, 0).

Osserviamo che la dimostrazione precedente può essere facilmente estesa al caso in cui
f : Ω ⊆ Rm × R → R, ovvero al caso in cui la variabile x varia nello spazio vettoriale Rm
anziché nel campo scalare R. Essa non può invece essere (facilmente) adattata al caso in
cui anche la variabile y vari nello spazio vettoriale Rn (con n > 1). Infatti, l’argomento
che abbiamo usato utilizza il fatto che (sotto certe ipotesi) le restrizioni verticali f (x, ·)
assumono valori di segno opposto e che quindi (per la continuità) debba esistere uno zero “in
mezzo”. Questa affermazione ha senso in R perché in R gli unici connessi sono gli intervalli,
e questo fatto collega la relazione d’ordine (che ci consente di dare senso al termine “in
mezzo”) alla proprietà topologica di connessione. In Rn con n > 1, invece, questo legame
viene meno (gli intervalli non sono gli unici connessi di Rn se n > 1) e la dimostrazione non
è più possibile. Il teorema di Dini è però comunque valido anche nella forma più generale:
questo è appunto la tesi contenuta nel Teorema 2.5.1 che dimostreremo più avanti seguendo
però un approccio diverso.
36 CAPITOLO 2. FUNZIONI IMPLICITE

2.3 Contrazioni e Teorema del punto fisso


Ora ci prendiamo una pausa dal tema principale della sezione per discutere un importante
risultato negli spazi metrici completi. Con questo strumento riusciremo sia a generalizzare il
teorema di Dini sia, in seguito, a dimostrare l’esistenza ed unicità di soluzioni dei problemi
di Cauchy.
Definizione 2.3.1. Sia (X, d) uno spazio metrico completo e T una mappa T : X → X.
Diciamo che T è una contrazione se esiste λ < 1 tale che d(T x, T y) ≤ λd(x, y) per ogni
x, y ∈ X (ovvero se T è lipschitziana con costante di Lipschitz < 1).
Esercizio 2.3.2. Sia f : (a, b) ⊆ R → (a, b), di classe C 1 . Verificare che f è lipschitziana se
e solo se ∥f ′ ∥∞,(a,b) < +∞, ed è una contrazione se e solo se ∥f ′ ∥∞,(a,b) < 1.
Teorema 2.3.3 (Banach–Caccioppoli). Sia (X, d) uno spazio metrico completo e T : X →
X una contrazione. Allora l’equazione T x = x ha una e una sola soluzione.
Dimostrazione. Sia x0 ∈ X scelto ad arbitrio ma fissato. Sia {xn }n∈N la successione definita
per ricorrenza ponendo xn+1 = T xn per ogni n ≥ 1, ovvero la successione

| ◦ .{z
xn = T . . ◦ T} x0 .
n volte

Dalla disuguaglianza triangolare e dalla ipotesi secondo cui T è una contrazione segue che

d(x, y) ≤ d(x, T x) + d(T x, T y) + d(T y, y) ≤ d(x, T x) + λd(x, y) + d(T y, y),

e quindi che
1
d(x, y) ≤ (d(x, T x) + d(y, T y)). (2.2)
1−λ
Osserviamo inoltre che iterando la definizione di contrazione si ha la stima

d(xn+1 , xn ) = d(T xn , T xn−1 ) ≤ λd(xn , xn−1 ) ≤ · · · ≤ λn d(x1 , x0 ). (2.3)

Applicando quindi (2.2) ed (2.3) ai punti xn e xm otteniamo che


1 λn + λm
d(xn , xm ) ≤ (d(xn , T xn ) + d(xm , T xm )) ≤ d(x1 , x0 ). (2.4)
1−λ 1−λ
Fissiamo ϵ > 0, e sia N : λN ≤ ϵ (tale N esiste, visto che λ < 1). Allora se m, n ≥ N si ha
2d(x1 , x0 )
d(xn , xm ) ≤ ϵ ·
1−λ
che dimostra che {xn }n∈N è una successione di Cauchy. La successione quindi converge,
perché per ipotesi siamo in uno spazio metrico completo. Sia x∞ := limn→∞ xn . Allora

T (x∞ ) = T ( lim xn ) = lim T xn = lim xn+1 = x∞


n→∞ n→∞ n→∞

(al secondo passo abbiamo usato la continuità di T ) che mostra come x∞ sia un punto
fisso per T .
Verifichiamo ora l’unicità del punto fisso. Siano x e y punti fissi. Allora dalla (2.2) si deduce
1
che d(x, y) ≤ 1−λ (d(x, x) + d(y, y)) = 0 (in quanto T x = x e T y = y) e questo implica che
d(x, y) = 0, ovvero che x = y.
2.3. CONTRAZIONI E TEOREMA DEL PUNTO FISSO 37

Osservazione 2.3.4. È importante ricordare che la dimostrazione contiene un metodo co-


struttivo per individuare x∞ . Infatti, passando al limite nella (2.4) si deduce che
λn
d(xn , x∞ ) = d(xn , lim xm ) = lim d(xn , xm ) ≤ d(x1 , x0 ),
m→∞ m→∞ 1−λ
che dà una stima esplicita per la distanza di xn da x∞ , in funzione dei dati. Nelle ap-
plicazioni si può quindi generare una sequenza {xn }n∈N a partire da un x0 scelto a caso,
fissare un parametro ϵ > 0 che rappresenta la precisione del calcolo, individuare un indice
N = N (ϵ) in corrispondenza del quale λN ≤ ϵ d(T1−λ
x0 ,x0 ) , ed usare xN come approssimazione
del punto fisso x∞ : il calcolo precedente mostra che xN dista da x∞ meno di ϵ.
Il teorema può essere generalizzato nel modo seguente.
Corollario 2.3.5. Sia (X, d) uno spazio metrico completo e T : X → X. Supponiamo che
esista k tale che T (k) = T ◦ . . . ◦ T (k volte) sia una contrazione. Allora T ha uno ed un
solo punto fisso.
Dimostrazione. Sia x∞ il punto fisso per T (k) (che esiste per via del Teorema 2.3.3). Allora
T (k) (T x∞ ) = (T
| ◦ T ◦{z· · · ◦ T})(T x∞ ) = T
(k+1)
x∞ = T (T (k) x∞ ) = T x∞ ,
k volte

perciò T x∞ è un punto fisso per T (k) . Ma T (k) ha x∞ come unico punto fisso quindi
T x∞ = x∞ , ovvero x∞ è punto fisso per T . Inoltre, è evidente che ogni punto fissato da T
è fissato anche da T (k) , quindi quello trovato è in effetti l’unico punto fisso di T .

Osservazione 2.3.6. Se T è contrazione allora anche T (2) (mappa iterata due volte) è
contrazione visto che
d(T (2) (x), T (2) (y)) = d(T (T x), T (T y)) ≤ λd(T x, T y) ≤ λ2 d(x, y),
e λ2 < λ < 1. Lo stesso vale per le iterate successive. La funzione T : R → R con T (x) =
cos x è un esempio di mappa che non è contrattiva ma per la quale esiste una sua iterazione
(nel suo caso basta T (2) (x) = cos(cos x)) che lo è. Questo esempio mostra che il corollario
precedente non è banale perché effettivamente esistono mappe non contrattive con iterata
contrattiva.
Esempio 2.3.7. Il metodo di Newton è un algoritmo per determinare gli zeri di una funzione
f : R → R. L’idea di base è la seguente: dato un punto x0 scelto a caso sull’ascissa, si trova
la tangente al grafico nel punto (x0 , f (x0 )). L’intersezione della tangente con l’asse delle
ascisse darà un nuovo punto che sarà l’elemento x1 della successione che stiamo costruendo.
Si ripete la costruzione precedente a partire da x1 .
y

Retta tangente al grafico di f nel punto


(xn , f (xn )): y = f ′ (xn )(x − xn ) + f (xn ).
Punto sulla tangente ad ordinata nulla: 0 =
f ′ (xn )(xn+1 − xn ) + f (xn ) ovvero

f (xn )
xn+1 = xn − .
f ′ (xn )
x
xn+1 xn
38 CAPITOLO 2. FUNZIONI IMPLICITE

Sotto opportune ipotesi su f (sostanzialmente che essa è di classe C 2 e localmente stret-


tamente monotona) e sulla scelta di x0 (sufficientemente vicino ad x∞ ) si dimostra che la
successione {xn }n∈N effettivamente converge al punto x∞ in cui f si annulla.
Esercizio 2.3.8. Vogliamo trovare una soluzione di f (x) = 0 con f (x) = x3 + 2x − 1,
utilizzando il metodo di Newton. Sia
f (x) x3 + 2x − 1 2x3 + 1
T (x) := x − = x − = .
f ′ (x) 3x2 + 2 3x2 + 2
La mappa T è effettivamente una contrazione come mappa da R → R, ma la dimostrazione
di questa affermazione è complicata (in effetti la sua costante di Lipschitz vale 0.9732 . . .
che essendo molto vicina ad 1 richiede una analisi molto accurata per essere determinata).
Osserviamo però che T : [0, 1] → [0, 1] e che in questo sottointervallo
6x4 +12x2 −6x 1 4+12x−12x2 −3x4 1 (4−3x4 )+12x(1−x) 1
T ′ (x) = 2 2
= − 2 2
= − 2 2

(3x + 2) 2 2(3x + 2) 2 2(3x + 2) 2
1 4−12x+36x +21x2 4 1 4−12x+36x 2 1
T ′ (x) = − + 2 2
≥− + 2 2
≥−
2 2(3x + 2) 2 2(3x + 2) 2
quindi |T ′ (x)| ≤ 12 .
Da Lagrange sappiamo che |T (x) − T (y)| = |T ′ (ξ)| · |x − y| ≤ 12 |x − y| perciò T è una
contrazione come mappa [0, 1] → [0, 1]. Esiste quindi ed è unico il punto fisso di T in
[0, 1], ovvero la soluzione in [0, 1] di T x = x, ovvero di f (x) = 0. Inoltre, sappiamo che
se x0 è scelto a caso ed {xn }n∈N è la successione generata per induzione secondo la legge
xn = T xn−1 , allora si ha:
1 n

2 1 2x30 + 1
|xn − x∞ | ≤ |x − x | = − x 0 .

1 1 0
2n−1 2
1− 2 3x 0 + 2
Scegliendo x0 = 0 si ha:

x0 = 0 x1 = T (x0 ) = 0.5 x2 = T (x1 ) = 0.45454545 . . .


x3 = T (x2 ) = 0.45339833 . . . x4 = T (x3 ) = 0.45339765 . . . x5 = T (x4 ) = 0.45339765 . . .

La successione sembra convergere più velocemente di quanto stimato. Ciò però non è dovuta
ad una stima inefficiente di T ′ (x): in effetti sup[0,1] |T ′ (x)| = T ′ (1) = 25
12
= 0.48, molto
vicino alla nostra stima di 0.5. Il vero motivo è invece il seguente. Sia x∞ la radice cercata;
dalla definizione ricorsiva di xn+1 , dal fatto che x∞ è una radice di f e sviluppando f al
secondo ordine si ottiene che
f (xn ) − f (x∞ ) f ′′ (ζ)
xn+1 − x∞ = (xn − x∞ ) − = − (xn − x∞ )2
f ′ (xn ) 2f ′ (xn )
dove ζ è un qualche punto tra xn ed x∞ , ed in particolare è in [0, 1]. Visto che f (x) =
x3 + 2x − 1, questa relazione diventa
6ζ 3
|xn+1 − x∞ | ≤ (xn − x∞ )2 ≤ (xn − x∞ )2 .

2
2(3xn + 2) 2
Iterando la disuguaglianza (o per induzione), si ricava che
2 3 2n
|xn+1 − x∞ | ≤ (x1 − x∞ ) ∀n.

3 2
2.4. TEOREMA DI INVERTIBILITÀ LOCALE 39

La sequenza precedente ha x1 = 1/2 e x∞ ∈ [0, 1], quindi per essa si ha |x1 − x∞ | ≤ 1/2,
e così la disuguaglianza precedente fornisce la stima:
2  3 2 n
|xn+1 − x∞ | ≤ ∀n.
3 4
Questa stima dimostra che la convergenza è di fatto sovra-esponenziale.
Il fatto che la convergenza sia sovra esponenziale è sostanzialmente merito della scelta
della mappa T fatta nel metodo di Newton e in particolare sarà possibile in un opportuno
intorno della radice x∞ di ogni funzione f che sia di classe C 2 ed abbia f ′ (x∞ ) ̸= 0. Lascio
ai colleghi del corso di Analisi Numerica il piacere di tramutare questa osservazione in un
effettivo teorema.
Esercizio 2.3.9. Cercare le soluzioni di f (x) = 0, dove f (x) = x5 + 4x − 4.

2.4 Teorema di invertibilità locale


Prima di enunciare e dimostrare il teorema è bene ricordare un paio di lemmi. Il primo
dimostra la proprietà di sub-moltiplicatività della norma euclidea di una matrice.

Lemma 2.4.1. Siano A = (ai,j )m,n ∈ M (m × n, R) e sia


m X
X n 1/2
∥A∥2 := ∥(ai,j )∥2 := a2i,j .
i=1 j=1

Allora ∥ · ∥2 è una norma in M (m × n, R) rispetto alla quale questo spazio è di Banach.


Inoltre se poi B = (aj,l )n,k ∈ M (n × k, R) (e quindi AB ∈ M (m × k, R)) si ha

∥AB∥2 ≤ ∥A∥2 · ∥B∥2 .

Ne segue che rispetto a quella norma lo spazio M (m×m, R) (le matrici quadrate) acquisisce
la struttura di algebra di Banach.

Si osservi che nel caso n = 1 lo spazio M (m × 1, R) coincide (in realtà è isomorfo) con
quello dei vettori di Rm e la norma di A ∈ M (n × 1, R) come matrice coincide con la sua
norma euclidea come vettore.

Dimostrazione. È evidente che ∥ · ∥2 è nonnegativa e che si annulla solo per la matrice


nulla. Anche la omogeneità di ∥ · ∥2 è chiara. Per la subadditività osserviamo che dalla
disuguaglianza di Cauchy–Schwarz (usata in Rmn ) segue che
m X
X n
∥A + A′ ∥22 = ∥(ai,j ) + (a′i,j )∥22 = ∥(ai,j + a′i,j )∥22 = (ai,j + a′i,j )2
i=1 j=1
m X
X n
= ∥A∥22 + 2 ai,j a′i,j + ∥A′ ∥22
i=1 j=1
m X
hX n m X
i1/2 h X n i1/2
2
≤ ∥A∥22 + 2 a2i,j a′ i,j + ∥A′ ∥22
i=1 j=1 i=1 j=1

2
= ∥A∥22 + 2∥A∥2 ∥A ∥2 + ∥A′ ∥22 = ∥A∥2 + ∥A′ ∥2 ,
40 CAPITOLO 2. FUNZIONI IMPLICITE

che è equivalente alla tesi.


La completezza di M (m × n, R) con questa norma deriva immediatamente dal fatto che
M (m × n, R) è uno spazio vettoriale reale finito dimensionale, e che in tali spazi tutte le
norme sono equivalenti (per cui quella appena definita è equivalente ad esempio alla norma
del sup).
Analogamente, dalla disuguaglianza di Cauchy–Schwarz (in Rn ) segue che

X n 2 Xm X
k Xn 2 Xm X
k hX
n n
ih X i
∥AB∥22 = ( ai,j bj,l )i,l = ai,j bj,l ≤ a2i,j b2j,l


2
j=1 i=1 l=1 j=1 i=1 l=1 j=1 j=1
m X
hX n k X
ih X n i
= a2i,j b2j,l = ∥A∥22 · ∥B∥22 .
i=1 j=1 l=1 j=1

Il secondo lemma mostra una proprietà simile, ma per funzioni a valori matriciali.

Lemma 2.4.2. Sia F : X → M (m × n, R). Poniamo


m X
X n 1/2
∥|F ∥|2,∞,X := ∥Fij ∥2∞,X .
i=1 j=1

Sia poi f : Ω ⊆ Rm → Rn con Ω aperto, di classe C 1 (Ω), e sia X ⊆ Ω un convesso. Allora

∥f (x) − f (w)∥2 ≤ ∥|Jf ∥|2,∞,X · ∥x − w∥2 ∀x, w ∈ X.

Dimostrazione. Siano x, w fissati in X. Siano fj : Ω ⊆ Rm → R con j = 1, . . . , n le n


funzioni che danno le coordinate della funzione f , ovvero tali per cui f = (f1 , f2 , . . . , fn ).
Ogni fj è a valori scalari, e per il teorema di Lagrange fj (x) − fj (w) = ⟨∇fj (α), x − w⟩
dove α sta nel segmento che congiunge x e w (qui si usa il fatto che X è per ipotesi convesso,
così il segmento è effettivamente tutto in X). Per Cauchy–Schwarz:

|fj (x) − fj (w)|2 ≤ ∥∇fj (α)∥22 · ∥x − w∥22

e quindi
m
∂fj 2
X 
2
|fj (x) − fj (w)| ≤ · ∥x − w∥22 .
∂xi ∞,X

i=1

Questo risultato vale per ogni j = 1, . . . , n e sommando le varie disuguaglianze al variare


di j otteniamo la tesi.

Teorema 2.4.3 (Invertibilità locale). Sia f : Ω ⊆ Rn → Rn , Ω aperto. Supponiamo f ∈


C 1 (Ω) e sia x0 ∈ Ω con Jf (x0 ) invertibile. Allora esiste un intorno U(x0 ) e un intorno
V(f (x0 )) aperti tali che f |U (x0 ) : U(x0 ) → V(f (x0 )) è biunivoca con f −1 ∈ C 1 (V(f (x0 ))).
Inoltre
(Jf −1 )(f (x)) = [(Jf )(x)]−1 ∀x ∈ U(x0 ).

Gli aperti U(x0 ) e V(f (x0 )) possono essere presi così da fare sì che V(f (x0 )) sia una bolla
di centro f (x0 ).
2.4. TEOREMA DI INVERTIBILITÀ LOCALE 41

Dimostrazione. La dimostrazione è un’applicazione del teorema di punto fisso. Consideria-


mo la funzione
f˜(x) := ((Jf )(x0 ))−1 · (f (x0 + x) − f (x0 )),
che è ben definita in Ω̃ := Ω − x0 (che è il traslato di Ω della quantità x0 ), perché
((Jf )(x0 ))−1 esiste per ipotesi. Osserviamo che f˜(0) = 0 e che

(J f˜)(0) = ((Jf )(x0 ))−1 · (Jf )(x0 ) = I.

D’altra parte
f (x) = (Jf )(x0 ) · f˜(x − x0 ) + f (x0 ),
e questa relazione evidenzia che f è invertibile in U(x0 ) se e solo se f˜ è invertibile in
U(x0 ) − x0 . La relazione tra f e f˜ può essere formalizzata scrivendo che

f = A ◦ f˜ ◦ A′ ,

dove A è la mappa affine con Av := (Jf )(x0 ) · v + f (x0 ), e A′ è la mappa affine A′ v :=


v − x0 . Sia A che A′ sono certamente invertibili, quindi f lo è se e solo se lo è f˜, con
f −1 = A′ −1 ◦ f˜−1 ◦ A−1 .
Procediamo anzitutto studiando f˜ e verificando che essa è invertibile con inversa diffe-
renziabile tra opportuni intorni di 0. Per seguire la dimostrazione si tenga presente il
diagramma seguente

Ũ Ṽ := A−1 (V)

A′−1 A′ A A−1

f
U := A′−1 (Ũ) V
in cui appaiono già i vari insiemi che andremo via via a definire. Ricordiamo che la mappa
f˜ soddisfa le proprietà: f˜(0) = 0 e (J f˜)(0) = I. Sia

H(x) := x − f˜(x).

Si tratta di una funzione in C 1 (Ω̃), con H(0) = 0 e (JH)(0) = I−I = 0. Visto che le funzioni
che forniscono le componenti della matrice JH sono continue, esiste ϵ > 0 sufficientemente
piccolo perché si abbia
1
∥|JH∥|2,∞,B ϵ ≤ ,
2
dove B ϵ := {x : ∥x∥ ≤ ϵ} (bolla chiusa). Inoltre visto che det J f˜ è una funzione continua e
che det J f˜(0) = det I = 1, possiamo scegliere ϵ in modo che oltre alla relazione precedente
si abbia anche det J f˜(x) ̸= 0 per ogni x in B ϵ (su questo punto vedasi anche la Osserva-
zione 2.4.4 successiva).
Dato che ∥|JH∥|2,∞,B ϵ ≤ 12 , dal Lemma 2.4.2 ricaviamo che:

1
∥H(x) − H(w)∥ ≤ · ∥x − w∥ ∀x, w ∈ B ϵ (2.5)
2
e così:

∥f˜(x) − f˜(w)∥ = ∥x − w − (H(x) − H(w))∥ ≥ ∥x − w∥ − ∥H(x) − H(w)∥


42 CAPITOLO 2. FUNZIONI IMPLICITE

1 1
≥ ∥x − w∥ − ∥x − w∥ = ∥x − w∥
2 2
e quindi
∥x − w∥ ≤ 2∥f˜(x) − f˜(w)∥ ∀x, w ∈ B ϵ . (2.6)
Questo mostra che f˜ è iniettiva in B ϵ perché se f˜(x) = f˜(w) da (2.6) segue subito ∥x−w∥ ≤
2 · 0 e quindi che x = w.
Sia y fissato in B ϵ/2 , ovvero con ∥y∥ ≤ 2ϵ , e poniamo Hy (x) := y + H(x). Osserviamo che

∥Hy (x)∥ = ∥y + H(x)∥ ≤ ∥y∥ + ∥H(x)∥ = ∥y∥ + ∥H(x) − H(0)∥,


ϵ
poiché H(0) = 0. Assumiamo ora che x ∈ B ϵ . Siccome ∥y∥ ≤ 2, dalla disuguaglianza
precedente e da (2.5) segue che
ϵ 1 ϵ ϵ
∥Hy (x)∥ ≤ + ∥x − 0∥ ≤ + = ϵ.
2 2 2 2
Questo dimostra che Hy : B ϵ → B ϵ . Inoltre

Hy (x) − Hy (w) = y + H(x) − y − H(w) = H(x) − H(w)

e così da (2.5) segue che


1
∥Hy (x) − Hy (w)∥ = ∥H(x) − H(w)∥ ≤ ∥x − w∥.
2
Questo dimostra che Hy è una contrazione su B ϵ , il quale è uno spazio di Banach rispetto
alla metrica euclidea (perché Rn lo è ed B ϵ è un chiuso in Rn ). Per il teorema di Banach–
Caccioppoli allora Hy ha in B ϵ un (unico) punto fisso. Ovvero esiste un (unico) x ∈ B ϵ
tale che:

Hy (x) = x ⇔ y + H(x) = x ⇔ y + x − f˜(x) = x ⇔ y = f˜(x).

Questo dimostra che ogni y ∈ B ϵ/2 è immagine di un (e uno solo) punto x ∈ B ϵ . Per poter
procedere occorre anzitutto verificare che la stessa tesi vale anche tra le rispettive bolle
aperte. In effetti osserviamo che se x e y sono come sopra, allora
1
∥x∥ = ∥y + x − f˜(x)∥ = ∥y + H(x)∥ ≤ ∥y∥ + ∥H(x)∥ ≤ ∥y∥ + ∥x∥. (2.7)
2
Questo mostra che ∥x∥ ≤ 2∥y∥. In particolare se y ∈ Bϵ/2 (aperto), ovvero se ∥y∥ < 2ϵ ,
allora ∥x∥ < ϵ, così che ogni punto y dell’aperto Bϵ/2 ha una controimmagine x nell’aperto
Bϵ . Questo non è ancora sufficiente (purtroppo!), perché non è detto che f˜(Bϵ ) ⊆ Bϵ/2 ,
ma si può gestire quest’ultima difficoltà abbastanza facilmente. Sia V una bolla aperta,
centrata in f (x0 ) e di raggio sufficiente piccolo perché l’insieme Ṽ := A−1 (V) sia contenuto
in Bϵ/2 . Una tale bolla esiste sicuramente visto che A−1 è anch’essa una mappa affine (e
quindi manda bolle in ellissoidi) e manda f (x0 ) in 0. L’insieme Ṽ contiene 0 ed è anch’esso
un aperto, visto che è l’immagine di un aperto tramite una mappa affine invertibile. Sia
Ũ := Bϵ ∩ f˜−1 (Ṽ). L’insieme Ũ è aperto (intersezione di aperti), 0 ∈ Ũ (perché f˜(0) = 0
quindi 0 è nella controimmagine di 0 tramite f˜), f˜ è iniettiva su Ũ (perché lo è su Bϵ ), f˜
manda Ũ in Ṽ (evidente) ed è suriettiva su Ṽ (perché sappiamo che per ogni y ∈ Bϵ/2 esiste
un x ∈ Bϵ tale che f˜(x) = y). Quindi abbiamo trovato due aperti Ũ e Ṽ tali che f˜: Ũ → Ṽ
2.4. TEOREMA DI INVERTIBILITÀ LOCALE 43

è biunivoca, e se poniamo U := A′−1 Ũ, allora di fatto abbiamo trovato gli aperti U e V tali
che f : U → V è biunivoca. Si osservi che con questa scelta V è una bolla aperta (mentre
Ṽ è un ellissoide aperto).
Sia f˜−1 : Ṽ → Ũ l’inversa di f˜ tra questi insiemi. Allora (2.6) dice che in Ṽ, posto x :=
f˜−1 (y) e w := f˜−1 (z), vale:

∥f˜−1 (y) − f˜−1 (z)∥ ≤ 2∥y − z∥ (2.8)

ovvero che f˜−1 è lipschitziana. Mostriamo che f˜−1 è in realtà differenziabile e che J(f˜−1 ) =
(J f˜)−1 . Dal fatto che f˜ è differenziabile in x ∈ Ω̃ segue che:

f˜(w) − f˜(x) = (J f˜)(x) · (w − x) + R(w, x) (2.9)

con
∥R(w, x)∥
→0 per w → x. (2.10)
∥w − x∥
Da (2.9) segue che

f˜−1 (z) − f˜−1 (y) = w − x = (J f˜(x))−1 · (z − y) − (J f˜(x))−1 · R(w, x), (2.11)

perché J f˜(x) è invertibile quando x ∈ Bϵ . Supponiamo z → y. Allora w = f˜−1 (z) →


f˜−1 (y) = x perché (2.8) dice che f˜−1 è continua. Inoltre:

∥R(w, x)∥ ∥R(w, x)∥ ∥w − x∥ ∥R(w, x)∥ ∥f˜−1 (z) − f˜−1 (y)∥
= · = · .
∥z − y∥ ∥w − x∥ ∥z − y∥ ∥w − x∥ ∥z − y∥

Per la (2.8) il secondo fattore è limitato da 2, quindi

∥R(w, x)∥ ∥R(w, x)∥


≤2 →0
∥z − y∥ ∥w − x∥

per la (2.10). Ma allora (usando la sub-moltiplicatività della norma, ovvero Lemma 2.4.1)

∥(J f˜(x))−1 · R(w, x)∥ ∥R(w, x)∥


≤ ∥(J f˜(x))−1 ∥2 ·
∥z − y∥ ∥z − y∥

ed il secondo fattore tende a zero quando z → y per quanto appena verificato (mentre il
primo fattore resta costante). Questo e (2.11) mostrano che f˜−1 è differenziabile in y con
(J(f˜−1 ))(y) = ((J f˜)(x))−1 = ((J f˜)(f˜−1 (y)))−1 .
Osserviamo che le funzioni che compongono J f˜ sono continue e il suo determinante è
diverso da 0 quindi gli elementi della matrice (J f˜)−1 (x) sono certamente funzioni continue
di x. Visto che x = f˜−1 (y) e che f˜−1 è continua ne segue che (J(f˜−1 ))(y) = (J f˜)−1 (f˜−1 (y))
è funzione continua di y.
Infine, dal fatto che f = A′ ◦ f˜◦A′ con A e A′ affini e invertibili, segue che anche f U : U → V

è invertibile con inversa di classe C 1 , e la formula per lo jacobiano di f −1 indicata nel


teorema segue immediatamente dall’uguaglianza J(f˜−1 ) = (J f˜)−1 appena dimostrata.

Osservazione 2.4.4. Nella dimostrazione precedente abbiamo chiesto che ϵ sia abbastanza
piccola da garantire sia che ∥|JH∥|2,∞,B ϵ ≤ 12 , sia l’invertibilità della matrice J f˜(x) per
ogni x ∈ B ϵ . In realtà la seconda richiesta è automaticamente soddisfatta una volta che sia
soddisfatta la prima. Questo accade perché J f˜(x) = I−JH(x), e quindi è una matrice della
44 CAPITOLO 2. FUNZIONI IMPLICITE

forma I − A con ∥A∥2 ≤ 21 . La norma che abbiamo introdotto nella matrici M (n × n, R) è


una norma sub-moltiplicativa (vd. 2.4.1) così ∥Ak ∥2 ≤ ∥A∥k2 per ogni intero k, e nel caso
in cui ∥A∥2 ≤ 21 , si ha
∞ ∞ ∞
X
k
X
k
X 1
∥A ∥2 ≤ ∥A∥2 ≤ = 2.
2k
k=0 k=0 k=0

Per il test di Weierstrass questo basta a dimostrare la convergenza della serie ∞ k


P
k=0 A
(perché sappiamo che M (n×n, R) con quella norma risulta essere un’algebra reale normata
e di Banach). Ma allora dalla identità

X ∞
X ∞
X ∞
X ∞
X
(I − A) Ak = Ak − Ak+1 = Ak − Ak = I
k=0 k=0 k=0 k=0 k=1
P∞ k
deduciamo il fatto che I − A è effettivamente invertibile, con k=0 A quale inversa.
Corollario 2.4.5. Sia f : Ω ⊆ Rn → Rn , Ω aperto e f ∈ C 1 (Ω). Supponiamo che Jf (x)
sia invertibile per ogni x ∈ Ω. Allora f è una mappa aperta, ovvero l’immagine f (A) di
ogni insieme aperto A è un insieme aperto.
Dimostrazione. Per il teorema f è localmente invertibile in ogni punto con inversa continua,
e questo dà la tesi.

Osservazione 2.4.6. Il teorema dimostra che se F : Ω ⊆ Rn → Rn è di classe C 1 con JF


invertibile in un punto x0 , allora F è localmente biunivoca con inversa C 1 e J(F −1 ) =
(JF )−1 . Viceversa, supponiamo che F sia di classe C 1 , localmente biunivoca in x0 e con
inversa locale di classe C 1 . Allora differenziando le identità
(F −1 ◦ F )(x) = Id(x) = x (F ◦ F −1 )(y) = Id(y) = y
si ottiene
J(F −1 )(F (x)) · JF (x) = I JF (x) · J(F −1 )(F (x)) = I
che dimostrano che JF (x0 ) è invertibile con inversa J(F −1 )(F (x0 )). In altre parole, il
teorema mostra che per mappe di classe C 1 l’invertibilità locale è equivalente all’invertibilità
puntuale della matrice jacobiana.
Osservazione 2.4.7. L’invertibilità locale in tutti i punti di per sé non implica l’invertibilità
globale. Ad esempio si consideri la mappa
 2
x − y2

2 2
f : R \{0} → R \{0}, f (x, y) := .
2xy
Questa funzione non è globalmente invertibile perché f (−x,−y)
 −2y=  f (x, y), ma è localmente
invertibile in ogni punto di R2 \{0} visto che Jf (x, y) = 2x
2y 2x ha determinante diverso
2
da 0 in ogni punto di R \{0}.
Quali ipotesi aggiungere a quella di avere Jf invertibile in ogni punto, per passare dalla
invertibilità locale a quella globale? Il teorema di Hadamard e Caccioppoli afferma che nel
caso in cui f : X → Y con X ed Y spazi metrici connessi ed Y è semplicemente connesso ed
f è continua, localmente invertibile allora f è globalmente invertibile con inversa continua
se e solo se è propria (ovvero f −1 (K) è compatto per ogni compatto K). Tale risultato fu
dimostrato da Hadamard in Rn e successivamente esteso da Caccioppoli agli spazi metrici;
tale estensione ha fatto di questo risultato uno degli strumenti di base per la risoluzione
di vari problemi differenziali (vd. [AP] e [DeMGZ]).
2.5. TEOREMA DI DINI MULTIDIMENSIONALE 45

2.5 Teorema di Dini multidimensionale


Teorema 2.5.1 (Dini). Sia f : Ω ⊆ Rm × Rn → Rn , con Ω aperto e f ∈ C 1 (Ω). Sia poi
(x0 , y0 ) ∈ Ω (con x0 ∈ Rm ed y0 ∈ Rn ) tale che

i. f (x0 , y0 ) = 0,

ii. la matrice (Jy f )(x0 , y0 ) (che è la sottomatrice quadrata di ordine n × n della matri-
ce Jacobiana di f ottenuta considerando le derivate di f rispetto alle variabili y) è
invertibile.

Allora esistono due intorni aperti U(x0 ) e V(y0 ) con U(x0 ) × V(y0 ) ⊆ Ω tali che

iii. l’insieme degli zeri che f ha in U(x0 ) × V(y0 ) coincide con il grafico di una funzione
ϕ : U(x0 ) → V(y0 ),

iv. ϕ è di classe C 1 (U(x0 )) e

Jϕ(x) = − (Jy f )−1 · (Jx f ) (x,ϕ(x))


 
per ogni x ∈ U(x0 ).

 
Ricordiamo che per ogni matrice quadrata della forma M := AI B0 con B quadrata, si
ha det M = det I · det B, così che
 M è invertibile se e solo se B è invertibile. In tal caso
−1 I 0
l’inversa è M = −B −1 A B −1 .

Dimostrazione. Sia F : Ω ⊆ Rm × Rn → Rm × Rn definita come


 
x
F (x, y) := .
f (x, y)

Osserviamo che F ∈ C 1 (Ω), che F (x0 , y0 ) = x00 e che


 

 
I 0
JF = .
Jx f Jy f

In particolare  
I 0
(JF )(x0 , y0 ) =
Jx f (x0 , y0 ) Jy f (x0 , y0 )
è invertibile per ipotesi. Quindi per il Teorema 2.4.3 F è localmente invertibile in (x0 , y0 ),
ovvero esistono due intorni aperti W(x0 , y0 ) e S(x0 , 0) tra i quali F agisce come un diffeo-
morfismo, con S(x0 , 0) che di fatto è una bolla aperta di centro (x0 , 0).
Sia U un intorno aperto di x0 in Rm per il quale esiste un intorno aperto R di 0 in Rn
tali che U × R ⊆ S (gli intorni
 x  U ed R esistono, visto che S è una bolla aperta).
 x  Sia
m m n m n
i : R → R × R , i(x) := 0 (immersione) e sia pry : R × R → R , pry y := y n

(proiezione). Infine sia V la proiezione sulle y di W: Anche V è un aperto perché la proie-


zione è una mappa aperta.
Costruiamo la mappa ϕ nel modo seguente:

ϕ: U −→ V,
x 7→ ϕ(x) := (pry ◦F −1 ◦ i)(x).

Il diagramma seguente visualizza la costruzione di ϕ:


46 CAPITOLO 2. FUNZIONI IMPLICITE

F
W S
F −1
(x0 , y0 ) (x0 , 0) U ×R

ϕ
pry i

V U

Osserviamo che ϕ è di classe C 1 (perché pry e i lo sono in quanto lineari, e F −1 lo è per il


teorema di invertibilità locale) e con
 
−1
  −1 I
Jϕ = (J pry ) · (JF ) · (Ji) = 0 I · (JF ) ·
0
  
I 0 I
= −(Jy f )−1 Jx f.
 
= 0 I · −1 −1
−(Jy f ) Jx f (Jy f ) 0

Osserviamo che F è l’identità sulle prime m coordinate, quindi x = prx (F −1 x0 ) . Così


 

   x    x    x  x


−1 −1 −1
F (x, ϕ(x)) = F prx F , pry F =F F =
0 0 0 0
e quindi
 x  
f (x, ϕ(x)) = pry (F (x, ϕ(x))) = pry = 0,
0
ovvero il grafico di ϕ è contenuto negli zeri di f .
D’altra parte, sia (x, y) ∈ U × V uno zero di f . Allora x ∈ U ed
   
x x
i(x) = = = F (x, y).
0 f (x, y)

Visto che x ∈ U, dalla definizione di U e di R segue che i(x) ∈ S. Possiamo quindi applicare
F −1 a questa relazione, ottenendo

ϕ(x) = (pry ◦F −1 ◦ i)(x) = pry ((F −1 ◦ i)(x)) = pry ((F −1 (F (x, y))) = pry (x, y) = y

che dimostra come lo zero sia sul grafico di ϕ.

Osservazione 2.5.2. Nella formulazione del teorema si assume che una volta decomposto lo
spazio di partenza Rm+n come Rm × Rn , lo jacobiano di f relativo alle ultime n coordinate
(quindi una matrice n × n) sia invertibile. In realtà il teorema può essere generalizzato
assumendo solo che Jf (x0 , y0 ) sia di rango massimo (quindi n, visto che Jf (x0 , y0 ) è
una matrice (m + n) × n): questa ipotesi infatti garantisce l’esistenza in Jf (x0 , y0 ) di
una sottomatrice n × n invertibile, ed il teorema dimostra la possibilità di esprimere le n
coordinate che corrispondo alle colonne di questa sottomatrice come funzione delle altre m.
Per la dimostrazione di questa generalizzazione basta osservare che essa segue dal teorema
così come è stato formulato, applicandola non ad f ma ad f composta una opportuna
permutazione delle coordinate dello spazio di partenza Rm+n .
2.6. ESTREMI VINCOLATI 47

Come già mostrato nel caso scalare, anche nel caso generale dalla formula per lo Jacobiano
enunciata al punto iv. del Teorema 2.5.1 discende il seguente risultato di regolarità.

Corollario 2.5.3. Supponiamo valide le ipotesi e le notazioni del teorema precedente. Se


poi f ∈ C k (Ω), allora ϕ è di classe C k (U).

2.6 Estremi vincolati


Data f : Ω ⊆ Rm → R e Σ ⊆ Ω una regione. Sia p ∈ Σ e supponiamo che f (p) =
max{f (x) : x ∈ Σ ∩ U(p)}. In tal caso diciamo che p è un punto di massimo locale per f
vincolata a Σ. Analoga definizione per il minimo locale vincolato.

Σ
p U

Sappiamo già come individuare un tale punto qualora Σ∩U(p) sia un insieme aperto in Rm :
in questo caso infatti se f è in C 1 Ω allora p è tra gli zeri di ∇f . La situazione è però nuova
qualora Σ ∩ U(p) non sia un aperto: in questo caso infatti in genere ∇f (p) ̸= 0 nonostante
p e la ricerca degli estremanti di f ristretta a Σ è quindi in tal caso un obiettivo per la
quale al momento non abbiamo alcuna procedura e se affrontato con questa generalità di
fatto è destinato a restare insoluto.
Il problema può però essere validamente risolto qualora Σ sia il grafico di una qualche
funzione, procedendo nel modo seguente. Per fissare le idee supponiamo che f : Ω ⊆ R2 →
R, con Ω aperto e f ∈ C 1 (Ω), e che Σ = Γϕ sia il grafico di ϕ con ϕ : (α, β) → (γ, δ)
anch’essa di classe C 1 . Allora la restrizione di f a Σ, è f |Γϕ (x) = f (x, ϕ(x)) che è C 1 ((α, β)).
Se p = (xp , yp ) è estremante per f |Γϕ allora xp è estremante per x 7→ f (x, ϕ(x)), quindi

∂f ∂f ∂ϕ d
+ = f (x, ϕ(x)) = 0 in xp .
∂x ∂y ∂x dx

Ponendo λ := − ∂f
∂y (xp , yp ) questa relazione diventa
(
∂f
∂x = λ ∂ϕ
∂x
∂f
∂y = λ · (−1).

Se dunque introduciamo la funzione g(x, y) := ϕ(x) − y, allora Γϕ è il luogo degli zeri di g


e il sistema diventa (
∇f = λ∇g
g(x, y) = 0.

È in questa forma che il problema si generalizza.


48 CAPITOLO 2. FUNZIONI IMPLICITE

Teorema 2.6.1 (Moltiplicatori di Lagrange). Sia f : Ω ⊆ Rm → R, con Ω aperto e


f ∈ C 1 (Ω). Sia Σ il luogo degli zeri di g : Ω → Rn (con m > n) e g ∈ C 1 (Ω). Sia p ∈ Σ un
punto di massimo/minimo locale vincolato a Σ per f e supponiamo che il rango di Jg(p),
lo jacobiano di g, sia massimo (e quindi uguale ad n). Allora esistono λ1 , . . . , λn ∈ R tali
che 
∇f (p) = λ1 ∇g1 (p) + · · · + λn ∇gn (p) ← m equazioni scalari


g1 (p) = 0

..


 . ← n equazioni scalari

gn (p) = 0

dove g =: (g1 , . . . , gn ). Si osservi che il sistema ha m + n equazioni in m + n incognite: le


m coordinate di p più le n coordinate di λ.

Dimostrazione. Per ipotesi rk(Jg(p)) = n quindi esiste in Jg(p) una sottomatrice di ordine
n×n invertibile. Senza perdita di generalità possiamo supporre che questa sottomatrice sia
quella relativa alle ultime n coordinate, ovvero che Rm sia decomposto come Rm−n x × Rny
e che Jy g(p) sia invertibile in quanto di rango n. Per Dini esistono gli intorni aperti U(xp )
e V(yp ) e una mappa ϕ : U(xp ) → V(yp ) il cui grafico coincide con Σ ∩ (U(xp ) × V(yp )).
Ma allora f |Σ∩(U (xp )×V(yp )) coincide con x 7→ f (x, ϕ(x)), e questa è definita in U(xp ) che è
aperto. Questa mappa è C 1 (per Dini) e ha un estremo in xp , quindi

∇(f (·, ϕ(·)))(xp ) = 0. (2.12)

D’altra parte dalla formula di derivazione per le funzioni composte si ha


   
I I
∇(f (·, ϕ(·))) = ∇f = (∇x f, ∇y f ) · = (∇x f ) − (∇y f )(Jy g)−1 Jx g
Jϕ −(Jy g)−1 (Jx g)

(per semplicità a destra lo abbiamo omesso, ma comunque si ricordi che tutte le funzioni
sono valutate in (x, ϕ(x))), che valutata in xp e tenuto conto di (2.12) produce l’uguaglianza

(∇x f )(p) = (∇y f )(p)(Jy g)−1 (p)(Jx g)(p). (2.13)

Poniamo
(∇y f )(p)(Jy g)−1 (p) =: (λ1 , . . . , λn ). (2.14)
Allora (2.13) diventa

∇x f (p) = λ1 ∇x g1 (p) + · · · + λn ∇x gn (p).

e la (2.14) moltiplicata a destra per Jy g dà

∇y f (p) = λ1 ∇y g1 (p) + · · · + λn ∇y gn (p).

Unendo queste due relazioni otteniamo il sistema della tesi.

Osservazione 2.6.2. In termini della funzione L : Ω × Rn → R definita da L(x, λ) :=


f (x) − ⟨λ, g(x)⟩ il sistema può essere riscritto come
(
∇x L = 0
ovvero ∇L = 0.
∇λ L = 0
2.6. ESTREMI VINCOLATI 49

Quindi il problema originale (cercare estremi vincolati per f ) è diventato cercare estremi
liberi per L. La funzione L è detta Lagrangiana del problema, ed assume un ruolo fonda-
mentale nella descrizione della dinamica dei corpi poiché consente di formulare equazioni
di moto che prescindono dal sistema di riferimento (ma questa è tutta un’altra storia,
indubbiamente, e lascio ai colleghi fisici-matematici il divertimento di insegnarvi queste
cose).
Osservazione 2.6.3. Il teorema fornisce solo un criterio necessario: non è detto che i punti
trovati risolvendo il sistema siano effettivamente estremanti. Per stabilirlo si possono usare
considerazioni sulla compattezza del dominio (se il dominio è compatto, e si sono trovati
due soli punti stazionari vincolati, allora questi devono essere per forza il massimo ed il
minimo di f ). In alternativa si può usare un’analisi al secondo ordine locale sulla restrizione;
questa porta però a formulare criteri che solo persone decisamente motivate (o sull’orlo della
disperazione matematica) possono effettivamente prendere in considerazione.
Osservazione 2.6.4. C’è un altro modo di interpretare il teorema dei moltiplicatori, e che
è basato su semplici nozioni di geometria differenziale.

i. Sia p ∈ Rm e sia
Ep := {frecce uscenti da p}.
L’insieme Ep , con la somma vettoriale data dalla regola del parallelogramma e il pro-
dotto per uno scalare inteso come dilatazione, è uno spazio vettoriale di dimensione
m.

u+v
u 3u
u
v p
p −2u

Esso supporta anche un prodotto scalare ⟨·, ·⟩p definito ponendo

lunghezza (con segno) della proiezione


di u/∥u∥ su v/∥v∥, presa con segno +
⟨u, v⟩p := ∥u∥ · ∥v∥ ·
se la proiezione è equiversa con v/∥v∥ e
con segno − altrimenti.

che risulta essere definito positivo.

ii. Sia g : Ω ⊆ Rm → Rn , con Ω aperto, m > n, e g ∈ C 1 (Ω). Sia poi p ∈ Ω con g(p) = 0
e Jg(p) di rango n (quindi massimo). Sia Σ il luogo degli zeri di g e sia

Tp Σ := span{v ∈ Ep che sono derivate in p di qualche cammino su Σ},

ovvero lo span delle frecce v per le quali esiste ϵ > 0 e

ψ : (−ϵ, ϵ) → Σ di classe C 1 e tale che ψ(0) = p, ψ ′ (0) = v.

Tp Σ è lo spazio tangente a Σ in p e per costruzione è un sottospazio di Ep .


50 CAPITOLO 2. FUNZIONI IMPLICITE

p = ψ(0) Σ
ψ

z
t
−ϵ 0 ϵ x y

Si osservi che la definizione di Tp Σ data non afferma che esso è l’insieme dalle frecce
ψ ′ (0), ma che esso è lo spazio generato dalle frecce ψ ′ (0). Questo perché dati due
cammini ψ1 e ψ2 entrambi passanti per p ed entrambi in Σ, non è facile dimostrare
l’esistenza di un cammino ψ anch’esso in Σ e passante per p con ψ ′ (0) = ψ1′ (0)+ψ2′ (0).
Quindi se definissimo Tp Σ come insieme non riusciremmo a dimostrare che esso è uno
spazio vettoriale. In realtà, anche se è complicato, è comunque possibile dimostrare
l’esistenza ψ con quelle proprietà, e verificare quindi che l’insieme delle velocità dei
cammini in Σ e passanti per p è effettivamente uno spazio vettoriale. Per le nostre
esigenze però possiamo permetterci di aggirare questa difficoltà e scoprire che Tp Σ è
uno spazio vettoriale perché è definito come lo span di una famiglia di vettori.

iii. Mostriamo che dalle ipotesi fatte su g segue che dim Tp Σ ≥ m − n. Infatti tali ipotesi
consentono di utilizzare il teorema di Dini e di descrivere Σ localmente in p come gra-
fico di una funzione che a meno di riordinare le variabili possiamo immaginare dia le
coordinate xm−n+1 , . . . , xn in funzione delle x1 , . . . , xm−n . Per comodità di scrittura
poniamo x := (x1 , . . . , xm−n ), e con ϕ la mappa che fornisce le xm−n+1 , . . . , xn . Cor-
rispondentemente siano xp ∈ Rm−n e yp ∈ Rn le coordinate di p decomposte in modo
coerente con questa descrizione (così che yp = ϕ(xp )). Infine, per ogni j = 1, . . . , m−n
sia
j

ej := (0, . . . , 0, 1, 0, . . . , 0)
| {z }
m−n

il j-esimo versore di Rm−n . Osserviamo che le curve

ψj : t → (xp + tej , ϕ(xp + tej )) j = 1, . . . , m − n

risultano ben definite in U (0), sono di classe C 1 , passano per p al tempo t = 0 e lo


fanno con velocità
ψj′ (0) = (ej , ∂xj ϕ(xp )),
che quindi è un vettore di Tp Σ. Al variare di j questi sono m − n vettori linearmente
indipendenti (perché le loro prime m − n coordinate sono gli e1 , e2 , . . . , em−n , che
sono indipendenti), e questo mostra che dim Tp Σ ≥ m − n.

iv. Sia ora ψ : (−ϵ, ϵ) una curva su Σ di classe C 1 e ψ(0) = p. Siano g1 , . . . , gn le n


funzioni scalari che danno le coordinate di g. Visto che la curva è su Σ si ha che
(g1 ◦ ψ)(t) = 0 per ogni t. In particolare

d(g1 ◦ ψ)
0= (0) = ⟨∇g1 (p), ψ ′ (0)⟩
dt
2.6. ESTREMI VINCOLATI 51

ovvero ∇g1 (p) è ortogonale a ψ ′ (0). Visto che ogni vettore di Tp Σ è combinazione
lineare di vettori di questo tipo ne segue che ∇g1 (p) ∈ (Tp Σ)⊥ . Questo può essere
ripetuto per g2 , . . . , gn , ottenendo quindi n vettori in (Tp Σ)⊥ . La richiesta secondo
cui Jg(p) ha rango n garantisce che questi n vettori sono linearmente indipendenti,
quindi abbiamo verificato che dim(Tp Σ)⊥ ≥ n.

v. Visto che dim(Tp Σ)+dim(Tp Σ)⊥ = dim Ep = m, da dim Tp Σ ≥ m−n e dim(Tp Σ)⊥ ≥
n, segue che dim Tp Σ = m − n e dim(Tp Σ)⊥ = n. Abbiamo quindi determinato la
dimensione di questi spazi ed inoltre abbiamo scoperto che (Tp Σ)⊥ è generato dai
vettori ∇gj (p) con j = 1, . . . , n.

Ora veniamo all’interpretazione del teorema dei moltiplicatori. Ricordiamo che per funzioni
f : Ω ⊆ Rm → R, in C 1 (Ω) la derivata direzionale in p nella direzione v è data da Dv f (p) =
⟨∇f (p), v⟩, e che da questa formula segue il fatto che ∇f (p) indica la direzione di massima
crescita per f . Ma allora se Σ è dato come sopra si ha che p ∈ Σ è un estremante locale
per f vincolato a Σ se e solo se la proiezione ortogonale di ∇f (p) su Tp Σ è 0, e questo
accade se e solo se ∇f (p) ∈ (Tp Σ)⊥ ovvero se e solo se ∇f (p) ∈ span{∇g1 (p), . . . , ∇gn (p)},
e questo è appunto il teorema dei moltiplicatori.
52 CAPITOLO 2. FUNZIONI IMPLICITE
Capitolo 3

Equazioni Differenziali

Viene chiamata equazione differenziale ogni equazione che esprima una relazione che si
vuole venga soddisfatta tra x ed il valore che in x assumono la funzione incognita ϕ ed
alcune sue derivate, per tutti i valori di x in un intervallo. In modo meno vago, una
equazione differenziale è generata da una funzione f : Ω ⊆ R × Rk+1 → R ed ha per
soluzione una funzione φ : (α, β) → R di classe C k ((α, β)) tale che

f (x, φ(x), φ′ (x), . . . , φ(k) (x)) = 0 ∀x ∈ (α, β).

Una tale equazione è detta di ordine k.


Osservazione 3.0.1. Per quanto possa apparire diversamente, questa famiglia di equazioni
non è tanto generale da contenere ogni equazione che coinvolga le derivate di una funzione
incognita. Ad esempio l’equazione

φ′ (x) − φ(x + 1) = 0

non è una equazione differenziale, almeno non nel senso con cui intendiamo qui questo
termine, perché il legame che si vorrebbe soddisfatto tra φ e φ′ non è nel medesimo punto.
Se k = 0 l’equazione è di tipo “implicito” che è già stato tratta nel Capitolo 2. D’ora in poi
possiamo quindi assumere k ≥ 1.
La teoria delle equazioni differenziali è abbastanza sviluppata nel caso l’equazione sia
scrivibile nella forma speciale

φ(k) (x) = f (x, φ(x), φ′ (x), . . . , φ(k−1) (x)),

in cui la derivata di ordine massimo è esplicitata. Queste equazioni sono dette essere in
forma normale.
Le equazioni in forma normale possono essere generalizzate a equazioni vettoriali, ovvero
equazioni dove l’incognita cercata φ : (α, β) → Rn di classe C k ((α, β)) è in realtà appunto
vettoriale, e l’equazione assume allora la forma

φ(k) (x) = f (x, φ(x), φ′ (x), . . . , φ(k−1) (x)) (3.1)

per ogni x ∈ (α, β), dove f : Ω ⊆ R × (Rn )k → Rn , Ω aperto.


Osservazione 3.0.2. In genere un’equazione differenziale ha più di una soluzione. Ad esem-
pio:

53
54 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

• l’equazione y ′′ = −y ha φa,x0 (x) = a sin(x − x0 ) come soluzione, comunque si scelgano


a e x0 in R;
Rx
• l’equazione y ′ = f (x) (con f continua) ha la funzione φx0 ,y0 (x) = y0 + x0 f (u) du come
soluzione, comunque si scelgano x0 ed y0 (ma la coppia (x0 , y0 ) e la coppia (x̃0 , y0 +
R x̃0
x0 f (u) du) individuano la medesima soluzione. Come vedremo in seguito questo accade
perché le soluzioni di un’equazione del primo ordine dipendono da un solo parametro
scalare ‘libero’).
La struttura dell’equazione normale (3.1) suggerisce però che la soluzione sia unica qualora
si aggiunga una condizione iniziale della forma:

(φ(x0 ), φ′ (x0 ), . . . , φ(k−1) (x0 )) = (e


y0 , ye1 , ye2 , . . . , yek−1 )

con x0 e yej con j = 0, . . . , k − 1 assegnati. Questo perché la (3.1) valutata in x0 diventa

φ(k) (x0 ) = f (x0 , φ(x0 ), φ′ (x0 ), . . . , φ(k−1) (x0 ))

che a seguito delle condizioni iniziali diventa

φ(k) (x0 ) = f (x0 , ye0 , ye1 , . . . , yek−1 )

che quindi determina in modo univoco il numero φ(k) (x0 ).


Inoltre per derivazione di (3.1) (sempre che tali derivate esistano) si ha
d (k) d
φ(k+1) (x) = φ (x) = f (x, φ(x), φ′ (x), . . . , φ(k−1) (x))
dx dx
e chiamando x, y0 , y1 , . . . , yk−1 gli argomenti di f questo è:
∂f ∂f ′ ∂f
= + ·φ (x)+· · ·+ ·φ(k) (x).
∂x (x,φ(x),...,φ(k−1) (x)) ∂y0 (x,φ(x),...,φ(k−1) (x)) ∂yk−1 (x,φ(x),...,φ(k−1) (x))

Quando questa espressione è valutata in x0 essa produce una identità in cui tutti i termini
a destra risultano noti (si osservi che effettivamente anche φ(k) (x0 ) è noto, poiché è stato
calcolato al passo precedente), quindi l’identità determina il valore di φ(k+1) (x0 ).
Il processo può formalmente proseguire ad ogni ordine (se f è C ∞ ) e determina φ(j) (x0 ) per
ogni j in modo iterativo. Quindi il processo riesce a determinare lo sviluppo di Taylor in x0
di φ e se questa serie converge a φ, allora di fatto abbiamo scoperto che φ è univocamente
determinata da quelle condizioni. Tutto questo è al momento del tutto formale: molti sono
i se che abbiamo supposto e quindi molte le criticità (f potrebbe non essere C ∞ , la serie
di Taylor potrebbe non convergere, se anche convergesse potrebbe non farlo a φ, . . . ).
L’argomento però ha il pregio di mostrare che è ragionevole supporre che la coppia



 y (k) = f (x, y, y ′ , . . . , y (k−1) ) ← equazione diff. in forma normale
 
 y(x0 ) = y0

 
 


y (x0 ) = y1

 (3.2)
 . ← k condizioni tutte nel medesimo punto


 .. 


 

 y (k−1) (x ) = y
 
0 k−1

abbia una sola soluzione. Buona parte della teoria che stiamo per esporre serve proprio ad
individuare le condizioni sotto cui questo principio è valido.
3.1. EQUAZIONI DI FORMA SPECIALE 55

Definizione 3.0.3. Sia f : Ω ⊆ R × (Rn )k → Rn , Ω aperto e f ∈ C(Ω); sia inoltre


(x0 , y0 , y1 , . . . , yk−1 ) ∈ Ω. Il sistema di richieste in (3.2) è detto problema di Cauchy.
Chiamiamo soluzione di (3.2) una funzione φ : (α, β) → Rn con le seguenti proprietà:
i. x0 ∈ (α, β);
ii. φ ∈ C k ((α, β));
iii. φ (e le sue derivate) hanno valori tali per cui (3.2) vale per ogni x ∈ (α, β).
Si usa chiamare soluzione globale una soluzione per la quale (α, β) sia noto ed esplicitato,
e invece soluzione locale una soluzione per la quale (α, β) sia noto esistere ma non venga
determinato esplicitamente.
Osservazione 3.0.4. Si osservi che il dominio di una soluzione è (α, β), in particolare è un
intervallo aperto, e che φ per definizione deve essere di classe C k ((α, β)), dove k è l’ordine
dell’equazione.

3.1 Equazioni di forma speciale


Per certe funzioni f esistono procedure capaci di dare una formula esplicita della soluzione
del problema di Cauchy. Vediamone alcune.

3.1.1 Equazioni lineari del primo ordine


(
y ′ + p(x)y = q(x) dove p e q ∈ C((α, β)), x0 ∈ (α, β)
y(x0 ) = y0 e y0 ∈ R qualunque.
Rx
Sia H(x) una (qualunque) primitiva di p(x), ad esempio: H(x) = x0 p(u) du (esiste perché
p è continua e H ′ = p in (α, β)). Moltiplicando per eH(x) si ottiene
d
q(x)eH(x) = y ′ (x)eH(x) + p(x)eH(x) y(x) = y ′ (x)eH(x) + H ′ (x)eH(x) y(x) = (y(x)eH(x) ).
dx
Ma allora y(x)eH(x) è una primitiva per q(x)eH(x) , che è continua visto che q lo è per ipotesi
(e che H lo è per costruzione), per cui per il teorema fondamentale del calcolo integrale si
ha che Z x
H(x) H(x0 )
y(x)e − y(x0 )e = q(v)eH(v) dv.
x0

Siccome y(x0 ) = y0 , per la condizione iniziale, e visto che eH(x0 ) = 1, si ha che


h Z x i
−H(x)
y(x) = e y0 + q(v)eH(v) dv
x0

è soluzione su (α, β) e la procedura dimostra che quella trovata è l’unica soluzione del
problema di Cauchy assegnato.
Esempio 3.1.1. Si consideri il problema di Cauchy:
( 2
y ′ = 2xy + ex −x
y(0) = 3.
Rx Rx 2 2 Rx
In questo caso H(x) = 0 −2u du = −x2 mentre 0 eu −u e−u du = 0 e−u du = 1 − e−x
2
perciò la soluzione (unica su R) è la funzione φ(x) = ex (4 − e−x ).
56 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Esempio 3.1.2. Si consideri il problema di Cauchy:


(
y ′ = − xy + cos x
y(1) = 2.

La formula dà la funzione ϕ(x) = x1 (2 + x sin x + cos x − sin 1 − cos 1) quale soluzione su


(0, +∞).

3.1.2 Equazioni a variabili separabili


(
y ′ = h(x)g(y) con h ∈ C((α, β)), g ∈ C((γ, δ)),
y(x0 ) = y0 x0 ∈ (α, β) e y0 ∈ (γ, δ).

Anzitutto osserviamo che se g(y0 ) = 0, allora y(x) = y0 per ogni x ∈ (α, β) (funzione
costante) è soluzione. Tale soluzione non è però necessariamente unica (su questo punto
torneremo in seguito).
Supponiamo che invece g(y0 ) ̸= 0. Allora esiste U(y0 ) in cui g è diverso da 0, in tal caso
l’equazione può essere scritta come
y ′ (x)
= h(x)
g(y(x))
che per integrazione diventa
Z y(x) Z x
du
= h(v) dv. (3.3)
y0 g(u) x0

La (3.3) è un’equazione implicita per y(x), della forma F (x, y) = 0 con


Z y Z x
du
F (x, y) := − h(v) dv.
y0 g(u) x0

Visto che ∂F 1
∂y = g(y) ̸= 0, la (3.3) definisce implicitamente una ed una sola funzione ϕ con
F (x, ϕ(x)) = 0 per ogni x ∈ U (x0 ), e il ragionamento che ci ha portato alla (3.3) mostra
che la soluzione del problema di Cauchy e la soluzione di F (x, y) = 0 coincidono fino a
dove è lecito dividere per g(y), ovvero fino a che ϕ(x) non assume valori in corrispondenza
dei quali g(ϕ(x)) = 0. La soluzione appena individuata esiste ed è unica sul più ampio
intervallo su cui la procedura che l’ha individuata è corretta.
Nel caso invece in cui g(y0 ) = 0, oltre alla soluzione costante y(x) = y0 potrebbero esservi
altre soluzioni locali. La loro (eventuale) esistenza va indagata cercando se tra le soluzioni
dei problemi di Cauchy con condizioni iniziali generiche y(x̃0 ) = ỹ0 con g(ỹ0 ) ̸= 0 ve ne
siano di prolungabili fino a x0 con valore in questo punto uguale a y0 (su questo punto
vedasi l’Esempio 3.1.4 seguente).
Esempio 3.1.3. Si consideri il problema di Cauchy:
( √
y ′ = −8x3 y
y(0) = 256.

L’equazione differenziale ha la funzione costante y(x) = 0 quale soluzione, ma questa non


soddisfa la condizione iniziale e quindi non risolve il problema di Cauchy. Procediamo
3.1. EQUAZIONI DI FORMA SPECIALE 57

y ′
3
quindi nella separazione delle variabili, scrivendo l’equazione come 2√ y = −4x che per
R y du Rx √ √
integrazione dà 256 2√u = 0 −4v 3 dv, ovvero y − 256 = −x4 . La funzione φ(x) =
(16 − x4 )2 è quindi la soluzione almeno localmente. Essa di fatto lo è su tutto l’intervallo
(−2, 2), che è il più ampio intervallo contenente 0 su cui la funzione trovata è di classe C 1
e non assume il valore 0.
Esempio 3.1.4. Si consideri il problema di Cauchy:
(
y ′ = 3y 2/3
y(0) = 0.

L’equazione differenziale ha la funzione costante y(x) = 0 quale soluzione. La soluzione


del generico problema di Cauchy y(x0 ) = y0 (con x0 ∈ R qualunque ed y0 ̸= 0) è invece
1/3
y(x) = (x−x0 +y0 )3 , ottenuta per separazione delle variabili. Tra queste vi è la y(x) = x3
che, lo si verifica immediatamente, soddisfa il problema di Cauchy originalmente proposto.
La condizione y(0) = 0 ha quindi almeno due soluzioni locali: la y(x) = 0 costante e la
y(x) = x3 (in realtà ve ne sono anche altre: quali?).

3.1.3 Equazioni di Bernoulli


(
y ′ + p(x)y = q(x)y γ con p e q in C((α, β)), γ ∈ R, x0 ∈ (α, β)
y(x0 ) = y0 e y0 ∈ R è tale che y0γ è ben definita.

Quando γ = 0 o γ = 1 l’equazione è lineare e sappiamo già come trattarla. Possiamo quindi


assumere γ ̸= 0, 1.
Se γ > 0 tra le soluzioni dell’equazione c’è la funzione costante y(x) = 0 per ogni x (che
soddisfa il problema di Cauchy nel caso y0 = 0). Supponiamo sia y0 ̸= 0. Allora possiamo
dividere per y γ almeno localmente, ottenendo

y′ 1
γ
+ p(x) γ−1 = q(x).
y y

Poniamo z(x) := y 1−γ . Allora z ′ (x) = (1 − γ) yyγ e quindi z soddisfa il problema di Cauchy

z′
( (
1−γ + p(x)z = q(x) z ′ + (1 − γ)p(x)z = (1 − γ)q(x)
ovvero
z(x0 ) = y01−γ z(x0 ) = y01−γ .

L’equazione per z è quindi lineare. Risolto il problema di Cauchy per z si ottiene la y


invertendo la soluzione z(x) = y(x)1−γ (ma prestando attenzione a dove questa relazione
sia invertibile in modo C 1 !). L’algoritmo illustrato può essere invertito ad ogni passo se
y0 ̸= 0, quindi quella così trovata è l’unica soluzione locale sotto questa ipotesi.
Esempio 3.1.5. Si consideri il problema di Cauchy:
(
y ′ = xy − 3y 2/3
α ∈ R.
y(0) = α,

Si tratta di una equazione di tipo Bernoulli, y ′ +p(x)y = q(x)y γ , con p(x) := −x, q(x) := −3
ed γ = 2/3. La funzione identicamente nulla risolve l’equazione (ed il P.C., qualora α = 0).
58 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Supponiamo α ̸= 0. Allora almeno localmente si ha y(x) ̸= 0, quindi possiamo scrivere


l’equazione come
y′
= xy 1/3 − 3
y 2/3
y′
che in termini della nuova funzione z = z(x) := y 1/3 (che quindi soddisfa z ′ = 3y 2/3
),
fornisce il P.C. (
z ′ − x3 z = −1
α ̸= 0,
z(0) = α1/3 ,
che come previsto è lineare. Applicando il metodo risolutivo per queste equazioni si ottiene
h Z x i
2 2
z(x) = ex /6 α1/3 − e−v /6 dv .
0

Invertendo la relazione z = y 1/3 (cosa lecita in modo C 1 fintanto che z ̸= 0) si ottiene


h Z x i3
x2 /2 2
y(x) = e 1/3
α − e−v /6 dv
0

Rche quindi risolve il P.C. assegnato sul più ampio intervallo contenente 0 e su cui α1/3 −
x −v 2 /6
0 e dv ̸= 0. L’ampiezza di tale intervallo dipende dalle soluzioni dell’equazione
Z x
2
e−v /6 dv = α1/3 .
0
Rx 2
Poniamo F (x) := 0 e−v /6 dv. È facile rendersi conto che essa è una funzione strettamente
crescente, dispari, e che tende ad un valore finito per x → +∞. Chiamiamo F (+∞) tale
valore. L’equazione precedente ha quindi soluzioni in x se e solo se |α|1/3 < F (+∞).
L’intervallo sui cui la funzioneR y(x) trovata è soluzione è quindi: R se |α| ≥ F (+∞)3 ,
x 2
(−∞, xα ) con xα soluzione di 0 e−v /6 dv = α1/3 quando 0 < α < F (+∞)3 e (xα , +∞)
R x −v2 /6
con xα soluzione di 0 e dv = α1/3 quando F (+∞)3 < α < 0.
p
Il valore F (+∞) è noto, esso è il numero 3π/2.
3.2. STANDARDIZZAZIONE 59

3.2 Standardizzazione
Proseguiamo ora nello studio delle generiche equazioni differenziali.

3.2.1 Da equazione di ordine k a equazione del primo ordine


Da un certo punto di vista basta studiare le equazioni del primo ordine, purché vettoriali,
perché ogni equazione di ordine k e per una incognita vettoriale di dimensione n può
sempre essere scritta come equazione del primo ordine vettoriale di dimensione kn. Infatti
supponiamo sia dato il P.C.
(
y (k) = f (x, y, y ′ , . . . , y (k−1) ) con f : Ω ⊆ R × (Rn )k → Rn , Ω aperto,
(3.4)
y (j) (x0 ) = ye
j
j = 0, . . . , k − 1, f ∈ C(Ω) e (x0 , e y k−1 ) ∈ Ω,
y0, . . . , e

e supponiamo che φ ne sia una soluzione (quindi una funzione di classe C k ). Introduciamo
una nuova funzione che chiamiamo ψ e che in termini della φ è
   
φ(x) ψ 1 (x)
 φ′ (x)  ψ (x)
 2 
ψ(x) :=   =:  ..  .
 
..
 .   . 
φ(k−1) (x) ψ k (x)

Derivando le componenti di ψ (cosa che è possibile poiché φ ∈ C k ) troviamo che

φ′ (x) φ′ (x)
     
ψ2 (x)
 φ′′ (x)
  φ′′ (x)   .. 
ψ ′ (x) =

=
 
=
  . .

.. ..
 .
  .   ψk (x) 
(k)
φ (x) ′
f (x, φ(x), φ (x), . . . , φ (k−1) (x)) f (x, ψ 1 (x), ψ 2 (x), . . . , ψ k (x))

Introduciamo dunque la funzione


 
z2
 .. 
F : Ω ⊆ R × (Rn )k → Rkn , F (x, z) := 
 . ,

 zk 
f (x, z 1 , z 2 , . . . , z k )

dove z =: (z 1 , . . . , z k ) ed ogni z j appartiene a Rn . Osserviamo che tale funzione è in C(Ω)


(perché tale è f ). Il calcolo precedente ha dunque mostrato che ψ è una funzione di classe
C 1 che risolve il problema di Cauchy
(
z ′ = F (x, z)
(3.5)
z(x0 ) = (ey0, e
y1, . . . , e
y k−1 ).

Viceversa, supponiamo che ψ sia una soluzione del P.C. (3.5), quindi una funzione di classe
C 1 . Sia φ la funzione che dà le prime n coordinate di ψ. Questa è sicuramente di classe
C 1 (perché ψ lo è), ma in realtà è di classe C k . Infatti il P.C. (3.5) con quella funzione
F stabilisce che il primo blocco di n variabili (ovvero la φ) abbia per derivata il secondo
blocco di n variabili, le quali sono di classe C 1 (perché ψ lo è), e quindi le funzioni del
60 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

primo blocco sono di classe C 2 . Questo argomento, iterato k volte, dimostra che φ è di
classe C k . Infine, i vari passi nei calcoli precedenti possono essere invertiti e dimostrano che
φ soddisfa il P.C. (3.4).
Questo argomento dimostra quindi che i P.C. (3.4) ed (3.5) sono equivalenti, nel senso
che da ogni soluzione di uno di essi si ricava una (unica) soluzione dell’altro. L’utilità
della procedura sta nel fatto che l’equazione che appare nel P.C. (3.5) è del primo ordine.
Ovviamente non ci sono pasti gratis, e paghiamo questa semplificazione con l’aumento della
dimensione del problema che prima era n ed ora è kn (quindi vettoriale anche qualora in
origine ci fosse n = 1 e fosse quindi scalare).
Per sviluppare la teoria generale potremo quindi limitarci allo studio di problemi di Cauchy
vettoriali ma del primo ordine.

3.2.2 Passaggio alla formulazione integrale


Sia dato il problema di Cauchy
(
y ′ = f (x, y) con f : Ω ⊆ R × Rn → Rn , Ω aperto,
(3.6)
y(x0 ) = y0 , f ∈ C(Ω) e (x0 , y0 ) ∈ Ω.

Supponiamo che φ sia una soluzione del problema di Cauchy (quindi in particolare è di
classe C 1 su un intervallo (α, β)). Integrando l’equazione tra x0 e x si ha
Z x
φ(x) = y0 + f (u, φ(u)) du per x ∈ (α, β).
x0

Definiamo l’operatore T come quella mappa che data una funzione “buona” ϕ la trasforma
nella funzione T ϕ i cui valori sono definiti ponendo
Z x
(T ϕ)(x) := y0 + f (u, ϕ(u)) du.
x0

Il calcolo precedente mostra che se φ è soluzione di (3.6) su (α, β) (quindi φ ∈ C 1 ) allora


T φ è ben definito e T φ = φ ovvero φ è punto fisso per T .
Viceversa, supponiamo che φ sia in C((α, β)) e sia fissata da T . Questo significa che
Z x
φ(x) = (T φ)(x) = y0 + f (u, φ(u)) du ∀x ∈ (α, β). (3.7)
x0

La mappa u 7→ fR(u, φ(u)) è continua (perché composizione di funzioni continue), quindi


x
la mappa x 7→ x0 f (u, φ(u)) du è C 1 (perché è integrale di una continua). Ma allora
φ ∈ C 1 ((α, β)) per la (3.7). Valutando in x0 la (3.7) si ha φ(x0 ) = y0 e derivando la (3.7)
si ha φ′ (x) = f (x, φ(x)). Quindi φ soddisfa il P.C. (3.6).
Abbiamo così dimostrato che il problema di Cauchy equivale ad un problema di punto
fisso per l’operatore T . Questo tipo di equazioni è chiamato problema integrale di Volterra.
L’equivalenza del problema di Cauchy con uno di Volterra si rivela utile per il fatto che
mentre il primo è formulato in C 1 ((α, β)), il secondo lo è in C((α, β)). Il passaggio allo spazio
C((α, β)) semplifica la ricerca delle soluzioni perché esso è più grande (molto semplicemente
perché più il dominio in cui la si cerca è grande, e più è facile trovare in esso una soluzione).
3.3. TEOREMI DI ESISTENZA E UNICITÀ 61

3.3 Teoremi di esistenza e unicità


Basandosi su questa equivalenza si può dimostrare il seguente teorema.
Teorema 3.3.1 (Peano). Sia f : Ω ⊆ R×Rn → Rn , Ω aperto e f ∈ C(Ω). Sia (x0 , y0 ) ∈ Ω.
Allora il problema di Cauchy (
y ′ = f (x, y)
y(x0 ) = y0
ha una soluzione locale.
Si tratta di un risultato estremamente importante, presentato da Peano nel 1886 per la
versione scalare e nel 1890 per quella a valori vettoriali. Purtroppo la sua prima esposizione
risultò lacunosa in un punto fondamentale della dimostrazione, e la verità delle tesi restò
in forse per qualche anno, fino a che altri (Mie, Osgood, Perron) ne diedero dimostrazioni
su base diverse. Oggi esso viene solitamente dedotto usando due profondi risultati; uno è
il teorema di Ascoli ed Arzelà, che afferma che nello spazio C([a, b]) (le continue su [a, b],
con la norma del sup) gli insiemi relativamente compatti (ovvero a chiusura compatta),
coincidono con gli insiemi che sono equilimitati ed equicontinui (le proprietà che abbiamo
discusso a proposito dei Teoremi 1.1.10 ed 1.1.11). L’altro è un teorema di punto fisso
dovuto a Schauder e diverso da quello che abbiamo discusso in queste note, che garantisce
l’esistenza (non l’unicità) di tali punti per mappe continue da uno spazio metrico convesso
e compatto in sé. Purtroppo la dimostrazione di questi risultati richiede troppe risorse e
non può essere affrontata in queste note. Una esposizione particolarmente accessibile di
questi risultati è contenuta nel Capitolo 7 di [Sh].
Concludiamo osservando che però recentemente è stato messo in luce in [GM] come l’argo-
mento originale di Peano sia emendabile e possa effettivamente essere usato per dare una
dimostrazione corretta ed elementare, almeno negli strumenti, del suo risultato.
Osserviamo che il teorema afferma l’esistenza della soluzione ma non la sua unicità. In
effetti la sola ipotesi di continuità non basta per ottenere anche l’unicità della soluzione,
come illustrato dal seguente semplice esempio.
Esempio 3.3.2. Il problema di Cauchy
(
y ′ = 3y 2/3
y(0) = 0

ha sia y(x) ≡ 0 sia y(x) = x3 come soluzioni.


Introduciamo ora una proprietà aggiuntiva che si rivela adatta per garantire l’unicità della
soluzione.
Definizione 3.3.3. Sia data f : Ω ⊆ R × Rn → Rn , con Ω aperto, e sia dato (x0 , y0 ) ∈ Ω;
f è detta localmente lipschitziana nelle y uniformemente nelle x nel punto (x0 , y0 ) quando
esistono i numeri d, δ, L positivi e tali che

x ∈ [x0 − d, x0 + d]
=⇒ ∥f (x, y1 ) − f (x, y2 )∥2 ≤ L∥y1 − y2 ∥2 . (3.8)
y1 , y2 ∈ Bδ (y0 )
Osservazione 3.3.4. Si osservi che questa condizione esprime una regolarità di f , ma solo
nelle coordinate y, non in tutte le variabili di f . Ad esempio f (x, y) := ⌊x⌋ + y (⌊x⌋ è la
parte intera di x) ha la proprietà appena definita, ma globalmente non è neppure continua.
62 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Osservazione 3.3.5. Se f ∈ C 1 (Ω) allora sicuramente ha quella proprietà in tutti i punti di


Ω (perché le derivate parziali di f sono continue quindi limitate sui compatti).

Teorema 3.3.6 (Esistenza ed unicità locale). Sia data f : Ω ⊆ R × Rn → Rn , Ω aper-


to, f ∈ C(Ω), e sia (x0 , y0 ) ∈ Ω. Supponiamo che f sia localmente lipschitziana nelle y
uniformemente nelle x in (x0 , y0 ). Allora il problema di Cauchy
(
y ′ = f (x, y)
y(x0 ) = y0

ha una e una sola soluzione locale.

Dimostrazione. Siano d, δ, L come nella definizione di locale lipshitzianità. Sia

M := max{∥f (x, y)∥2 : (x, y) ∈ [x0 − d, x0 + d] × Bδ (y0 )},

Tale quantità esiste perché [x0 − d, x0 + d] × Bδ (y0 ) è compatto e f è continua. Sia d′ :=


δ 1
min(d, M , 2L ) e sia
X := C([x0 − d′ , x0 + d′ ], Bδ (y0 )),
l’insieme delle funzioni continue da [x0 − d′ , x0 + d′ ] a Bδ (y0 ). L’insieme X è uno spazio
metrico completo rispetto alla metrica

d(φ, ψ) := ∥φ − ψ∥∞,[x0 −d′ ,x0 +d′ ] = sup ∥φ(x) − ψ(x)∥2


x∈[x0 −d′ ,x0 +d′ ]

(perché il limite uniforme di funzioni continue è continuo e Bδ (y0 ) è un insieme chiuso).


Sia T l’operatore integrale di Volterra associato al P.C., ovvero l’operatore che trasforma
una data funzione φ nella funzione T φ i cui valori sono
Z x
(T φ)(x) := y0 + f (u, φ(u)) du.
x0

i. Verifichiamo che T è una mappa X → X . Infatti è chiaro che se φ ∈ X allora T φ è


continua su [x0 − d′ , x0 + d′ ] (qui si usa la continuità di f e di φ) e inoltre:
Z x Z x
∥(T φ)(x) − y0 ∥2 = f (u, φ(u)) du ≤ ∥f (u, φ(u))∥2 du

x0 2 x0

≤ M |x − x0 | ≤ M d ≤ δ

(perché il grafico di φ è per ipotesi in [x0 − d′ , x0 + d′ ] × Bδ (y0 ) e qui f è limitata da


M . Il fatto che M d′ sia stimato da δ deriva dalla definizione di d′ ). Questo dimostra
che (T φ)(x) ∈ Bδ (y0 ), per ogni x ∈ [x0 − d′ , x0 + d′ ].

ii. Verifichiamo che T è una contrazione. Infatti se φ, ψ ∈ X abbiamo


Z x 
∥(T φ)(x) − (T ψ)(x)∥2 = f (u, φ(u)) − f (u, ψ(u)) du

x0 2
Z x
≤ ∥f (u, φ(u)) − f (u, ψ(u))∥2 du .

x0
3.3. TEOREMI DI ESISTENZA E UNICITÀ 63

Ma f è localmente lipschitziana nelle y uniformemente nelle x, ovvero soddisfa la


stima (3.8), quindi questa è
Z x
≤ L∥φ(u) − ψ(u)∥2 du ≤ L∥φ − ψ∥∞,[x0 −d′ ,x0 +d′ ] · |x − x0 |

x0
≤ d′ L · ∥φ − ψ∥∞,[x0 −d′ ,x0 +d′ ] .

Questo vale per ogni x ∈ [x0 − d′ , x0 + d′ ], perciò abbiamo verificato che

∥T φ − T ψ∥∞,[x0 −d′ ,x0 +d′ ] ≤ d′ L · ∥φ − ψ∥∞,[x0 −d′ ,x0 +d′ ] .

Ma d′ L ≤ 21 , quindi T è una contrazione.

iii. Visto che T è una contrazione e X è completo, dal teorema di Banach–Caccioppoli


sappiamo che esiste ed è unico il punto fisso per T , ovvero una mappa φ ∈ X tale
che T φ = φ. Abbiamo già visto che l’esistenza e unicità della soluzione del problema
di Volterra equivale all’esistenza e unicità del problema di Cauchy.

Nella dimostrazione precedente si è posto d′ := min(d, M δ 1


, 2L ). In particolare il valore di d′

risente del valore di L. Visto che d è sostanzialmente il parametro che definisce il dominio
su cui siamo riusciti a dimostrare l’esistenza della soluzione, di fatto questa definizione fa
dipendere il dominio dal valore di L. In realtà un argomento un po’ più elaborato riesce
a verificare la tesi già con d′ := min(d, M
δ
), che quindi risulta indipendente da L. Il nuovo
argomento consiste nell’osservare che nonostante ora d′ sia probabilmente maggiore del
valore scelto precedentemente, è comunque possibile trovare k in modo che T (k) (iterata
k-esima) sia una contrazione. Fatto ciò la tesi allora seguirà dall’estensione del Teorema di
Banach–Caccioppoli (Corollario 2.3.5). In effetti, abbiamo visto che la stima di Lipschitz
di base consente la disuguaglianza
Z x
∥(T φ)(x) − (T ψ)(x)∥2 ≤ L ∥φ(u) − ψ(u)∥2 du .

x0

Iterandola si ottiene
Z x
∥(T (2) φ)(x) − (T (2) ψ)(x)∥2 ≤ L ∥(T φ)(u) − (T ψ)(u)∥2 du

x0
Z xZ u
≤ L2 ∥φ(u1 ) − ψ(u1 )∥2 du1 du .

x0 x0

Quindi (per induzione su k), se la mappa è iterata k volte si ha


Z x Z u Z uk−2
∥(T (k) φ)(x) − (T (k) ψ)(x)∥2 ≤ Lk ··· ∥φ(uk−1 ) − ψ(uk−1 )∥2 duk−1 · · · du1 du ,

x0 x0 x0

dove appaiono k integrali iterati. Inserendo la stima ∥φ(uk−1 ) − ψ(uk−1 )∥2 ≤ ∥φ − ψ∥∞
questa diventa
Z x Z u Z uk−2
(k) (k) k
∥(T φ)(x) − (T ψ)(x)∥2 ≤ L ∥φ − ψ∥∞ ··· 1 duk−1 · · · du1 du .

x0 x0 x0
64 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

(x−x0 )k
Il valore dell’integrale è pari a k! (dimostrato per induzione su k), quindi la stima
diventa

Lk (Ld′ )k
∥(T (k) φ)(x) − (T (k) ψ)(x)∥2 ≤ |x − x0 |k ∥φ − ψ∥∞ ≤ ∥φ − ψ∥∞ .
k! k!
(Ld′ )k
Visto che limk→∞ k! = 0, esiste sicuramente un valore di k in corrispondenza del quale
(Ld′ )k
si ha k! ≤ (il fatto di aver preso d′ = min(d, M
1
2
δ
) anziché d′ = min(d, M δ 1
, 2L ) solo
forza k ad essere probabilmente > 1). Con quel valore di k l’iterata T (k) risulta quindi
contrattiva.
Esercizio 3.3.7. Si consideri il problema di Cauchy
(
y′ = y
y(0) = 1.

Il teorema precedente garantisce l’esistenza ed unicità della soluzione, e lo fa tramite il


R x di Banach–Caccioppoli applicato alla mappa T definita dalla identità (T φ)(x) :=
teorema
1 + 0 φ(u) du per le φ in C[−d, d] per un opportuno d ∈ R. In particolare la sequenza
delle iterate di T converge necessariamente ad una soluzione. Nel caso in esame l’azione
di T è abbastanza semplice, quindi si può verificare direttamente questa convergenza.
Come funzione iniziale φ0 si Rprenda la funzione identicamente nulla, e dato φn si definisca
x
φn+1 (x) := (T φn )(x) = 1 + 0 φn (u) du.

i. Calcolare φ1 , φ2 , φ3 , φ4 ;

ii. Determinare φn esplicitamente ∀n (per induzione);

iii. Verificare che φn (x) → exp(x) per ogni x ∈ R e verificare che effettivamente exp(x)
soddisfa il problema di Cauchy.

Riassumendo, abbiamo quindi verificato che, dato un problema di Cauchy nella forma del
teorema, se f è continua allora esso ha almeno una soluzione locale (Peano), e che se inoltre
f è di classe C 1 allora la soluzione è anche unica. Questo mostra che l’esistenza e unicità
locale sono legate alla regolarità di f . L’esempio seguente mostra che invece non è così per
l’esistenza/unicità di tipo globale.
Esempio 3.3.8. Si consideri il P.C.
(
y′ = y2
α ∈ R.
y(0) = α,

α
Esso ammette come soluzione y(x) = 1−αx negli intervalli (−∞, α1 ) se α > 0, ( α1 , +∞)
se α < 0 e R se α = 0. In particolare non esiste un intervallo aperto comune su cui
le soluzioni siano definite indipendentemente dalla scelta di α. Ciò succede nonostante
l’equazione abbia la forma y ′ = f (x, y) con f (x, y) ∈ C ∞ (R × R). In effetti, come vedremo,
l’esistenza e unicità globale è infatti sensibile non solo alla regolarità di f ma anche alla
sua crescita come funzione di y.
3.3. TEOREMI DI ESISTENZA E UNICITÀ 65

Teorema 3.3.9 (Esistenza ed unicità globale (striscia)). Sia data f : S := [a, b]×Rn → Rn ,
con f ∈ C(S). Supponiamo che f sia lipschitziana nelle y uniformemente nelle x in S,
ovvero che esista L > 0 tale che

x ∈ [a, b]
=⇒ ∥f (x, y1 ) − f (x, y2 )∥2 ≤ L∥y1 − y2 ∥2 . (3.9)
y1 , y2 ∈ Rn

Allora ogni problema di Cauchy (


y ′ = f (x, y)
y(x0 ) = y0
con (x0 , y0 ) ∈ S ha un’unica soluzione su [a, b].

Osservazione 3.3.10. La condizione (3.9) dice (tra le altre cose) che f cresce al più linear-
mente nelle y. Infatti da essa segue che

∥f (x, y)∥2 ≤ ∥f (x, 0)∥2 + ∥f (x, y) − f (x, 0)∥2 ≤ A + L∥y∥2 ,

dove A := max{∥f (x, 0)∥2 , x ∈ [a, b]}, che esiste per la continuità di f .

Dimostrazione. Sia X := C([a, b], Rn ), considerato come spazio di Banach rispetto alla
norma dell’estremo superiore. Sia φ ∈ X e sia
Z x
(T φ)(x) = y0 + f (u, φ(u)) du.
x0

È chiaro che T φ è una funzione continua, e questo basta a concludere che T : X → X .


Come detto, X è completo rispetto a ∥ · ∥∞,[a,b] , ma noi introduciamo una norma diversa,
anche se equivalente a questa. Fissiamo (per il momento ad arbitrio) λ > 0, e poniamo

∥φ∥λ := sup ∥e−λ|x−x0 | φ(x)∥2 .


x∈[a,b]

Osserviamo che e−λ(b−a) ≤ e−λ|x−x0 | ≤ 1 per x ∈ [a, b], e che quindi

e−λ(b−a) ∥φ∥∞,[a,b] ≤ ∥φ∥λ ≤ ∥φ∥∞,[a,b] .

Questo dimostra che ∥ · ∥∞,[a,b] e ∥ · ∥λ sono norme equivalenti così che X è completo
anche rispetto a ∥ · ∥λ . Come fatto per il teorema locale, proseguiamo nella dimostrazione
osservando che
Z x 
∥T φ(x) − T ψ(x)∥2 = f (u, φ(u)) − f (u, ψ(u)) du

x0 2
Z x
≤ ∥f (u, φ(u)) − f (u, ψ(u))∥2 du ,

x0

e che dalla stima di lipschitzianità di f segue che questa espressione è


Z x
≤ L ∥φ(u) − ψ(u)∥2 du .

x0
66 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Ora introduciamo la nuova norma. Dalla definizione di ∥ · ∥λ segue che ∥φ(u) − ψ(u)∥2 ≤
eλ|u−x0 | ∥φ − ψ∥λ quando u ∈ [a, b]. Visto che x ∈ [a, b], e che quindi anche u ∈ [a, b],
l’integrale precedente è stimato da
Z x
≤ L∥φ − ψ∥λ eλ|u−x0 | du .

x0

Osserviamo che
Z x Z x 1  1 1
se x > x0 , eλ|u−x0 | du = eλ(u−x0 ) du = eλ(x−x0 ) −1 ≤ eλ(x−x0 ) = eλ|x−x0 | ,

x0 x0 λ λ λ
Z x Z x
1  1 1
λ|u−x0 |
se x ≤ x0 , e du = − eλ(x0 −u) du = eλ(x0 −x) −1 ≤ eλ(x0 −x) = eλ|x−x0 | ,

x0 x0 λ λ λ

così che dalla stima precedente segue che


L
e−λ|x−x0 | ∥T φ(x) − T ψ(x)∥2 ≤ ∥φ − ψ∥λ , x ∈ [a, b].
λ
Passando all’estremo superiore in x ∈ [a, b] abbiamo quindi

L
∥T φ − T ψ∥λ ≤ ∥φ − ψ∥λ .
λ
Scegliendo λ > L otteniamo dunque una norma rispetto alla quale T è una contrazione.
La conclusione allora segue dal teorema di Banach–Caccioppoli e dalla equivalenza del
problema di Cauchy con il corrispondente problema di Volterra.

3.4 Stabilità rispetto al modello e ai dati iniziali


Teorema 3.4.1. Siano f, g : [a, b] × B → Rn dove B è un aperto di Rn . Assumiamo i
seguenti due fatti:

i. esiste L con ∥f (x, y) − f (x, z)∥ ≤ L∥y − z∥ per ogni scelta di x ∈ [a, b] e y, z ∈ B,

ii. esiste R : [a, b] → R continua con ∥f (x, y) − g(x, y)∥ ≤ R(x) per ogni x ∈ [a, b] ed
y ∈ B.

Siano α, β ∈ B e siano φ e ψ : [a, b] → B funzioni di classe C 1 ([a, b]) che soddisfano


( (
φ′ (x) = f (x, φ(x)) ψ ′ (x) = g(x, ψ(x))
φ: ψ:
φ(a) = α ψ(a) = β.

Allora Z x
∥φ(x) − ψ(x)∥2 ≤ eL(x−a) ∥α − β∥2 + eL(x−a) e−L(s−a) R(s) ds.
a

Dimostrazione. Consideriamo la funzione ∥φ(x) − ψ(x)∥2 . Questa è una mappa [a, b] → R


continua che in tutti i punti in cui φ(x) ̸= ψ(x) soddisfa
n i1/2 ⟨φ(x) − ψ(x), φ′ (x) − ψ ′ (x)⟩
d d hX
∥φ(x) − ψ(x)∥2 = (φi (x) − ψi (x))2 =
dx dx ∥φ(x) − ψ(x)∥2
i=1
3.4. STABILITÀ RISPETTO AL MODELLO E AI DATI INIZIALI 67

e quindi per la disuguaglianza di Cauchy–Schwarz è stimata da

∥φ(x) − ψ(x)∥2 · ∥φ′ (x) − ψ ′ (x)∥2


≤ = ∥φ′ (x) − ψ ′ (x)∥2 .
∥φ(x) − ψ(x)∥2

Dalle equazioni differenziali risolte da φ e ψ ed usando la disuguaglianza triangolare


ricaviamo che questo è

= ∥f (x, φ(x)) − g(x, ψ(x))∥2 ≤ ∥f (x, φ(x)) − f (x, ψ(x))∥2 + ∥f (x, ψ(x)) − g(x, ψ(x))∥2

che per le ipotesi su f e g produce la stima

d
∥φ(x) − ψ(x)∥2 ≤ L∥φ(x) − ψ(x)∥2 + R(x).
dx

Moltiplichiamo la disuguaglianza per e−Lx , ottenendo

d
e−Lx ∥φ(x) − ψ(x)∥2 − Le−Lx ∥φ(x) − ψ(x)∥2 ≤ e−Lx R(x),
dx
ovvero
d  −Lx 
e ∥φ(x) − ψ(x)∥2 ≤ e−Lx R(x).
dx
Integrando questa relazione su [a, x] abbiamo
Z x
e−Lx ∥φ(x) − ψ(x)∥2 − e−La ∥α − β∥2 ≤ e−Ls R(s) ds.
a

Quindi Z x
∥φ(x) − ψ(x)∥2 ≤ e L(x−a)
∥α − β∥2 + e Lx
e−Ls R(s) ds,
a

che è la tesi. Questa però è stata ottenuta supponendo φ(x) ̸= ψ(x) nell’intervallo di
integrazione (o almeno nella sua parte aperta). La tesi in generale è ottenuta incollando
questi risultati (cosa che è possibile perché ∥φ(x) − ψ(x)∥2 è continua su [a, b]). (Nota: si
osservi che questa osservazione è inutile qualora R sia identicamente nulla. In questo caso
infatti le φ e ψ risolvono la medesima equazione differenziale per cui possiamo supporre
che certamente φ(x) ̸= ψ(x) in [a, b]: infatti, se mai esistesse un punto in cui φ(x) = ψ(x),
allora le due funzioni sarebbero identiche (per il teorema di esistenza ed unicità locale) e
la tesi sarebbe certamente soddisfatta).

Questo risultato è noto col nome di Lemma di Grönwall. Esso dà una stima di quanto
velocemente cambia la soluzione al variare della condizione iniziale (α od β) e della forma
dell’equazione (f o g). La stima in sé non è però molto buona per via del termine eL(x−a)
(esponenziale); d’altra parte sotto le ipotesi date non è possibile fare meglio di quanto già
affermato1 . Questo risultato è il più semplice all’interno di una vasta famiglia di risultati
sulla dipendenza continua delle soluzioni dai parametri del problema di Cauchy.
1
Basta considerare i problemi di Cauchy con la stessa equazione y ′ = y e condizioni iniziali y(0) = α ed
y(0) = β. Le due soluzioni sono rispettivamente φ(x) = αex ed ψ(x) = βex , e per loro la stima del teorema
di fatto vale come uguaglianza.
68 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

3.5 Equazioni lineari


Sono equazioni della forma

y (n) + a1 (x)y (n−1) + · · · + an−1 (x)y ′ + an (x)y = f (x) (3.10)

dove le funzioni a1 , . . . , an ed f : [a, b] → R sono assunte continue in [a, b]. Il seguente


risultato è lo strumento che governa lo studio di questo tipo di equazioni. Esso discende
direttamente dal teorema di esistenza ed unicità globale.

Teorema 3.5.1. Per ogni scelta di x0 ∈ [a, b] e di y0 , . . . , yn−1 ∈ R il problema di Cauchy


(
y (n) + a1 (x)y (n−1) + · · · + an−1 (x)y ′ + an (x)y = f (x)
y (j) (x0 ) = yj j = 0, . . . , n − 1

ha una e una sola soluzione su [a, b].

Dimostrazione. Formuliamo il problema di Cauchy come problema del primo ordine (in
dimensione n) (
z ′ = F (x, z)
zj (x0 ) = yj−1 j = 1, . . . , n,
dove    
y z2
 y′   z3 
z :=  e F (x, z) :=  .
   
..  ..
 .  
Pn . 
y (n−1) f (x) − j=1 an−j+1 (x)zj
Osserviamo che F : [a, b] × Rn → Rn è continua, e che
n
X 2
∥F (x, z) − F (x, w)∥22 = (z2 − w2 )2 + · · · + (zn − wn )2 + an−j+1 (x)(zj − wj )
j=1
n
X   Xn 
≤ ∥z − w∥22 + (an−j+1 (x))2 ∥z − w∥22 = 1 + (aj (x))2 ∥z − w∥22 .
j=1 j=1

Visto che le aj sono continue su [a, b], la funzione [1 + nj=1 (aj (x))2 ]1/2 ha un massimo su
P
[a, b] che chiamiamo L. Il calcolo precedente mostra così che

∥F (x, z) − F (x, w)∥2 ≤ L∥z − w∥2 ∀z, w ∈ Rn ,

uniformemente in [a, b]. Quindi F ha tutte le proprietà richieste per poter applicare il
teorema di esistenza e unicità globale.

La struttura dell’equazione lineare ne consente la seguente importante riscrittura. Siano


a1 , . . . , an e f continue in [a, b], e sia

L : C n ([a, b]) −→ C([a, b]),


Pn
φ 7→ (Lφ)(x) := φ(n) (x) + j=1 aj (x)φ
(n−j) (x).
3.5. EQUAZIONI LINEARI 69

Si osservi che effettivamente Lφ ∈ C([a, b]).


Tramite l’operatore2 differenziale3 L l’equazione (3.10) è scritta come

Lφ = f.

Risolvere l’equazione quindi equivale a trovare la contro immagine di f tramite L. Questa


interpretazione è utile poiché L è un operatore lineare: in effetti L(λφ + ψ) = λLφ + Lψ
per ogni λ ∈ R e φ, ψ ∈ C n ([a, b]). Il seguente risultato è una immediata conseguenza di
questo fatto.
Teorema 3.5.2. Sia L l’operatore differenziale appena definito. Allora:
i. l’insieme V := ker L = {y : Ly = 0} è uno spazio vettoriale;

ii. sia φ0 una qualunque funzione tale che Lφ0 = f . Allora

{φ : Lφ = f } = V + φ0 .

La seconda tesi può essere enunciata dicendo che l’insieme delle soluzioni di Ly = f è uno
spazio affine.
Dimostrazione. Il fatto che V sia vettoriale discende immediatamente dal fatto che esso
è il nucleo di un operatore lineare. Per la seconda tesi osserviamo che se φ̃ ∈ V , allora
L(φ̃ + φ0 ) = Lφ̃ + Lφ0 = 0 + f = f : questo mostra l’inclusione: V + φ0 ⊆ {φ : Lφ = f }.
D’altra parte, se ψ è tale che Lψ = f allora ψ = (ψ − φ0 ) + φ0 e L(ψ − φ0 ) = Lψ − Lφ0 =
f − f = 0, quindi ψ − φ0 ∈ V : questo dimostra l’inclusione: V + φ0 ⊇ {φ : Lφ = f }.

3.5.1 Costruzione di una base


La seguente proposizione esprime un fatto centrale di questa teoria.
Teorema 3.5.3. Sia L come sopra e sia V := ker L = {φ ∈ C n ([a, b]) : Lφ = 0}. Allora
dim V = n.
Dimostrazione. Sia x0 ∈ [a, b] fissato. Consideriamo i seguenti n problemi di Cauchy:
  

 Ly = 0 
 Ly = 0 
 Ly = 0
  
y(x0 ) = 1 y(x0 ) = 0 y(x0 ) = 0

 
 


 
 

  
 ′
y (x0 ) = 0 ′
y (x0 ) = 1
 y ′ (x0 ) = 0

, ,...,

 y ′′ (x0 ) = 0 
 y ′′ (x0 ) = 0 
 y ′′ (x0 ) = 0

 .. 
 .. 
 ..
. . .

 
 


 
 


 (n−1) 
 (n−1) 
 (n−1)
y (x0 ) = 0 y (x0 ) = 0 y (x0 ) = 1.

Per il Teorema 3.5.1 ognuno di essi ha una e una sola soluzione, che chiamiamo rispettiva-
mente φ1 , φ2 , . . . , φn .
2
Tradizione vuole che siano chiamate funzioni quelle mappe che trasformano punti in punti, ed operatori
quelle mappe che trasformano funzioni in funzioni. Chiaramente da un punto di vista più moderno i
termini mappa/funzione/operatore sono in realtà interscambiabili, indicando essi semplicemente funzioni
tra insiemi: è solo una certa tradizione che preferisce l’uso di un termine o l’altro a seconda della natura
di questi insiemi.
3
È così chiamato perché agisce attraverso derivate.
70 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Verifichiamo che dim V ≥ n. Lo facciamo dimostrando che le φj sonoPlinearmente indipen-


denti su R. Infatti supponiamo che α1 , α2 , . . . , αn ∈ R siano tali che nj=1 αj φj =: ψ sia la
funzione identicamente nulla. Allora ψ (k) (x0 ) = 0 per ogni k, ma dalle condizioni iniziali
segue che:
n n n
(k) (k)
X X X
(k) (k)
ψ (x) = αj φj (x) =⇒ 0 = ψ (x0 ) = αj φj (x0 ) = αj δj,k+1 = αk+1
j=1 j=1 j=1

quindi ogni αk = 0.
Verifichiamo che dim V ≤ n. Sia h ∈ V . Allora h ∈ C n ([a, Pnb]) e(j−1)
in particolare i numeri
(j)
h (x0 ) con j = 0, . . . , n − 1 sono ben definiti. Sia ψ := j=1 h (x0 )φj . Osserviamo
che ψ ∈ C n ([a, b]) e Lψ = 0 (perché Lφj = 0 per ogni j ed L è lineare). Inoltre con lo
stesso conto di prima mostriamo che
n n
(k)
X X
ψ (k) (x0 ) = h(j−1) (x0 )φj (x0 ) = h(j−1) (x0 )δj,k+1 = h(k) (x0 ), k = 0, . . . , n − 1.
j=1 j=1

Quindi sia h che ψ sono soluzioni del problema di Cauchy


(
Ly = 0
y (j) (x0 ) = h(j) (x0 ) ∀j = 0, . . . , n − 1.

Sappiamo però che il problema di Cauchy ha un’unica soluzione, quindi


n
X
h=ψ= h(j−1) (x0 )φj ,
j=1

ovvero h è combinazione lineare delle φj .

Osservazione 3.5.4. La dimostrazione del teorema mostra che le φj costituiscono una base
per V . Non solo quindi conosciamo la dimensione dello spazio, ma sappiamo che possiamo
anche ottenerne una base costruendo le soluzioni di n problemi di Cauchy con quelle
condizioni iniziali. In realtà è semplice verificare che la costruzione del teorema produce
una base anche per condizioni iniziali diverse, basta che siano linearmente indipendenti (si
veda il Corollario 3.5.7 seguente).

3.5.2 Matrice Wronskiana


Definizione 3.5.5. Siano φ1 , . . . , φn , n soluzioni di Ly = 0 (non necessariamente quelle
del Teorema 3.5.2 e neppure necessariamente indipendenti). Chiamiamo matrice Wron-
skiana la matrice n × n
 
φ1 φ2 ... φn
 φ′1 φ′2 ... φ′n 
W :=  .. .. .. 
 
..
 . . . . 
(n−1) (n−1) (n−1)
φ1 φ2 . . . φn

e Wronskiano la funzione det W : x 7→ det(W (x)).


3.5. EQUAZIONI LINEARI 71

Proposizione 3.5.6. Sia W come sopra. Allora (det W )′ (x) = −a1 (x)(det W )(x) in [a, b],
e quindi
 Z x 
(det W )(x) = (det W )(x0 ) · exp − a1 (u) du ∀x ∈ [a, b].
x0

In particolare (det W )(x) = 0 per qualche x se e solo se (det W )(x) = 0 per ogni x.
Dimostrazione. La formula di Leibniz esprime det W come somma sulle permutazioni (con
segno) di prodotti degli elementi della matrice. Da ciò segue che (det W )′ è la somma (con
segno) delle derivate dei prodotti, ciascuna delle quali è a sua volta somma di n termini in
cui la derivata è eseguita volta per volta su ciascun fattore. Questo implica che
(det W )′ (x)
 
φ1 ... φn
 
φ1 ... φn
φ′1 φ′n
 
...
φ′′1 ... φ′′n  φ′1 ... φ′n

φ′1 φ′n
 
... 
.. ..

..
φ′′1 φ′′n
   
= det

.. .. .. + det
  ...  
+ · · ·+ det
 . .

.
.
. . .   .. .. ..  (n−2)

(n−2) 
.

(n−1) (n−1)
 . . φ1 . . . φn
φ1 . . . φn

(n−1) (n−1) (n) (n)
φ1 . . . φn φ1 . . . φn
I primi n − 1 determinanti della sommatoria sono in realtà nulli poiché hanno due righe
uguali. Abbiamo quindi
 
φ1 ... φn
 . .. .. 
 .. . . 
(det W )′ (x) = det 
 (n−2) (n−2)  .

φ1 . . . φn 
(n) (n)
φ1 . . . φn
(n) (n−k)
Inoltre, ogni φj soddisfa la relazione Lφj = 0, ovvero φj = − nk=1 ak (x)φj
P
; sosti-
tuendo questa identità si ha:
 
φ1 ... φn
 .. .. .. 

 . . . 
(det W ) (x) = det 

(n−2) (n−2)

φ ... φn

Pn 1
 
(n−k) (n−k)
. . . − nk=1 ak (x)φn
P
− k=1 ak (x)φ1
 
φ1 ... φn
n  . .. .. 
X  .. . . 
=− ak (x) det  (n−2)

(n−2)  ,

k=1  φ 1 . . . φ n 
(n−k) (n−k)
φ1 . . . φn
dove per l’ultima uguaglianza si è usata la linearità del determinante rispetto alle sue righe.
Le matrici che appaiono nei termini con indice k ≥ 2 hanno due righe uguali e quindi hanno
determinante nullo. Resta quindi solo il termine con k = 1 che dà
 
φ1 ... φn
 . .. .. 
= −a1 (x) det  .. . .  = −a1 (x)(det W )(x)
(n−1) (n−1)
φ1 . . . φn
che è l’equazione data. Le altre formule sono immediate conseguenze.
72 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Corollario 3.5.7. Siano φ1 , . . . , φn , funzioni nel nucleo di L, ovvero soluzioni di Ly = 0.


Siano Φj con j = 1, . . . , n le funzioni a valori vettoriali definite da:
(n−1)
Φj := (φj , φ′j , φ′′j , . . . , φj ).

Allora:

• le funzioni φ1 , . . . , φn sono una base del nucleo se e solo se esiste x0 ∈ [a, b] in corri-
spondenza del quale i vettori Φj (x0 ) con j = 1, . . . , n sono linearmente indipendenti;

• esiste un x0 ∈ [a, b] in corrispondenza del quale i vettori Φj (x0 ) con j = 1, . . . , n sono


linearmente indipendenti se e solo se i vettori Φj (x0 ) con j = 1, . . . , n sono linearmente
indipendenti per ogni x0 ∈ [a, b].

Dimostrazione. La tesi segue dal fatto che i vettori Φj sono le colonne della matrice wron-
skiana, e quindi essi sono linearmente indipendenti se e solo se il determinante della matrice
è diverso da zero. La Proposizione 3.5.6 mostra che questo accade in un punto se e solo se
accade in ogni punto.

La prima parte del corollario precedente mostra come costruire una base per il nucleo:
basta prendere le soluzioni di n Problemi di Cauchy con condizioni iniziali linearmente
indipendenti.

3.5.3 Costruzione di una soluzione


Supponiamo sia stata assegnata una funzione f ∈ C([a, b]), e cerchiamo ora di costruire
una soluzione di Ly = f nota una base di Ly = 0 costituita dalle funzioni φ1 , . . . , φn . In
particolare cerchiamo una soluzione di Ly = f che sia della forma
n
X
ψ(x) = Aj (x)φj (x)
j=1

con A1 , . . . , An funzioni incognite da determinare, che immaginiamo in C 1 ([a, b]). Osser-


viamo che
ψ = ⟨φ, A⟩
dove A := (A1 , . . . , An ) e φ := (φ1 , . . . , φn ) (ovvero che ψ può essere vista come prodotto
scalare tra le funzioni a valori vettoriali A ed φ). Con questa notazione possiamo scrivere
in forma compatta che
ψ ′ = ⟨φ, A′ ⟩ + ⟨φ′ , A⟩.
Se quindi imponiamo la condizione ⟨φ, A′ ⟩ = 0 si ha:

ψ ′ = ⟨φ′ , A⟩.

Ripetendo il procedimento otteniamo

ψ ′′ = ⟨φ′ , A′ ⟩ + ⟨φ′′ , A⟩,

e se imponiamo ⟨φ′ , A′ ⟩ = 0 otteniamo

ψ ′′ = ⟨φ′′ , A⟩.
3.5. EQUAZIONI LINEARI 73

Proseguiamo in questo modo n − 1 volte, fino ad ottenere il seguente sistema di identità


 

 ψ′ = ⟨φ′ , A⟩ 
⟨φ, A′ ⟩ = 0
 
ψ ′′

= ⟨φ′′ , A⟩ ⟨φ′ , A′ ⟩ = 0

.. sotto le condizioni .. (3.11)


 . 

 .

 (n−1) 
 (n−2) ′
ψ = ⟨φ(n−1) , A⟩ ⟨φ , A ⟩ = 0.

Una ulteriore derivazione produce l’uguaglianza

ψ (n) = ⟨φ(n−1) , A′ ⟩ + ⟨φ(n) , A⟩.

Ma allora:
n−1
X n−1
X
Lψ = ψ (n) + an−j ψ (j) = ⟨φ(n−1) , A′ ⟩ + ⟨φ(n) , A⟩ + an−j ⟨φ(j) , A⟩
j=0 j=0
(n−1) ′
= ⟨φ , A ⟩ + ⟨Lφ, A⟩,

dove Lφ := (Lφ1 , . . . , Lφn ). Ma φ1 , . . . , φn sono nel nucleo, quindi Lφ = 0, e così

Lψ = ⟨φ(n−1) , A′ ⟩. (3.12)

Da (3.11) ed (3.12) segue che affinché ψ soddisfi l’equazione Lψ = f basta che le A1 , . . . , An


soddisfino 

 ⟨φ, A′ ⟩ = 0  ′   
A1 0

′ ′

⟨φ , A ⟩ = 0


  ..   .. 
..
ovvero W  .  =  . 
   
. ′
  An−1   0 
⟨φ(n−2) , A′ ⟩ = 0

A′n


 f
⟨φ(n−1) , A′ ⟩ = f

dove W è la matrice Wronskiana associata alle φ1 , . . . , φn .


Sappiamo che det W (x) ̸= 0 per ogni x, quindi il sistema nelle A′1 , . . . , A′n può sempre
essere risolto, e una volta fattolo si trovano le Aj integrando le A′j trovate. In una formula:

A′1
       
0 A1 (x) 0
 ..   ..   ..  Z x  .. 
 . 
 ′  = W −1  .  e quindi . = W −1 (u)  .  du
     

An−1  0 An−1 (x) x0  0 
An′ f An (x) f (u)

e così
 
n A1 (x)
Aj (x)φj (x) = [φ1 (x), . . . , φn (x)] ·  ... 
X
ψ(x) =
 
j=1 An (x)
 
0
Z x . 
 . 

W −1 (u)  .  du.
 
= φ1 (x) . . . φn (x)
x0  0 
f (u)
74 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Volendo si può ulteriormente rielaborare questa formula. Infatti, la matrice inversa è


calcolabile come
1
W −1 (u) = · [Wc ]t (u),
det(W (u))
dove Wc (u) è la matrice dei cofattori di W (u) 4 , ed il simbolo t indica la trasposizione.
Inoltre il prodotto [Wc ]t (u) · [0, 0, . . . , f (u)]t di fatto seleziona l’ultima colonna di [Wc ]t (u)
e la moltiplica per f (u), così
f (u)
W −1 (u) · [0, 0, . . . , f (u)]t = [Ultima colonna di [Wc ]t (u)] · ,
det(W (u))
che, tenuto conto della trasposizione, diventa
f (u)
= [Ultima riga di Wc (u)]t · .
det(W (u))
Ora osserviamo che la variabile di integrazione è u, non x, quindi le quantità φ1 (x), . . .,
φn (x) sono di fatto costanti ai fini dell’integrazione e possono quindi essere portate al suo
interno. Facendolo si ottiene l’identità
Z x
f (u)
ψ(x) = [φ1 (x), φ2 (x), . . . , φn (x)] · [Ultima riga di Wc (u)]t · du.
x0 det(W (u))
Ora osserviamo che nel calcolo di
[φ1 (x), φ2 (x), . . . , φn (x)] · [Ultima riga di Wc (u)]t
di fatto φ1 (x) moltiplica il primo termine dell’ultima riga di Wc (u) (che è (−1)n−1 · de-
terminante del minore di W ottenuto eliminando l’ultima riga e la prima colonna), φ2 (x)
moltiplica il secondo termine dell’ultima riga di Wc (u) (che è (−1)n−2 · determinante del
minore di W ottenuto eliminando l’ultima riga e la seconda colonna), e così via. Quindi
 
φ1 (u) ... φn (u)
.. .. ..
.
 
[φ1 (x), φ2 (x), . . . , φn (x)] · [Ultima riga di Wc (u)]t = det  (n−2)
 . . 
(n−2)

φ (u) . . . φn (u)
1
φ1 (x) ... φn (x)
perché è esattamente quanto ci si trova a fare quando si svolge il calcolo di questo deter-
minante sviluppandolo rispetto alla sua ultima riga. Abbiamo così scoperto che
 
φ1 (u) ... φn (u)
.. .. ..
.
 
det  (n−2)
 . . 
(n−2)

φ (u) . . . φn (u)
Z x 1
φ1 (x) ... φn (x)
ψ(x) =   f (u) du. (3.13)
x0 φ1 (u) ... φn (u)
 .. .. .. 
 . . . 
det  (n−2)

(n−2)

φ (u) . . . φ (u)

 1 n 
(n−1) (n−1)
φ1 (u) . . . φn (u)
4
ovvero la matrice che in posizione (i, j) (con i indice di riga, j indice di colonna) ha il prodotto di
(−1)i−j per il determinante della sottomatrice di W (u) ottenuta cancellando la i-esima riga e la j-esima
colonna
3.5. EQUAZIONI LINEARI 75

Si noti che nell’ultima riga del numeratore la variabile è x (non u come invece in tutte le
altre righe), e che il denominatore è sempre diverso da 0 perché è il Wronskiano.

3.5.4 Equazioni lineari a coefficienti costanti: descrizione del nucleo


La formula precedente presuppone la conoscenza di una base per ker L e il Corollario 3.5.7
contiene una “ricetta” per costruire una base: risolvere n problemi di Cauchy con condizioni
indipendenti. Purtroppo questo è difficile da fare concretamente. Tuttavia questo può essere
fatto in modo efficiente qualora i coefficienti aj dell’equazione siano costanti. Ecco come.
Sia:
Ly = y (n) + a1 y (n−1) + · · · + an−1 y (1) + an y (0)
con aj ∈ R (costanti). Sia P ∈ R[z] il polinomio di grado n associato ad L definito da
P (z) := z n + a1 z n−1 + · · · + an−1 z + an .
Esso è detto polinomio caratteristico dell’equazione. Osserviamo che se y(x) = eλx , con λ
costante, allora y ′ (x) = λeλx , y ′′ (x) = λ2 eλx ed in generale y (j) (x) = λj eλx . Ne segue che
L(eλx ) = P (λ)eλx .
Da questa relazione segue che se λ è una radice di P , ovvero se P (λ) = 0, allora
L(eλx ) = P (λ)eλx = 0,
e quindi eλx ∈ ker L. Possiamo perciò costruire funzioni del nucleo prendendo eλx al variare
di λ tra le radici di P .
Esercizio 3.5.8. Sia data l’equazione: y ′′ − 3y ′ + 2y = 0, quindi con Ly = y ′′ − 3y ′ + 2y.
Il polinomio caratteristico è P (z) = z 2 − 3z + 2. Esso ha le radici 1 e 2, quindi ex e
e2x sono nel nucleo. È chiaro che queste funzioni sono linearmente indipendenti, quindi
ker L = spanR (ex , e2x ).
Vi sono però due problemi, illustrati dai due esempi seguenti.
Esempio 3.5.9. (radici multiple.) Si consideri: y ′′ − 2y ′ + y = 0. Il polinomio caratteristico
P (z) = z 2 − 2z + 1 = (z − 1)2 ha una sola radice, l’ 1; la procedura costruisce la sola
funzione ex ma il nucleo ha dimensione due quindi manca un secondo elemento per avere
una base.
Esempio 3.5.10. (radici non reali.) Si consideri: y ′′ +2y ′ +5y = 0. Il polinomio caratteristico
ha radici −1 + 2i e −1 − 2i non reali. Le funzioni e(−1+2i)x e e(−1−2i)x non sono a valori
reali e quindi non sono nel ker L reale.
Entrambi i problemi posso però essere risolti. Ricordiamo che se λ ∈ C è una radice di un
polinomio P ∈ C[z], allora la molteplicità µ di λ è il massimo esponente intero tale che
(z − λ)µ divide P (z) in C[z]. Quindi se λ1 , . . . , λk sono le radici distinte in C di P e se
µ1 , . . . , µk le loro molteplicità e P è monico5 dal teorema fondamentale dell’algebra segue
che
P (z) = (z − λ1 )µ1 · · · (z − λk )µk .
Se poi P ∈ R[z] (quindi è a coefficienti reali) e se λ ∈ C è una radice di P , allora anche λ
è radice di P (perché il fatto che P abbia coefficienti reali fa sì che P (λ) = P (λ) = 0 = 0)
e le molteplicità di λ e λ sono uguali.
5
Ovvero il coefficiente del termine di grado massimo è 1.
76 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Teorema 3.5.11. Sia L a coefficienti costanti e P il suo polinomio caratteristico. Ad ogni


λ preso nell’insieme delle radici reali di P ed ad ogni coppia (λ, λ) di radici complesse non
reali associamo le seguenti funzioni:
• a λ ∈ R, detta µ la molteplicità di λ, associamo

eλx , xeλx , x2 eλx , . . . , xµ−1 eλx µ funzioni;

• alla coppia (λ, λ) ∈ C\R, detta µ la molteplicità di λ e posto λ =: u + iv, u, v ∈ R,


associamo:
eux cos(vx), xeux cos(vx), . . . , xµ−1 eux cos(vx)
µ + µ funzioni.
eux sin(vx), xeux sin(vx), . . . , xµ−1 eux sin(vx)

Le n funzioni costruite in questo modo sono nel ker L e sono linearmente indipendenti.
Esse quindi ne sono una base perché dim ker L = n.
Dimostrazione. Sia λ radice di molteplicità µ. Allora P (z) = Q(z)(z −λ)µ con Q(z) ∈ C[z].
d
Osserviamo che L = P ( dx ), ovvero L è l’operatore differenziale associato al polinomio P
dalla sostituzione
d d dj
z j 7→ ◦ ··· ◦ = .
|dx {z dx} dxj
j volte
d
L’operatore dx e l’operatore λ· (quello che moltiplica per lo scalare λ) commutano, ovvero
d d
dx (λ(f (x)) = λ( dx (f (x))) perché λ è costante. Ne segue che
 d  d  d µ
L=P =Q −λ . (3.14)
dx dx dx
Osserviamo che  d 
− λ (eλx ) = λeλx − λeλx = 0
dx
e che  d 
− λ (xl eλx ) = lxl−1 eλx + λxl eλx − λxl eλx = lxl−1 eλx .
dx
Quindi iterando si ha
 d µ
− λ (xl eλx ) = l(l − 1)(l − 2) · · · (l − µ + 1)xl−µ eλx ,
dx
che è identicamente 0 quando l < µ, perché in tal caso si annulla il coefficiente l(l −
1) . . . (l − µ + 1). Questo dimostra che
 d  d  d µ
L(xl eλx ) = P (xl eλx ) = Q − λ (xl eλx ) = 0
dx dx dx
se l < µ, ovvero che eλx , xeλx , . . . , xµ−1 eλx appartengono al nucleo di L. Si osservi che il
calcolo vale anche se λ ∈ C.
Ora mostriamo che le funzioni elencate nel teorema sono linearmente indipendenti. Basta
farlo per la famiglia di funzioni

eλx , xeλx , . . . , xµ−1 eλx (3.15)


3.5. EQUAZIONI LINEARI 77

perché la famiglia eux cos(vx), eux sin(vx), . . . è combinazione lineare (complessa) di quella
esponenziale.
Siano λ1 , . . . , λk le radici in C distinte e siano µ1 , . . . , µk le loro molteplicità. La generica
combinazione lineare delle (3.15) corrisponde ad una somma della forma
k
X
pj (x)eλj x ,
j=1

dove ogni pj è un polinomio a coefficienti complessi di grado strettamente minore di µj .


Dimostriamo la tesi mostrando che se tale combinazione è la funzione identicamente nulla
allora sono nulli tutti i pj . Supponiamo dunque che
k
X
pj (x)eλj x = 0 ∀x. (3.16)
j=1

Possiamo escludere dalla somma quei pj che fossero identicamente nulli, quindi possiamo
assumere che per assurdo ogni pj nella (3.16) sia diverso dal polinomio nullo. Per derivazione
da (3.16) segue che
Xk
(p′j (x) + λj pj (x))eλj x = 0.
j=1

Ripetendo la derivazione otteniamo


k
X
(p′′j (x) + 2λj p′j (x) + λ2j pj (x))eλj x = 0,
j=1

e procedendo in questo modo k − 1 volte otteniamo il sistema di k equazioni


   λ x
p1 p2 ... pk e 1

p1 + λ1 p1 ′
p2 + λ2 p2 ... ′
pk + λk pk λ2 x 
 e 
  
p′′ + 2λ1 p′ + λ2 p1 p′′ + 2λ2 p′ + λ2 p2 . . . p′′ + 2λk p′ + λ2 pk   ..  = 0.

 1 1 1 2 2 2 k k k  . 
.. .. .. ..
. . . . eλk x

Sia M la matrice k × k che appare a sinistra nella identità precedente. Visto che il vettore
[eλ1 x , . . . , eλk x ] non è il vettore nullo qualunque sia il valore di x, il determinante di M deve
essere nullo identicamente in x. Osserviamo che il grado di p′1 è sempre minore di quello di
p1 quindi se p1 (x) = a1 xdeg p1 + termini di grado minore, allora
l  
X l j (l−j)
λ p = λl1 a1 xdeg p1 + termini di grado minore
j 1 1
j=0

e quindi

0 = det M
 
1 1 ... 1
 λ1 λ2 ...  λk
 deg p1 +deg p2 +···+deg pk
= a1 a2 · · · ak det x + termini grado minore

.. .. .. ..
 . . . .
λk−1
1 λ2k−1 . . . λk−1
k
78 CAPITOLO 3. EQUAZIONI DIFFERENZIALI
Y
= a1 a2 · · · ak (λj − λi )xdeg p1 +deg p2 +···+deg pk + termini grado minore
1≤i<j≤k

(l’ultima uguaglianza è l’identità di Van der Monde). Ma questo è impossibile perché


a1 , . . . , ak sono ̸= 0 e i λj sono due a due distinti. Siamo dunque arrivati a un assurdo che
nasce dall’ipotesi che i pj non siano il polinomio nullo.

3.6 Alcuni esempi interessanti


Sia y ′′ + 4y = 0. Le radici del polinomio caratteristico sono ±2i e quindi lo spazio delle
soluzioni è spanR (cos(2x), sin(2x)). Se poi imponiamo le condizioni

′′
y + 4y = 0

y(0) = a

 ′
y (0) = b

la soluzione del P.C. è a cos(2x) + 2b sin(2x).


   
y(0) y(x)
Sia Ex la mappa che manda ′ 7→ ′ (evoluzione al punto x).
y (0) y (x)

y′ y′

y y x

E0 Ex

Allora:
1
a cos(2x) + 2b sin(2x)
 a    
cos(2x) sin(2x)
 
a
Ex = = 2 .
b −2a sin(2x) + b cos(2x) −2 sin(2x) cos(2x) b
quindi Ex è una mappa lineare, che può essere decomposta come
" #  "√ #
√1 0 cos(2x) sin(2x) 2 0
2 √ .
0 2 − sin(2x) cos(2x) 0 √12

Si noti che la matrice centrale Rx rappresenta una rotazione.


Osservazione 3.6.1. Come Ex trasforma una regione del piano? Proviamo con un quadrato:
 √2 0   √10 
2
cos 2x sin 2x √
 
0 √1
y′ 2 y′ − sin 2x cos 2x y′ 0 2 y′

y y y y
3.7. SOLUZIONE PARTICOLARE PER LE LINEARI A COEFFICIENTI COSTANTI79

Si osservi che Ex ha conservato l’area. Questo deriva dal fatto che det Ex = 1 e questo
a sua volta accade perché la matrice Ex è la Wronskiana del sistema (con base cos(2x)
e 21 sin(2x)) e sappiamo che (det W )′ = −a1 det W dove a1 è il coefficienti dell’equazione
y ′′ + a1 y ′ + a2 y = 0. In questo caso a1 = 0, quindi det W è costante e così det Ex =
det W (x) = det W (0) = 1.
Osservazione 3.6.2. Per ogni x, z ∈ R, si ha Ex · Ez = Ex+z . Infatti
" # "√ #" # "√ #
√1 0 2 0 √1 0 2 0
Ex · Ez = 2 √ Rx 2 √ Rz
0 2 0 √12 0 2 0 √12
" # "√ # " # "√ #
√1 0 2 0 √1 0 2 0
= 2 √ Rx Rz = 2 √ Rx+z = Ex+z .
1 √1
0 2 0 √
2 0 2 0 2

Quindi l’insieme degli {Ex : x ∈ R} è un gruppo abeliano di trasformazioni del piano (di
fatto un sottogruppo di SL(2, R)). Anche questo fenomeno ha una spiegazione generale ma
illustrarla ci porterebbe troppo lontano. . .

3.7 Soluzione particolare per le lineari a coefficienti costanti


Consideriamo ora l’equazione non omogenea

y (n) + a1 y (n−1) + · · · + an y = f (x), f (x) ∈ C([a, b]).

Visto che conosciamo una base esplicita per il nucleo, possiamo trovare una soluzione
particolare usando la formula generale (3.13). Questo è in effetti tutto quello che si può
dire per una generica funzione. Tuttavia per certe f di forma speciale si può trovare una
soluzione seguendo una strada puramente algebrica.

Teorema 3.7.1. Sia f (x) = q(x)eλx con q ∈ R[x] e λ ∈ R. Sia µ la molteplicità di λ come
radice del polinomio caratteristico dell’equazione (con µ = 0 se λ non è radice). Allora
esiste r(x) ∈ R[x] con deg r = deg q tale che

L(xµ r(x)eλx ) = q(x)eλx .

Ovvero l’equazione Ly = q(x)eλx ha xµ r(x)eλx come soluzione particolare. Questo consente


di trovare r per via algebrica.

Dimostrazione. Per ogni scelta di interi k e d e di λ ∈ R consideriamo l’insieme di funzioni


(k,λ)
Vd := {φ(x) : φ(x) = r(x)xk eλx con r ∈ R[x] e grado di r ≤ d}.
(k,λ)
Osserviamo che Vd è uno spazio R−vettoriale di dimensione d + 1 perché k e λ so-
no fissati quindi gli stessi per tutti gli elementi. La dimostrazione consiste nel verificare
separatamente due cose. Precisamente

i. che
(µ,λ) (0,λ)
L : Vd → Vd ,
ovvero L manda elementi della forma r(x)xµ eλx dove µ è la molteplicità di λ e grado
di r ≤ d, in elementi della forma q(x)eλx con grado q ≤ d);
80 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

ii. che L è iniettiva.


(µ,λ) (0,λ)
Fatto ciò, visto che dim Vd = d + 1 = dim Vd , ne segue che L è anche suriettiva,
ovvero la tesi. Entrambi i fatti discendono da questo calcolo:
 d 
∀λ̃ ∈ C si ha − λ̃ (xm eλx ) = (mxm−1 + (λ − λ̃)xm )eλx .
dx

In particolare il risultato ha grado strettamente minore di m se e solo se λ̃ = λ. Come


nel testo del teorema, sia ora µ la molteplicità di λ come radice del polinomio caratteri-
stico P (con µ = 0 qualora λ non sia radice). Fattorizzando completamente P in C, la
formula (3.14) per l’operatore L può anche essere scritta come
 d  Y d   d µ
L=P = − λ̃j ◦ −λ ,
dx dx dx
j

dove le λ̃j sono le radici (in C) di P diverse da λ (ma eventualmente uguali tra loro).
Si osservi che questa scrittura ha senso anche nel caso in cui µ = 0 (ovvero λ non è una
radice), oppure in cui non ci sono radici λ̃j ̸= λ (in tal caso il prodotto in j è vuoto ed è
posto uguale a 1). Di conseguenza, in particolare, si ha
Y d   d µ
L(xµ+d eλx ) = − λ̃j ◦ − λ (xµ+d eλx ).
dx dx
j

d
Il calcolo precedente mostra che ogni applicazione di dx − λ su xµ+d eλx ne fa diminuire il
d
grado in x di una (ed una sola) unità, mentre gli altri operatori dx − λ̃j non ne mutano il
grado. Questo dimostra che
(0,λ) (0,λ)
L(xµ+d eλx ) ∈ Vd \Vd−1 .

(0,λ) (µ,λ)
Il fatto che l’immagine sia in Vd dimostra i., perché ogni elemento di Vd è somma di

termini della forma xµ+d eλx con d′ ≤ d, ed il calcolo mostra che essi sono tutti mandanti
(0,λ) (0,λ)
in Vd′ che è contenuto in Vd .
(0,λ)
Il fatto che l’immagine non sia in Vd−1 dimostra invece ii. Infatti supponiamo che il nucleo
(µ,λ)
di L in Vd non sia banale e che quindi esista un elemento xµ w(x)eλx con deg w ≤ d
mandato dal L in 0, nonostante w non sia zero (quindi deg w ̸= −∞). Sia w(x) = axdeg w +
w̃(x), dove w̃(x) ha grado strettamente inferiore. Il calcolo precedente mostra che

0 = L(xµ w(x)eλx ) = L(xµ (axdeg w + w̃(x))eλx ) = aL(xµ+deg w eλx ) + L(xµ w̃(x)eλx )

ovvero
L(xµ w̃(x)eλx ) = −aL(xµ+deg w eλx )
(0,λ)
ma questo è assurdo poiché il lato sinistro è in Vdeg w−1 mentre il lato destro non appartiene
a questo spazio.

Osservazione 3.7.2. Il teorema è applicabile a ogni λ ∈ R quindi anche quando λ = 0,


ovvero quando f (x) = q(x) e quindi quando f è un polinomio.
3.7. SOLUZIONE PARTICOLARE PER LE LINEARI A COEFFICIENTI COSTANTI81

Osservazione 3.7.3. Il teorema è applicabile anche se la radice λ è complessa. In tal caso


però si dovrà tener conto del fatto che anche l’esponenziale eλx è a valori complessi e non
reali.
Esempio 3.7.4. Sia y ′′ − 4y = (x + 2)ex . Il polinomio caratteristico è z 2 − 4 e ha radici ±2
con molteplicità uno.
La funzione f (x) := (x + 2)ex è della forma prevista con λ = 1 di molteplicità zero
(non è radice) e q(x) := x + 2. Allora esiste una soluzione della forma xµ r(x)eλx ovvero
x0 (ax + b)ex = (ax + b)ex con a e b opportuni. Per trovarli osserviamo che se y = (ax + b)ex
allora
y ′ = (ax + a + b)ex , y ′′ = (ax + 2a + b)ex .
Così

(x + 2)ex = y ′′ − 4y = ax + 2a + b − 4(ax + b) ex = (−3ax + 2a − 3b)ex .




Ma allora x + 2 = −3ax + 2a − 3b da cui si ricava


(
−3a = 1 1 8
=⇒ a=− , b=− .
2a − 3b = 2 3 9

La soluzione generale è quindi αe2x + βe−2x − ( 13 x + 89 )ex con α, β ∈ R.


Esempio 3.7.5. Sia y ′′ − 4y = (x + 2)e2x . Come prima il polinomio caratteristico è z 2 − 4
e ha radici ±2 con molteplicità uno.
La funzione f (x) := (x + 2)e2x è della forma prevista con λ = 2 di molteplicità uno e
q(x) := x + 2. Allora esiste una soluzione della forma xµ r(x)eλx ovvero x1 (ax + b)e2x =
(ax2 + bx)e2x con a e b opportuni. Per trovarli osserviamo che se y = (ax2 + bx)e2x allora

y ′ = (2ax2 + (2a + 2b)x + b)e2x , y ′′ = (4ax2 + (8a + 4b)x + 2a + 4b)e2x .

Così

(x + 2)e2x = y ′′ − 4y = 4ax2 + (8a + 4b)x + 2a + 4b − 4(2ax2 + (2a + 2b)x + b) e2x




= (8ax + 2a + 4b)e2x .

Ma allora x + 2 = 8ax + 2a + 4b da cui si ricava


(
8a = 1 1 7
=⇒ a= , b= .
2a + 4b = 2 8 16

La soluzione generale è quindi αe2x + βe−2x + ( 81 x + 7


16 )e
2x con α, β ∈ R.

Usando le formule cos x = 12 (eix + e−ix ) e sin x = 21 (eix − e−ix ) (e le inverse eix = cos x +
i sin x, e−ix = cos x − i sin x) si dimostra la seguente variante. Sia,

f (x) = q(x)eux cos(vx),

con q ∈ R[x] ed u, v ∈ R. Sia µ la molteplicità di u + iv come radice del polinomio


caratteristico. Allora esistono due polinomi r1 e r2 in R[x] con grado entrambi ≤ deg q tali
che
L(xµ (r1 (x) cos(vx) + r2 (x) sin(vx))eux ) = q(x)eux cos(vx),
ovvero l’equazione Ly = f ha xµ (r1 (x) cos(vx) + r2 (x) sin(vx))eux quale soluzione.
82 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Osservazione 3.7.6. In generale r1 e r2 sono entrambi ̸= 0, ovvero la soluzione contiene sia


cos(vx), sia sin(vx) anche se in f (x) appare solo cos(vx).
Osservazione 3.7.7. Il fatto che il grado di r1 e r2 sia minore o uguale di quello di q consente
di individuare r1 e r2 per via algebrica.
Osservazione 3.7.8. La stessa conclusione vale anche nel caso in cui f (x) = q(x)eux sin(vx).
Esercizio 3.7.9. Si supponga che il polinomio caratteristico P dell’equazione differenziale
lineare a coefficienti costanti Ly = f abbia radici distinte (complesse o reali non importa,
comunque se si vuole si può assumere che siano in R), λ1 , . . . , λn . Verificare che allora la
formula (3.13) che dà una soluzione particolare dell’equazione assume la forma
Z xXn
eλj (x−u)
f (u) du.
x0 P ′ (λj )
j=1

Come diventa questa formula qualora vi siano radici coincidenti? Usate questa formula per
dare una dimostrazione alternativa della tesi del Teorema 3.7.1.
Osservazione 3.7.10. Si osservi che l’espressione trovata nell’esercizio precedente è della
forma Z x
K(x − u) f (u) du
x0
per una opportuna funzione K ∈ ∞
C (R).
Integrali di questo tipo godono di varie proprietà
speciali e sono chiamati integrali di convoluzione. La loro comparsa in questa formula è
legata al fatto che l’operatore differenziale L è a coefficienti costanti, ovvero indipendenti
da x: questo fa sì che l’operatore L commuti con ogni operatore di traslazione τs , ovvero
si abbiano le identità
τs L = Lτs , ∀s ∈ R
dove τs è quell’operatore che trasforma la generica funzione g nella funzione (τs g)(x) :=
g(x − s)). Si osservi che l’insieme {τs : s ∈ R} è un gruppo continuo e abeliano. Si dimostra
che g ∈ ker L se e solo se τs g ∈ ker L per ogni s. Come vedrete in seguito, il Teorema di
Noether è una generalizzazione di questa osservazione e mostra l’esistenza di un profondo
legame tra invarianza dell’equazione differenziale, esistenza di un flusso ad un parametro
che agisce sulle soluzioni, ed esistenza di una legge di conservazione.

3.7.1 Generalizzare l’esponenziale


La funzione esponenziale exp(x) può essere definita come l’unica soluzione dell’equazione
differenziale y ′ = y che soddisfi la condizione y(0) = 1. Anche le funzioni iperboliche hanno
una caratterizzazione simile: cosh(x) e sinh(x) sono le soluzioni dell’equazione differenziale
y ′′ = y che soddisfano rispettivamente le condizioni y(0) = 1, y ′ (0) = 0 (per il coseno
iperbolico) ed y(0) = 0, y ′ (0) = 1 (per il seno iperbolico).
Visto che questi problemi di Cauchy individuano univocamente tali funzioni, tutte le pro-
prietà che le rendono utili6 in realtà sono già codificate in essi. In questa sezione vogliamo
sia evidenziare questo fatto sia generalizzarlo ulteriormente.
6
Tipicamente l’identità cosh2 (x) − sinh2 (x) = 1 e le formule di addizione
exp(x + y) = exp(x) exp(y),
cosh(x + y) = cosh(x) cosh(y) + sinh(x) sinh(y), sinh(x + y) = sinh(x) cosh(y) + cosh(x) sinh(y).
3.7. SOLUZIONE PARTICOLARE PER LE LINEARI A COEFFICIENTI COSTANTI83

Fissiamo dunque un ordine k e consideriamo l’equazione differenziale y (k) = y. Si tratta di


una equazione lineare a coefficienti costanti. Possiamo quindi già concludere che ogni pro-
blema di Cauchy con questa equazione ammette una ed una sola soluzione su R, e che ogni
soluzione è in realtà di classe C ∞ (R) (per la regolarità basta osservare che ogni funzione φ
che sia soluzione dell’equazione deve essere di tipo C k (R), dopo di che essendo φ(k) = φ,
deve avere φ(k) ∈ C k (R). Iterando questa osservazione si conclude che φ ∈ C ∞ (R)).
Osserviamo inoltre che se φ è una soluzione dell’equazione, allora anche tutte le sue deri-
vate lo sono. Questo è un effetto della particolare struttura dell’equazione che permette le
seguenti uguaglianze
(k) (j)
φ(j) = φ(j+k) = φ(k) = φ(j) ∀j ∈ N.

Per ogni n = 0, . . . , k − 1, sia φn la soluzione del problema di Cauchy


(
y (k) = y
y (j) (0) = δj,n ∀j = 0, . . . , k − 1,

dove δj,n := 1 se j = n e 0 altrimenti. Sappiamo che queste k funzioni sono una base per
lo spazio delle soluzioni dell’equazione. In realtà sono tutte legate tra loro da una semplice
relazione differenziale. Per formularla facilmente conviene estendere l’insieme degli indici
in modo k-periodico, ovvero porre

φn+ℓk := φn ∀n = 0, . . . , k − 1, ∀ℓ ∈ Z.

Si osservi che le funzioni φ0 , . . . , φk−1 sono tutte distinte, ma che per effetto della estensione
esistono anche φk , φ−1 , φk+1 , che di fatto coincidono rispettivamente con φ0 , φk−1 e φ1 .
Con questa notazione, la funzione φn risulta essere l’unica soluzione del problema di Cauchy
(
(k)
φn = φn
y (j) (0) = δn=j (mod k) ∀j = 0, . . . , k − 1

(dove ora δn=j (mod k) rappresenta la funzione che vale 1 quando n = j (mod k) e 0 altri-
menti). Da questo discende subito che

φ(j)
n = φn−j ∀n, j ∈ Z, (3.17)

ovvero che non solo la derivata j-esima di una soluzione è anch’essa una soluzione, ma
di fatto la derivata j-esima della soluzione numero n è la soluzione numero n − j. Si
osservi che questo fatto generalizza le relazioni exp′ (x) = exp(x) ed cosh′ (x) = sinh(x),
sinh′ (x) = cosh(x).
Veniamo ora alle formule di addizione. Fissiamo z ∈ R, e consideriamo le funzioni
k−1
X
ψn,z (x) := φn (x + z) e ϕn,z (x) := φℓ (x)φn−ℓ (z).
ℓ=0

Entrambe soddisfano l’equazione differenziale y (k) = y (si ricordi che le derivate sono
prese rispetto ad x; la quantità z è vista come parametro reale arbitrario ma fissato): la
prima per calcolo immediato, la seconda perché è combinazione lineare (con coefficienti
che dipendono da z, ma che comunque sono costanti essendo z fissato) di funzioni che
84 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

soddisfano tale equazione. D’altra parte, è chiaro che per ogni indice di derivazione j si ha
sia
(j)
ψn,z (0) = φ(j)
n (z),

sia
k−1 k−1
(j)
X X
ϕ(j)
n,z (0) = φℓ (0)φn−ℓ (z) = δℓ−j (mod k) φn−ℓ (z) = φn−j (z) = φ(j)
n (z).
ℓ=0 ℓ=0

Le funzioni ψn,z e ϕn,z quindi devono coincidere, poiché risolvono il medesimo problema di
Cauchy. Questo fornisce l’identità
k−1
X
φn (x + z) = ψn,z (x) = ϕn,z (x) = φℓ (x)φn−ℓ (z).
ℓ=0

Visto che questa è stata verificata per ogni z fissato e per ogni x ∈ R, di fatto abbiamo
verificato la formula di addizione
k−1
X
φn (x + z) = φℓ (x)φn−ℓ (z), ∀x, z ∈ R. (3.18)
ℓ=0

Si osservi che queste identità nel caso k = 1 e nel caso k = 2 sono le formule di addizione
per exp e per la coppia di funzioni cosh, sinh:

k = 1 φ0 (x + z) = φ0 (x)φ0 (z) ovvero exp(x + z) = exp(x) exp(z);

ed
(
φ0 (x + z) = φ0 (x)φ0 (z) + φ1 (x)φ−1 (z)
k=2
φ1 (x + z) = φ0 (x)φ1 (z) + φ1 (x)φ0 (z),
(
cosh(x + z) = cosh(x) cosh(z) + sinh(x) sinh(z)
ovvero
sinh(x + z) = cosh(x) sinh(z) + sinh(x) cosh(z).

Un modo forse migliore di esprimere queste identità è però il seguente. Sia


 
φ0 φ1 . . . φk−1
 φ′0 φ′1 . . . φ′k−1 
W := W (φ0 , φ1 , . . . , φk−1 ) :=  .. .. .. 
 
 . . ... . 
(k−1) (k−1) (k−1)
φ0 φ1 . . . φk−1

la matrice wronskiana associata alle funzioni φ0 , φ1 , . . . , φk−1 , prese in questo ordine. Per
via delle identità in (3.17) questa matrice è costante sulle diagonali (quindi è una matrice
di Toeplitz) e anzi è addirittura circolante (ovvero ogni riga è ottenuta per shift a destra
della riga che la precede), e coincide con
 
φ0 φ1 . . . φk−1
φk−1 φ0 . . . φk−2 
E :=  . ..  . (3.19)
 
. ..
 . . ... . 
φ1 φ2 . . . φ0
3.7. SOLUZIONE PARTICOLARE PER LE LINEARI A COEFFICIENTI COSTANTI85

In termini di E (e quindi di W , visto che sono uguali), le formule di addizione (3.18)


diventano
E(x + z) = E(x) · E(z) ∀x, z ∈ R.
Da questo segue immediatamente che l’insieme delle matrici {E(x) : x ∈ R} costituisce un
sottogruppo abeliano in GL(k, R) e che la mappa R → GL(k, R) che manda x 7→ E(x) è
una rappresentazione di R in Rk .
Supponiamo ora che k sia almeno 2. Allora l’equazione differenziale y (k) = y scritta nella
forma standard (3.10) manca del termine di ordine k − 1, ovvero il suo coefficiente a1 è
zero. Per la Proposizione 3.5.6 questo implica che il determinante di W è in realtà costante,
così che

(det E)(x) = (det W )(x) = (det W )(0) = (det E)(0) = 1 ∀x ∈ R.

Questa relazione generalizza l’identità cosh2 (x) − sinh2 (x) = 1 ad ogni k ≥ 2 (e non ha un
analogo in k = 1, ovvero per l’esponenziale).
Le funzioni φn ammettono anche due descrizioni abbastanza esplicite, entrambe importanti.
La prima fornisce lo sviluppo in serie di potenze, ed è
+∞
X xℓ
φn (x) = . (3.20)
ℓ!
ℓ=0
ℓ=n (mod k)

Si noti come la somma sia di fatto solo sugli interi che sono congruenti a n modulo k, e
come questa espressione generalizzi gli sviluppi di exp, cosh e sinh, visto che
+∞ +∞
X xℓ X xℓ
k = 1; φ0 (x) = = = exp(x)
ℓ! ℓ!
ℓ=0 ℓ=0
ℓ=0 (mod 1)

e che  +∞ +∞
 X xℓ X xℓ
φ0 (x) = = = cosh(x)


ℓ! ℓ!




 ℓ=0 ℓ=0
ℓ=0 (mod 2) ℓ even
k = 2; +∞ +∞ ℓ
 X xℓ X x
φ1 (x) = = = sinh(x).




 ℓ! ℓ!

 ℓ=0 ℓ=0
ℓ=1 (mod 2) ℓ odd

La validità di (3.20) può essere verificata anzitutto constatando che la serie di potenze ha
raggio infinito e quindi converge in tutto R. Poi osservando che il teorema di derivazione
delle serie di potenze garantisce che per ogni indice j ∈ N si ha
+∞ +∞
h X xℓ i(j) X xℓ−j
= ℓ · (ℓ − 1) · · · (ℓ − j + 1)
ℓ! ℓ!
ℓ=0 ℓ=j
ℓ=n (mod k) ℓ=n (mod k)
+∞ +∞
X xl X xl
= (l + j) · (l + j − 1) · · · (l + 1) = .
(l + j)! l!
l=0 l=0
l=n−j (mod k) l=n−j (mod k)
86 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Usando queste identità si vede subito che la serie di potenze in (3.20) soddisfa il medesimo
problema di Cauchy risolto da φn , e ciò basta per dimostrare che essa coincide con φn .
La seconda rappresentazione è invece come somma di opportuni esponenziali complessi,
ed è determinato ad esempio nel modo seguente. Il polinomio caratteristico dell’equazione
y (k) = y è λk − 1. Le radici caratteristiche sono quindi le soluzioni di λk = 1, ovvero le
k-esime radici (complesse) dell’unità. Ogni φn deve quindi essere esprimibile come somma
delle funzioni exp(x), exp(ζk x), exp(ζk2 x), . . . , exp(ζkk−1 x), dove ζk := exp(2πi/k). Questa
rappresentazione può essere dedotta dal seguente calcolo. Osserviamo anzitutto che

k−1 k−1 e se k non divide ℓ allora è ζkℓk −1 = 0,
ℓj ℓ j
X X
ζkℓ −1

ζk = ζk
se invece k divide ℓ allora è k.
j=0 j=0

Quindi
k−1
1 X ℓj
ζk = δℓ=0 (mod k) . (3.21)
k
j=0

Da questo e dalla uguaglianza in (3.20) segue che


+∞ +∞ +∞ k−1
X xℓ X xℓ X 1 X (ℓ−n)j xℓ
φn (x) = = δℓ−n=0 (mod k) = ζk
ℓ! ℓ! k ℓ!
ℓ=0 ℓ=0 ℓ=0 j=0
ℓ=n (mod k)
k−1 +∞ k−1 +∞ k−1 +∞
1 X X (ℓ−n)j xℓ 1 X −nj X ℓj xℓ 1 X −nj X 1 j ℓ
= ζk = ζk ζk = ζk ζ x .
k ℓ! k ℓ! k ℓ! k
j=0 ℓ=0 j=0 ℓ=0 j=0 ℓ=0

La serie interna è una nostra vecchia conoscenza: essa rappresenta l’esponenziale (comples-
so) calcolato in ζkj x. Abbiamo quindi dimostrato che
k−1
1 X −nj
ζk exp ζkj x

φn (x) = x ∈ R, ∀n ∈ N, (3.22)
k
j=0

che effettivamente esprime φn (x) come combinazione lineare delle exp ζkj x . Il calcolo che


abbiamo appena svolto ha una lunga storia, ed è di fatto un esempio di analisi/sintesi di


Fourier (qui sul gruppo ciclico di k elementi). Per ora questo è poco più di un nome, ma nei
corsi successivi avrete sicuramente modo di generalizzare questa procedura e di riconoscere
in essa uno strumento fondamentale di indagine.
Per k = 2 questa formula fornisce le consuete identità
1  1 
cosh(x) = φ0 (x) = exp(x) + exp(−x) , sinh(x) = φ1 (x) = exp(x) − exp(−x) .
2 2
Anche le rappresentazioni (3.22) possono essere meglio espresse se organizzate in matrice.
Infatti, sia Mk la matrice di M (k × k, C) data da
1
Mk := √ (ζknj )k−1
n,j=0 .
k
Allora l’identità (3.21) afferma che

Mk · Mk∗ = Mk∗ · Mk = I (3.23)


3.7. SOLUZIONE PARTICOLARE PER LE LINEARI A COEFFICIENTI COSTANTI87

(la matrice Mk∗ è per definizione l’aggiunta di Mk , cioè la sua trasposta coniugata) ovvero
che Mk è unitaria, e le varie identità in (3.22) per n = 0, . . . , k − 1 possono essere riassunte
scrivendo che
1 
φ0 , φ1 , · · · , φk−1 = √ exp(x), exp ζk x , · · · , exp ζkk−1 x · Mk∗
   
k
(l’uguaglianza è da intendersi come uguaglianza tra matrici, in particolare quello a destra
è un prodotto riga per colonne). Anche la matrice E può essere riscritta usando questa
nuova base. Infatti un breve calcolo basato sulla (3.22) mostra che

E(x) = Mk∗ · D(x) · Mk ,

dove D(x) := diag(exp(x), exp(ζk x), . . . , exp(ζkk−1 x)). Si osservi che questa formula e
la (3.23) consentono di ridimostrare la (3.19). Infatti l’identità D(x) · D(z) = D(x + z) è
evidente, e così si ha

E(x)E(z) = Mk∗ D(x)Mk · Mk∗ D(z)Mk = Mk∗ D(x) · D(z)Mk = Mk∗ D(x + z)Mk = E(x + z).

Vi sarebbero molte altre cose da discutere, ma forse è meglio fermarsi qui.


88 CAPITOLO 3. EQUAZIONI DIFFERENZIALI
Capitolo 4

Curve, campi vettoriali, forme


differenziali

4.1 Curve
Definizione 4.1.1. Sia Ω ⊆ Rn , aperto. Chiamiamo curva in Ω qualunque mappa con-
tinua φ : [a, b] ⊆ R → Ω. L’immagine γ di φ è detto sostegno della curva e φ è detta
parametrizzazione di γ.

φ
p γ q
a b

Osservazione 4.1.2. Il dato geometrico è codificato in γ, quindi capiterà spesso di chiamare


“curva” quello che è (solo) il sostegno di una data curva.
Definizione 4.1.3. La curva è detta:
• Chiusa quando φ(a) = φ(b).

p=q p=q

• Semplice quando φ è iniettiva in [a, b) e in (a, b].

Curve non semplici

• Regolare quando φ è C 1 e φ′ (t) ̸= 0 per ogni t ∈ [a, b].

• Regolare a tratti quando esistono a = t0 < t1 < · · · < tn = b tali che φ è regolare in
ogni tratto [tj , tj+1 ].

89
90 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

φ
a b
t0 t1 t2 t3

Osservazione 4.1.4. La definizione di regolarità è probabilmente “strana”. Il fatto è che si


vuole che l’oggetto non solo sia regolare dal punto di vista “analitico” (ovvero φ ∈ C 1 ) ma
che lo sia anche dal punto di vista “geometrico” (ovvero φ′ (t) ̸= 0 per ogni t). La condizione
φ′ (t)
φ′ (t) ̸= 0 consente infatti di definire un versore tangente τ (t) := ∥φ ′ (t)∥ in ogni punto. Si

osservi che ∥τ (t)∥ = 1 per ogni t.

4.1.1 Classe di equivalenza e orientazione


Sia φ : [a, b] → Rn una curva, sia poi f : [a′ , b′ ] → [a, b] una mappa biunivoca e bidifferen-
ziale (quindi f e f −1 entrambi C 1 , ovvero f è un diffeomorfismo). Allora

φ̃ := φ ◦ f : [a′ , b′ ] → Rn

è una nuova curva con lo stesso sostegno di φ. Inoltre φ̃ sarà chiusa/ regolare/ regolare a
tratti/ semplice se e solo se φ ha le medesime proprietà.
Sotto molti punti di vista quindi φ e φ̃ sono la stessa cosa; ciò suggerisce di introdurre una
relazione di equivalenza, che denoteremo con ∼, in base alla quale φ e φ̃ sono equivalenti
quando esiste un diffeomorfismo f tale che φ̃ = φ ◦ f (e scriveremo φ ∼ φ̃, appunto). Si
tratta effettivamente di una relazione di equivalenza. Inoltre le informazioni geometriche
sono legate non tanto alla curva (cioè a φ) quanto alla classe di equivalenza [φ]/∼ .
Per dimostrare che qualche concetto è quindi “geometrico” nonostante sia definito usando
una specifica φ si dovrà verificare che esso dipende solo dalla classe di equivalenza [φ]/∼ .
Ad esempio:

Definizione 4.1.5. Data φ : [a, b] → Rn regolare a tratti, chiamiamo lunghezza (del


sostegno γ) della curva φ il numero
Z b
ℓ(γ) := ∥φ′ (t)∥ dt.
a

In effetti l’integrale esiste ed il suo valore non cambia quando si utilizza una diversa φ̃ che
è equivalente a φ.

Dimostrazione. Se φ̃ = φ ◦ f con f : [a′ , b′ ] → [a, b] diffeomorfismo. La derivata di f non si


annulla in alcun punto, poiché f è un diffeomorfismo. Quindi essa è o sempre negativa o
sempre positiva. Supponiamo f ′ > 0. Allora a = f (a′ ) e b = f (b′ ) e si ha
Z b Z b′ Z b′ Z b′
′ ′ ′ ′ ′
∥φ (t)∥ dt = ∥φ (f (u))∥f (u) du = ∥φ (f (u))f (u)∥ du = ∥φ̃′ (u)∥ du.
a a′ a′ a′
4.1. CURVE 91

Se invece si suppone f ′ < 0, e allora a = f (b′ ) e b = f (a′ ), si ha


Z b Z a′ Z b′ Z b′
′ ′ ′ ′ ′
∥φ (t)∥ dt = ∥φ (f (u))∥f (u) du = ∥φ (f (u))f (u)∥ du = ∥φ̃′ (u)∥ du.
a b′ a′ a′

In queste note, per semplicità, abbiamo deciso di assumere la formula precedente come
definizione di lunghezza di una curva. Per quanto sia un approccio corretto dal punto di
vista logico, la sua ragionevolezza va però in qualche modo spiegata. A tal fine è utile
verificare anzitutto che se applicata ad una curva poligonale (ovvero una concatenazione
di segmenti), la formula fornisce lo stesso valore che ci si aspetta dalla geometria euclidea,
ovvero la somma delle lunghezze (euclidee) dei segmenti che la compongono. Inoltre, per
una curva generica γ è ragionevole pensare alla sua lunghezza come al sup delle lunghezze
delle spezzate interpolanti

γ
a b
ℓ(γ) := sup{lunghezza delle spezzate con vertici in γ}.

e se γ è regolare a tratti allora si può dimostrare che questo estremo superiore è una
quantità finita che, appunto, coincide con l’integrale dato nella Definizione 4.1.5.
Sia poi φ una curva regolare semplice. Per definizione φ′ (t) ̸= 0 per ogni t. Sia p :=
φ(t0 ). L’insieme dei vettori ⟨λφ′ (t0 )⟩λ∈R è un sottospazio di Ep di dimensione 1. Sia ora
φ̃ = φ ◦ f una diversa parametrizzazione della medesima curva, e sia t0 := f (u0 ), così
che p = φ̃(u0 ). Con la nuova parametrizzazione il vettore derivato (calcolato ancora in p)
cambia in φ̃′ (u0 ) = φ′ (f (u0 ))f ′ (u0 ) = φ′ (t0 )f ′ (u0 ). Lo span di φ̃′ (u0 ) è però lo stesso di
φ′ (t0 ). Questo mostra così che lo spazio vettoriale span{φ′ (t0 )}R pur definito usando φ, è
in realtà invariante sotto relazione di equivalenza ∼: esso è quindi un oggetto geometrico,
e infatti è lo spazio tangente a γ in p.
Il versore τ invece non è invariante: se φ̃ = φ ◦ f con t0 = f (u0 ), si ha
φ̃′ (u0 ) φ′ (t0 )f ′ (t0 ) φ′ (t0 ) f ′ (t0 )
τ̃ (u0 ) = = = · = τ (t0 ) · sgn(f ′ (t0 )).
∥φ̃′ (u0 )∥ ∥φ′ (t0 )f ′ (t0 )∥ ∥φ′ (t0 )∥ |f ′ (t0 )|
Questo mostra che il nuovo versore τ̃ coincide con il vecchio versore se e solo f ′ > 0 (ovvero
f è crescente), altrimenti è il suo opposto.
.
Ciò suggerisce di introdurre una nuova (e più fine) relazione di equivalenza: φ̃ ∼ φ quando
.
esiste f biunivoca, bidifferenziabile e crescente tale che φ̃ = φ ◦ f . Anche ∼ è una relazione
di equivalenza e ogni classe di equivalenza è chiamata curva orientata.
Per le curve orientate ha senso sostenere che un dato punto delle curva venga “prima/dopo”
un secondo punto, almeno se la curva è semplice e non chiusa.
Data una curva φ : [a, b] → Rn con sostegno γ si indica con −γ la curva φ : [a, b] → Rn con
.
φ(t) := φ(a + b − t). Allora φ e φ non sono ∼ equivalenti anche se sono ∼ equivalenti; ogni
.
φ̃ che sia ∼ φ è di fatto ∼ equivalente a φ o a φ. Questo corrisponde a dire che
92 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

.
• se φ̃ ∼ φ allora φ̃ ∼ φ;
.
• la classe di equivalenza [φ]/∼ si spezza in due classi di ∼ equivalenza.

q q q
= ∪
p p p

Da ciò segue che τ non è ben definito in [φ]/∼ ma lo è in [φ]/∼. .

4.1.2 Concatenazione
Se γ1 è sostegno di una curva da p a q e γ2 di una da q a s allora è possibile concatenare
γ1 con γ2 in ciò che denotiamo con γ1 + γ2 a dare una curva che connette p con s. Anche
γ1 + γ2 è il sostegno di una curva: se φ1 : [a1 , b1 ] ha sostegno γ1 e φ2 : [a2 , b2 ] ha sostegno
γ2 allora φ : [0, 1] → Rn con
(
φ1 (a1 + (b1 − a1 )2t) t ∈ [0, 21 ]
φ(t) =
φ2 (a2 + (b2 − a2 )(2t − 1)) t ∈ [ 12 , 1]

parametrizza γ1 + γ2 . Si osservi che φ è ben definita perché φ1 (b1 ) = q = φ2 (a2 ), così che
φ è sicuramente continua. Inoltre φ è regolare a tratti se φ1 e φ2 lo sono, ma in generale
φ non è regolare perché in q le derivate di φ1 e φ2 possono non coincidere.
q
q
q
γ1 γ2 γ1 + γ2
p p
s s

Definizione 4.1.6. Dato Ω ⊆ Rn , Ω è detto connesso per archi (semplici/ regolari/. . . )


quando per ogni coppia di punti in Ω esiste una curva (di quel tipo) con sostegno in Ω che
li connette.

Teorema 4.1.7. Sia Ω ⊆ Rn un aperto connesso, allora Ω è anche connesso per archi
(che si possono prendere poligonali, semplici o anche regolari semplici, ed orientati).

Dimostrazione. Sia w un qualunque punto di Ω, fissato. Sia

A := {q ∈ Ω : per i quali esiste una curva che connette w con q}.

Osserviamo che:

• A non è vuoto. Infatti esiste una bolla aperta di centro w e tutta in Ω (perché Ω è
aperto) e ogni punto della bolla è connesso a w dal raggio che passa per quel punto.
Quindi la bolla è contenuta in A.

• A è aperto. Infatti sia q ∈ A. Visto che Ω è aperto, esiste una bolla aperta centrata in q
tutta in Ω. Ogni elemento r della bolla è connesso a q dal raggio che passa per r e q lo
è a w (perché q ∈ A), quindi r è connesso a w (dalla concatenazione) perciò r ∈ A.
4.1. CURVE 93

• A è chiuso in Ω ovvero Ac ∩ Ω è aperto. Infatti sia q ∈ Ac . Se non esistesse una bolla


aperta di centro q tutta in Ac allora la bolla aperta di centro q e tutta in Ω (che esiste
perché Ω è aperto) avrebbe almeno un punto r in A, ovvero connesso a w. Ma allora
r sarebbe connesso a q dal raggio e quindi w sarebbe connesso a q, contro l’ipotesi.
L’assurdo dimostra che Ac è aperto.

Ma allora A ̸= ∅ e sia A che Ac ∩Ω sono aperti. Visto che Ω è connesso, segue che Ac ∩Ω = ∅
ovvero che A = Ω. In altre parole, abbiamo dimostrato che ogni punto di Ω è connesso
a w da una curva (che se vogliamo possiamo assumere essere regolare a tratti). La tesi
segue osservando che due punti qualunque p e q in Ω sono allora connessi tra loro dalla
concatenazione delle curve pγ1 w e qγ2 w che li connettono a w (e la concatenazione sarà
regolare a tratti se esse lo sono). Questo basta per dimostrare la tesi nella versione in cui si
afferma l’esistenza di curve di connessione che siano solo regolari a tratti ed orientate. Per
dimostrare la possibilità di avere cammini poligonali si può procedere così: siano p e q punti
distinti e fissati e φ : [a, b] → Ω la curva che li connette in Ω, la cui esistenza è appena
stata dimostrata. Il sostegno γ della curva è un compatto (perché immagine tramite la
mappa φ continua di un segmento compatto), ed Ω è un aperto, quindi la distanza tra γ
ed Ωc è positiva1 . Sia η > 0 e minore di tale distanza: dalla definizione segue che tutti i
punti che distano da un qualunque punto di γ meno di η di fatto sono in Ω. La mappa φ è
continua sul compatto [0, 1], quindi è uniformemente continua: esiste quindi una partizione
t0 = a < t1 < · · · < tk = b tale che ∥φ(ti+i ) − φ(ti )∥ ≤ η per ogni i = 0, . . . , k. Come curva
poligonale possiamo quindi prendere quella che interpola i punti (ti , φ(ti )) con i = 0, . . . , k,
(perché ogni punto del segmento tra (ti , φ(ti )) e (ti+1 , φ(ti+1 )) dista da (ti , φ(ti )) al più
η e quindi sono in Ω). Inoltre, visto che le poligonali sono composte da segmenti che in
quanto tali hanno solo un numero finito di direzioni possibili, è chiaro che esse contengono
solo un numero finito di cicli, che possono essere esclusi dalla poligonale, producendo così
una poligonale di tipo semplice. Infine, è possibile convertire questa poligonale semplice in
una curva semplice e regolare modificandola in prossimità dei punti di vertice, ad esempio
aggiungendo un arco di circonferenza tangente ai due segmenti concorrenti in esso e di
raggio sufficientemente piccolo per non intersecare gli altri segmenti.

Osservazione 4.1.8. Vale anche il viceversa: se Ω ⊆ Rn è aperto e connesso per archi, allora
è anche connesso. Infatti, supponiamo non lo sia, e che quindi esistano due aperti A, B ⊆ Ω
non vuoti e tali che A ∪ B = Ω. Prendiamo un p ∈ A ed un q ∈ B. Per ipotesi esiste una
curva φ : [0, 1] → Ω con φ(0) = p e φ(1) = q. Essendo una curva, la funzione φ è continua,
quindi gli insiemi φ(A)−1 e φ(B)−1 (le controimmagini di A e B) sono aperti. Essi sono
anche non vuoti (perché contengono rispettivamente 0 e 1), e la loro unione è [0, 1] visto
che φ è a valori in Ω = A ∪ B. Ma allora abbiamo scomposto [0, 1] in unione di due aperti
non vuoti disgiunti, cosa che è impossibile perché sappiamo che [0, 1] è connesso.
Osservazione 4.1.9. L’equivalenza di connessione e connessione per archi può cadere se
l’insieme non è aperto. Ad esempio l’insieme

Ω := {(x, y) ∈ R2 : x ∈ (0, 1], y = sin(1/x)} ∪ {(0, y) ∈ R2 : y ∈ [−1, 1]}

è connesso ma non connesso per archi.


1
La distanza tra due insiemi U, V ⊆ Rn è definita come inf{∥u − v∥ : u ∈ U, v ∈ V }; è noto che qualora
essi disgiunti con U compatto e V chiuso allora la distanza è positiva.
94 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

Osservazione 4.1.10. I convessi sono connessi per archi (si scelga il segmento che unisce
due punti).

Definizione 4.1.11. Ω è detto stellato quando esiste p ∈ Ω con la seguente proprietà:


comunque si prenda q ∈ Ω, il segmento pq ∈ Ω.

In tal caso p è detto centro di Ω. In base alle rispettive definizioni quindi si ha che ogni
convesso è anche stellato ed ogni stellato è anche connesso per archi, ovvero

{Convessi} ⊆ {Stellati} ⊆ {Connessi per archi}.

Esempio 4.1.12. Esistono domini che sono aperti, stellati ed hanno un unico centro. Ad
esempio Ω := R2 \[{(x, 0) ∈ R2 , |x| ≥ 1} ∪ {(0, y) ∈ R2 , |y| ≥ 1}] ha come unico centro il
punto (0, 0).

Curiosità: Se Ω è stellato l’insieme dei suoi centri è convesso.

4.2 Campi vettoriali e forme differenziali


Sia Ω ⊆ Rn un aperto. Ad ogni p ∈ Ω è associato lo spazio Ep (delle frecce uscenti da p) e
lo spazio Ep∗ : il duale vettoriale di Ep (ovvero l’insieme dei funzionali lineari su Ep ).

Definizione 4.2.1. Chiamiamo campo vettoriale su Ω ogni mappa che associa ad ogni
x ∈ Ω un elemento di Ex ; chiamiamo forma differenziale su Ω ogni mappa che associa ad
x ∈ Ω un elemento di Ex∗ .

Per ogni scelta del punto p, lo spazio Ep è euclideo, ovvero supporta un prodotto scalare
⟨·, ·⟩ definito positivo. Ciò significa che dato un campo vettoriale F si può sempre costruire
4.2. CAMPI VETTORIALI E FORME DIFFERENZIALI 95

una forma differenziale prendendo in ogni p il prodotto scalare (in Ep ) con il vettore F (p),
secondo la formula

F → ωF ωF (p) := ⟨F (p), ·⟩p ∀p ∈ Ω.

Il fatto che il prodotto scalare sia definito positivo consente di procedere anche nell’altra
direzione. L’isomorfismo di Riesz2 tra Ep∗ ed Ep consente infatti di associare ad ogni fun-
zionale in Ep∗ un vettore di Ep così che data una forma differenziale ω esiste un campo F
tale che
ω → Fω Fω tale che ω(p) = ⟨Fω (p), ·⟩p ∀p ∈ Ω.
Le due costruzioni inoltre sono inverse una dell’altra. Usare campi o forme è quindi del
tutto equivalente3 .
C’è un modo “canonico” per produrre un campo vettoriale e una forma differenziale a
partire da una funzione f : Ω → R di classe C 1 .
Sia x ∈ Ω fissato. La mappa v ∈ Ex → (Dv f )(x) che associa ad ogni v ∈ Ex la derivata di
f in x lungo v dipende da v linearmente, poiché f è per ipotesi differenziabile in x. Essa
quindi è un elemento di Ex∗ e viene solitamente indicata con il simbolo ( df )(x). Al variare
di x ∈ Ω questa definisce quindi una forma differenziale su Ω che è chiamata il differenziale
di f .
Il campo vettoriale associato a questa forma (tramite l’isomorfismo di Riesz di cui sopra)
è per definizione quel campo vettoriale F che in x ∈ Ω dà quel vettore F (x) di Ex che
garantisce l’identità ⟨F (x), v⟩ = ( df )(x)(v) = (Dv f )(x). Visto che f è per ipotesi C 1 il
vettore F (x) è di fatto (∇f )(x), il gradiente di f in x.
Le forme differenziali ed i campi vettoriali appena costruiti sono più che dei semplici esempi,
e anzi costituiscono un punto fondamentale per la teoria che stiamo indagando. Non stupirà
quindi l’esistenza di una nomenclatura specifica per questa situazione.

Definizione 4.2.2. Un campo vettoriale F è detto conservativo su Ω se esiste f : Ω → R


di classe C 1 con F = ∇f . Una forma differenziale ω è detta esatta su Ω se esiste f : Ω → R
di classe C 1 con ω = df . In entrambi i casi f è detto potenziale (o primitiva) per F (o
per ω).

Osservazione 4.2.3. Il potenziale può non esistere, ma quando esiste non è mai unico:
questo accade perché qualunque sia il valore di una costante c ∈ R si ha ∇(f + c) = ∇f (e
2
Si tratta di un importante teorema che afferma l’esistenza di un isomorfismo canonico tra uno spazio
vettoriale ed il suo duale quando lo spazio supporta un prodotto scalare non degenere. Per spazi finiti
dimensionali esso discende dal seguente argomento. Sia V uno spazio vettoriale reale finito dimensionale
e sia V ∗ il suo duale. Supponiamo che in V sia definito una mappa ⟨·, ·⟩ : V × V → R che sia bilineare
(ovvero lineare in ogni argomento) e non degenere nel primo argomento, ovvero tale che l’unico v ∈ V per
il quale si abbia ⟨v, w⟩ = 0 per ogni w ∈ V è lo 0. Allora ad ogni v ∈ V si può associare il funzionale
φv ∈ V ∗ definito da φv (w) := ⟨v, w⟩. Che si tratti di un funzionale discende dal fatto che la mappa ⟨·, ·⟩ è
per ipotesi lineare nel secondo argomento. La mappa v 7→ φv è quindi una mappa da V a V ∗ . Tale mappa
è a sua volta lineare (questa volta perché ⟨·, ·⟩ è lineare nella prima variabile). Questa mappa è iniettiva,
in conseguenza della ipotesi di non degenericità dei ⟨·, ·⟩. Visto che V e V ∗ hanno la stessa dimensione, ne
segue che di fatto la mappa è anche suriettiva, ovvero che ogni funzionale ϕ è della forma φv per qualche
v ∈ V . Nel caso degli spazi Ep si può usare il prodotto scalare quale mappa ⟨·, ·⟩: il fatto che sia non
degenere segue immediatamente dal fatto che in tal caso ⟨v, v⟩ = ∥v∥2 .
3
Ma solo nella situazione attuale in cui Ω è un aperto di Rn . Quando queste costruzioni verranno
estese a varietà differenziali si troverà che non sempre è possibile procedere a questa identificazione, poiché
non sempre esiste un prodotto scalare euclideo sullo spazio tangente, o non sempre questo dipende con
continuità dal punto.
96 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

d(f + c) = df ). D’altra parte è evidente che se f e f˜ sono due potenziali per il medesimo
campo allora ∇(f − f˜) = 0. Quindi i potenziali sono unici a meno di funzioni C 1 (Ω) a
gradiente identicamente 0. Ciò porta a studiare l’insieme

V0 (Ω) := {g ∈ C 1 (Ω) : ∇g = 0}.

Rispetto alle operazioni puntuali esso è evidentemente uno spazio vettoriale su R, di cui
vogliamo calcolare la dimensione. L’insieme Ω è aperto, così le sue componenti connesse
sono esse stesse aperte e in quantità al più numerabile4 . Il fatto di avere gradiente nullo forza
ogni funzione di V0 (Ω) ad essere costante sulle componenti connesse di Ω5 . Sia {Cj }j∈J
l’elenco delle componenti connesse di Ω. Sia g ∈P V0 (Ω). Allora esistono numeri cj (uno
per ogni componente connessa) tali che g(x) = j∈J cj χCj (x), dove χCj è la funzione
caratteristica di Cj . Si osservi che questa rappresentazione è corretta anche qualora esistano
infinite componenti connesse e quindi la somma sia in realtà una serie, perché per ogni
valore fissato di x esiste al più un solo addendo della serie che è diverso da 0. D’altra parte
le funzioni χCj sono esse stesse funzioni di V0 (Ω), tra loro linearmente indipendenti. Questo
dimostra che la dimensione di V0 (Ω) è uguale a J, ovvero che

dim V0 (Ω) = #{Componenti connesse in Ω}.

4.2.1 Notazione
Per Ω ⊆ Rn indichiamo con:

• ∂xi (o ∂i ) il campo vettoriale definito da ∂xi := versore ei di Ep che è parallelo ad ei di


Rn

p
e2 ∂1 (p)
e1
x

• dxi la forma differenziale ottenuta differenziando la funzione che dà la i-esima coordinata


(quindi il differenziale della proiezione sulla i-esima direzione). Le forme dxi con i =
4
Per la dimostrazione di questa tesi rimandiamo ai testi di topologia generale.
5
Detto in altri termini, sia f : D ⊆ Rn → R, D aperto e connesso, e f in C 1 (D) con ∇f = 0. Allora f è
costante.

Dimostrazione. Prendiamo x0 ∈ D scelto ad arbitrio ma fissato. Sia A := {x ∈ D : f (x) = f (x0 )}.


Chiaramente A non è vuoto, visto che x0 gli appartiene. Dimostriamo che A è aperto. Infatti, sia y in A
e sia Bϵ (y) la bolla aperta di centro y e raggio ϵ > 0 sufficientemente piccolo perché si abbia Bϵ (y) ⊆ D:
tale bolla esiste perché D è aperto. La bolla Bϵ (y) è un insieme convesso ed ∇f = 0 per ipotesi, quindi
per il teorema di Lagrange (usato lungo i raggi) la funzione f è costante in Bϵ (y). Questo dimostra che
Bϵ (y) ⊆ A, ovvero che A è effettivamente aperto. D’altra parte anche D\A è aperto. Infatti questo è
{x ∈ D : f (x) ̸= f (x0 )} = f −1 (R\{f (x0 )}) che è aperto visto che f è continua. Dunque A ed D\A sono
entrambi aperti, ed A è non vuoto: visto che D è connesso concludiamo che A = D, ovvero che f è costante
in D.
4.2. CAMPI VETTORIALI E FORME DIFFERENZIALI 97

1, . . . , n ed i campi ∂xi con i = 1, . . . , n quando vengono valutati in un punto p danno


basi di Ep∗ ed Ep che sono duali una dell’altra, poiché esse soddisfano la relazione
(
1 se j = i
( dxi )(p)(∂j (p)) =
0 se j ̸= i.

Il generico campo vettoriale sarà quindi scritto

F = a1 ∂1 + a2 ∂2 + · · · + an ∂n ,

la generica forma differenziale sarà

ω = a1 dx1 + a2 dx2 + · · · + an dxn ,

per opportune funzioni a1 . . . , an : Ω → R. Se così rappresentato, F (o ω) è poi detto di


classe C k (Ω) quando a1 , . . . , an sono C k (Ω).
Esempio 4.2.4. In R2 prendiamo il campo F (x, y) := (3x − y)∂x + (7x2 − 9y)∂y e la forma
ω(x, y)=(4−2x) dx+(5−xy) dy. Allora ω(x, y)(F (x, y))=(4−2x)(3x−y)+(5−xy)(7x2 −9y).
Inoltre F è conservativa (in Ω) se e solo se esiste f ∈ C 1 (Ω) tale che

∂f
 ∂x1 (x) = a1 (x)

..

. ∀x ∈ Ω.

 ∂f (x) = a (x)

∂xn n

Analogamente ω è esatta se e solo se esiste f ∈ C 1 (Ω) tale che



∂f
 ∂x1 (x) = a1 (x)


..
. ∀x ∈ Ω.

 ∂f (x) = a (x)

∂xn n

4.2.2 Integrazione di forme/campi lungo curve


Sia ω = a1 dx1 +a2 dx2 +· · ·+an dxn una forma differenziale continua su Ω, sia φ : [a, b] → Ω
una curva in Ω regolare a tratti, orientata e con sostegno γ. Si pone
Z n
Z X n
Z bX
ω := ai (x) dxi := ai (φ(t)) · φ′i (t) dt.
γ γ i=1 a i=1

Se F = a1 ∂1 + a2 ∂2 + · · · + an ∂n è un campo vettoriale analogamente si pone


Z Z n
Z bX
F · ds := ⟨F, ds⟩ := ai (φ(t)) · φ′i (t) dt.
γ γ a i=1

R
Osservazione 4.2.5. L’integrale γ F · ds è anche chiamato lavoro di F lungo il cammino γ.
Osservazione 4.2.6. Le due
R definizioni
R sono coerenti, nel senso che se ω è la forma associata
ad F (o viceversa) allora γ ω = γ F · ds.
98 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

.
Osservazione 4.2.7. L’integrale appena definito è ∼ invariante: se φ̃ è una diversa parame-
trizzazione di γ (ma con la stessa orientazione), l’integrale calcolato con φ̃ o con φ danno
lo stesso valore. Tuttavia non è ∼ invariante, infatti
Z Z
ω = − ω,
−γ γ

ovvero cambiando l’orientazione l’integrale inverte il segno.


Osservazione 4.2.8. L’integrale è “γ-additivo” ovvero vale la seguente identità
Z Z Z
ω= ω+ ω
γ1 +γ2 γ1 γ2

purché γ1 + γ2 sia definito, orientato e C 1 a tratti.

4.2.3 Condizioni di esattezza


La seguente proposizione spiega perché la nozione di campo conservativo / forma esatta
sia interessante, e quale sia il legame con l’integrale definito.
Proposizione 4.2.9. Sia Ω aperto connesso e ω = a1 dx1 + a2 dx2 + · · · + an dxn una
forma differenziale continua in Ω. Allora le seguenti proprietà sono equivalenti:
i. ω è esatta;
R
ii. Siano p e q punti qualunque in Ω, allora l’integrale pγq ω, dove γ è (il sostegno di)
una qualunque curva regolare a tratti e orientata da p a q, non dipende dalla scelta
di γ;
R
iii. Per ogni curva γ in Ω che sia regolare a tratti e chiusa si ha γ ω = 0.
Osservazione 4.2.10. L’ipotesi di Ω aperto e connesso garantisce Ω connesso per archi, così
dati p e q esiste sicuramente almeno una curva (regolare a tratti) pγq che li connette.
OsservazioneR 4.2.11. La proposizione mostra che l’esattezza di ω equivale alla possibilità
di calcolare pγq ω con p e q fissati senza dover scegliere quale sia la curva γ che li connette:
è questa proprietà che rende particolarmente utile la nozione di esattezza anche in contesti
puramente applicativi.
Osservazione 4.2.12. La Proposizione 4.2.9 è formulata in termini di forme differenziali; in
termini di campi vettoriali essa suona così: un campo vettoriale F continuo è conservativo
in Ω se e solo se il lavoro di F da p e q lungo ogni cammino γ in Ω non dipende da γ.

Dimostrazione.
i. =⇒ ii. Supponiamo che ω sia esatta e che quindi ω sia df con f ∈ C 1 (Ω). Allora se
φ : [a, b] → Ω è la curva (C 1 a tratti, orientata) da p a q si ha
Z n
Z bX n
Z bX Z b
∂f d
ai (φ(t))φ′i (t) dt ′

ω= = (φ(t))φi (t) dt = f (φ(t)) dt
pγq a i=1 a ∂xi a dt
i=1
= f (φ(b)) − f (φ(a)) = f (q) − f (p)

che quindi non dipende da γ.


ii. =⇒ iii. Sia γ una curva chiusa orientata. Prendiamo p e q su γ e spezziamo γ come
4.2. CAMPI VETTORIALI E FORME DIFFERENZIALI 99

γ1 + γ2 dove γ1 va da p a q e γ2 da q a p, scegliendo una orientazione compatibile con


quella di γ. Allora
Z Z Z Z Z Z
ω= ω= ω+ ω= ω− ω=0
γ γ1 +γ2 γ1 γ2 γ1 −γ2

perché sia γ1 sia −γ2 vanno da p a q e stiamo assumendo ii.


iii. =⇒ ii. Se γ1 a γ2 vanno da p a q allora γ1 + (−γ2 ) è chiusa ed orientata, quindi
Z Z Z Z Z
ω− ω= ω+ ω= ω = 0.
γ1 γ2 γ1 −γ2 γ1 +(−γ2 )
R
ii. =⇒ i. Sia p ∈ Ω fissato (ad arbitrio, ma fissato). Sia f (x) := pγx ω dove γ è una
qualunque curva (regolare a tratti, orientata) che collega p ad x in Ω: γ esiste perché Ω è
connesso per archi. La funzione f è ben definita in Ω, perché ii. mostra che f (x) dipende
solo da x e non dalla scelta di γ. Mostriamo che f è un potenziale per ω: questo implica
che ω è esatta.
Sia x0 ∈ Ω preso ad arbitrio ma fissato. Sia h ̸= 0 e abbastanza piccolo perché x0 + he1
sia anch’esso in Ω (ciò è possibile perché Ω è aperto). Allora f (x0 + he1 ) è per definizione
l’integrale lungo qualunque cammino che colleghi p con x0 + he1 ∈ Ω. Come cammino
prendiamo γ+ il segmento [x0 , x0 + he1 ].

x Ω x he1 Ω

γ γ
p p

Così
Z Z Z  1Z
1  1
f (x0 + he1 ) − f (x0 ) = ω+ ω− ω = ω.
h h pγx0 [x0 ,x0 +he1 ] pγx0 h [x0 ,x0 +he1 ]

Come parametrizzazione del segmento prendiamo

φ(t) = x0 + te1 t : 0 → h.

Allora φ′ (t) = e1 quindi


Z n Z n
1X Z h
1 X 1 1
ai (w) dwi = ai (x0 + te1 ) · (e1 )i dt = a1 (x0 + te1 ) dt.
h [x0 ,x0 +he1 ] i=1 h 0 h 0
i=1

Ma a1 è continua, quindi per il teorema del valor medio integrale questo è

= a1 (x0 + ξe1 )

per un certo ξ tra 0 ed h. Se h → 0 allora ξ → 0 ed a1 (x0 + ξe1 ) → a1 (x0 ) perché a1 è


continua, quindi
1 
lim f (x0 + he1 ) − f (x0 ) esiste e vale a1 (x0 ).
h→0 h
100 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

∂f
Visto che x0 è arbitrario, questo dimostra che ∂x 1
f (x) esiste in ogni x ∈ Ω e coincide con
a1 (x), ed è una funzione continua di x, poiché a1 lo è per ipotesi. Lo stesso argomento può
essere ripetuto per ogni altra direzione, quindi f ∈ C 1 (Ω) e il suo differenziale coincide con
ω.

Proposizione 4.2.13. Sia Ω aperto connesso e ω = a1 dx1 + a2 dx2 + · · · + an dxn una


forma differenziale continua in Ω. Allora ω èR esatta se e solo se per ogni curva semplice γ
in Ω che sia regolare a tratti e chiusa si ha γ ω = 0.

La tesi di questa proposizione è molto simile alla precedente, ma ora le curve su cui si esegue
il test sono solo quelle semplici: in seguito incontreremo una situazione in cui questo fatto
costituisce una notevole semplificazione.
Supponiamo
R che ω sia esatta. Dalla proposizione 4.2.9 sappiamo che questo garantisce che
γ ω = 0 per ogni curva regolare (a tratti) e chiusa, quindi, e a maggior ragione, lo stesso vale
R
anche per le curve che oltre a ciò sono pure semplici. Viceversa, supponiamo che γ ω = 0
per ogni curva chiusa, semplice e regolare a tratti. Se riuscissimo a dimostrare che da ciò
segue l’analoga tesi per tutte le curve chiuse e regolari a tratti, allora potremmo dedurre
la esattezza di ω dalla 4.2.9[iii]. Purtroppo una dimostrazione diretta di questo fatto è
parecchio complicata, poiché essa è possibile solo se si dispone di un qualche strumento
che consenta di dimostrare che ogni curva chiusa è decomponibile in un numero finito di
curve chiuse semplici: l’intuizione è in effetti corretta se per decomposizione si intende
‘concatenazione di curve a meno di omotopia’ (vd. la definizione di omotopia data nella
sezione seguente), ma questa via si rivela più complessa del necessario. Dati gli strumenti
di cui disponiamo conviene invece procedere nel modo seguente.

Dimostrazione. Sia p ∈ Ω fissato (ad arbitrio, ma fissato). Sia x anch’esso in Ω. Dal


Teorema 4.1.7 sappiamo di poter connettere p con x con una poligonale semplice. Siano
pγ1 x e pγ2 x due di tali poligonali. La curva chiusa pγ1 x+pγ2 x è quindi anch’essa poligonale
ed è facile rendersi conto che ogni poligonale chiusa è scrivibile come concatenazione di
poligonali chiuse e semplici (è appunto questo il motivo per cui ora scegliamo cammini
poligonali). Dalla ipotesi di nullità dell’integrale lungo curve semplici e chiuse ed alla
additività dell’integrale lungo curve regolari a tratti, si deduce che
Z
ω=0
pγ1 x+pγ2 x

ovvero che Z Z
ω= ω.
pγ1 x pγ2 x
R
Questo mostra che la funzione f (x) := pγx ω dove γ è una qualunque poligonale che collega
p ad x in Ω è ben definita. Ora che questo scoglio è superato, si procedere dimostrando che
f è un potenziale per ω con gli stessi identici passaggi già impiegati nella dimostrazione
della implicazione ii. =⇒ i. della Proposizione 4.2.9.

Le tesi appena dimostrate spiegano l’interesse per la proprietà di conservatività del campo
vettoriale (o esattezza della forma), ma forniscono uno strumento decisamente pocoRagevole
per dimostrare queste proprietà: in effetti, come possiamo realmente verificare che γ ω = 0
per ogni curva chiusa od anche solo ogni curva chiusa semplice? La seguente proprietà
mostra una conseguenza della esattezza e quindi è un utile criterio necessario.
4.2. CAMPI VETTORIALI E FORME DIFFERENZIALI 101

Definizione 4.2.14. Sia Ω un aperto in Rn . Sia F = a1 ∂1 +· · ·+an ∂n un campo vettoriale


su Ω, di classe C 1 (Ω). Il campo F è detto irrotazionale in Ω quando

∂aj ∂ai
(x) = (x) ∀x ∈ Ω, ∀i, j = 1, . . . , n.
∂xi ∂xj

Analogamente, sia data una forma differenziale ω = a1 dx1 + · · · + an dxn su Ω e di classe


C 1 (Ω). La forma ω è detta chiusa in Ω quando

∂aj ∂ai
(x) = (x) ∀x ∈ Ω, ∀i, j = 1, . . . , n.
∂xi ∂xj

Teorema 4.2.15. Sia Ω aperto e F campo vettoriale su Ω di classe C 1 (Ω). Se F è con-


servativo allora F è irrotazionale. Analogamente sia ω una forma differenziale di classe
C 1 (Ω); se ω è esatta allora è chiusa.

Dimostrazione. Diamo la dimostrazione della tesi per i campi; quella per le forme è dimo-
strata in modo analogo. Per ipotesi F = a1 ∂1 + · · · + an ∂n con aj ∈ C 1 (Ω) e F è, sempre
per ipotesi, esatta. Quindi esiste f : Ω → R, f ∈ C 1 (Ω) con F = ∇f . Così

∂f
aj = ∀j.
∂xj

Visto che aj ∈ C 1 (Ω) allora f ∈ C 2 (Ω), e così le derivate seconde di f possono essere
scambiate, dando l’identità

∂aj ∂ ∂f ∂ ∂f ∂ai
= = = .
∂xi ∂xi ∂xj ∂xj ∂xi ∂xj

−y x
Esempio 4.2.16. (vortice) Sia F (x, y) := ∂
x2 +y 2 x
+ ∂ ,
x2 +y 2 y
cui è associata la forma
differenziale equivalente
1
ω(x, y) := (−y dx + x dy).
x2 + y2

Tale campo è irrotazionale (ovvero la forma è chiusa) perché

∂  −y  y 2 − x2 ∂ x 
= = .
∂y x2 + y 2 (x2 + y 2 )2 ∂x x2 + y 2

Il campo F non è però conservativo (ovvero la forma non è esatta): infatti se con γ
indichiamo la circonferenza di raggio 1 percorsa in senso antiorario, si ha

φ(t) = (cos t, sin t) t : 0 → 2π


Z 2π Z 2π
−y dx + x dy
Z Z

ω= = − sin t d(cos t) + cos t d(sin t) = 1 dt = 2π.
γ γ x2 + y 2 0 0

Se F fosse conservativo l’integrale appena calcolato dovrebbe però valere 0, visto che γ è
curva regolare e chiusa.
102 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

Il lavoro del campo vettoriale x2−y x


∂ + x2 +y
+y 2 x 2 ∂y

lungo una circonferenza attorno a (0, 0) non è


x nullo visto che il campo stesso ruota attorno tale
punto.

La irrotazionalità per campi vettoriali o la chiusura per le forme differenziali non sono
quindi condizioni sufficienti per l’essere conservativi o esatte. Dato Ω aperto siano:

V1c (Ω) := {forme ω ∈ C 1 (Ω), chiuse},


V1e (Ω) := {forme ω ∈ C 1 (Ω), esatte}.

V1c (Ω) è spazio vettoriale, perché se ω e ω̃ sono forme chiuse e λ ∈ R, anche ω + λω̃ lo è
visto che
∂ ∂ai ∂ãi
(ai + λãi ) = +λ .
∂xj ∂xj ∂xj

Anche V1e (Ω) è uno spazio vettoriale perché se ω = df e ω̃ = df˜ e λ ∈ R, allora


ω + λω̃ = d(f + λf˜).
Inoltre il Teorema 4.2.15 mostra che V1e (Ω) è un sottoinsieme di V1c (Ω), e visto che le ope-
razioni che eseguiamo su V1e (Ω) sono le stesse di quelle che esso eredita come sottoinsieme
di V1c (Ω), di fatto V1e (Ω) è un sottospazio di V1c (Ω). Questo suggerisce l’introduzione dello
spazio quoziente:
c
V1 (Ω) := V1 (Ω)⧸V e (Ω).
1

Esso misura quanto l’insieme delle forme chiuse “disti” da quello delle esatte, visto che ogni
forma chiusa è anche esatta se e solo se il quoziente V1c (Ω) coincide con V1e (Ω), ovvero se
e solo se V1 (Ω) è banale (e quindi ha dimensione 0).
L’esempio del vortice mostra che per Ω = R2 \{(0, 0)} si ha V1c (Ω) ̸= V1e (Ω), ovvero in
questo caso il loro quoziente V1 (Ω) non è banale e quindi ha dimensione ≥ 1. Con l’aiuto
del (difficile) Teorema 4.3.13 di Jordan verificheremo nel Teorema 4.3.15 che la dimensione
è proprio 1.
Ovviamente le stesse considerazioni possono essere fatte per l’insieme dei campi irrotazio-
nali e conservativi.
Il Teorema 4.2.18 seguente è fondamentale, ma per dimostrarlo abbiamo prima bisogno del
seguente risultato.

Lemma 4.2.17 (Derivazione sotto segno di integrale). Sia f : Ω × [a, b] → R, con Ω aperto
di R. Sia x0 ∈ Ω e supponiamo che esista U(x0 ), intorno aperto di x0 , tale che:

• f è continua in U(x0 ) × [a, b],


∂f
• ∂x esiste in U(x0 ) × [a, b] ed è continua in U(x0 ) × [a, b].
4.2. CAMPI VETTORIALI E FORME DIFFERENZIALI 103

Allora la funzione
Z b
F (x) := f (x, t) dt
a
è derivabile in x0 e Z b
dF ∂f
(x0 ) = (x0 , t) dt.
dx a ∂x
Dimostrazione. Sia h ̸= 0 e sufficientemente piccolo perché x0 + h sia comunque in U(x0 ).
Allora
1h b
Z Z b i Z b 1
1 
[F (x0 +h)−F (x0 )] = f (x0 +h, t) dt− f (x0 , t) dt = f (x0 +h, t)−f (x0 , t) dt.
h h a a a h

Per dimostrare la tesi basta dimostrare che è lecito scrivere che


Z b Z b
1  1 
lim f (x0 + h, t) − f (x0 , t) dt = lim f (x0 + h, t) − f (x0 , t) dt (4.1)
h→0 a h a h→0 h

perché se questa identità è corretta, allora si ha


Z b
1 1 
lim [F (x0 + h) − F (x0 )] = lim f (x0 + h, t) − f (x0 , t) dt
h→0 h a h→0 h
Rb
e per ipotesi il lato destro coincide con a ∂f ∂x (x0 , t) dt, verificando così sia l’esistenza del
limite a sinistra (quindi la derivabilità di F in x0 ), sia la formula per la derivata.
Per dimostrare la (4.1) basta dimostrare la tesi sulle sequenze infinitesime, ovvero che per
ogni sequenza hn che tende a 0 si ha
Z b Z b
1   1  
lim f (x0 + hn , t) − f (x0 , t) dt = lim f (x0 + hn , t) − f (x0 , t) dt; (4.2)
n→∞ a hn a n→∞ hn

questo perché in R (in realtà negli spazi metrici) la convergenza equivale alla convergenza
per successioni. Per dimostrare la (4.2) poniamo
1  
gn (t) := f (x0 + hn , t) − f (x0 , t)
hn

ed osserviamo che la successione gn tende puntualmente in [a, b] alla funzione ∂f ∂x (x0 , ·),
ovvero che
∂f
lim gn (t) = (x0 , t) ∀t ∈ [a, b].
n→∞ ∂x
La (4.2) quindi seguirà immediatamente dai soliti teoremi di passaggio al limite sotto il
segno integrale se riusciremo a dimostrare che la convergenza di gn a quella funzione è in
realtà uniforme in [a, b]. Questo è appunto ciò che ci accingiamo a fare. Come vedremo,
essa è conseguenza della ipotesi di continuità di ∂f ∂x in U(x0 ) × [a, b].
Sia η > 0 abbastanza piccolo perché [x0 −η, x0 +η] ⊆ U(x0 ). L’insieme [x0 −η, x0 +η]×[a, b]
è un compatto e la funzione ∂f ∂x è continua, quindi è qui uniformemente continua. Così per
ogni ϵ > 0 esiste δ = δ(ϵ) > 0 tale che
(
∥(x1 , t1 ) − (x2 , t2 )∥2 ≤ δ ∂f ∂f
=⇒ (x1 , t1 ) − (x2 , t2 ) ≤ ϵ. (4.3)

(x1 , t1 ), (x2 , t2 ) ∈ [x0 − η, x0 + η] × [a, b] ∂x ∂x
104 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

Sia allora ϵ > 0 fissato, e sia δ come sopra. Per il teorema di Lagrange applicato alla
funzione f (·, t) esiste θ = θ(n, ϵ, δ, t) tale che
1   ∂f
gn (t) = f (x0 + hn , t) − f (x0 , t) = (x0 + θ, t),
hn ∂x
con θ che sta tra 0 ed hn (quindi θ cambia valore al variare di n, ϵ, δ e t, ma sempre
restando |θ| ≤ |hn |).
Sia N = N (ϵ) > 0 abbastanza grande perché sia |hn | ≤ min(η, δ) per n ≥ N : tale N
esiste sicuramente visto che per ipotesi hn → 0 quando n diverge. Per questi n allora si ha
|θ| ≤ |hn | ≤ min(η, δ), e quindi i punti (x0 + θ, t) ed (x0 , t) soddisfano le ipotesi di (4.3)
per qualunque scelta di t ∈ [a, b], quindi da (4.3) si ha
∂f ∂f ∂f
gn (t) − (x0 , t) = (x0 + θ, t) − (x0 , t) ≤ ϵ ∀t ∈ [a, b].

∂x ∂x ∂x
Ovvero, prendendo l’estremo superiore di questa espressione, concludiamo che
∂f
gn − (x0 , ·) ≤ ϵ.

∂x ∞,[a,b]

Abbiamo quindi dimostrato che per ogni ϵ > 0 esiste un N = N (ϵ) tale che se n ≥ N
allora gn − ∂x (x0 , ·) ∞,[a,b] ≤ ϵ, ovvero che la convergenza di gn ad ∂f
∂f

∂x (x0 , ·) è uniforme

in [a, b].

Teorema 4.2.18 (Lemma di Poincaré). Sia Ω ⊆ Rn aperto e stellato. Sia poi ω una forma
differenziale di classe C 1 (Ω). Se ω è chiusa in Ω allora è anche esatta in Ω.
Osservazione 4.2.19. Ovviamente esiste il teorema gemello per i campi vettoriali.
Osservazione 4.2.20. Il teorema mostra che un’informazione sulla topologia di Ω rende la
chiusura una condizione sufficiente per l’esattezza.
Osservazione 4.2.21. Ogni bolla aperta è convessa quindi stellata. Ne segue che le forme
chiuse sono sempre localmente esatte (ma purtroppo l’esattezza locale non implica quella
globale, come sappiamo dall’esistenza della forma ‘vortice’).
Osservazione 4.2.22. Il teorema può essere enunciato anche dicendo che se Ω è stellato
allora V1c (Ω) = V1e (Ω) ovvero il loro quoziente V1 (Ω) è banale.

Dimostrazione. Sia ω = nj=1 aj dxj la scrittura di ω. Ω è stellato per ipotesi, sia quindi
P
p uno dei suoi centri (quale non importa). Sia x ∈ Ω. Il segmento px giace interamente in
Ω. Il segmento è parametrizzato da φ : [0, 1], φ(t) = p + t(x − p) con t che varia da 0 ad 1
per rispettare l’orientazione sul segmento, che vogliamo sia da p ad x. Sia
Z Z X n Z 1X n
f (x) := ω= aj (x) dxj = aj (p + t(x − p))(xj − pj ) dt.
px px j=1 0 j=1

La funzione f è ben definita perché il segmento px è in Ω e le aj sono continue (si osservi


che si è usato φ′j = (x − p)j = coordinata j-esima di x − p = xj − pj ).
∂f
Dimostriamo la tesi mostrando che f è un potenziale per ω. Infatti consideriamo ∂x 1
: per
il lemma di derivazione sotto il segno di integrale abbiamo
Z 1X n
∂f ∂
= aj (p + t(x − p))(xj − pj ) dt
∂x1 ∂x1 0
j=1
4.3. OMOTOPÌE 105

Z 1 n
∂ hX i
= aj (p + t(x − p))(xj − pj ) dt
0 ∂x1
j=1
Z 1h n
X ∂aj i
= t (p + t(x − p))(xj − pj ) + a1 (p + t(x − p)) dt.
0 ∂x1
j=1

∂aj ∂a1
Per ipotesi ω è chiusa, quindi ∂x1 = ∂xj per ogni j così che questa espressione è anche
uguale a
Z 1h n
X ∂a1 i
= t (p + t(x − p))(xj − pj ) + a1 (p + t(x − p)) dt
0 ∂xj
j=1
Z 1
d  t=1
= t · a1 (p + t(x − p)) dt = t · a1 (p + t(x − p)) = a1 (x).

0 dt t=0

∂f ∂f
Lo stesso calcolo può essere ripetuto per ∂x2
, . . . , ∂xn
, verificando così che ω = df (con f
1
di classe C visto che ω è continua) ovvero che ω è esatta e che f ne è un potenziale.

In base al lemma precedente, quindi, se Ω è stellato si ha V1e (Ω) = V1c (Ω) così che lo spazio
quoziente
c
V1 (Ω) = V1 (Ω)⧸V e (Ω)
1
è in questo caso banale.

4.3 Omotopìe
Ricordiamo la definizione di omotopìa (tra curve in aperti di Rn ).
Definizione 4.3.1. Sia Ω aperto in Rn . Siano p e q ∈ Ω e siano γ0 e γ1 i sostegni di due
curve (regolari a tratti, orientate) da p a q.
γ0 e γ1 sono dette omòtope in Ω con punti p, q fissati se esiste una mappa ψ : [0, 1]×[0, 1] →
Ω, continua, tale che:
i. ψ(0, t), t ∈ [0, 1] parametrizza γ0 ,

ii. ψ(1, t), t ∈ [0, 1] parametrizza γ1 ,

iii. ψ(s, 0) = p per ogni s, e ψ(s, 1) = q per ogni s.


In pratica, γ0 e γ1 sono omòtope in Ω quando è possibile passare da γ0 a γ1 con continuità
restando in Ω mantenendo fissati i punti estremi p e q.

q Ω q Ω

γ0 γ0
γ1 γ1
p p
106 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

Nel caso illustrato dal disegno precedente, la presenza del “buco” tra le due curve impedisce
loro di essere omòtope (a estremi fissi).
Osservazione 4.3.2. La relazione di omotopìa è una relazione di equivalenza.
Teorema 4.3.3 (Invarianza Omotòpica). Sia Ω ⊆ Rn aperto, sia ω = nj=1 aj dxj una
P

forma differenziale chiusa (quindi con ogni aj ∈ C 1 ) su Ω. Siano p e q ∈ Ω (qualunque)


e siano γ0 e γ1 sostegni di curve (regolari a tratti, orientate) da p a q. Se γ0 e γ1 sono
omòtope in Ω con estremi p e q fissi, allora
Z Z
ω= ω.
γ0 γ1

Osservazione 4.3.4. Il teorema non afferma che l’integrale sia 0, neppure nel caso p = q
(curva chiusa), ma “solo” che il valore dell’integrale non cambia quando il cammino è
deformato per omotopìa.

Dimostrazione. Nelle generalità con cui lo abbiamo enunciato il teorema ha una dimostra-
zione abbastanza complicata, con vari passaggi intermedi ed approssimazioni successive,
per le quali demandiamo ai testi di topologia algebrica / geometria differenziale (ad esem-
pio [GH], [M] ed [Sp]). Noi ne diamo una dimostrazione sotto ipotesi più forti sulla mappa
di omotopìa ψ. Precisamente assumiamo che
i. ψ : Ω# → Ω dove Ω# è un aperto che contiene il quadrato [0, 1] × [0, 1],
ii. ψ è C 2 (Ω# ) (quindi non solo continua),
iii. ψ(0, t) : [0, 1] → Ω parametrizza γ0 ,
iv. ψ(1, t) : [0, 1] → Ω parametrizza γ1 ,
v. ψ(s, 0) = p per ogni s, e ψ(s, 1) = q per ogni s.
Le ipotesi che abbiamo rafforzato sono le prime due, chiaramente. Introduciamo la forma
n  ∂ψ
#
X j ∂ψj 
ω (s, t) := aj (ψ(s, t)) ds + dt
∂s ∂t
j=1
n n
X ∂ψj  X ∂ψj 
= aj (ψ(s, t)) ds + aj (ψ(s, t)) dt.
∂s ∂t
j=1 j=1

Osserviamo che ω # è una forma differenziale su Ω# , di classe C 1 (perché la ψ è C 2 ). Senza


ledere di generalità possiamo supporre che Ω# sia convesso (perché Ω# per noi è solo uno
spazio ausiliario, quindi possiamo “rimpicciolirlo” per averlo convesso, e questo è sempre
possibile).

Ω♯
4.3. OMOTOPÌE 107

Verifichiamo che ω # è chiusa. Infatti


n n
∂ hX ∂ψj i X ∂ h ∂ψj i
aj (ψ(s, t)) = aj (ψ(s, t))
∂t ∂s ∂t ∂s
j=1 j=1
n Xn n
X ∂aj ∂ψi ∂ψj X ∂ 2 ψj
= (ψ(s, t)) + aj (ψ(s, t)) .
∂xi ∂t ∂s ∂t∂s
j=1 i=1 j=1

Ora rinominiamo i e j nel primo addendo e visto che ψ è di classe C 2 possiamo scambiare
∂ ∂
∂s e ∂t nel secondo termine, ottenendo

n X
n n
X ∂ai ∂ψj ∂ψi X ∂ 2 ψj
= (ψ(s, t)) + aj (ψ(s, t)) .
∂xj ∂t ∂s ∂s∂t
i=1 j=1 j=1

∂ai ∂aj
Per ipotesi ω è una forma chiusa, quindi ∂xj = ∂xi per ogni coppia di indici i e j, quindi

n X
n n
X ∂aj ∂ψj ∂ψi X ∂ 2 ψj
= (ψ(s, t)) + aj (ψ(s, t))
∂xi ∂t ∂s ∂s∂t
i=1 j=1 j=1
n
∂ hX ∂ψj i
= aj (ψ(s, t)) .
∂s ∂t
j=1

Per costruzione Ω# è convesso quindi ω # è esatta in Ω# , perciò γ ω # = 0 per ogni cammino


R

chiuso γ. In particolare scegliamo come cammino il quadrato [0, 1]×[0, 1] orientato in senso
antiorario. Valutiamo l’integrale sui quattro lati tenendo conto che
Z Z Z Z
# #
ω + ω + ω + ω # = 0.
#
→ ↑ ← ↓

Calcolo di → ω # . Come parametrizzazione del segmento inferiore scegliamo t : 0 7→ 1 e


R

s = 0 (quindi ds = 0), così abbiamo:


Z Z 1Xn Z
∂ψj
ω# = aj (ψ(0, t)) (0, t) dt = ω.
→ 0 ∂t γ0
j=1

Un conto analogo mostra che


Z Z n
0X Z
# ∂ψj
ω = aj (ψ(1, t)) (1, t) dt = − ω.
← 1 j=1 ∂t γ1

#.
R
Calcolo di ↑ω Parametrizziamo con s : 0 7→ 1 e t = 1, ottenendo
Z Z n
1X
# ∂ψj
ω = aj (ψ(s, 1)) (s, 1) ds.
↑ 0 j=1 ∂s

∂ψ
Ma ψ(s, 1) = q per ogni s, quindi ∂s (s, 1) = 0 per ogni s. Questo implica che l’integrale
precedente è in realtà 0, per cui Z
ω # = 0.

108 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

Analogo conto per l’altro segmento verticale ↓. Visto che la somma dei quattro integrali
deve valere 0, i calcoli precedenti mostrano che
Z Z Z Z Z Z Z Z
# # # #
0= ω + ω + ω + ω = ω+0− ω+0= ω− ω,
→ ↑ ← ↓ γ0 γ1 γ0 γ1

che è la tesi.

Definizione 4.3.5. Dato Ω ⊆ Rn aperto, dato p ∈ Ω e dato γ sostegno di una curva da p


a p (quindi chiusa), regolare a tratti in Ω, diciamo che γ è nulla omòtopa in Ω quando è
omòtopa in Ω alla curva costante di sostegno p.

Osservazione 4.3.6. Sia γ il sostegno di una curva chiusa e sia p un qualunque punto di γ.
Allora γ può essere sempre intesa come curva da p a p e se la curva non è costante esistono
quindi molte scelte possibili per il punto p. Questo fa sorgere la seguente domanda: è
possibile che γ sia nullo omòtopa rispetto ad un suo punto p e invece non lo sia rispetto a
qualche altro punto p′ ? In altre parole, la nozione di “curva nullo omòtopa”, che per essere
formulata necessita della scelta di un punto p, dipende o no da tale scelta? La risposta è
negativa: se γ è nullo omòtopa rispetto ad un suo punto allora lo è rispetto a qualunque
altro suo punto. La nozione di nullo omotopia quindi è una proprietà della sola curva, non
della coppia “(curva, punto)”. In realtà vale una proprietà ancora più forte, che tornerà utile
in seguito, nella Osservazione 4.3.10. Sia γ il sostegno di una curva chiusa e sia p un punto
in γ fissato. Sia poi q un punto in Ω (non necessariamente in γ) e supponiamo che esso sia
connesso a p da una curva ρ che immaginiamo vada da q a p. La curva ρ + γ + ρ è una curva
chiusa da q a q. Accade che γ è nullo omòtopa alla curva costante in p se e solo ρ + γ + ρ
è nullo omòtopa alla curva costante in q. Lo verifichiamo costruendo esplicitamente una
omotopia per la seconda in curva usando una omotopia per la prima. Sia dunque φ : [0, 1]
una parametrizzazione di ρ e sia ψ : [0, 1]×[0, 1] la mappa che realizza l’omotopìa (a estremi
costanti, quindi con ψ(s, 0) = ψ(1) = p per ogni s) tra γ (per s = 0) e la curva costante di
sostegno p (per s = 1). Prendiamo la mappa



φ(4t) s ∈ [0, 1/2], t ∈ [0, 1/4]

ψ(2s, 2(t − 1/4)) s ∈ [0, 1/2], t ∈ [1/4, 3/4]
ψ̃(s, t) :=


φ(4(1 − t)) s ∈ [0, 1/2], t ∈ [3/4, 1]

φ(8(s − 1)t(1 − t)) s ∈ [1/2, 1], t ∈ [0, 1]

È facile verificare che ψ̃(0, ·) parametrizza ρ + γ + ρ (rispettivamente per t ∈ [0, 1/4],


t ∈ [1/4, 3/4] e t ∈ [3/4, 1]), che ψ̃(1, ·) parametrizza invece la curva costante di sostegno
q, che ψ̃(s, 0) = ψ̃(s, 1) = q per ogni s. La continuità ψ̃ in [0, 1] × [0, 1] segue poi dalle
continuità di ψ e di ρ (più qualche momento di riflessione).
Qualora q sia un altro punto di γ, quanto appena verificato di fatto implica l’asserita
indipendenza della proprietà di nullo-omotopìa di γ dalla scelta del punto p.
Purtroppo le curve costanti non sono curve regolari a tratti (almeno, non secondo la nostra
definizione di curva regolare, secondo cui una curva è regolare a tratti se e solo se ammette
una parametrizzazione di classe C 1 a tratti con derivata diversa da 0: le costanti non
soddisfano questa ultima condizione). Per procedere abbiamo quindi bisogno della seguente
proprietà.
4.3. OMOTOPÌE 109

Proposizione 4.3.7. Dato Ω ⊆ Rn aperto, dato p ∈ Ω e dato γ sostegno di una curva da


p a p (chiusa), regolare a tratti in Ω. La curva γ è nulla omòtopa in Ω a p se e solo se per
ogni ϵ > 0 e sufficientemente piccolo la curva γ è omòtopa ad una circonferenza passante
per p e di raggio al più ϵ.

La tesi della proposizione è ragionevolmente intuitiva, ed in effetti la sua dimostrazione


formale non è complicata: basta osservare che esiste una bolla B aperta di centro p in Ω
(perché Ω è aperto), che B è stellato con centro p, che usando le omotetìe di centro p è
possibile costruire omotopìe tra le circonferenze di B passanti per p e la curva costante in
p.

Proposizione 4.3.8. Dato Ω ⊆ Rn aperto, sia p ∈ Ω e sia γ una curva chiusa regolare
a tratti, passante per p e nullo omòtopa. Sia poi ω una forma differenziale chiusa in Ω.
Allora Z
ω = 0.
γ

Dimostrazione. Il punto p è in Ω che è un aperto. La bolla aperta Bη (p) di centro p e


raggio η > 0 è quindi contenuta in Ω pur di prendere η sufficientemente piccolo. Sia ora
ϵ > 0 e minore di η/2. Per ipotesi la curva γ è nullo-omòtopa a p, e per la proposizione
precedente questo implica che essa è omòtopa ad una circonferenza Cϵ passante per p e di
raggio ϵ. Dal teorema di invarianza omotopica sappiamo che
Z Z
ω= ω.
γ Cϵ

Ma ω è una forma chiusa in Ω, e quindi lo è anche in Bη (p). D’altra parte Bη (p) è una
bolla, e quindi è un insieme convesso. La forma è quindi esatta in Bη (p) (ma non è detto
lo sia in Ω), per il lemma di Poincaré. La curva Cϵ è chiusa ed è in Bη (p) (poiché abbiamo
assunto ϵ < η/2), quindi Z
ω = 0.

Unito alla uguaglianza precedente questo fatto dà la tesi.

Definizione 4.3.9. Sia Ω aperto connesso. Ω è detto semplicemente connesso quando il


sostegno di ogni curva chiusa in Ω è nulla omòtopa rispetto a qualche punto p della curva
(quindi eventualmente diverso da curva a curva).

Osservazione 4.3.10. Se Ω è stellato allora è semplicemente connesso. Per verificarlo basta


tener presente quanto affermato nella Osservazione 4.3.6, prendendo quale punto q il centro
dell’insieme stellato e quale curva ρ il segmento qp.
Non vale il viceversa, ovvero non tutti gli aperti connessi e semplicemente connessi sono
per forza stellati, ad esempio questo è ciò che capita all’insieme Ω := R3 \{(0, 0, 0)} (che
sia semplicemente connesso è reso evidente dal fatto che non si può legare un pallone!).

Corollario 4.3.11. Sia Ω aperto, connesso, semplicemente connesso, in Rn . Se ω è chiusa


in Ω allora è esatta.

Dimostrazione. Per definizione di semplice connessione ogni curva chiusa è nullo-omotòpa.


R
Inoltre ω è chiusa, per ipotesi. Dalla Proposizione 4.3.8 sappiamo che allora γ ω = 0 per
ogni tale curva γ. Dal Proposizione 4.2.9 deduciamo che allora ω è esatta.
110 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

Corollario 4.3.12. Sia Ω aperto, connesso, semplicemente connesso. Allora


c
V1 (Ω) = V1 (Ω)⧸V e (Ω) = {0},
1

ovvero lo spazio quoziente è banale.


Teorema 4.3.13 (Jordan). Sia γ in R2 il sostegno di una curva chiusa e semplice. Al-
lora γ divide R2 in due componenti connesse: una limitata (l’interno) e una non limitata
(l’esterno).

E
γ
I

Inoltre, se γ è C 1 a tratti si ha che:


i. p è interno quando la “generica” semiretta uscente da p interseca γ un numero dispari
di volte,

ii. p è esterno quando la “generica” semiretta uscente da p interseca γ un numero pari


di volte.

E Le semirette per p intersecano γ un


γ numero dispari di volte: p è interno.
p
q Le semirette per q intersecano γ un
I numero pari di volte: q è esterno.

Osservazione 4.3.14. Il teorema ha una dimostrazione abbastanza complessa (Vd. ad esem-


pio [Ro]). La nozione di semiretta “generica” è vaga e andrebbe precisata, ma non si può
pretendere che la tesi valga per ogni semiretta: in effetti è facile costruire esempi per i quali
esistono semirette che intersecano γ lungo segmenti o col numero sbagliato di punti.

γ γ

E I E I

p p

Teorema 4.3.15. Sia Ω = R2 \{(0, 0)} allora dim(V1 (Ω)) = 1.


1
Dimostrazione. (Sketch). Sia ω una forma chiusa in Ω = R2 \{(0, 0)}, sia α := 2π
R
◦ω dove
◦ è la circonferenza di centro 0 e raggio 1 percorsa in senso antiorario. Sia poi
−y dx + x dy
ω0 := (il vortice),
x2 + y 2
4.4. DIVAGAZIONI 111

e sia ω̃ := ω − αω0 . Allora ω̃ è chiusa R(perché ω e ω0 lo sono). Mostriamo che in realtà ω̃


è esatta. Lo facciamo verificando che γ ω̃ = 0 per ogni curva γ che sia chiusa e semplice,
e deducendo la tesi dalla Proposizione 4.2.13.
Infatti sia γ chiusa (regolare e semplice) allora (per Jordan) γ divide R2 in due connessi:
I (interno) e E (esterno). Ci sono quindi due soli casi:
R
i. 0 ∈ E. In tal caso γ è nulla omòtopa e perciò γ ω̃ = 0.
ii. 0 ∈ I. L’interno è aperto, allora contiene un aperto B di centro 0 che contiene Cr ,
circonferenza di raggioR r > 0Re centro 0, sufficientemente piccolaR e antioraria.
R Ma γ è
omòtopa a Cr , quindi γ ω̃ = Cr ω̃ e Cr è omòtopa a C1 , quindi Cr ω̃ = C1 ω̃. Così
Z Z Z Z Z Z
ω̃ = ω̃ = (ω − αω0 ) = ω−α ω0 = ω − 2πα = 0
γ C1 C1 C1 C1 C1

per la definizione di α.
R
Quindi γ ω̃ = 0 per ogni curva chiusa regolare e semplice γ, e questo garantisce che ω
è esatta (Proposizione 4.2.13). Ma allora la scrittura ω = αω0 + ω̃ mostra che ω coin-
cide con αω0 a meno di forme esatte (la ω̃). Questo equivale ad affermare che V1 (Ω) =
V1c (Ω)⧸ e
V (Ω) = ⟨ω0 ⟩R , che quindi ha dimensione 1.
1

4.4 Divagazioni
Sia Ω ⊆ R aperto sia p ∈ Ω fissato ad arbitrio. Consideriamo tutte le curve γ chiuse da p
in p. Tra queste curve abbiamo un’operazione di “addizione”: la concatenazione.

+ =
γ1 γ2 γ1 + γ2
p p p

Tale operazione è associativa: γ1 + (γ2 + γ3 ) = (γ1 + γ2 ) + γ3 (i.e. è un semigruppo) con


elemento neutro 0 dato dalla curva costante φ(t) = p per ogni t ∈ [0, 1]. In questo semi-
gruppo però gli elementi non nulli sono privi di inverso visto che se γ non è costante, la
curva γ + η non potrò essere costante qualunque sia la curva η.
Tuttavia l’omotopìa è una relazione di equivalenza e questa si comporta bene rispetto
alla concatenazione: se γ1 ≈ γ̃1 e γ2 ≈ γ̃2 (dove ≈ è la relazione di omotopìa) allora
γ1 + γ2 ≈ γ̃1 + γ̃2 .
Inoltre a meno di omotopìa la curva −γ si comporta da inversa di γ rispetto alla con-
catenazione, ovvero γ + (−γ) ≈ 0 qualunque sia la curva γ. Infatti sia φ : [0, 1] → Ω la
parametrizzazione di γ (quindi φ è continua e φ(0) = φ(1) = p). Sia ψ : [0, 1] × [0, 1] → Ω
la funzione
ψ(s, t) := φ(4st(1 − t)).
È immediato verificare che effettivamente essa è continua, che ψ(0, t) parametrizza la co-
stante, che ψ(1, t) parametrizza γ + (−γ) (percorre γ quando t ∈ [0, 1/2] e −γ quando
112 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

t ∈ [1/2, 1]), e che ψ(s, 0) = ψ(s, 1) = p per ogni s, e che quindi ψ è una omotopia tra
γ + (−γ) e la curva costante.
Ne segue che:

π1 (Ω, p) := {Classi di omotopìa delle curve chiuse di Ω passanti per p}

con l’operazione + di concatenazione è un gruppo. Esso è detto primo gruppo di omotopìa


(primo perché ce ne sono altri. . . ).
Supponiamo che Ω sia un aperto connesso (quindi connesso per archi). Allora dati p e q
esiste una curva ρ che li congiunge e il cammino (−ρ) + γ + ρ parte da q e arriva in q.
Viceversa: se γ̃ è una curva da q a q allora ρ + γ̃ + (−ρ) va da p in p. L’applicazione di ρ
passa alle classi di omotopìa, quello appena indicato è quindi un isomorfismo tra π1 (Ω, p)
e π1 (Ω, q). Possiamo quindi parlare semplicemente di π1 (Ω). Così

i. se Ω è semplicemente connesso allora π1 (Ω) = {0} (facile);

ii. se Ω = R2 \{(0, 0)} allora π1 (Ω) ∼ Z, ovvero gruppo libero con un generatore (non
facile).

In generale π1 (Ω) non è abeliano: per mostrarlo evidenziamo che talvolta esiste un commu-
tatore non banale. Sia ad esempio Ω := R2 \{a, b} (ovvero R2 privato di due punti). Siano
γa e γb come in figura
p

γa γb
a b

Allora γa + γb + (−γa ) + (−γb ) è omòtopa in Ω a

a b

ma questa non è omòtopa in Ω alla curva costante in p. Quindi in π1 (Ω) si ha [γa + γb +


(−γa ) + (−γb )] ̸= [0]. (In effetti per Ω = R2 \{a, b} si dimostra che π1 (Ω) è il gruppo libero
generato da [γa ] e [γb ]).
Consideriamo π1′ (Ω) il gruppo generato dai commutatori di π1 (Ω) (quindi dagli elementi
[γ + ρ + (−γ) + (−ρ)] al variare di γ e ρ in π1 (Ω)). Questo è un sottogruppo normale di
π1 (Ω), quindi è possibile definire il gruppo quoziente

πab (Ω) := π1 (Ω)⧸π ′ (Ω),


1
4.4. DIVAGAZIONI 113

che è detto l’abelianizzato di π1 (Ω). Esso è in effetti commutativo, per costruzione. Questo
gruppo è anche uno Z-modulo (perché per ogni intero n ed ogni curva γ, nγ può essere
intesa come la curva di sostegno γ percorsa |n| volte nello stesso senso se n è positivo e in
senso opposto se n è negativo). Come Z-modulo non ha torsione (ovvero nγ = 0, a meno di
omotopìa, se e solo se n = 0 oppure γ è la curva 0); si può allora “estendere” lo Z-modulo
ad un R-modulo tensorizzandolo con R, ottenendo
πab (Ω) ⊗Z R.
Concretamente, questo corrisponde a prendere una Z-base di πab (Ω) e considerare l’insieme
delle loro combinazioni lineari a coefficienti in R.
Ma allora πab (Ω) ⊗Z R è un R-modulo libero ovvero uno spazio vettoriale. A cosa serve
tutto ciò?
Osserviamo che anche se [γ + ρ + (−γ) + (−ρ)] ̸= [0] si ha comunque che
Z Z Z Z Z Z Z Z Z
ω= ω+ ω+ ω+ ω = ω + ω − ω − ω = 0,
γ+ρ+(−γ)+(−ρ) γ ρ −γ −ρ γ ρ γ ρ

quindi l’integrazione di una forma chiusa non solo non distingue tra curve omòtope ma è
pure banale sui commutatori. R
Questa osservazione consente di vedere γ ω come una mappa bilineare

V1 (Ω) × πab (Ω) ⊗Z R −→ R,


R
(ω, γ) 7→ ⟨ω, γ⟩ := γ ω.
La mappa ⟨·, ·⟩ è ben definita perché l’integrale delle forme esatte fa sempre 0 visto che
le curve sono chiuse e che inoltre il suo valore non cambia per omotopìa e vale 0 sui
commutatori.
Questa mappa è bilineare per costruzione, ma ciò che la rende utile è il fatto che essa è
non degenere in entrambi gli argomenti, ovvero:
i. Se ω è tale che ⟨ω, γ⟩ = 0 ∀γ, allora ω è 0 (in V1 (Ω)),
ii. Se γ è tale che ⟨ω, γ⟩ = 0 ∀ω, allora γ è 0 (in πab (Ω) ⊗Z R).
R
La prima tesi è esattamente il teorema di esattezza che abbiamo studiato: se γ ω = 0 per
ogni γ allora ω è esatta (e quindi ω = 0 in V1 (Ω)). La seconda tesi è invece nuova e più
difficile: per dimostrarla occorre Rverificare che se γ non è omòtopa a 0 allora esiste una
forma chiusa e non esatta ω con γ ω ̸= 0; intuitivamente il fatto che γ sia non 0-omòtopa
significa che γ circonda qualche punto che non sta in Ω, e così una possibile scelta per ω
è la forma “vortice” centrata su quel punto, ma i dettagli necessari per rendere operativa
questa intuizione sono parecchio complicati. . .
Una volta dimostrati questi due fatti, da essi segue6 che
V1c (Ω)⧸ e
V1 (Ω) = V1 (Ω) è isomorfo a πab (Ω) ⊗Z R (come spazi vettoriali).
Credo che questo sia un buon punto per terminare il corso. . .
6
Vale il teorema seguente: Se V e W sono R-spazi vettoriale finito dimensionali ed esiste ⟨·, ·⟩ : V × W →
R bilineare e non degenere in entrambi gli argomenti allora V e W sono isomorfi.

Dimostrazione. Le ipotesi infatti implicano che la mappa W → V ∗ che associa ad ogni elemento w ∈ W il
funzionale ⟨·, w⟩ è iniettiva, e lo stesso vale per la analoga mappa V → W ∗ . Ma allora dim(V ) ≤ dim(W ∗ ) =
dim(W ) ≤ dim(V ∗ ) = dim(V ) e quindi dim(V ) = dim(W ).
114 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI
Capitolo 5

Bibliografia

Testi usati come riferimento principale per il corso:

[R1 ] W. Rudin: Real and complex analysis, McGraw-Hill Book Co., New York, 1987.
[R2 ] W. Rudin: Principles of mathematical analysis, McGraw-Hill Inc., New York, 1974.

Testi di approfondimento:

[AP ] A. Ambrosetti, G. Prodi: A primer of nonlinear analysis, Cambridge Studies in Advanced


Mathematics, 34, Cambridge University Press, Cambridge, 1995.
[DeMGZ ] G. De Marco, G. Gorni, G. Zampieri: Global inversion of functions: an introduction,
NoDEA Nonlinear Differential Equations Appl. 1(3), 1994, 229–248.
[GD ] A. Granas, J. Dugundji: Fixed point theory, Springer Monographs in Mathematics, Springer-
Verlag, New York, 2003.
[GH ] V. Guillemin and P. Haine: Differential forms, World Scientific Publishing Co. Pte. Ltd.,
Hackensack, NJ, 2019.
[GM ] G. H. Greco and S. Mazzucchi: Peano’s 1886 existence theorem on first-order scalar diffe-
rential equations: a review, Boll. Unione Mat. Ital. 9(3) pg. 375–389, 2016.
[KP ] S. G. Krantz and H. R. Parks: The implicit function theorem, Modern Birkhäuser Classics,
Birkhäuser/Springer, New York, 2013.
[M ] J. R. Munkres: Analysis on manifolds, Addison-Wesley publishing Company, 1991.
[Ro ] J. Roe: Winding around. The winding number in topology, geometry, and analysis, Student
Mathematical Library 76, AMS, 2015.
[Sh ] J. H. Shapiro: A fixed-point farrago, Universitext, Springer, 2016.
[Sp ] M. Spivak: Calculus on manifolds. A modern approach to classical theorems of advanced
calculus, W. A. Benjamin, Inc., New York-Amsterdam, 1965.

115
116 CAPITOLO 5. BIBLIOGRAFIA
Capitolo 6

Indice dei nomi

• Niels Henrik Abel. Frindöe (Norway) 5-8-1802, Froland (Norway) 6-4-1829.


• Cesare Arzelà. Santo Stefano di Magra, La Spezia (now Italy) 6-3-1847, 15-3-1912.
• Guido Ascoli. Livorno (Italy) 12-12-1887, Turin 10-5-1957.
• Stefan Banach. Cracow 30-3-1892, Lvov (Ucraina) 31-8-1945.
• Sergei Bernstein. Odessa (Ukraine) 5-3-1880, Moscow 26-10-1968.
• Renato Caccioppoli. Naples 20-1-1904, Naples 8-5-1959.
• Augustin Louis Cauchy. Paris 21-8-1789, Sceaux (France) 23-5-1857.
• Jean Le Rond d’Alembert. Paris 17-11-1717, Paris 29-10-1783.
• Ulisse Dini. Pisa 14-11-1845, Pisa 28-10-1918.
• Jean Baptiste Joseph Fourier. Auxerre (France) 21-3-1768, Paris 16-5-1830.
• Thomas Hakon Grönwall. Dylta bruk (Sweden) 16-1-1877, New York 9-5-1932.
• Jacques Salomon Hadamard. Versailles 8-12-1865, Paris 17-10-1963.
• Felix Hausdorff. Breslau Prussia (now Wroclaw, Poland) 8-11-1868, Bonn 26-01-1942.
• Helmut Hasse. Kassel (Germany) 25-08-1898, Ahrensburg (Germany) 26-12-1979.
• Otto Ludwig Hölder. Stuttgart 22-12-1859, Leipzig 29-8-1937.
• Marie Ennemond Camille Jordan. La Croix-Rousse (France) 5-1-1838, Paris 22-1-1922.
• Joseph Louis Lagrange. Turin 25-1-1736, Paris 10-4-1813.
• Gottfried Wilhelm von Leibniz. Lipsia 1-7-1646, Hannover 14-11-1716.
• Rudolf Otto Lipschitz. Königsberg Prussia (now Kaliningrad, Russia) 14-5-1832, Bonn 7-10-1903.
• Gustav Adolf Fedor Wilhelm Ludwig Mie. Rostock (Germany) 1868, Fribourg (Germany) 1957.
• Amalie Emmy Noether. Erlangen (Germany) 23-3-1882, Bryn Mawr, Pennsylvania 14-4-1935.
• William Fogg Osgood. Boston 10-5-1864, Belmont 22-7-1943.
• Giuseppe Peano. Spinetta (Italia) 27-8-1858, Turin 20-4-1932.
• Oskar Perron. Frankenthal (Germany) 7-5-1880, Munich 22-2-1975.
• Jules Henri Poincaré. Nancy (France) 29-4-1854, 17-7-1912.
• Frigyes Riesz. Györ (Hungary) 20-1-1880, Budapest 28-2-1956.
• Georg Friedrich Bernhard Riemann. Breselenz (Germany) 17-9-1826, Selasca (Italy) 20-6-1866.
• Juliusz Pawel Schauder. Lemberg (now Lviv, Ukraine) 21-9-1899, Lwow, Poland (now Ukraine) 9-1943.
• Hermann Amandus Schwarz. Hermsdorf, Silesia (now Poland) 25-1-1843, Berlin 30-11-1921.
• Marshall Harvey Stone. New York 8-4-1903, Madras (India) 9-1-1989.
• Teiji Takagi. Kazuya Village (near Gifu, Japan) 21-4-1875, Tokyo 29-02-1960.

117
118 CAPITOLO 6. INDICE DEI NOMI

• Brook Taylor. Edmonton (Great Britain) 18-8-1685, London 29-12-1731.


• Otto Toeplitz. Breslau (Germany, now Wrocław, Poland) 8-8-1881, Jerusalem 15-2-1940.
• Vito Volterra. Ancona 3-5-1860, Rome 11-10-1940.
• Karl Theodor Wilhelm Weierstrass. Ostenfelde (Germany) 31-10-1815, Berlin 19-2-1897.

Potrebbero piacerti anche