Sei sulla pagina 1di 109

ANALISI 3

Anno 2018/2019

Giuseppe Molteni
A cura di Manuel Trezzi
versione 3.7
2

Questi sono gli appunti relativi al corso che ho tenuto negli Anni Accademici 2017–’19
presi e redatti da Manuel Luigi Trezzi sulla base delle note che avevo messo a disposizione
degli studenti quale traccia delle lezioni. In seguito ho provveduto ad integrarli espandendo
alcune sezioni e verificandone la coerenza generale. Ritengo siano abbastanza accurati per
essere utilizzati nello studio dei contenuti del corso, ma potrebbero esserci ancora refusi
ed imprecisioni, che, se presenti, sono da imputarsi solo a me. Ringrazio Luca Peroni ed
Emma Albertelli per avermi segnalato alcune imprecisioni. Ringrazio fin da ora anche tutti
coloro che volessero segnalarmi eventuali ulteriori carenze ancora presenti nel testo.

Giuseppe Molteni

This work is licensed under a Creative Commons Attribution-NonCommercial-


NoDerivatives 4.0 International License. This means that: (Attribution) You must give
appropriate credit, provide a link to the license, and indicate if changes were made. You
may do so in any reasonable manner, but not in any way that suggests the licensor endorses
you or your use. (NonCommercial) You may not use the material for commercial purposes.
(NoDerivatives) If you remix, transform, or build upon the material, you may not distribute
the modified material.
Indice

1 Successioni e serie di funzioni 5


1.1 Successioni di funzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Convergenza puntuale . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Convergenza uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Proprietà della convergenza uniforme . . . . . . . . . . . . . . . . . . 8
1.1.4 Il teorema di densità di Weierstrass . . . . . . . . . . . . . . . . . . . 14
1.2 Serie di funzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.1 Convergenza di una serie di funzioni . . . . . . . . . . . . . . . . . . 16
1.2.2 Serie di potenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2 Funzioni implicite 29
2.1 Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Teorema di Dini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Contrazioni e Teorema del punto fisso . . . . . . . . . . . . . . . . . . . . . 33
2.4 Teorema di invertibilità locale . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5 Teorema di Dini multidimensionale . . . . . . . . . . . . . . . . . . . . . . . 42
2.6 Estremi vincolati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3 Equazioni Differenziali 49
3.1 Equazioni di forma speciale . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.1.1 Equazioni lineari del primo ordine . . . . . . . . . . . . . . . . . . . 51
3.1.2 Equazioni a variabili separabili . . . . . . . . . . . . . . . . . . . . . 52
3.1.3 Equazioni di Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.2 Standardizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2.1 Da equazione di ordine k a equazione del primo ordine . . . . . . . . 55
3.2.2 Passaggio alla formulazione integrale . . . . . . . . . . . . . . . . . . 56
3.3 Teoremi di esistenza e unicità . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.4 Stabilità rispetto al modello e ai dati iniziali . . . . . . . . . . . . . . . . . . 62
3.5 Equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.5.1 Costruzione di una base . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.5.2 Matrice Wronskiana . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.5.3 Costruzione di una soluzione . . . . . . . . . . . . . . . . . . . . . . 68
3.5.4 Equazioni lineari a coefficienti costanti: descrizione del nucleo . . . . 70
3.6 Alcuni esempi interessanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.7 Soluzione particolare per le lineari a coefficienti costanti . . . . . . . . . . . 74
3.7.1 Generalizzare l’esponenziale . . . . . . . . . . . . . . . . . . . . . . . 78

3
4 INDICE

4 Curve, campi vettoriali, forme differenziali 83


4.1 Curve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.1.1 Classe di equivalenza e orientazione . . . . . . . . . . . . . . . . . . . 84
4.1.2 Concatenazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.2 Campi vettoriali e forme differenziali . . . . . . . . . . . . . . . . . . . . . . 88
4.2.1 Notazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.2.2 Integrazione di forme/campi lungo curve . . . . . . . . . . . . . . . . 91
4.2.3 Condizioni di esattezza . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.3 Omotopìe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.4 Divagazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

5 Bibliografia 107

6 Indice dei nomi 109


Capitolo 1

Successioni e serie di funzioni

1.1 Successioni di funzioni


1.1.1 Convergenza puntuale
Definizione 1.1.1. Sia X un insieme qualunque e sia {fn }n∈N una successione di funzioni
fn : X → R. Diciamo che la successione converge puntualmente (o semplicemente) in X
alla funzione f : X → R se e solo se per ogni x0 ∈ X si ha che:

lim fn (x0 ) esiste e vale f (x0 ).


n→∞

Equivalentemente possiamo dire che:

∀x0 ∈ X e ∀ > 0 ∃N = N (x0 , ) tale che se n ≥ N =⇒ |fn (x0 ) − f (x0 )| ≤ .

Osservazione 1.1.2.

• L’eventuale struttura di X non ha ruolo, ovvero non ha importanza si tratti di un insieme


di numeri, uno spazio metrico od un insieme dotato di topologia: perché la definizione
abbia senso basta che esso sia un qualunque insieme di oggetti.

• Il punto x0 svolge il ruolo di parametro che resta fissato durante il processo di limite, il
quale coinvolge solo la sequenza numerica {fn (x0 )}n∈N ed il numero f (x0 ). La relazione
limn→∞ fn (x0 ) = f (x0 ) è quindi quella per successioni in R.

• R è uno spazio metrico quindi rispetta la proprietà di Hausdorff (punti distinti sono
separati da aperti disgiunti). Questo garantisce che il limite se esiste è unico. La funzione
f è quindi univocamente determinata dalla relazione secondo cui

f (x0 ) := lim fn (x0 ).


n→∞

• Nella definizione si può sostituire R con Rn o un qualsiasi altro spazio metrico o un


qualunque altro spazio topologico Y : basterà tenere conto di come debba essere intesa
l’operazione di limite per successioni a valori in Y .

I seguenti esempi mostrano che per quanto sia di facile comprensione, la convergenza
puntuale non preserva proprietà importanti quali: limitatezza, continuità, integrabilità e
derivabilità.

5
6 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Esempio 1.1.3. fn (x) → f (x) con fn limitata per ogni n non implica che f sia limitata.
fn (x) = min(|x|, n), ogni fn è limitata ma la successione converge puntualmente a f (x) =
|x| che non è limitata.
y f

f2

f1

x
−2 −1 1 2

Esempio 1.1.4. fn → f puntualmente con fn continua per ogni n non implica che f sia
continua.
fn (x) : [0, 1] → R, fn (x) = xn . Le fn sono continue in tutti i punti di [0, 1] ma la successione
converge puntualmente a
(
1 se x = 1
f (x) = che non è continua in 1.
0 se x ∈ [0, 1)
y

f1
f2
f3

x
1

Esempio 1.1.5. fn → f puntualmente con fn integrabile per ogni n non implica che f sia
integrabile.
fn (x) : [0, 1] → R con (
1 se x = 2an , a ∈ N
fn (x) =
0 altrimenti.
Ogni fn ha un numero finito di discontinuità e quindi è Riemann integrabile. La successione
converge puntualmente a
(
1 se x = 2ab , a, b ∈ N
f (x) =
0 altrimenti.
Questa funzione non è Riemann integrabile poiché sia l’insieme { 2ab , a, b ∈ N} (i numeri
diadici) che il suo complementare sono densi in [0, 1] (e quindi in ogni intervallo I con
interno non vuoto si ha supx∈I f (x) = 1 ed inf x∈I f (x) = 0).
1.1. SUCCESSIONI DI FUNZIONI 7

Esempio 1.1.6. fn → f puntualmente con fn derivabile per ogni n non implica che f sia
derivabile. q
fn (x) : Ω ⊆ R → R con Ω aperto fn (x) = x2 + n1 , tutte le fn sono derivabili ma la
successione converge puntualmente a f (x) = |x| che non è derivabile.
y
f

1.1.2 Convergenza uniforme


Definizione 1.1.7. Sia X un insieme qualunque e sia {fn }n∈N una successione di funzioni
fn : X → R. Diciamo che {fn } converge uniformemente in X alla funzione f : X → R se:

∀ > 0 ∃N = N () tale che se n ≥ N =⇒ |fn (x0 ) − f (x0 )| ≤  ∀x0 ∈ X.

Si osservi che la convergenza uniforme si differenzia dalla convergenza puntuale per il


fatto ora si chiede l’indipendenza (ovvero uniformità) di N dal punto di convergenza.
Graficamente, la convergenza uniforme corrisponde a richiedere che per ogni  esista un N
tale per cui il grafico di fn con n ≥ N sia interamente nell’intorno tubolare f ± .
y
f +
f
f −

Definizione 1.1.8. Data g : X → R definiamo kgk∞,X := supx∈X |g(x)|.


Vedremo in seguito perché questa quantità sia indicata con il simbolo di norma. Utilizzando
questo nuovo concetto, la definizione di convergenza uniforme può essere formulata in uno
qualunque dei modi seguenti:

∀ > 0∃N = N () tale che se n ≥ N =⇒ kfn − f k∞,X ≤ ;

ovvero che:
n ≥ N ⇒ sup |fn (x) − f (x)| ≤ ;
x∈X
ovvero che:
lim sup |fn (x) − f (x)| = 0;
n→∞ x∈X

ovvero che:
lim kfn − f k∞,X = 0.
n→∞
8 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Proposizione 1.1.9. Siano {fn }n∈N , f : X → R e supponiamo che fn converga ad f


uniformemente in X. Allora la successione fn converge ad f anche puntualmente X. In
particolare, quindi, anche il limite uniforme è necessariamente unico.

Questo fatto consente di vedere la convergenza uniforme come una (possibile) caratteristica
della convergenza puntuale.

Dimostrazione. Fissiamo x0 ∈ X. Dalla stima

|fn (x0 ) − f (x0 )| ≤ sup |fn (x) − f (x)| = kfn − f k∞,X


x∈X

segue immediatamente che se limn→∞ kfn − f k∞,X = 0 allora anche limn→∞ |fn (x0 ) −
f (x0 )| = 0, ovvero che la convergenza uniforme implica la convergenza puntuale alla
medesima funzione.

1.1.3 Proprietà della convergenza uniforme


Teorema 1.1.10. Siano {fn }n∈N , f : X → R e supponiamo che fn converga uniformemen-
te a f in X. Supponiamo che ogni fn sia limitata. Allora anche f è limitata e la sequenza
{fn }n∈N è equi-limitata (ovvero esiste M ∈ R tale che kfn k∞,X ≤ M per ogni n).

Dimostrazione. Sia  = 1. Dalla definizione di convergenza uniforme deduciamo l’esistenza


di un indice N con la proprietà secondo cui |fn (x) − f (x)| ≤ 1, comunque si prendano
x ∈ X ed n ≥ N .
Dalla disuguaglianza triangolare segue che

|f (x)| = |f (x) − fN (x) + fN (x)| ≤ |f (x) − fN (x)| + |fN (x)| ∀x ∈ X,

e questo è ≤ 1 + kfN k∞,X per come abbiamo scelto N .


Dall’ipotesi di limitatezza si ha che kfN k∞,X < ∞, così dalla relazione precedente dedu-
ciamo che
sup |f (x)| ≤ 1 + kfN k∞,X < ∞,
X

che dimostra la limitatezza di f .


Per la seconda tesi procediamo in modo analogo. Supponiamo n ≥ N , ed osserviamo che

|fn (x)| = |fn (x) − f (x) + f (x)| ≤ |fn (x) − f (x)| + |f (x)| ≤ 1 + kf k∞,X < +∞

(poiché sappiamo che f è limitata). visto che il lato destro della relazione è indipendente
da x, questa disuguaglianza dimostra che

kfn k∞,X ≤ 1 + kf k∞,X

quando n ≥ N . Per ipotesi ogni fn è limitata, quindi la quantità

M := max{kf1 k∞,X , kf2 k∞,X , . . . , kfN k∞,X , 1 + kf k∞,X }

è una quantità finita e per costruzione garantisce la stima kfn k∞,X ≤ M per ogni n ∈
N.
1.1. SUCCESSIONI DI FUNZIONI 9

Teorema 1.1.11. Siano {fn }n∈N , f : X ⊆ R → R e supponiamo che fn → f uniforme-


mente in X. Sia x0 ∈ X e supponiamo che ogni fn sia continua in x0 . Allora anche f è
continua in x0 e la sequenza {fn }n∈N è equi-continua in x0 (ovvero il modulo di continuità
δ di fn può essere scelto in modo da essere indipendente da n).
Dimostrazione. Nei punti isolati tutte le funzioni risultano continue, quindi per dimostrare
la tesi possiamo assumere che x0 sia d’accumulazione per X. Fissiamo  > 0. Dalla ipotesi di
convergenza uniforme segue l’esistenza di N = N () tale che se n ≥ N allora kfn −f k∞,X ≤
. Dalla disuguaglianza triangolare in R, segue che comunque si scelga x si ha:

|f (x) − f (x0 )| = |f (x) − fN (x) + fN (x) − fN (x0 ) + fN (x0 ) − f (x0 )|


≤ |f (x) − fN (x)| + |fN (x) − fN (x0 )| + |fN (x0 ) − f (x0 )|.

Il primo e il terzo addendo sono ciascuno minori di , perciò:

|f (x) − f (x0 )| ≤ 2 + |fN (x) − fN (x0 )|.

Questa relazione vale comunque venga scelto x, e per la sua validità non abbiamo ancora
utilizzato l’ipotesi di continuità delle fn , che invece interviene ora. Dalla ipotesi secondo
cui fN è continua in x0 deduciamo l’esistenza di δ = δ() tale che se |x − x0 | ≤ δ allora
|fN (x)−fN (x0 )| ≤ . Per tali x quindi la stima precedente di f diventa |f (x)−f (x0 )| ≤ 3,
che dimostra la continuità di f .
La seconda parte della tesi è dimostrata in modo analogo, osservando che se n ≥ N , allora

|fn (x) − fn (x0 )| = |fn (x) − f (x) + f (x) − f (x0 ) + f (x0 ) − fn (x0 )|
≤ |fn (x) − f (x)|+|f (x) − f (x0 )|+|f (x0 ) − fn (x0 )| ≤ 2+|f (x) − f (x0 )|.

Ma f è continua in x0 , quindi esiste δ = δ() tale che se |x−x0 | ≤ δ allora |f (x)−f (x0 )| ≤ .
Per tali x quindi la stima precedente diventa |fn (x)−fn (x0 )| ≤ 3, indipendentemente dalla
scelta di n, purché sia ≥ N .
Visto che per ipotesi ogni elemento della successione è continuo in x0 , esistono poi anche le
quantità δ1 , δ2 , . . . , δN tali per cui se |x − x0 | ≤ δj allora |fj (x) − fj (x0 )| ≤ , per ciascuno
dei j = 1, 2, . . . , N . Fissando quindi

δ 0 := min{δ1 , δ2 , . . . , δN , δ}

(che non è 0, essendo il minimo tra quantità positive) si deduce che

|x − x0 | ≤ δ 0 =⇒ |fn (x) − fn (x0 )| ≤  ∀n ∈ N,

ovvero la equicontinuità della famiglia di funzioni fn nel punto x0 .

Definizione 1.1.12. Definiamo B(X, R) := {f : X → R, kf k∞,X < ∞}, che quindi è


l’insieme delle funzioni limitate da X in R.
Osservazione 1.1.13. L’insieme B(X, R) è uno spazio vettoriale. Infatti

|(f + g)(x)| = |f (x) + g(x)| ≤ |f (x)| + |g(x)| ≤ kf k∞,X + kgk∞,X < ∞,

che dimostra che la somma di due funzioni limitate è limitata. Passando al sup in x questa
stessa disuguaglianza mostra anche che

k(f + g)k∞,X ≤ kf k∞,X + kgk∞,X .


10 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Analogamente, se si moltiplica per uno scalare si ha

|(λf )(x)| = |λ| · |f (x)| ≤ |λ| · kf k∞,X ,

che dimostra come anche λf sia una funzione limitata, e che

kλf k∞,X ≤ |λ| · kf k∞,X .

Osservazione 1.1.14. kf k∞,X è una norma su B(X, R). Infatti

• kf k∞,X ≥ 0 e kf k∞,X = 0 ⇐⇒ f ≡ 0,

• rispetta la disuguaglianza triangolare (si veda sopra),

• kλf k∞,X = |λ| · kf k∞,X

Dimostrazione. Qui sopra abbiamo verificato che kλf k∞,X ≤ |λ| · kf k∞,X . Per dimo-
strare la disuguaglianza opposta basta osservare che la tesi è sicuramente vera se λ = 0,
e che se λ 6= 0 allora quella stessa stima dà che |λ| · kf k∞,X = |λ| · k λ1 λf k∞,X ≤
1
|λ| · |λ| · kλf k∞,X = kλf k∞,X .

Proposizione 1.1.15. B(X, R) dotato della norma kf k∞,X è uno spazio normato com-
pleto (è quindi uno spazio di Banach).

Dimostrazione. Vogliamo dimostrare che ogni sequenza di Cauchy è convergente.


Sia {fn }n∈N una successione di Cauchy. In base alla definizione questo significa che per
ogni  > 0 esiste N = N () tale che se n, m ≥ N allora kfn − fm k∞,X ≤ .
Fissiamo dunque  > 0 e sia N come sopra. Sia poi x0 ∈ X arbitrariamente preso. Allora
per m, n ≥ N si ha

|fn (x0 ) − fm (x0 )| ≤ sup |fn (x) − fn (x)| = kfn − fm k∞,X ≤ .


x∈X

Quindi la successione {fn (x0 )}n∈N è di Cauchy in R. Dalla completezza di R segue che
essa converge a qualche elemento di R. Visto che questo argomento vale qualunque sia la
scelta di x0 , deduciamo che limn→∞ fn (x0 ) esiste per ogni x0 ∈ X. Questo mostra sia che la
funzione f (x) := limn→∞ fn (x) è ben definita in X, sia che fn converge ad f puntualmente.
Verifichiamo ora che la convergenza è in realtà uniforme. Infatti, sappiamo che la scelta
di N garantisce che se n, m ≥ N allora |fn (x) − fm (x)| ≤ , per ogni x ∈ X. Una volta
fissato, mandando m all’infinito in questa stima deduciamo che |fn (x) − f (x)| ≤ . Ma x è
arbitrario e N non dipende da esso, quindi la stima precedente implica che kfn −f k∞,X ≤ ,
che dimostra la convergenza uniforme.
Infine, osserviamo che la funzione f è limitata, per il Teorema 1.1.10, visto che è limite
uniforme di funzioni limitate.

Definizione 1.1.16. Sia Ω ⊆ R aperto, e sia C(Ω, R) := {f : Ω → R, f continua}. Indi-


chiamo con BC(Ω, R) l’intersezione B(Ω, R) ∩ C(Ω, R) =: BC(Ω, R), ovvero l’insieme delle
funzioni continue e limitate in Ω.

Proposizione 1.1.17. BC(Ω, R) dotato della norma k · k∞,Ω è uno spazio di Banach.
1.1. SUCCESSIONI DI FUNZIONI 11

Dimostrazione. L’insieme BC(Ω, R) è un sottoinsieme di B(Ω, R), che è completo per la


proposizione precedente. Per dimostrare la tesi basta quindi dimostrare che BC(Ω, R) è
un sottoinsieme chiuso di B(Ω, R). Di fatto questo è immediato poiché sappiamo che se
{fn }n∈N ⊆ BC(Ω, R) converge uniformemente a f ∈ B(Ω, R), allora f stessa è continua
per il Teorema 1.1.11, visto che è limite uniforme di funzioni continue.

Teorema 1.1.18. Siano {fn }n∈N , f : [a, b] ⊂ R → R con fn → f uniformemente. Se


fn ∈ R([a, b]) per ogni n, allora anche f ∈ R([a, b]) ed inoltre
Z b Z b
fn (x) dx − f (x) dx ≤ (b − a) · kfn − f k∞,X


a a

quindi
Z b Z b
lim fn (x) dx = f (x) dx
n→∞ a a

ovvero
Z b Z b
lim fn (x) dx = lim fn (x) dx.
n→∞ a a n→∞

Dimostrazione. Fissiamo  > 0. Per l’ipotesi di convergenza uniforme sappiamo che esiste
N = N () tale che se n ≥ N allora kfn − f k∞,[a,b] ≤ . Siccome fN ∈ R([a, b]), sappiamo
che esiste una partizione P := {a = x0 ≤ x1 ≤ · · · ≤ xk = b} per la quale:
k
X
fj,N − m
(M e j,N ) · (xj − xj−1 ) ≤ ,
j=1

fj,N := sup[x ,x ] fN (x) e m


dove M j−1 j
e j,N := inf [xj−1 ,xj ] fN (x).
Osserviamo che f (x) = fN (x) + f (x) − fN (x) da cui:

f (x) ≤ fN (x) + |f (x) − fN (x)| ≤ fN (x) + kfN − f k∞,[a,b] ≤ fN (x) + .

Quindi se x ∈ [xj−1 , xj ] si ha f (x) ≤ sup[xj−1 ,xj ] fN (x) +  = M


fj,N +  e perciò

Mj := sup f (x) ≤ M
fj,N + .
[xj−1 ,xj ]

Analogamente si ha f (x) ≥ fN (x) − |f (x) − fN (x)| ≥ fN (x) − kfN − f k ≥ fN (x) −  quindi


se x ∈ [xj−1 , xj ] si ha f (x) ≥ inf [xj−1 ,xj ] fN (x) −  = m
e j,N −  e perciò

mj := inf f (x) ≥ m
e j,N − .
[xj−1 ,xj ]

Da queste stime segue che:


k
X k
X
(Mj − mj )(xj − xj−1 ) ≤ fj,N − m
(M e j,N + 2) · (xj − xj−1 )
j=1 j=1
k
X k
X
= fj,N − m
(M e j,N ) · (xj − xj−1 ) + 2 (xj − xj−1 ) ≤  + 2(b − a)
j=1 j=1
12 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

che conclude la dimostrazione della prima tesi. Per la seconda basta osservare che
Z b Z b Z b
fn (x) dx − f (x) dx = (fn (x) − f (x)) dx


a a a
Z b Z b

≤ fn (x) − f (x) dx ≤ kfn − f k∞,[a,b] dx = kfn − f k∞,[a,b] (b − a).
a a

Osservazione 1.1.19. Abbiamo già visto che la sola convergenza puntuale non garantisce la
Riemann integrabilità della funzione limite. Il seguente esempio mostra che anche nel caso
in cui la funzione limite sia comunque Riemann integrabile, non è comunque detto che il
suo integrale sia pari al limite degli integrali delle funzioni della successione. Prendiamo
(
n se x ∈ ( n1 , n2 )
fn (x) =
0 altrimenti

È chiaro che fn (x) → 0 per ogni scelta di x, ovvero che la successione converge (puntual-
Rb R1
mente) alla funzione identicamente nulla. Quindi a limn→∞ fn (x) dx = 0 f (x) dx = 0.
R1 R1
Tuttavia 0 fn (x) dx = 1 per ogni n quindi limn→∞ 0 fn (x) dx = 1.
Osservazione 1.1.20. La tesi del teorema non è estendibile agli integrali di Riemann im-
propri, neppure in presenza di convergenza uniforme su R. Ad esempio, prendiamo
(
1
se x ∈ (−n, n)
fn (x) = n
0 se |x| ≥ n.

Visto che supR |fn (x)| = n1 → 0, deduciamo che la sequenza fRn converge uniformemen-
te in R Ralla funzione f identicamente
R nulla. Ciononostante R fn (x) dx = 2 e quindi
limn→∞ R fn (x) dx = 2 6= 0 = R f (x) dx = 0.
Osservazione 1.1.21. La convergenza uniforme non preserva la derivabilità. Si consideri
l’Esempio 1.1.6 e si osservi che in quel caso fn → f uniformemente in R, visto che
p 1/n 1/n 1
|fn (x) − f (x)| = | x2 + 1/n − |x|| = p ≤p =√
x2 + 1/n + |x| 1/n n

e che quindi kfn − f k∞,R ≤ √1 → 0.


n

Teorema 1.1.22. Sia {fn }n∈N : (a, b) ⊆ R → R. Supponiamo che esista un punto x0 ∈
(a, b) tale per cui la sequenza numerica {fn (x0 )}n∈N converga a un numero `. Assumiamo
inoltre che ogni fn sia derivabile in (a, b) e che esista g : (a, b) → R tale che {fn0 }n∈N → g
uniformemente in (a, b). Allora:

• esiste f : (a, b) → R tale che fn → f puntualmente in (a, b),

• la convergenza è uniforme sui compatti contenuti in (a, b),

• f è derivabile e f 0 (x) = g(x) per ogni x ∈ (a, b), ovvero


d   d 
lim fn (x) = lim fn (x).
dx n→∞ n→∞ dx
1.1. SUCCESSIONI DI FUNZIONI 13

Dimostrazione. Dimostriamo la tesi sotto l’ipotesi che le funzioni fn0 siano continue ∀n;
questo consente di semplificare notevolmente la dimostrazione della tesi (che tuttavia resta
valida anche senza questa assunzione). Rx
Dal teorema fondamentale del calcolo integrale segue allora che fn (x) = fn (x0 )+ x0 fn0 (u) du.
La funzione g è per ipotesi il limite uniforme delle {fn0 }n∈N che sono continue, quindi anche
g è continua. Questo suggerisce di porre
Z x
f (x) := ` + g(u) du.
x0

Infatti, da quanto detto su g segue che f è ben definita in (a, b), è derivabile in (a, b) con
derivata g continua, e quindi f ∈ C 1 ((a, b)). Rx
Sottraendo le due relazioni abbiamo l’uguaglianza fn (x) − f (x) = fn (x0 ) − ` + x0 (fn0 (u) −
g(u)) du, che per la disuguaglianza triangolare dà:
Z x
|fn (x) − f (x)| ≤ |fn (x0 ) − `| + |(fn0 (u) − g(u))| du

x0
Z x
≤ |fn (x0 ) − `| + kfn0 − gk∞,(a,b) du

x0
= |fn (x0 ) − `| + |x − x0 | · kfn0 − gk∞,(a,b) .

Sia K un qualunque compatto in (a, b) che senza ledere di generalità possiamo immaginare
contenga x0 (altrimenti basta considerare {x0 }∪K che è ancora un compatto di (a, b)). Sia-
no α, β ∈ R scelti in modo da garantire che K ⊆ [α, β] ⊆ (a, b). Allora dalla disuguaglianza
precedente e per ogni x ∈ K si ha:

|fn (x) − f (x)| ≤ |fn (x0 ) − `| + (β − α)kfn0 − gk∞,(a,b) .

(Nell’ultimo passaggio si è usato il fatto che dovendo x ed x0 essere in K si ha per certo


|x − x0 | ≤ β − α).
Abbiamo quindi ottenuto la stima secondo cui

kfn − f k∞,K ≤ |fn (x0 ) − `| + (β − α)kfn0 − gk∞,(a,b) ,

ma entrambi gli addendi per ipotesi tendono a zero quando n diverge, quindi kfn − f k∞,K
stessa tende a zero. Questo dimostra la convergenza uniforme di fn ad f sul compatto K.
Visto che K è del tutto arbitrario, da questo segue poi che la convergenza è certa in ogni
punto di (a, b), ovvero la convergenza puntuale di fn ad f è vera in (a, b).

Esercizio 1.1.23. Sia BC 1 ((a, b), R) := {f : (a, b) → R, f ∈ C 1 , f, f 0 limitate}. Verificare


che è uno spazio vettoriale e che posto k|f k|1 := kf k∞,(a,b) + kf 0 k∞,(a,b) , questa è una
norma in BC 1 . Verificare poi che BC 1 con questa norma è uno spazio di Banach.
Esercizio 1.1.24. Sia BC 1 ((a, b), R) := {f : (a, b) → R, f ∈ C 1 , f, f 0 limitate}. Sia x0 ∈
(a, b) fissato e sia k|f k|2 := |f (x0 )| + kf 0 k∞,(a,b) . Verificare che anche k| · k|2 è una norma
in BC 1 ((a, b), R). Verificare poi che
1
k|f k|1 ≤ k|f k|2 ≤ k|f k|1
b−a+1
per ogni f ∈ BC 1 ((a, b), R). Osservare che questo dimostra che le due norme sono equiva-
lenti e che quindi BC 1 è uno spazio di Banach anche con la norma k| · k|2 .
14 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

1.1.4 Il teorema di densità di Weierstrass


Nel 18?? Weierstrass mostrò che nonostante i polinomi siano una famiglia di funzioni
decisamente speciali, essi sono però sufficientemente numerosi da riuscire ad approssimare
in ogni intervallo compatto ed in norma sup ogni funzione continua. Ecco il suo risultato:
Teorema 1.1.25. L’insieme dei polinomi a coefficienti reali è denso in C([0, 1], R), in
norma sup. Ciò significa che dato una qualunque f : [0, 1] → R, continua, per ogni scelta
di  > 0 esiste un polinomio q ∈ R[x] tale che kf − qk∞,[0,1] ≤ .
In seguito tale risultato fu rivisto e notevolmente generalizzato, individuando nella compat-
tezza del dominio e nel fatto che i polinomi siano una sotto-algebra separante ed invariante
per coniugio, le proprietà chiave che rendono possibile questo risultato1 La generalizzazione
è noto con il nome di teorema di Stone–Weierstrass.
Di seguito diamo la dimostrazione che Bernstein diede nel 1912 del teorema nella versione
originale di Weierstrass. Questa dimostrazione non solo unisce semplicità e profondità, ma
è in realtà pure costruttiva.

Dimostrazione. Per ogni coppia di interi k, n con 0 ≤ k ≤ n, sia


 
n k
Bk,n (x) := x (1 − x)n−k .
k
Tracciare un grafico di questi polinomi è istruttivo: ognuno di essi è un polinomio a valori
non negativi con un unico massimo (su [0, 1]) in k/n, con gran parte della loro “massa”
concentrata attorno al loro punto di massimo k/n. In un certo senso quindi sono delle
versioni “polinomiali” delle delta di Dirac nei punti razionali k/n. Osserviamo che
n
X n
X n
X
Bk,n (x) = 1, kBk,n (x) = nx, k(k − 1)Bk,n (x) = n(n − 1)x2 .
k=0 k=0 k=0

Queste relazioni possono essere dimostrate in vari modi; il più veloce è però attraverso la
funzione generatrice
n n  
X
ky
X n
R(y) := e Bk,n (x) = (xey )k (1 − x)n−k = (xey + 1 − x)n ,
k
k=0 k=0

identità che segue dallo sviluppo del binomio. Le uguaglianze precedenti allora diventano:
n
X
Bk,n (x) = R(0) = 1,
k=0
n
X
kBk,n (x) = R0 (0) = nxey (xey + 1 − x)n−1 y=0 = nx,

k=0
n
X
k 2 Bk,n (x) = R00 (0) = nxey (xey + 1 − x)n−1 y=0 + n(n − 1)x2 e2y (xey + 1 − x)n−2 y=0

k=0
= nx + n(n − 1)x2 .
1
Sotto-algebra significa che possono essere sommati, moltiplicati per costanti ma anche moltiplicati tra
loro, senza uscire dalla loro classe di funzioni; separante significa che dati due qualunque punti distinti
esiste sempre un elemento della sotto-algebra che assume in quei due punti valori diversi e che quindi
li distingue, ed invariante per coniugio significa che se un elemento g è nella sotto-algebra allora anche
l’elemento ḡ i cui valori sono dati da ḡ(x) := g(x) appartiene alla sotto-algebra.
1.1. SUCCESSIONI DI FUNZIONI 15

Da queste identità segue che


n
X n
X
(k − nx)2 Bk,n (x) = (k 2 − 2nkx + n2 x2 )Bk,n (x)
k=0 k=0
n
= n(n − 1)x2 + nx − 2nx · nx + n2 x2 = nx − nx2 = nx(1 − x) ≤ .
4
Sia ora f ∈ C([0, 1]) e sia
n
X k
qn (x) := f Bk,n (x),
n
k=0
quindi una combinazione lineare dei polinomi Bk,n , con i valori di f nei punti k/n (i massimi
dei Bk,n ) quali coefficienti. Sia  > 0 scelto ad arbitrio e sia δ = δ() > 0 una costante con
la proprietà per cui ogni qual volta |u − v| ≤ δ vale la stima |f (u) − f (v)| ≤ : tale valore
esiste per la uniforme continuità di f (che è continua su compatto). Allora
n k n n   
X X X k 
|qn (x) − f (x)| = f Bk,n (x) − f (x) Bk,n (x) = f − f (x) Bk,n (x)

n n
k=0 k=0 k=0
n  
k
X
≤ f − f (x) Bk,n (x),

n
k=0

dove si è usato il fatto che i Bk,n (x) sono non negativi, si sommano a 1, e la disuguaglianza
triangolare. Spezziamo la somma in due parti, quella sui termini in cui k/n è vicino a x e
gli altri (dove per “vicino” si intende a distanza inferiore di δ). Si ottiene:
n
X k n
X k
= f − f (x) Bk,n (x) + f − f (x) Bk,n (x).

n n
k=0 k=0
|k/n−x|≤δ |k/n−x|>δ

Nella prima somma il termine f nk − f (x) è inferiore ad , perché per quei termini la


distanza | nk − f (x)| è inferiore a δ. Nella seconda questa stima non è più garantita, ma
comunque quel termine è dominato da 2kf k∞ . Questo dà:
n
X n
X
≤ Bk,n (x) + 2kf k∞ Bk,n (x).
k=0 k=0
|k/n−x|≤δ |k/n−x|>δ

La prima somma è dominata da 1 (ancora perché i Bk,n sono non negativi e si sommano
a 1), mentre nella seconda introduciamo il peso quadratico (|k/n − x|/δ)2 che è maggiore
di 1, ottenendo:
n n
2kf k∞ X k 2 2kf k∞ X
≤+ −x Bk,n (x) =  + 2 2 (k − nx)2 Bk,n (x)
δ2 n n δ
k=0 k=0
|k/n−x|>δ |k/n−x|>δ
2kf k∞ n kf k∞
≤+ =+ ,
n2 δ 2 4 2nδ 2
dove per la seconda somma si è usato la stima dimostrata precedentemente. Scegliendo n
abbastanza grande possiamo fare in modo che anche il secondo termine sia ≤ , così che
questo dimostra che kqn − f k∞,[0,1] ≤ 2.
16 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

La parte più interessante della procedura è l’idea di introdurre il peso quadratico; questo
equivale all’uso della stima di Chebyshev per una certa probabilità. In effetti questa era
proprio l’idea originaria di Bernstein: osservare che se X è una variabile aleatoria che
assume i valori 1 con probabilità x ed 0 con probabilità 1−x, e che se S := X1 +· · ·+Xn dove
le Xj sono variabili indipendenti e distribuite come X, allora Bk,n (x) esprime la probabilità
p([S = k]), quindi le varie identità trovate sono legate alla media ed alla varianza di S (e
la R è legata alla funzione generatrice dei momenti di S) e la disuguaglianza utilizzata è
appunto la disuguaglianza di Chebyshev che stima la probabilità di un evento in termini
della varianza.

1.2 Serie di funzioni


1.2.1 Convergenza di una serie di funzioni
P∞
Siano date {fk }k∈N : X → R, con le quali costruiamo
Pn k=0 fk come limite (in qualche sen-
so) della successione delle somme parziali Sn := k=0 fk . In particolare ogni affermazione
fatta sulla serie riceve significato dalla sua interpretazione attraverso le somme parziali.
Quindi, ad esempio, la frase
P∞
“La k=1 fk converge uniformemente in X”

è da intendersi come
Pn
“La successione Sn := k=1 fk converge uniformemente in X”.

Osservazione 1.2.1. Questa definizione identifica le serie come caso particolare delle suc-
cessioni. In realtà è possibile anche l’approccio opposto, visto che ogni successione {fn }n∈N
è scrivibile come
X n
fn = fn − f−1 = (fk − fk−1 )
k=0

(dove si è introdotta la funzione f−1 (x) := 0 per ogni x ∈ X), e quindi come somme parziali
di una serie. È quindi solo per una certa maggior semplicità notazionale che tradizional-
mente si studiano prima le successioni: dal punto di vista strettamente matematico i due
linguaggi sono del tutto equivalenti.
Osservazione 1.2.2. Si faccia attenzione
P∞ a questo fatto: fino a che la convergenza della serie
non sia stata indagata, il simbolo k=0 fk indica unicamente la successione delle somme
parziali (più precisamente indica una domanda: tale successione converge?), una volta
stabilita la sua convergenza lo stesso simbolo passa ad indicare il limite della successione.

Proposizione
P∞ 1.2.3 (Criterio di c.u.). Siano {fk }k∈N funzioni X : R, limitate. Allora la
serie k=0 fk converge uniformemente in X se e solo se
m
X
∀ > 0 ∃N = N () tale che se m > n ≥ N =⇒ fk ≤ .

∞,X
k=n+1

Pn le funzioni fk sono limitate; questo garantisce che anche le


Dimostrazione. Per ipotesi
somme parziali Sn := k=0 fk lo sono. In particolare sia le fk che le Sn sono funzioni
in B(X, R). Per definizione, la serie è detta convergere uniformemente in X quando la
1.2. SERIE DI FUNZIONI 17

successione {Sn }n∈N converge uniformemente. Dalla completezza di B(X, R) segue che
questo accade se e solo se {Sn }n∈N ha la proprietà di Cauchy, ovvero se e solo se

∀ > 0 ∃N = N () tale che se m > n ≥ N =⇒ Sm − Sn ≤ .

∞,X

La tesi segue immediatamente per il fatto che


Xm n
X m
X
Sm − Sn = fk − fk = fk .

∞,X ∞,X ∞,X
k=0 k=0 k=n+1

P∞
Corollario 1.2.4. Sia {fk }k∈N : X → R una successione di funzioni limitate. Se k=0 fk
converge uniformemente in X allora kfk k∞,X → 0 al divergere di k.

Dimostrazione. Basta prendere m = n + 1 nel criterio di convergenza uniforme (Proposi-


zione 1.2.3).

Si osservi che il corollario esprime solo una condizione necessaria: non basta che kfk k∞,X
tenda a zero perché la serie converga. Tuttavia se opportunamente rafforzata, questa
condizione è in grado di garantire la convergenza della serie. Ecco come.

Corollario 1.2.5 (Test di Weierstrass). Se ∞


P P∞
k=0 kfk k∞,X converge allora k=0 fk con-
verge uniformemente in X.
P∞
Dimostrazione. Fissiamo  > 0. Per ipotesi la serie P k=0 kfk k∞,X numerica converge,
quindi esiste N = N () tale che se m > n ≥ N allora m k=n+1 kfk k∞,X ≤ . Ma allora
dalla disuguaglianza triangolare segue che
m
X m
X
fk ≤ fk ≤ ,


∞,X ∞,X
k=n+1 k=n+1
P∞
e quindi la serie k=0 fk soddisfa il criterio di convergenza uniforme.

Osservazione 1.2.6. Il valore di ∞


P
k=0 kfk k∞,X non ha alcun ruolo, quindi per poter appli-
care il test basta stabilire la sua esistenza come numero in R e per fare questo non serve
calcolare il valore esatto di kfk k∞,X ma basta avere una sua stima per eccesso.
Esempio 1.2.7. Verificare che ∞ sin kx
P
k=1 k2 +ekx converge uniformemente in R.
sin(kx)
Poniamo fk := k2 +ekx
, ed osserviamo che

1 1
|fk (x)| ≤ ≤ 2
k2 +e kx k
1
comunque si scelga x ∈ R. Quindi kfk k∞,R ≤ k2
, così che
∞ ∞
X X 1
kfk k∞,R ≤ < ∞.
k2
k=1 k=1

In base al test di Weierstrass questo è sufficiente per dimostrare la convergenza uniforme


in R della serie.
18 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Vista l’importanza del test, si è introdotto un termine specifico per indicare le serie di
funzioni che lo soddisfano:
Definizione 1.2.8. Se ∞
P
k=0 kfk k∞,X ≤ ∞ allora diciamo che la serie converge totalmente
in X: il test di Weierstrass mostra che la terminologia è corretta, ovvero che si tratta
effettivamente di una convergenza della serie di funzioni (e non solo della convergenza di
una serie numerica ad essa collegata).
Osservazione 1.2.9. Dal fatto che kfk k∞,XP= k |fk | k∞,X segue che la convergenza totale

implica anche la convergenza della serie k=0 |fk (x0 )|, ovvero la convergenza puntuale
assoluta della serie data.
Non vale però il viceversa, ovvero una serie di funzioni che converga sia uniformemente e
sia puntualmente assolutamente non è detto che converga totalmente, come mostrato dal
seguente esempio.
Esempio 1.2.10. Per ogni k ∈ N, k ≥ 1, sia fk (x) := x1 χ[k,k+1) (x). Allora le somme parziali
sono le funzioni
n n n
X X 1 1X 1
Sn (x) := fk (x) = χ[k,k+1) (x) = χ[k,k+1) (x) = χ[1,n+1) (x)
x x x
k=1 k=1 k=1

ed è chiaro che tali funzioni convergono assolutamente alla funzione f (x) := x1 χ[1,+∞) (x).
Inoltre si ha
1 1 1
Sn (x) − f (x) = χ[1,n+1) (x) − χ[1,+∞) (x) = χ[n+1,+∞) (x)
x x x
quindi
1 1
kSn − f k∞,R = sup χ[n+1,+∞) (x) =
x∈R x n+1
per cui la convergenza è uniforme in R. D’altra parte kfk k∞,R = k x1 χ[k,k+1) (x)k∞,R = k1 ,
quindi
∞ ∞
X X 1
kfk k∞,R = = +∞
k
k=1 k=1
per cui la serie non converge totalmente.
P∞ (−1)k
Esercizio 1.2.11. Dimostrare che la serie k=1 k+x converge uniformemente in [0, +∞)
ma non totalmente.
Proposizione 1.2.12. Sia {fkP }k∈N : Ω ⊆ R → R e sia x0 ∈ Ω. Supponiamo che le fk siano

continue
P∞ in x 0 e che la serie k=0 fk converga uniformemente in Ω. Allora la funzione
F := k=0 fk è continua in x0 .
Dimostrazione. Per ipotesi le somme parziali sono continue in x0 (perché somme delle fk
che lo sono) e convergono uniformemente ad F , quindi la tesi segue dal Teorema 1.1.11.

P∞ 1.2.13. Sia {fk }k∈N : [a, b] ⊆ R → R. Supponiamo che fk ∈ R([a, b])


Proposizione P∞e che
la serie k=0 fk converga uniformemente in [a, b]. Allora anche la funzione F := k=0 fk
è in R([a, b]) e inoltre:
Z bX∞ Z b ∞ Z b
X
fk (x) dx = F (x) dx = fk (x) dx.
a k=0 a k=0 a
1.2. SERIE DI FUNZIONI 19

Dimostrazione. Per ipotesi le somme parziali sono Riemann integrabili (perché somme
delle fk che lo sono) e convergono uniformemente ad F , quindi dal Teorema 1.1.18 e dalla
linearità dell’integrale segue che
Z b Z b Z b n
Z bX
F (x) dx = lim Sn (x) dx = lim Sn (x) dx = lim fk (x) dx
a a n→∞ n→∞ a n→∞ a
k=0
n Z
X b ∞ Z
X b
= lim fk (x) dx = fk (x) dx.
n→∞ a a
k=0 k=0

Proposizione 1.2.14. P {fk }k∈N : (a, b) ⊆ R → R con ogni fk èPderivabile in (a, b) ed esiste
x0 ∈ (a, b) tale che ∞ f (x
k=0 k 0 P ) converge, supponiamo che ∞
f
k=0 k
0 converge uniforme-

mente in (a, b) allora la F (x) = ∞ k=0 fk converge semplicemente in (a, b), la convergenza
è uniforme su ogni compatto contenuto in (a, b) e la F (x) è derivabile con F 0 (x) = ∞ 0
P
k=0 fk
ovvero:
 d X ∞ ∞
 X dfk
fk (x) = (x).
dx dx
k=0 k=0

1.2.2 Serie di potenze


Definizione 1.2.15. Chiamiamo serie di potenze ogni serie che abbia la struttura:

X
ak (x − x0 )k ,
k=0

con {ak }k∈N successione numerica e x0 ∈ R. Il numero x0 è detto centro della serie.
Osservazione 1.2.16. Per lo sviluppo di buona parte della teoria delle serie di potenze è
sufficiente
P∞ restringersi al caso in cui il centro della serie è lo 0. Questo perché ogni serie
a
k=0 k (x − x0 )k di centro x0 è ricondotta
P∞ ad kuna di centro zero semplicemente mediante
la traslazione w := x − x0 alla serie k=0 ak w che ha centro 0.
Data una serie di potenze anzitutto cerchiamo di Pcaratterizzarne il dominio di convergenza,
∞ k converge}.
ovvero di determinare l’insieme D := {x ∈ R : k=0 ak x
Osservazione 1.2.17. Il dominio non è mai vuoto, infatti 0 ∈ D.
Lemma 1.2.18. Se la serie converge in w allora converge puntualmente in (−|w|, |w|) e
la convergenza è totale nei compatti K contenuti in (−|w|, |w|).
Dimostrazione. Sia w un punto di convergenza. P Se w =k 0 allora la tesi è certamente vera,
quindi possiamo supporre w 6= 0. Per ipotesi ∞ k=0 ak w è una serie numerica convergente,
k
perciò la quantità ak w tende a 0. Questa sequenza quindi è limitata ovvero esiste c tale
che |ak wk | < c per ogni k. Quindi
 x k  |x| k
|ak xk | = ak wk · ≤c· .

w |w|
Per ogni compatto K ∈ (−|w|, |w|) esiste un numero α con 0 < α < |w| tale che
α k P∞
K ⊆ [−α, α]. Quindi quando x ∈ K si ha |ak xk | ≤ c |w| k

e quindi k=0 kak x k ≤
α k
c ∞
P 
k=0 |w| e questa è una serie convergente, visto che α/|w| < 1. Questo dimostra che
la serie data converge totalmente in K.
20 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Definizione 1.2.19. Chiamiamo raggio di convergenza la quantità ρ := sup{|x| : x ∈ D}.


Dal lemma precedente e dalla definizione di raggio di convergenza segue immediatamente
l’inclusione
(−ρ, ρ) ⊆ D ⊆ [−ρ, ρ],
che nel caso ρ sia infinito va intesa come D = R.
p
k
Proposizione 1.2.20 (Criterio di Cauchy–Hadamard). Sia l := lim supk→∞ |ak |. Allora
ρ = 1l (se l = ∞ allora ρ = 0 e se l = 0 allora ρ = +∞).

Proposizione 1.2.21 (Criterio di d’Alembert). Supponiamo che ak 6= 0 per ogni k e che


a
l := limk→∞ k+1ak
esista in R (quindi con +∞ ammesso tra i possibili valori). Allora
ρ = 1l (se l = +∞ allora ρ = 0 e se l = 0 allora ρ = +∞).

Dimostrazione. Entrambi i criteri seguono immediatamente dal criterio della radice e di


quello del confronto per le serie numeriche.

Osservazione 1.2.22. Consideriamo la serie ∞ k


P
k=0 ak x con ak = 1 se k è pari, e ak = 2
se k è dispari. In tale situazione il criterio della radice mostra immediatamente che ρ = 1,
mentre quello del quoziente non dà alcuna indicazione visto che |ak+1 |/|ak | = 2 per k
dispari e |ak+1 |/|ak | = 1/2 per k pari, per cui il limite non esiste.
Per questa serie inoltre si ha lim supk→∞ |ak+1 |/|ak | = 2, che non è l’inverso del suo
raggio di convergenza. Questo esempio mostra che quindi in generale non si può calcolare
il raggio di convergenza a partire dalla successione dei quozienti successivi, a meno che
questa non abbia un limite. Con il criterio della radice invece questo è sempre possibile,
visto che il limite superiore di una sequenza esiste sempre e che la Proposizione 1.2.21
afferma che questo è sempre uguale all’inverso del raggio. Per questo motivo il criterio di
Cauchy–Hadamard è il più generale dei due.
Esempio 1.2.23. Alcuni esempi:
xk = k2 2 → 1 si deduce che ρ = 1. Inoltre la serie converge
ak+1
• sia ∞
P
k=1 k2 . Visto che

ak (1+k)
sia in x = 1 e x = −1, quindi D = [−1, 1];

• sia ∞ 2 k
P
k=0 k x . Come prima dal criterio del rapporto segue subito che ρ = 1. La serie
però non converge né in 1 né in −1, quindi in questo caso D = (−1, 1);
xk
• la serie ∞
P
k=1 k converge in D = [−1, 1);
P∞ α k
• sia α ∈ R; la serie k=1 k x ha sempre raggio 1. Inoltre D = (−1, 1) se α ≥ 0 e
D = [−1, 1) se α < 0;
xk
ak+1
• sia ∞ = 1 → 0, quindi ρ = ∞ e D = R;
P
k=0 k! . Allora

ak k+1
P∞ a
• sia k=0 k!xk . Allora k+1 ak
= k + 1 → ∞, quindi ρ = 0 e D = {0}.
P∞ k
Teorema 1.2.24 (Abel). Se la serie k=0 ak x converge in w > 0 allora converge
uniformemente in [0, w] (se w < 0 allora la convergenza è uniforme in [w, 0]).

Dimostrazione. PSenza ledere la generalità della dimostrazione


P∞ possiamo supporre w = 1
∞ k k k
(perché la serie k=0 ak x può anche essere scritta
P∞come k=0 ak w (x/w) che ponendo
z := x/w risulta convergente in z = 1) e che k=0 ak = 0 (basta cambiare il termine
1.2. SERIE DI FUNZIONI 21

costante a0Pcon a0 − ∞
P
k=0 ak ).
Sia Ak := l≤k al (con A−1 := 0). Allora:

n
X n
X n
X n
X n
X n−1
X
ak xk = (Ak − Ak−1 )xk = Ak x k − Ak−1 xk = Ak x k − Ak xk+1
k=0 k=0 k=0 k=0 k=0 k=0

(questo perché abbiamo posto A−1 = 0), che possiamo riorganizzare come:

n−1
X
n
= An x − Ak (xk+1 − xk ).
k=0

Da questo calcolo segue che se m > n allora


m
X m
X n
X m−1
X
ak xk = ak xk − ak xk = Am xm − An xn − Ak (xk+1 − xk ).
k=n+1 k=0 k=0 k=n

Sia  > 0 fissato ad arbitrio. Per ipotesi ∞


P
k=0 ak = 0, ovvero Ak → 0 per k → ∞. Quindi
esiste N tale che |Ak | ≤  per ogni k ≥ N . Assumendo m > n ≥ N , dalla uguaglianza
precedente deduciamo che
m
X m−1
X
k m n
ak x ≤ |x| + |x| +  |xk+1 − xk |. (1.1)


k=n+1 k=n

Se inoltre x ∈ [0, 1], allora |xk+1 − xk | = xk − xk+1 così che


m−1
X m−1
X
|xk+1 − xk | = (xk − xk+1 ) = xn − xm ≤ xn ≤ 1,
k=n k=n

e la (1.1) dà
m
X
ak xk ≤ 3 ∀x ∈ [0, 1],


k=n+1
ovvero
m
X
k
ak x ≤ 3.


∞,[0,1]
k=n+1

Questo mostra che il criterio per la convergenza uniforme in [0, 1] è soddisfatto.

Corollario 1.2.25. Sia data una serie di potenze di centro 0 e raggio di convergenza ρ > 0.
Se la serie converge nel punto x = ρ allora essa converge uniformemente nei compatti di
(−ρ, ρ].
Dimostrazione. Ogni compatto K di (−ρ, ρ] è unione di due compatti, K0 e K1 , con K0 ⊆
(−ρ, 0] e K1 ⊆ [0, 1]. La serie converge uniformemente sia in K0 (per il Lemma 1.2.18)
sia in K1 (per il Teorema 1.2.24), quindi converge uniformemente anche nella loro unione,
ovvero in K.

Teorema 1.2.26. Sia ∞ k


P
k=0 ak x una serie
P di potenze con raggio ρ > 0. Allora la funzione
f : (−ρ, ρ) → R i cui valori sono f (x) = ∞ a
k=0 k x k è una funzione in C ∞ ((−ρ, ρ)). Inoltre:
22 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

i. La derivata `-esima di f è calcolabile nel modo seguente:



X ∞
X
f (`) = ak ·k(k − 1) · · · (k − ` + 1) ·xk−l = ak+l ·(k + `)(k + ` − 1) · · · (k − 1) ·xk ,
| {z } | {z }
k=0 k=0
` fattori ` fattori

in particolare anche le derivate sono serie di potenze;

ii. il raggio di convergenza di f (`) è ancora ρ;


f (`) (0)
iii. f (`) (0) = `!a` e quindi a` = `! .

Dimostrazione. Osserviamo che f è per ipotesi scritta come una serie di funzioni della
forma ak xk che quindi sono certamente funzioni di classe C 1 (in quanto polinomi). D’altra
parte la serie delle derivate è

X ∞
X
k−1 2
ak kx = a1 + 2a2 x + 3a3 x + · · · = ak+1 (k + 1)xk
k=0 k=0

che è ancora una serie di potenze. Sia ρ0 il suo raggio di convergenza. Allora ρ0 = l10 dove
1
l0 =: lim supk→∞ [(k + 1) · |ak+1 |] k (per il teorema di Hadamard sul raggio di convergenza).
Osserviamo che
1
1 1 
[(k + 1) · |ak+1 |] k = exp log (k + 1) + log(|ak+1 |)
k k
(questo vale anche se ak+1 = 0 ponendo exp(−∞) = 0). Inoltre la funzione esponenziale è
monotona crescente quindi lim supk→∞ exp(bk ) = exp(lim supk→∞ bk ) per ogni successione
bk , così
1 1   h1 1 i
l0 = lim sup exp log (k + 1)+ log(|ak+1 |) = exp lim sup log(k +1)+ log(|ak+1 |) .
k→∞ k k k→∞ k k
1
Ma k log(k + 1) → 0 quindi:
 h 1 i  hk + 1 1 i
l0 = exp lim sup 0 + log(|ak+1 |) = exp lim sup · log(|ak+1 |) .
k→∞ k k→∞ k k+1
k+1
Ma k → 1, quindi:
 1   1 
l0 = exp lim sup log(|ak+1 |) = lim sup exp log(|ak+1 |)
k→∞ k+1 k→∞ k+1
1
= lim sup |ak+1 | k+1 = 1/ρ,
k→∞

e perciò ρ0 = 1/l0 = ρ (di nuovo per il teorema di Hadamard sul raggio di convergenza).
Questo mostra che la serie delle derivate converge in (−ρ, ρ), totalmente nei compatti. Ma
allora su ciascun aperto (a, b) con −ρ < a < 0 < b < ρ valgono le ipotesi del teorema di
derivazione
P∞ (Proposizione 1.2.14, con 0 come x0 ). Questo dimostra che f è C 1 con f 0 (x) =
k−1 in tutto (a, b), e quindi in (−ρ, ρ). Iterando il processo (cosa possibile perché
k=0 ak kx
la derivata è una serie di potenze) si ha la tesi.
1.2. SERIE DI FUNZIONI 23

Osservazione 1.2.27. La convergenza è totale (quindi uniforme) nei compatti contenuti in


(−ρ, ρ), perciò

xX ∞ x ∞
ak xk+1
Z  X Z X
k k
ak u du = ak u du = ∀x ∈ (−ρ, ρ).
0 0 k+1
k=0 k=0 k=0

Osservazione 1.2.28. Dal teorema di Abel segue che se ∞ k


P
k=0 ak ρ converge allora l’ugua-
glianza
Z xX∞ ∞
 X ak xk+1
ak uk du =
0 k+1
k=0 k=0

vale anche per x = ρ (perché allora la convergenza è uniforme nei compatti di (−ρ, ρ]).
Osservazione 1.2.29. Sia S0 l’insieme delle serie di potenze formali di centro 0. Ovvero

X
ak xk , ak ∈ R, ∀k .

S0 =
k=0

L’aggettivo formale deriva dal fatto che non valutiamo questa serie per alcun valore di x,
ma usiamo xk solo come segnaposto del posto k-esimo. Il suo unico ruolo è quindi quello di
distinguere
P P ak P
P∞ i vari knumeri che compongono la serie. Siano dati due serie di potenze in S0 :
∞ k
1 := k=0 ka x e 2 := k=0 bk x , e un numero reale λ. Definiamo la serie somma, la
serie prodotto per lo scalare λ e la serie prodotto come:
P P P∞ k
• 1+ 2 := k=0 (ak + bk )x ,

• λ 1 := ∞ k
P P
k=0 λak x ,
P P P∞ P k
• 1· 2 := k=0 ( u,v≥0 au bv )x .
u+v=k

Con queste definizioni l’insieme S0 acquista la struttura di algebra reale commutativa con
unità. (che il prodotto
P sia commutativo è evidente dalla sua definizione, così come il fatto
che la serie E(x) := ∞ e
k=0 k x k con e = 1 ed e = 0 per ogni k ≥ 1 è l’unità moltiplicativa).
0 P k
È interessante verificare che un elemento ∞ k
k=0 ak x è invertibile in S0 se e solo se a0 6= 0.
Osservazione 1.2.30. Date due serie di potenze: 1 := ∞
P P k
P P∞ k
k=0 ak x e 2 := k=0 bk x di
raggio rispettivamente ρ1 e ρ2 . Definiamo la serie somma e la serie prodotto come fatto in
S0 , ovvero ponendo:
P P P∞ k
• 1+ 2 := k=0 (ak + bk )x ,
P P P∞ P k
• 1· 2 := k=0 ( u,v≥0 au bv )x .
u+v=k

Allora si hanno le seguenti proprietà (da verificare)

i. ρ(P1 + P2 ) e ρ(P1 · P2 ) sono entrambi ≥ min{ρ1 , ρ2 };


P P P P
ii. ( 1 + 2 )(x) = 1 (x) + 2 (x) se |x| < min{ρ1 , ρ2 };
P P P P
iii. ( 1 · 2 )(x) = 1 (x) · 2 (x) se |x| < min{ρ1 , ρ2 };

iv. Se ρ1 6= ρ2 allora ρ(P1 + P2 ) = min{ρ1 , ρ2 }.


24 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Esercizio 1.2.31. Sia α ∈ R fissato. Sia


(
  1
α α(α − 1) · · · (α − k + 1) se k ≥ 1
:= k!
k 1 se k = 0.

Si osservi che per α ∈ N questa funzione coincide con l’usuale coefficiente binomiale, ma
l’espressione data ha perfettamente senso per ogni α ∈ R.

i. Sia fα (x) := ∞ α k
P 
k=0 k x . Verificare che il raggio di convergenza di fα è 1 per α ∈ R\N
ed ∞ per α ∈ N.

ii. Verificare che


fα (x) = (1 + x)α |x| < 1.
(questo è un po’ difficile, ma può essere fatto in vari modi; ad esempio usando lo
sviluppo noto di Taylor della funzione (1 + x)α . In alternativa si può osservare che sia
fα (x) che (1 + x)α soddisfano l’equazione differenziale (1 + x)y 0 = αy con condizione
iniziale y(0) = 1. Dal teorema di esistenza ed unicità della soluzioni di questo tipo di
equazioni (che dimostreremo in seguito) segue allora l’uguaglianza fα (x) = (1 + x)α ).

iii. Osservare che f1/2 (x) · f1/2 (x) = 1 + x e che quindi il raggio di convergenza della serie
prodotto è ∞, mentre i raggi di convergenza dei fattori sono entrambi 1. Ciò mostra
che la stima ρ(P1 · P2 ) ≥ min{ρ1 , ρ2 } può di fatto essere una disuguaglianza stretta.

Osservazione 1.2.32. L’insieme { ∞ k


P
k=0 ak x , ρ ≥ 1} gode di buone proprietà algebriche (è
un’algebra reale commutativa con unità di cui l’insieme dei polinomi è una sottoalgebra)
ed analitiche (i suoi elementi sono di classe C ∞ e contiene sia le loro derivate che le loro
primitive, ovvero è un’algebra differenziale).
Il teorema precedente mostra che se una funzione f è esprimibile come serie di potenze di
centro x0 allora essa è di classe C ∞ e la serie di potenze che la rappresenta è necessariamente
la sua serie di Taylor di centro x0 , ovvero la serie

X f (`) (x0 )
(x − x0 )k .
`!
k=0

Il seguente esempio mostra che però non ogni serie di classe C ∞ ammette una tale rappre-
sentazione.
Esempio 1.2.33. Sia f : R → R la funzione i cui valori sono
( 2
e−1/x x 6= 0
f (x) =
0 x = 0.

La funzione f è C ∞ (R), con derivate date da


( 2
(`) P` ( x1 )e−1/x x 6= 0
f (x) = ∀` ∈ N,
0 x=0

dove P` è un polinomio (questo può essere dimostrato per induzione su `. Volendo si può
anche ricavare la formula P`+1 (u) = u2 (2P` (u) − P`0 (u)) che con la condizione P0 (u) = 1
1.2. SERIE DI FUNZIONI 25

consente di determinare i polinomi per ricorsione). Ma allora se f fosse rappresentabile


cone serie di potenze di centro 0, la sua rappresentazione dovrebbe essere la serie
∞ ∞
X f (`) (0) k
X
x = 0 · xk = 0
`!
k=0 k=0

la quale certamente converge ovunque, ma rappresenta la funzione identicamente 0 e non


la f .

Definizione 1.2.34. Sia Ω ⊆ R un aperto. Indichiamo con C ω (Ω) l’insieme di funzioni


n tali che ∀x0 ∈ Ω la serie di Taylor di f in x0 o
f : Ω → R, f ∈ C ∞ | .
converge ad f in un opportuno U (x0 ) aperto

Le funzioni di C ω (Ω) sono dette analitiche in Ω e l’Esempio 1.2.33 mostra che l’inclusione
C ω (Ω) ⊆ C ∞ (Ω) è stretta.
P∞ k
Proposizione 1.2.35 (Analiticità delle serie di potenze). Sia k=0 ak x una serie di
potenze
P∞ con ρ > 0. Allora la funzione f : (−ρ, ρ) → R i cui valori sono definiti da f (x) =
k
k=0 ak x è analitica in (−ρ, ρ).

Dimostrazione. Sia x0 ∈ (−ρ, ρ) fissato ad arbitrio. Per dimostrare la tesi dobbiamo dimo-
f (`)
strare che la serie di Taylor ∞ `
P
`=0 `! (x − x0 ) converge ad f (x) in un opportuno intorno
aperto del punto x0 . Dal Teorema 1.2.26 sappiamo che

X k!
f (`) (x0 ) = ak xk−` ∀`,
(k − `)! 0
k=`

quindi la serie di Taylor di f con centro x0 è la serie


∞ ∞ X
∞ ∞ X

f (`) (x0 )
 
X
`
X k! k−` `
X k k−`
(x − x0 ) = ak x0 (x − x0 ) = ak x (x − x0 )` .
`! (k − `)!`! ` 0
`=0 `=0 k=` `=0 k=`

In effetti, supponiamo di poter scambiare le due serie senza modificare il valore. Facendolo
otteniamo

∞ k  
X X k k−`
= ak x (x − x0 )`
` 0
k=0 `=0

(si osservi il nuovo range per k ed `). Per il teorema del binomiale la somma interna è
semplicemente (x0 + x − x0 )k = xk , quindi la serie è


X
= ak xk
k=0

che è appunto la f . Perché l’argomento sia completo dobbiamo però ancora giustificare
quello
P∞ scambio
P∞ nella serie doppia. Il teorema generale
P∞sulle
Pserie doppie P
garantisce che se
∞ ∞ P∞
m=0 |a
n=0 m,n | < ∞, allora vale l’uguaglianza m=0 a
n=0 m,n = n=0 m=0 am,n
26 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

(ovvero, se la serie doppia converge assolutamente, allora le serie possono essere commu-
tate). Quindi verifichiamo che quel passaggio è corretto mostrando che
∞ X
∞  
X k
|ak | |x0 |k−` |x − x0 |` < +∞. (1.2)
`
`=0 k=`

Sappiamo anche che le serie a termini reali nonnegativi possono essere sempre commutate,
senza modificare il valore (che però potrebbe essere +∞). Quindi non sappiamo ancora
se (1.2) sia effettivamente corretta, ma sicuramente si ha

∞ X
∞   ∞ X
k  
X k k−` `
X k
|ak | |x0 | |x − x0 | = |ak | |x0 |k−` |x − x0 |`
` `
`=0 k=` k=0 `=0

X
= |ak |(|x0 | + |x − x0 |)k
k=0

(per l’ultimo passo si è usato ancora il teorema del binomiale). Per concludere basta allora
osservare che questa serie è sicuramente convergente se |x0 |+|x−x0 | < ρ (perché sappiamo
che la serie di potenze originaria converge assolutamente in (−ρ, ρ)). Visto che |x0 | < ρ
per ipotesi, basta quindi prendere x in modo che |x − x0 | < ρ − |x0 |: questa disuguaglian-
za definisce un intorno aperto di x0 e i calcoli precedenti sono quindi giustificati pur di
prendere x in questo aperto. La tesi è quindi dimostrata.

In base alla sua definizione, essere analitico in Ω significa essere localmente rappresentabile
come serie di potenze. La Proposizione 1.2.35 precedente mostra che se una funzione è
globalmente rappresentabile in serie di potenze in (−ρ, ρ), allora lo è anche localmente. La
proposizione quindi esprime una situazione in cui la proprietà globale implica la presenza
della analoga proprietà locale in ogni punto. Altri concetti hanno la medesima interpreta-
zione, ad esempio la continuità, l’invertibilità (lo vedremo fra poco), l’integrabilità, nonché
contesti algebrici in cui ad esempio l’esistenza di soluzioni in interi o in razionali dell’equa-
zione P (x) = 0 con P ∈ Z[x] è messa in relazione alla sua risolubilità in R e nei campi
finiti Z/pZ (principio di Hasse). Come spesso accade, non è vero il contrario, ovvero il fatto
che una funzione sia localmente sempre rappresentabile in serie di potenze di per sé non
garantisce che quella funzione sia globalmente rappresentabile in serie di potenze (ovvero
che esista una serie di potenze che la rappresenta su tutto il suo dominio). Un esempio di
questo fenomeno è la funzione f (x) = 1/(1 + x2 ), che è analitica in R ma non ammette
alcuna rappresentazione in serie di potenze convergente su R.
Abbiamo già visto che se una funzione f è rappresentabile come serie di potenze di centro
x0 in un intorno di x0 allora tale serie deve esse quella associato al suo sviluppo di Taylor
centrato in x0 , ma l’esempio precedente mostra anche che non sempre tale sviluppo effet-
tivamente converge o converge ad f . La seguente proposizione mostra però che sotto una
opportuna condizione uniforme di crescita sulle derivate si ha effettivamente la convergenza
della serie ad f .

Proposizione 1.2.36. Sia f : (−r, r) ⊆ R → R di classe C ∞ in (−r, r). Supponiamo che


kf (k) k∞,(−r,r)  rk!k per k → ∞. Allora f è rappresentata in (−r, r) dalla sua serie di
Taylor di centro 0.
1.2. SERIE DI FUNZIONI 27

È possibile dimostrare che la stima enunciata nella proposizione è di fatto anche condizione
necessaria per la convergenza ad f della serie di Taylor; la dimostrazione di questo fatto
però pertiene all’analisi complessa e non sarà discussa in queste note.
P −1 f (k) (0) k
Dimostrazione. Fissato x ∈ (−r, r) valutiamo la differenza f (x) − N k=0 k! x e verifi-
chiamo che tende a 0. Il secondo termine della differenza è il polinomio di Taylor arrestato
all’ordine N − 1. Dal teorema di Lagrange sappiamo che esiste ξ tra 0 ed x tale per cui la
(N )
differenza considerata sopra è uguale a f N !(ξ) xN . Visto che |ξ| ≤ |x| < r, abbiamo

N −1 (k)
X f (0) k f (N ) (ξ) N |x|N
f (x) − x = x ≤ kf (N ) k∞,(−r,r) ·

k! N! N!
k=0
N ! |x|N  |x| N
 N · = → 0 per N → ∞ (con x ed r fissati)
r N! r
poiché |x| < r.

Teorema 1.2.37. Per ogni x ∈ R valgono le uguaglianze


∞ ∞ ∞
x
X xk X (−1)k 2k+1 X (−1)k
e = , sin x = x e cos x = x2k .
k! (2k + 1)! (2k)!
k=0 k=0 k=0

Dimostrazione. Sia f (x) := ex e sia r un qualunque reale positivo fissato. Per ogni k ∈ N
si ha f (k) (x) = ex , così che kf (k) k∞,(−r,r) = er . Questa quantità è  rk!k poiché il rapporto
er rk
k! tende a 0 (al divergere di k, con r fissato). Questo dimostra che kf (k) k∞,(−r,r)  rk!k ,
che per la Proposizione 1.2.35 garantisce la rappresentabilità di ex tramite la sua serie
di potenze nell’insieme (−r, r). Visto che r è arbitrario, la rappresentabilità di fatto è
dimostrata in R.
Le altre identità sono dimostrate in modo analogo.

Queste identità presuppongono l’aver definito ex (risp. sin x, cos x) come quella funzione
che soddisfa l’equazione differenziale y 0 − y = 0 (risp. y 00 + y = 0) con condizione iniziale
y(0) = 1 (risp. y(0) = 0, y 0 (0) = 1 per il seno e y(0) = 1, y 0 (0) = 0 per il coseno). In realtà
sarebbe del tutto logico usare l’identità per definire le funzioni e ritrovare a posteriori le
usuali proprietà di queste funzioni a partire da queste rappresentazioni in serie di potenze.
Questo modo di procedere ha il vantaggio di essere completamente analitico (senza l’uso ad
esempio della circonferenza goniometrica o di altri artifici geometrici). L’unico punto di una
qualche complessità è dimostrare l’esistenza di π, ovvero di un numero in cui sin π = 0, e la
2π periodicità di seno e coseno. La cosa è però perfettamente possibile e chi è interessato
può trovare questa trattazione nelle prime pagine di [R1].
Esercizio 1.2.38. Utilizzando la loro rappresentazione in serie di potenze, verificare le
identità seguenti:

i. ex · ey = ex+y ,

ii. sin(x + y) = sin x cos y − cos x sin y,

iii. eix = cos x + i sin x.


28 CAPITOLO 1. SUCCESSIONI E SERIE DI FUNZIONI

Osservazione 1.2.39. A stretto rigore l’ultima identità esula dalla nostra trattazione delle
serie di potenze, poiché abbiamo sempre assunto che le funzioni oggetto della trattazione
fossero di variabile reale e a valori reali. Un momento di riflessione mostra però che di R
abbiamo sempre e solo usato la struttura di campo e la completezza come spazio metrico. In
particolare tutti i teoremi dimostrati restano validi se i coefficienti {ak }k∈N e la variabile
x che appaiono in ∞ k
P
k=0 k x sono presi in C: l’unica differenza è che ora la regione di
a
convergenza individuata dal raggio sarà il disco aperto {x ∈ C : |x| < ρ}, anziché il solo
segmento (−ρ, ρ). In particolare, le identità del Teorema 1.2.37 risultano valide anche
quando le funzioni sono immaginate di variabile complessa. È a tale estensione che si
riferisce l’identità (iii.) dell’esercizio.
Capitolo 2

Funzioni implicite

2.1 Premessa
Supponiamo sia data una funzione f : Ω ⊆ Rm → R, chiamiamo luogo degli zeri di f
l’insieme
Zf := {x ∈ Ω : f (x) = 0}.
L’obiettivo di questo capitolo è fornire risultati che consentano di descrive Zf per opportune
classi di funzioni.
Osservazione 2.1.1.
i. L’unione (anche molteplice) e l’intersezione di luoghi di zeri sono a loro volta luogo di
zeri: infatti, se Zf = {x : f (x) = 0} e Zg = {x : g(x) = 0} allora Zf ∪ Zg = Zf ·g e
Zf ∩ Zg = Zf 2 +g2 .
ii. Ogni grafico di funzione è il luogo degli zeri di una qualche funzione; infatti, data la
funzione g, la funzione f (x, y) := y − g(x) ha per luogo degli zeri proprio il grafico di g.
iii. In generale i luoghi di zeri non sono grafici di funzioni, ad esempio la circonferenza di
centro (0, 0) e raggio 1 è il luogo degli zeri di x2 + y 2 − 1 ma non è il grafico di alcuna
funzione.
L’obiettivo dei prossimi teoremi è dimostrare che se f è abbastanza “buona” allora Zf è
localmente il grafico di una funzione. Per esempio:
y


La porzione a tratto continuo è il grafico di y = 1 − x2 .
y

p
La porzione a tratto continuo è il grafico di x = 1 − y2.

29
30 CAPITOLO 2. FUNZIONI IMPLICITE

In seguito vedremo che senso dare all’espressione informale “funzione buona”. Possiamo
però anticipare già ora che esso non si riferisce alla sola regolarità di f : esistono funzioni
f di classe C ∞ o addirittura analitiche, quindi decisamente regolari, che però non sono
sufficientemente “buone”.
Il seguente risultato è decisamente elementare, tuttavia esso è di facile implementazione
poiché consente di determinare l’esistenza degli zeri sotto ipotesi molto deboli.

Proposizione 2.1.2. Data f : [a, b] × [c, d] → R supponiamo:

1. ∀x ∈ [a, b], f (x, ·) : [c, d] → R è continua e f (x, c) · f (x, d) < 0;

2. ∀x ∈ [a, b], f (x, ·) è strettamente monotona.

Allora il grafico degli zeri di f in [a, b] × [c, d] coincide con il grafico di una funzione
φ : [a, b] → [c, d].

Dimostrazione. Sia x0 ∈ [a, b] fissato. Dalla prima ipotesi (via il teorema degli zeri) segue
che esiste almeno un punto in cui la funzione f (x0 , ·) : [c, d] → R si annulla, dalla seconda
ipotesi segue che esso è unico. Poiché questo vale per ogni x0 ∈ [a, b] si ha la tesi.

2.2 Teorema di Dini


Una volta stabilita l’esistenza della funzione φ vorremmo conoscerne la regolarità. Questa
informazione è esattamente quanto fornito dal risultato seguente.

Teorema 2.2.1 (Dini monodimensionale). Sia f : Ω ⊆ R2 → R, con Ω aperto e f ∈ C 1 (Ω).


Sia poi (x0 , y0 ) ∈ Ω tale che:

i. f (x0 , y0 ) = 0,

ii. ∂y f (x0 , y0 ) 6= 0.

Allora esistono un rettangolo aperto (a, b)×(c, d) con (x0 , y0 ) ∈ (a, b)×(c, d) e [a, b]×[c, d] ⊆
Ω ed una funzione φ : (a, b) → (c, d) tali che:

iii. il luogo degli zeri di f in (a, b) × (c, d) coincide con il grafico di φ,

iv. la funzione φ è in C 1 ((a, b)) ed

∂x f
φ0 (x) = − (x, φ(x)) ∀x ∈ (a, b).
∂y f

Dimostrazione. Assumiamo ∂y f (x0 , y0 ) > 0 (altrimenti basta cambiare f con −f , cosa


che modifica il segno della derivata senza modificare il luogo degli zeri). Visto che ∂y f è
continua e che Ω è aperto, esiste [a0 , b0 ] × [c, d] ⊆ Ω contenente il punto (x0 , y0 ) in cui
∂y f > 0.
2.2. TEOREMA DI DINI 31

d Ω
(x0 , y0 )

c x
a0 b0

Consideriamo la restrizione di f lungo la retta x = x0 , ovvero la mappa f (x0 , ·) : [c, d] → R.


Essa vale 0 in y0 ed è strettamente crescente, quindi f (x0 , c) < 0 e f (x0 , d) > 0. Ma f è
continua perciò esiste U ((x0 , c)) dove f < 0 ed esiste U ((x0 , d)) dove f > 0. Allora esiste
[a, b] con a0 ≤ a < x0 < b ≤ b0 in cui f (x, c) < 0 e f (x, d) > 0 per ogni x ∈ [a, b].

+ + +++
d d d

(x0 , y0 ) (x0 , y0 ) (x0 , y0 )

c c c
− −−−

a0 b0 a0 b0 a0 a b b0

Ristretta ad [a, b] × [c, d] la funzione f soddisfa le ipotesi della Proposizione 2.1.2, perciò
esiste φ : [a, b] → [c, d] tale che il luogo degli zeri di f in [a, b] → [c, d] coincide con il grafico
di φ. Si osservi che in realtà non vi sono zeri sui lati [a, b] × {c} e [a, b] × {d} del rettangolo.
Quindi la mappa φ è in realtà a valori in (c, d). È quindi possibile considerare φ come
mappa : (a, b) → (c, d) (in questo modo sia il dominio che il codominio sono aperti, cosa
che semplifica la dimostrazione della regolarità di φ).
Dimostriamo ora la regolarità della funzione φ. Sia x ∈ (a, b) fissato e sia h 6= 0 ma
abbastanza piccolo perché si abbia comunque x + h ∈ (a, b). La funzione f si annulla sia in
(x, φ(x)) che in (x + h, φ(x + h)) (per come è stata costruita φ), e inoltre è C 1 (Ω), quindi
per il teorema di Lagrange si ha

0 = f (x + h, φ(x + h)) − f (x, φ(x)) = h∇f (α, β), (h, φ(x + h) − φ(x))i,

dove (α, β) è un punto opportuno sul segmento congiungente (x, φ(x)) e (x + h, φ(x + h)).

(x + h, φ(x + h))
(α, β)

(x, φ(x))

Perciò:
(φ(x + h) − φ(x)) · ∂y f (α, β) + h∂x f (α, β) = 0
32 CAPITOLO 2. FUNZIONI IMPLICITE

ovvero
∂x f
φ(x + h) − φ(x) = − (α, β) · h (2.1)
∂y f
(questa relazione è corretta perché sappiamo che ∂y f (α, β) 6= 0 visto che (α, β) ∈ [a, b] ×
[c, d] e che ∂y f non si annulla in questo rettangolo). Ma ∂∂xy ff è continua in [a, b] × [c, d]
(quoziente di funzioni continue e denominatore diverso da zero) e [a, b]×[c, d] è un compatto.
Questo garantisce l’esistenza del numero M := k ∂∂xy ff k∞,[a,b]×[c,d] , e visto che (α, β) ∈ [a, b]×
[c, d] da (2.1) segue che
|φ(x + h) − φ(x)| ≤ M · |h|.
Questa relazione mostra che φ è lipschitziana in x e quindi in particolare che è continua.
∂x f
Questo implica che se h → 0 allora (α, β) → (x, φ(x)). Insieme alla continuità di ∂yf questo
∂x f ∂x f
garantisce che limh→0 ∂yf (α, β) esiste e vale ∂y f (x, φ(x)). Così

φ(x + h) − φ(x) ∂x f ∂x f
=− (α, β) → − (x, φ(x)),
h ∂y f ∂y f

che dimostra sia la derivabilità di φ in x sia la formula φ0 (x) = − ∂∂xy ff (x, φ(x)). Poiché x è
stato scelto ad arbitrio in (a, b), di fatto la formula è valida in tutto (a, b). L’uguaglianza
allora mostra anche che φ0 è continua, perché la funzione − ∂∂xy ff (x, φ(x)) risulta composizione
di mappe continue.

Corollario 2.2.2. Supponiamo valide le ipotesi e le notazioni del teorema precedente. Se


poi f ∈ C k (Ω), allora φ è di classe C k ((a, b)).
Dimostrazione. La dimostrazione è per induzione su k. La tesi vale per k = 1 in virtù del
teorema. Sia inoltre k > 1, e che la la tesi sia già stata dimostrata per tutti gli ordini fino
a k − 1. consideriamo la relazione
∂x f
φ0 (x) = − (x, φ(x)),
∂y f

il cui lato destro esprime una funzione di classe C k−1 , poiché composizione delle derivate
parziali di f (che sono di classe C k−1 ) e della φ (che è di classe C k−1 per ipotesi induttiva).
Ma allora φ0 è di classe C k−1 , ovvero φ è di classe C k .

Osservazione 2.2.3. Il Teorema 2.2.1 assume (tra le altre cose) che ∂y f (x0 , y0 ) 6= 0. Se
invece si ha ∂x f (x0 , y0 ) 6= 0 si può comunque procedere scambiando il ruolo delle coordinate
x ed y. In particolare, sotto la nuova ipotesi si è in grado di garantire l’esistenza ψ : (c, d) →
(a, b) tale che l’insieme x = ψ(y) coincide localmente col luogo degli zeri di f . Quindi se
almeno una delle derivate parziali è diversa da zero, allora possiamo garantire che il luogo
degli zeri di f è localmente grafico di una qualche funzione (y funzione di x o x funzione di
y, eventualmente di entrambi i tipi qualora entrambe le derivate fossero diverse da 0). Ciò
porta a definire critici quei punti che oltre ad essere zeri di f sono anche zeri del gradiente
di f : in quei punti il luogo degli zeri non può essere studiato con il teorema di Dini.
Esempio 2.2.4.
• Sia f (x, y) = x2 − y 2 . Allora f (0, 0) = 0 ma ∇f (0, 0) = (0, 0) e l’insieme degli zeri di f
è l’unione delle rette y = x e y = −x che in un intorno di (0, 0) non è il grafico di una
funzione.
2.3. CONTRAZIONI E TEOREMA DEL PUNTO FISSO 33

• Sia f (x, y) = x2 + y 2 . Allora f (0, 0) = 0 ma ∇f (0, 0) = (0, 0) e il luogo degli zeri di f è


il solo punto (0, 0) che non è un grafico.

• Sia f (x, y) = y 2 − x2 (x + 1). Allora f (0, 0) = 0 ma ∇f (0, 0) = (0, 0) e il luogo degli zeri
non è il grafico di alcuna funzione in (0, 0).

Osserviamo che la dimostrazione precedente può essere facilmente estesa al caso in cui
f : Ω ∈ Rm × R → R, ovvero al caso in cui la variabile x varia nello spazio vettoriale Rm
anziché nel campo scalare R. Essa non può invece essere (facilmente) adattata al caso in
cui anche la variabile y vari nello spazio vettoriale Rn (con n > 1). Infatti, l’argomento
che abbiamo usato utilizza il fatto che (sotto certe ipotesi) le restrizioni verticali f (x, ·)
assumono valori di segno opposto e che quindi (per la continuità) debba esistere uno zero “in
mezzo”. Questa affermazione ha senso in R perché in R gli unici connessi sono gli intervalli,
e questo fatto collega la relazione d’ordine (che ci consente di dare senso al termine “in
mezzo”) alla proprietà topologica di connessione. In Rn con n > 1, invece, questo legame
viene meno (gli intervalli non sono gli unici connessi di Rn se n > 1) e la dimostrazione non
è più possibile. Il teorema di Dini è però comunque valido anche nella forma più generale:
questo è appunto la tesi contenuta nel Teorema 2.5.1 che dimostreremo più avanti seguendo
però un approccio diverso.

2.3 Contrazioni e Teorema del punto fisso


Ora ci prendiamo una pausa dal tema principale della sezione per discutere un importante
risultato negli spazi metrici completi. Con questo strumento riusciremo sia a generalizzare il
teorema di Dini sia, in seguito, a dimostrare l’esistenza ed unicità di soluzioni dei problemi
di Cauchy.

Definizione 2.3.1. Sia (X, d) uno spazio metrico completo e T una mappa T : X → X.
Diciamo che T è una contrazione se esiste λ < 1 tale che d(T x, T y) ≤ λd(x, y) per ogni
x, y ∈ X (ovvero se T è lipschitziana con costante di Lipschitz < 1).
34 CAPITOLO 2. FUNZIONI IMPLICITE

Esercizio 2.3.2. Sia f : (a, b) ⊆ R → (a, b), di classe C 1 . Verificare che f è lipschitziana se
e solo se kf 0 k∞,(a,b) < +∞, ed è una contrazione se e solo se kf 0 k∞,(a,b) < 1.
Teorema 2.3.3 (Banach–Caccioppoli). Sia (X, d) uno spazio metrico completo e T : X →
X una contrazione. Allora l’equazione T x = x ha una e una sola soluzione.
Dimostrazione. Sia x0 ∈ X scelto ad arbitrio ma fissato. Sia {xn }n∈N la successione definita
per ricorrenza ponendo xn+1 = T xn per ogni n ≥ 1, ovvero la successione

| ◦ .{z
xn = T . . ◦ T} x0 .
n volte

Dalla disuguaglianza triangolare e dalla ipotesi secondo cui T è una contrazione segue che

d(x, y) ≤ d(x, T x) + d(T x, T y) + d(T y, y) ≤ d(x, T x) + λd(x, y) + d(T y, y),

e quindi che
1
d(x, y) ≤ (d(x, T x) + d(y, T y)). (2.2)
1−λ
Osserviamo inoltre che iterando la definizione di contrazione si ha la stima

d(xn+1 , xn ) = d(T xn , T xn−1 ) ≤ λd(xn , xn−1 ) ≤ · · · ≤ λn d(x1 , x0 ). (2.3)

Applicando quindi (2.2) ed (2.3) ai punti xn e xm otteniamo che


1 λn + λm
d(xn , xm ) ≤ (d(xn , T xn ) + d(xm , T xm )) ≤ d(x1 , x0 ). (2.4)
1−λ 1−λ
Fissiamo  > 0, e sia N : λN ≤  (tale N esiste, visto che λ < 1). Allora se m, n ≥ N si ha
2d(x1 , x0 )
d(xn , xm ) ≤  ·
1−λ
che dimostra che {xn }n∈N è una successione di Cauchy. La successione quindi converge,
perché per ipotesi siamo in uno spazio metrico completo. Sia x∞ := limn→∞ xn . Allora

T (x∞ ) = T ( lim xn ) = lim T xn = lim xn+1 = x∞ .


n→∞ n→∞ n→∞

(al secondo passo abbiamo usato la continuità di T ) che mostra come x∞ sia un punto
fisso per T .
Verifichiamo ora l’unicità del punto fisso. Siano x e y punti fissi. Allora dalla (2.2) si deduce
1
che d(x, y) ≤ 1−λ (d(x, x) + d(y, y)) = 0 (in quanto T x = x e T y = y) e questo implica che
d(x, y) = 0, ovvero che x = y.

Osservazione 2.3.4. È importante ricordare che la dimostrazione contiene un metodo co-


struttivo per individuare x∞ . Infatti, passando al limite nella (2.4) si deduce che
λn
d(xn , x∞ ) = d(xn , lim xm ) = lim d(xn , xm ) ≤ d(x1 , x0 ),
m→∞ m→∞ 1−λ
che dà una stima esplicita per la distanza di xn da x∞ , in funzione dei dati. Nelle ap-
plicazioni si può quindi generare una sequenza {xn }n∈N a partire da un x0 scelto a caso,
fissare un parametro  > 0 che rappresenta la precisione del calcolo, individuare un indice
N = N () in corrispondenza del quale λN ≤  d(T1−λ
x0 ,x0 ) , ed usare xN come approssimazione
del punto fisso x∞ : il calcolo precedente mostra che xN dista da x∞ meno di .
2.3. CONTRAZIONI E TEOREMA DEL PUNTO FISSO 35

Il teorema può essere generalizzato nel modo seguente.


Corollario 2.3.5. Sia (X, d) uno spazio metrico completo e T : X → X. Supponiamo che
esista k tale che T (k) = T ◦ . . . ◦ T (k volte) sia una contrazione. Allora T ha uno ed un
solo punto fisso.
Dimostrazione. Sia x∞ il punto fisso per T (k) (che esiste per via del Teorema 2.3.3). Allora

T (k) (T x∞ ) = (T
| ◦ T ◦{z· · · ◦ T})(T x∞ ) = T
(k+1)
x∞ = T (T (k) x∞ ) = T x∞ ,
k volte

perciò T x∞ è un punto fisso per T (k) . Ma T (k) ha x∞ come unico punto fisso quindi
T x∞ = x∞ , ovvero x∞ è punto fisso per T . Inoltre, è evidente che ogni punto fissato da T
è fissato anche da T (k) , quindi quello trovato è in effetti l’unico punto fisso di T .

Osservazione 2.3.6. Se T è contrazione allora anche T (2) (mappa iterata due volte) è
contrazione visto che

d(T (2) (x), T (2) (y)) = d(T (T x), T (T y)) ≤ λd(T x, T y) ≤ λ2 d(x, y),

e λ2 < λ < 1. Lo stesso vale per le iterate successive. La funzione T : R → R con


T (x) = cos x è un esempio di mappa che non è contrattiva ma per la quale esiste una
sua iterazione (nel suo caso basta T (2) (x) = cos(cos x)) che lo è. Questo esempio mostra
che il corollario precedente non è banale: effettivamente esistono mappe non contrattive
con iterata contrattiva.
Esempio 2.3.7. Il metodo di Newton è un algoritmo per determinare gli zeri di una funzione
f : R → R. L’idea di base è la seguente: dato un punto x0 scelto a caso sull’ascissa, si trova
la tangente al grafico nel punto (x0 , f (x0 )). L’intersezione della tangente con l’asse delle
ascisse darà un nuovo punto che sarà l’elemento x1 della successione che stiamo costruendo.
Si ripete la costruzione precedente a partire da x1 .
y

Retta tangente al grafico di f nel punto


(xn , f (xn )): y = f 0 (xn )(x − xn ) + f (xn ).
Punto sulla tangente ad ordinata nulla: 0 =
f 0 (xn )(xn+1 − xn ) + f (xn ) ovvero

f (xn )
xn+1 = xn − .
f 0 (xn )
x
xn+1 xn

Sotto opportune ipotesi su f (sostanzialmente che essa è di classe C 2 e localmente stret-


tamente monotona) e sulla scelta di x0 (sufficientemente vicino ad x∞ ) si dimostra che la
successione {xn }n∈N effettivamente converge al punto x∞ in cui f si annulla.
Esercizio 2.3.8. Vogliamo trovare una soluzione di f (x) = 0 con f (x) = x3 + 2x − 1,
utilizzando il metodo di Newton. Sia
f (x) x3 + 2x − 1 2x3 + 1
T (x) := x − = x − = .
f 0 (x) 3x2 + 2 3x2 + 2
36 CAPITOLO 2. FUNZIONI IMPLICITE

La mappa T è effettivamente una contrazione come mappa da R → R, ma la dimostrazione


di questa affermazione è complicata (in effetti la sua costante di Lipschitz vale 0.9732 . . .
che essendo molto vicina ad 1 richiede una analisi molto accurata per essere determinata).
Osserviamo però che T : [0, 1] → [0, 1] e che in questo sottointervallo

6x4 +12x2 −6x 1 4+12x−12x2 −3x4 1 (4−3x4 )+12x(1−x) 1


T 0 (x) = 2 2
= − 2 2
= − 2 2

(3x + 2) 2 2(3x + 2) 2 2(3x + 2) 2
1 4−12x+36x +21x2 4 1 4−12x+36x 2 1
T 0 (x) = − + 2 2
≥− + 2 2
≥−
2 2(3x + 2) 2 2(3x + 2) 2

quindi |T 0 (x)| ≤ 12 .
Da Lagrange sappiamo che |T (x) − T (y)| = |T 0 (ξ)| · |x − y| ≤ 12 |x − y| perciò T è una
contrazione come mappa [0, 1] → [0, 1]. Esiste quindi ed è unico il punto fisso di T in
[0, 1], ovvero la soluzione in [0, 1] di T x = x, ovvero di f (x) = 0. Inoltre, sappiamo che
se x0 è scelto a caso ed {xn }n∈N è la successione generata per induzione secondo la legge
xn = T xn−1 , allora si ha:
1 n

2 1 2x30 + 1
|xn − x∞ | ≤ 1 |x1 − x0 | = 2n−1 3x2 + 2 − x0 .

1− 2 0

Scegliendo x0 = 0 si ha:

x0 = 0 x1 = T (x0 ) = 0.5 x2 = T (x1 ) = 0.45454545 . . .


x3 = T (x2 ) = 0.45339833 . . . x4 = T (x3 ) = 0.45339765 . . . x5 = T (x5 ) = 0.45339765 . . .

La successione sembra convergere più velocemente di quanto stimato. Ciò però non è dovuta
ad una stima inefficiente di T 0 (x): in effetti sup[0,1] |T 0 (x)| = T 0 (1) = 25
12
= 0.48, molto
9 6
16x +51x +...
vicino alla nostra stima di 0.5. Osserviamo però che T (2) (x) = T (T (x)) = 36x 8 +78x6 +... ha
1
una derivata che in modulo è ≤ 10 in [0, 1] (un po’ difficile da verificare). Ne segue che
se poniamo S := T (2) e generiamo la sequenza iterando S anziché T , ovvero se poniamo
xn = S n x0 = T (2n) x0 allora per x0 = 0 vale:

1 10 4 8/9
|xn − x∞ | ≤ · · = n.
10n 9 5 10
1
Il fattore 10 è decisamente migliore del (1/2)2 che si era ottenuto prima per la stessa
sequenza.
Esercizio 2.3.9. Cercare le soluzioni di f (x) = 0, dove f (x) = x5 + 4x − 4.
2.4. TEOREMA DI INVERTIBILITÀ LOCALE 37

2.4 Teorema di invertibilità locale


Prima di enunciare e dimostrare il teorema è bene ricordare un paio di lemmi. Il primo
dimostra la proprietà di sub-moltiplicatività della norma euclidea di una matrice.

Lemma 2.4.1. Sia A = (ai,j )m,n ∈ M (m × n, R) e B = (bj,l )n,k ∈ M (n × k, R). Sia

m X
X n 1/2 n X
X k 1/2
kAk2 := k(ai,j )k2 := a2i,j , kBk2 := k(bj,l )k2 := b2j,l .
i=1 j=1 j=1 l=1

Allora k · k2 è una norma in M (m × n, R) rispetto alla quale questo spazio è di Banach.


Inoltre
kABk2 ≤ kAk2 · kBk2 .
Ne segue che rispetto a quella norma lo spazio M (m×m, R) (le matrici quadrate) acquisisce
la struttura di algebra di Banach.

Si osservi che tra le possibili scelte di B v’è B ∈ M (n × 1, R), ovvero B è un vettore di


Rn . In tal caso la norma di B come matrice coincide con la usuale norma euclidea.

Dimostrazione. È evidente che k · k2 è nonnegativa e che si annulla solo per la matrice


nulla. Anche la omogeneità di k · k2 è chiara. Per la subadditività osserviamo che dalla
disuguaglianza di Cauchy–Schwarz (usata in Rmn ) segue che
m X
X n
kA + A0 k22 = k(ai,j ) + (a0i,j )k22 = k(ai,j + a0i,j )k22 = (ai,j + a0i,j )2
i=1 j=1
m X
X n
= kAk22 + 2 ai,j a0i,j + kA0 k22
i=1 j=1
m X
hX n m X
i1/2 h X n i1/2
2
≤ kAk22 + 2 a2i,j a0 i,j + kA0 k22
i=1 j=1 i=1 j=1
2
= kAk22 + 2kAk2 kA0 k2 + kA0 k22 = kAk2 + kA0 k2 ,

che è equivalente alla tesi.


La completezza di M (m × n, R) con questa norma deriva immediatamente dal fatto che
M (m × n, R) è uno spazio vettoriale reale finito dimensionale, e che in tali spazi tutte le
norme sono equivalenti (per cui quella appena definita è equivalente ad esempio alla norma
del sup).
Analogamente, dalla disuguaglianza di Cauchy–Schwarz (in Rn ) segue che

n
X m X
X k Xn 2 Xm X
k hX
n n
ih X i
kABk22 = k( ai,j bj,l )i,l k22 = ai,j bj,l ≤ a2i,j b2j,l


j=1 i=1 l=1 j=1 i=1 l=1 j=1 j=1
m X
hX n k X
ih X n i
= a2i,j b2j,l = kAk22 · kBk22 .
i=1 j=1 l=1 j=1

Il secondo lemma mostra una proprietà simile, ma per funzioni a valori matriciali.
38 CAPITOLO 2. FUNZIONI IMPLICITE

Lemma 2.4.2. Sia F : X → M (m × n, R). Poniamo


m X
X n 1/2
k|F k|2,∞,X := kFij k2∞,X .
i=1 j=1

Sia poi f : Ω ⊆ Rm → Rn con Ω aperto convesso, di classe C 1 (Ω). Allora

kf (x) − f (w)k2 ≤ k|Jf k|2,∞,X · kx − wk2 .

Dimostrazione. Siano fj : Ω ⊆ Rm → R con j = 1, . . . , n le n funzioni che danno le


coordinate della funzione f , ovvero tali per cui f = (f1 , f2 , . . . , fn ). Ogni fj è a valori
scalari, e per il teorema di Lagrange fj (x) − fj (w) = h∇fj (α), x − wi dove α sta nel
segmento che congiunge x e w (qui si usa il fatto che Ω è per ipotesi convesso, così il
segmento è effettivamente tutto in Ω). Per Cauchy–Schwarz:

|fj (x) − fj (w)|2 ≤ k∇fj (α)k22 · kx − wk22

e quindi
m
∂fj 2
X 
|fj (x) − fj (w)|2 ≤ · kx − wk22 .
∂xi ∞,X

i=1
Questo risultato vale per ogni j = 1, . . . , n e sommando le varie disuguaglianze al variare
di j otteniamo la tesi.

Teorema 2.4.3 (Invertibilità locale). Sia f : Ω ⊆ Rn → Rn , Ω aperto. Supponiamo f ∈


C 1 (Ω) e sia x0 ∈ Ω con Jf (x0 ) invertibile. Allora esiste un intorno U(x0 ) e un intorno
V(f (x0 )) aperti tali che f |U (x0 ) : U(x0 ) → V(f (x0 )) è biunivoca con f −1 ∈ C 1 (V(f (x0 ))).
Inoltre
(Jf −1 )(f (x)) = [(Jf )(x)]−1 ∀x ∈ U(x0 ).
L’aperto V(f (x0 )) può essere preso in modo da essere una bolla aperta di centro f (x0 ).

Dimostrazione. La dimostrazione è un’applicazione del teorema di punto fisso. Consideria-


mo la funzione
g(x) := ((Jf )(x0 ))−1 · (f (x0 + x) − f (x0 )),
che è ben definita in Ω − x0 , traslato di Ω, perché ((Jf )(x0 ))−1 esiste per ipotesi.
Osserviamo che g(0) = 0 e che

(Jg)(0) = ((Jf )(x0 ))−1 · (Jf )(x0 ) = I.

D’altra parte
f (x) = (Jf )(x0 ) · g(x − x0 ) + f (x0 ),
e questa relazione evidenzia che f è invertibile in U(x0 ) se e solo se g è invertibile in
U(x0 ) − x0 . Un modo per rendersene conto è osservare che la relazione tra f e g può essere
scritta come
f = A ◦ g ◦ A0 ,
dove A è la mappa affine con Av := (Jf )(x0 ) · v + f (x0 ), e A0 è la mappa affine A0 v :=
v − x0 . Sia A che A0 sono certamente invertibili, quindi f lo è se e solo se lo è g, con
f −1 = A0 −1 ◦ g −1 ◦ A−1 . Nel procedere con la dimostrazione possiamo quindi assumere
2.4. TEOREMA DI INVERTIBILITÀ LOCALE 39

come ipotesi aggiuntive x0 = 0, f (x0 ) = 0 e (Jf )(x0 ) = I.


Sia
H(x) := x − f (x).
Si tratta di una funzione in C 1 (Ω), con H(0) = 0 e (JH)(0) = I−I = 0. Visto che le funzioni
che forniscono le componenti della matrice JH sono continue, esiste  > 0 sufficientemente
piccolo perché
1
k|JHk|2,∞,B  ≤ ,
2
dove B  := {x : kxk ≤ } (bolla chiusa). Inoltre visto che det Jf è una funzione continua e
che det Jf (0) = det I = 1, possiamo scegliere  in modo che oltre alla relazione precedente
si abbia anche det Jf (x) 6= 0 per ogni x in B  (su questo punto vedasi anche la Osserva-
zione 2.4.4 successiva).
Dato che k|JHk|2,∞,B  ≤ 12 , dal Lemma 2.4.2 ricaviamo che:

1
kH(x) − H(w)k ≤ · kx − wk ∀x, w ∈ B  (2.5)
2
e così:

kf (x) − f (w)k = kx − w − (H(x) − H(w))k ≥ kx − wk − kH(x) − H(w)k


1 1
≥ kx − wk − kx − wk = kx − wk
2 2
e quindi
kx − wk ≤ 2kf (x) − f (w)k ∀x, w ∈ B  . (2.6)
Questo mostra che f è iniettiva in B  perché se f (x) = f (w) da (2.6) segue subito kx−wk ≤
2 · 0 e quindi che x = w.
Sia y fissato in B /2 , ovvero con kyk ≤ 2 , e poniamo Hy (x) := y + H(x). Osserviamo che

kHy (x)k = ky + H(x)k ≤ kyk + kH(x)k = kyk + kH(x) − H(0)k.

Siccome kyk ≤ 2 , H(0) = 0 e x ∈ B  , dalla disuguaglianza precedente e da (2.5) segue che

 1  
kHy (x)k ≤ + kx − 0k ≤ + = .
2 2 2 2
Questo dimostra che Hy : B  → B  . Inoltre

Hy (x) − Hy (w) = y + H(x) − y − H(w) = H(x) − H(w)

e così da (2.5) segue che

1
kHy (x) − Hy (w)k = kH(x) − H(w)k ≤ kx − wk.
2
Questo dimostra che Hy è una contrazione su B  che è di Banach rispetto alla metrica
euclidea (perché Rn lo è ed B  è un chiuso in Rn ). Per il teorema di Banach–Caccioppoli
allora Hy ha in B  un (unico) punto fisso. Ovvero esiste un (unico) x ∈ B  tale che:

Hy (x) = x ⇔ y + H(x) = x ⇔ y + x − f (x) = x ⇔ y = f (x).


40 CAPITOLO 2. FUNZIONI IMPLICITE

Questo dimostra che ogni y ∈ B /2 è immagine di un (e uno solo) punto x ∈ B  . Per poter
procedere occorre anzitutto verificare che la stessa tesi vale anche tra le rispettive bolle
aperte. In effetti osserviamo che se x e y sono come sopra, allora
1
kxk = ky + x − f (x)k = ky + H(x)k ≤ kyk + kH(x)k ≤ kyk + kxk. (2.7)
2
Questo mostra che kxk ≤ 2kyk. In particolare se y ∈ B/2 (aperto), ovvero se kyk <

2 , ne segue che kxk < . Questo dimostra che ogni punto y dell’aperto B/2 ha una
controimmagine x nell’aperto B . Questo non è ancora sufficiente (purtroppo!), perché non
è detto che f (B ) ⊆ B/2 , ma si può gestire quest’ultima difficoltà abbastanza facilmente.
Sia U := B ∩ f −1 (B/2 ). U è aperto (intersezione di aperti), 0 ∈ U (perché f (0) = 0 quindi
0 è nella controimmagine di 0 tramite f ), f è iniettiva su U (perché lo è su B ), f manda
U in B/2 (evidente) ed è suriettiva su B/2 (perché sappiamo che per ogni y ∈ B/2 esiste
un x ∈ B tale che f (x) = y). Quindi se poniamo V := B/2 abbiamo finalmente trovato
due aperti U e V tali che f : U → V è biunivoca.
Sia g : V = B/2 → U l’inversa di f tra questi insiemi. Allora (2.6) dice che in B/2 (posto
x := g(y) e w := g(z)):
kg(y) − g(z)k ≤ 2ky − zk (2.8)
ovvero che g è lipschitziana. Mostriamo che g è in realtà differenziabile e che Jg = (Jf )−1 .
Dal fatto che f è differenziabile in x ∈ Ω segue che:
f (w) − f (x) = (Jf )(x) · (w − x) + R(w, x) (2.9)
con
kR(w, x)k
→0 per w → x. (2.10)
kw − xk
Da (2.9) segue che
g(z) − g(y) = w − x = (Jf (x))−1 · (z − y) − (Jf (x))−1 · R(w, x), (2.11)
perché Jf (x) è invertibile quando x ∈ B . Supponiamo z → y. Allora w = g(z) → g(y) = x
perché (2.8) dice che g è continua. Inoltre:
kR(w, x)k kR(w, x)k kw − xk kR(w, x)k kg(z) − g(y)k
= · = · .
kz − yk kw − xk kz − yk kw − xk kz − yk
Per la (2.8) il secondo fattore è limitato da 2, quindi
kR(w, x)k kR(w, x)k
≤2 →0
kz − yk kw − xk
per la (2.10). Ma allora (usando la sub-moltiplicatività della norma, ovvero Lemma 2.4.1)
k(Jf (x))−1 · R(w, x)k kR(w, x)k
≤ k(Jf (x))−1 k2 ·
kz − yk kz − yk
ed il secondo fattore tende a zero quando z → y per quanto appena verificato (mentre il
primo fattore resta costante). Questo e (2.11) mostrano che g è differenziabile in y con
(Jg)(y) = ((Jf )(x))−1 = ((Jf )(g(y)))−1 .
Infine, osserviamo che le funzioni che compongono Jf sono continue e il suo determinante è
diverso da 0 quindi gli elementi della matrice (Jf )−1 (x) sono certamente funzioni continue
di x. Visto che x = g(y) e che g è continua ne segue che (Jg)(y) = (Jf )−1 (g(y)) è funzione
continua di y.
2.4. TEOREMA DI INVERTIBILITÀ LOCALE 41

Osservazione 2.4.4. Nella dimostrazione precedente abbiamo chiesto che  sia abbastanza
piccola da garantire sia che k|JHk|2,∞,B  ≤ 12 , sia l’invertibilità della matrice Jf (x) per
ogni x ∈ B  . In realtà la seconda richiesta è automaticamente soddisfatta una volta che sia
soddisfatta la prima. Questo accade perché Jf (x) = I−JH(x), e quindi è una matrice della
forma I−B, con kBk2 ≤ 12 . Ma la norma che abbiamo introdotto nella matrici M (n×n, R)
è una norma sub-moltiplicativa. Ne segue allora che nel caso in cui kBk2 ≤ 21 , si ha
∞ ∞ ∞
X
k
X X 1
kB k2 ≤ kBkk2 ≤ = 2.
2k
k=0 k=0 k=0

Per il test di Weierstrass questo basta a dimostrare la convergenza della serie ∞ k


P
k=0 B
(perché sappiamo che M (n×n, R) con quella norma risulta essere un’algebra reale normata
e di Banach). Ma allora dalla identità

X ∞
X ∞
X ∞
X ∞
X
(I − B) Bk = Bk − B k+1 = Bk − Bk = I
k=0 k=0 k=0 k=0 k=1
P∞ k
deduciamo il fatto che I − B è effettivamente invertibile, con k=0 B quale inversa.
Corollario 2.4.5. Sia f : Ω ⊆ Rn → Rn , Ω aperto e f ∈ C 1 (Ω). Supponiamo Jf (x) sia
invertibile per ogni x ∈ Ω. Allora f è una mappa aperta, ovvero se A aperto in Ω allora
anche f (A) è aperto.
Dimostrazione. Per il teorema f è localmente invertibile in ogni punto con inversa continua,
e questo dà la tesi.

Osservazione 2.4.6. Il teorema dimostra che se F : Ω ⊆ Rn → Rn è di classe C 1 con JF


invertibile in un punto x0 , allora F è localmente biunivoca con inversa C 1 e J(F −1 ) =
(JF )−1 . Viceversa, supponiamo che F sia di classe C 1 , localmente biunivoca in x0 e con
inversa C 1 . Allora differenziando le identità

(F −1 ◦ F )(x) = Id(x) = x (F ◦ F −1 )(y) = Id(y) = y

si ottiene
J(F −1 )(F (x)) · JF (x) = I JF (x) · J(F −1 )(F (x)) = I
che dimostrano che JF (x0 ) è invertibile con inversa J(F −1 )(F (x0 )). In altre parole, il
teorema mostra che per mappe di classe C 1 l’invertibilità locale è equivalente all’invertibilità
puntuale della matrice jacobiana.
Osservazione 2.4.7. L’invertibilità locale in tutti i punti di per sé non implica l’invertibilità
globale. Ad esempio si consideri la mappa
 2
x − y2

2 2
f : R \{0} → R \{0}, f (x, y) := .
2xy

Questa funzione non è globalmente invertibile perché f (−x,−y) = f (x, y). Eppure Jf (x, y) =
2x −2y 
2y 2x ha determinante sempre diverso da 0, e quindi la funzione è comunque localmente
invertibile in ogni punto di R2 \{0}. Quali ipotesi aggiungere a quella di avere Jf invertibile
in ogni punto, per passare dalla invertibilità locale a quella globale? Il teorema di Hada-
mard e Caccioppoli afferma che se f : X → Y con X ed Y spazi metrici connessi ed Y è
42 CAPITOLO 2. FUNZIONI IMPLICITE

semplicemente connesso, ed f è continua, localmente invertibile e propria (ovvero f −1 (K)


è compatto per ogni compatto K) e Y è semplicemente connesso, allora f è globalmen-
te invertibile. Tale risultato fu dimostrato da Hadamard in Rn e successivamente esteso
da Caccioppoli agli spazi metrici; tale estensione ha fatto di questo risultato uno degli
strumenti di base per la risoluzione di vari problemi differenziali (vd. [AP] e [DeMGZ]).

2.5 Teorema di Dini multidimensionale


Teorema 2.5.1 (Dini). Sia f : Ω ⊆ Rm × Rn → Rn , con Ω aperto e f ∈ C 1 (Ω). Sia poi
(x0 , y0 ) ∈ Ω (con x0 ∈ Rm ed y0 ∈ Rn ) tale che

i. f (x0 , y0 ) = 0,

ii. la matrice (Jy f )(x0 , y0 ) (che è la sottomatrice quadrata di ordine n × n della matri-
ce Jacobiana di f ottenuta considerando le derivate di f rispetto alle variabili y) è
invertibile.

Allora esistono due intorni aperti U(x0 ) e V(y0 ) con U(x0 ) × V(y0 ) ⊆ Ω tali che

iii. l’insieme degli zeri che f ha in U(x0 ) × V(y0 ) coincide con il grafico di una funzione
φ : U(x0 ) → V(y0 ),

iv. φ è di classe C 1 (U(x0 )) e

Jφ(x) = − (Jy f )−1 · (Jx f ) (x,φ(x))


 
per ogni x ∈ U(x0 ).

 
Ricordiamo che per ogni matrice quadrata della forma M := AI B0 con B quadrata, si
ha det M = det I · det B, così che
 M è invertibile se e solo se B è invertibile. In tal caso
l’inversa è M −1 = −BI−1 A B0−1 .

Dimostrazione. Sia F : Ω ⊆ Rm × Rn → Rm × Rn definita come


 
x
F (x, y) := .
f (x, y)
 x0 
Osserviamo che F ∈ C 1 (Ω), F (x0 , y0 ) = 0 e
 
I 0
JF = .
Jx f Jy f

In particolare  
I 0
(JF )(x0 , y0 ) =
Jx f (x0 , y0 ) Jy f (x0 , y0 )
è invertibile per ipotesi. Quindi per il Teorema 2.4.3 F è localmente invertibile in (x0 , y0 ),
ovvero esistono due intorni aperti W(x0 , y0 ) e S(x0 , 0) tra i quali F agisce come un diffeo-
morfismo, con S(x0 , 0) che di fatto è una bolla aperta di centro (x0 , 0).
Sia U un intorno aperto di x0 in Rm per il quale esiste un intorno aperto R di 0 in Rn tali
che U × R ⊆ S (gli intorni U ed R esistono, visto che S è una bolla aperta), e sia V la
proiezione sulle y di W. Anche V è un aperto perché la proiezione è una mappa aperta.
2.5. TEOREMA DI DINI MULTIDIMENSIONALE 43

x x
Siano poi i : Rm → Rm × Rn , i(x) := 0 (immersione) e pry : Rm × Rn → Rn , pry y := y
(proiezione). Costruiamo

φ: U −→ V,
x 7→ φ(x) := (pry ◦F −1 ◦ i)(x).

F
W S
F −1
(x0 , y0 ) (x0 , 0) U ×R

φ
pry i

V U

Osserviamo che φ è di classe C 1 (perché pry e i lo sono in quanto lineari e F −1 lo è per il


teorema di invertibilità locale) e con
 
−1
  −1 I
Jφ = (J pry ) · (JF ) · (Ji) = 0 I · (JF ) ·
0
  
I 0 I
= −(Jy f )−1 Jx f.
 
= 0 I · −1 −1
−(Jy f ) Jx f (Jy f ) 0

Osserviamo che F è l’identità sulle prime m coordinate, quindi x = prx (F −1 x0 ). Così


 

         
−1 x −1 x −1 x x x
 
−1
F (x, φ(x)) = F prx (F ), pry (F ) =F F = (F ◦ F ) =
0 0 0 0 0

e quindi
 
x
f (x, φ(x)) = pry (F (x, φ(x))) = pry = 0,
0

ovvero il grafico di φ è contenuto negli zeri di f .


D’altra parte, sia (x, y) ∈ U × V uno zero di f . Allora x ∈ U ed
   
x x
i(x) = = = F (x, y).
0 f (x, y)

Visto che x ∈ U, dalla definizione di U e di R segue che i(x) ∈ S. Possiamo quindi applicare
F −1 a questa relazione, ottenendo

φ(x) = (pry ◦F −1 ◦ i)(x) = pry ((F −1 ◦ i)(x)) = pry (x, y) = y

che dimostra come lo zero sia sul grafico di φ.

Osservazione 2.5.2. Nella formulazione del teorema si assume di poter decomporre lo spazio
di partenza come Rm × Rn , e che lo jacobiano di f relativo alle ultime n coordinate
(quindi una matrice n × n) sia invertibile. In realtà il teorema può essere generalizzato
44 CAPITOLO 2. FUNZIONI IMPLICITE

assumendo solo che Jf (x0 , y0 ) sia di rango massimo (quindi n, visto che Jf (x0 , y0 ) è
una matrice (m + n) × n): questa ipotesi infatti garantisce l’esistenza in Jf (x0 , y0 ) di
una sottomatrice n × n invertibile, ed il teorema dimostra la possibilità di esprimere le n
coordinate che corrispondo alle colonne di questa sottomatrice come funzione delle altre m.
Per la dimostrazione di questa generalizzazione basta osservare che essa segue dal teorema
così come è stato formulato, applicandola non ad f ma ad f composta una opportuna
permutazione delle sue coordinate.
Come già mostrato nel caso scalare, anche nel caso generale dalla formula per lo Jacobiano
enunciata al punto iv. del Teorema 2.5.1 discende il seguente risultato di regolarità.

Corollario 2.5.3. Supponiamo valide le ipotesi e le notazioni del teorema precedente. Se


poi f ∈ C k (Ω), allora φ è di classe C k (U).
2.6. ESTREMI VINCOLATI 45

2.6 Estremi vincolati


Data f : Ω ⊆ Rn → R e Σ ⊆ Ω una regione. Sia p ∈ Σ e supponiamo che f (p) =
max{f (x) : x ∈ Σ ∩ U(p)}. In tal caso diciamo che p è un punto di massimo locale per f
vincolata a Σ. Analoga definizione per il minimo locale vincolato.

Σ
p U

Sappiamo già come individuare un tale punto qualora Σ ∩ U(p) sia un insieme aperto in
Rn ; infatti se f ∈ C 1 sappiamo che p è tra gli zeri di ∇f . La situazione è però nuova se
Σ ∩ U(p) non è un aperto. In questo caso infatti in genere ∇f (p) 6= 0 nonostante p sia un
estremante. Se però Σ è il grafico di una qualche funzione possiamo comunque procedere
nel modo seguente. Per fissare le idee supponiamo che f : Ω ⊆ R2 → R, con Ω aperto e
f ∈ C 1 (Ω), e che Σ = Γφ sia il grafico di φ con φ : (α, β) → (γ, δ). Allora la restrizione di
f a Σ, è f |Γφ (x) = f (x, φ(x)) che è C 1 ((α, β)). Se p = (xp , yp ) è estremante per f |Γφ allora
xp è estremante per x → f (x, φ(x)), quindi
∂f ∂f ∂φ
+ = 0 in xp .
∂x ∂y ∂x
Ponendo λ := − ∂f
∂y (xp , yp ) questa relazione diventa
(
∂f ∂φ
∂x = λ ∂x
∂f
∂y = λ · (−1).

Se dunque introduciamo la funzione g(x, y) := φ(x) − y, allora Γφ è il luogo degli zeri di g


e il sistema diventa (
∇f = λ∇g
g(x, y) = 0.
È in questa forma che il problema si generalizza.
Teorema 2.6.1 (Moltiplicatori di Lagrange). Sia f : Ω ⊆ Rm → R, con Ω aperto e
f ∈ C 1 (Ω). Sia Σ il luogo degli zeri di g : Ω → Rn (con m > n) e g ∈ C 1 (Ω). Sia p ∈ Σ
un punto di massimo/minimo locale vincolato a Σ per f e supponiamo che il rango della
matrice di Jg(p) sia massimo (e quindi uguale ad n). Allora esistono λ1 , . . . , λn ∈ R tali
che 

 ∇f (p) = λ1 ∇g1 (p) + · · · + λn ∇gn (p) ← m equazioni scalari

g1 (p) = 0

..


 . ← n equazioni scalari

gn (p) = 0

dove g =: (g1 , . . . , gn ). Si osservi che il sistema ha m + n equazioni in m + n incognite: le


m coordinate di p più le n coordinate di λ.
46 CAPITOLO 2. FUNZIONI IMPLICITE

Dimostrazione. Per ipotesi rk(Jg(p)) = n quindi esiste in Jg(p) una sottomatrice di ordine
n × n invertibile. Senza perdita di generalità possiamo supporre che questa sottomatrice
sia quella relativa alle ultime n coordinate, ovvero che Rm = Rm−n x × Rny e che Jy g(p) sia
invertibile in quanto di rango n. Per Dini esistono gli intorni aperti U(xp ) e V(yp ) e una
mappa φ : U(xp ) → V(yp ) tale che Σ ∩ (U × V) coincide con il grafico di φ.
Ma allora f |Σ∩U (p) coincide con x 7→ f (x, φ(x)), e questa è definita in U(xp ) che è aperto.
La mappa è C 1 (per Dini) e ha un estremo in xp , quindi

∇(f (·, φ(·)))(xp ) = 0. (2.12)

D’altra parte dalla formula di derivazione per le funzioni composte si ha


   
I I
∇(f (·, φ(·))) = ∇f = (∇x f, ∇y f ) · = (∇x f ) − (∇y f )(Jy g)−1 Jx g
Jφ −(Jy g)−1 (Jx g)

(per semplicità a destra lo abbiamo omesso, ma comunque si ricordi che tutte le funzioni
sono valutate in (x, φ(x))), che valutata in xp e tenuto conto di (2.12) produce l’uguaglianza

(∇x f )(p) = (∇y f )(p)(Jy g)−1 (p)(Jx g)(p). (2.13)

Poniamo
(∇y f )(p)(Jy g)−1 (p) =: (λ1 , . . . , λn ). (2.14)
Allora (2.13) diventa

∇x f (p) = λ1 ∇x g1 (p) + · · · + λn ∇x gn (p).

e la (2.14) moltiplicata a destra per Jy g dà

∇y f (p) = λ1 ∇y g1 (p) + · · · + λn ∇y gn (p).

Unendo queste due relazioni otteniamo il sistema della tesi.

Osservazione 2.6.2. Se si introduce L : Ω × Rn → R, L(x, λ) := f (x) − hλ, g(x)i allora il


sistema può essere riscritto come
(
∇x L = 0
ovvero ∇L = 0.
∇λ L = 0

Quindi il problema originale (cercare estremi vincolati per f ) è diventato cercare estremi
liberi per L. La funzione L è detta Lagrangiana del problema, ed assume un ruolo fonda-
mentale nella descrizione della dinamica dei corpi poiché consente di formulare equazioni
di moto che prescindono dal sistema di riferimento (ma questa è tutta un’altra storia,
indubbiamente, e lascio ai colleghi fisici-matematici il divertimento di insegnarvi queste
cose).
Osservazione 2.6.3. Il teorema fornisce solo un criterio sufficiente: non è detto che i punti
trovati risolvendo il sistema siano effettivamente estremanti. Per stabilirlo si possono usare
considerazioni sulla compattezza del dominio (se il dominio è compatto, e si sono trovati
due soli punti stazionari vincolati, allora questi devono essere per forza il massimo ed il
minimo di f ). In alternativa si può usare un’analisi al secondo ordine locale sulla restrizione;
questa porta però a formulare criteri che solo persone decisamente motivate (o sull’orlo della
disperazione matematica) possono effettivamente prendere in considerazione.
2.6. ESTREMI VINCOLATI 47

Osservazione 2.6.4. C’è un altro modo di interpretare il teorema dei moltiplicatori, e che
è basato su semplici nozioni di geometria differenziale.

i. Sia p ∈ Rm e sia
Ep := {frecce uscenti da p}.

L’insieme Ep , con la somma vettoriale data dalla regola del parallelogramma e il pro-
dotto per uno scalare inteso come dilatazione, è uno spazio vettoriale di dimensione
m.

u+v
u 3u
u
v p
p −2u

ii. Sia g : Ω ⊆ Rm → Rn , con Ω aperto, m > n, e g ∈ C 1 (Ω). Sia poi p ∈ Ω con g(p) = 0
e Jg(p) di rango n (quindi massimo). Sia Σ il luogo degli zeri di g e sia

Tp Σ := span{v ∈ Ep che sono derivate in p di qualche cammino su Σ},

ovvero lo span delle frecce v per le quali esiste  > 0 e

ψ : (−, ) → Σ di classe C 1 e tale che ψ(0) = p, ψ 0 (0) = v.

Tp Σ è lo spazio tangente a Σ in p e per costruzione è un sottospazio di Ep .

p = ψ(0) Σ
ψ

z
t
− 0  x y

Si osservi che la definizione di Tp Σ data non afferma che esso è l’insieme dalle frecce
ψ 0 (0), ma che esso è lo spazio generato dalle frecce ψ 0 (0). Questo perché dati due
cammini ψ1 e ψ2 entrambi passanti per p ed entrambi in Σ, non è facile dimostrare
l’esistenza di un cammino ψ anch’esso in Σ e passante per p con ψ(0) = ψ1 (0)+ψ2 (0).
Quindi se definissimo Tp Σ come insieme non riusciremmo a dimostrare che esso è uno
spazio vettoriale. In realtà, anche se è complicato, è comunque possibile dimostrare
l’esistenza ψ con quelle proprietà, e verificare quindi che l’insieme delle velocità dei
cammini in Σ e passanti per p è effettivamente uno spazio vettoriale. Per le nostre
esigenze però possiamo permetterci di aggirare questa difficoltà e scoprire che Tp Σ è
uno spazio vettoriale perché è definito come lo span di una famiglia di vettori.
48 CAPITOLO 2. FUNZIONI IMPLICITE

iii. Dalle ipotesi fatte su g segue che dim Tp Σ ≥ m − n. Infatti tali ipotesi consentono
di utilizzare il teorema di Dini e di descrivere Σ localmente in p come grafico di una
funzione che a meno di riordinare le variabili possiamo immaginare dia le coordinate
xm−n+1 , . . . , xn in funzione delle x1 , . . . , xm−n . Per comodità di scrittura poniamo
x := (x1 , . . . , xm−n ), e con φ la mappa che fornisce le xm−n+1 , . . . , xn . Corrisponden-
temente siano xp ∈ Rm−n e yp ∈ Rn le coordinate di p decomposte in modo coerente
con questa descrizione (così che yp = φ(xp )). Infine, per ogni j = 1, . . . , m − n sia
j

ej := (0, . . . , 0, 1, 0, . . . , 0)
| {z }
m−n

il j-esimo versore di Rm−n . Osserviamo che le curve

ψj : t → (xp + tej , φ(xp + tej )) j = 1, . . . , m − n

risultano ben definite in U (0), sono di classe C 1 , passano per p al tempo t = 0 e lo


fanno con velocità
ψj0 (0) = (ej , ∂xj φ(xp )),
che quindi è un vettore di Tp Σ. Al variare di j questi sono m − n vettori linearmente
indipendenti (perché le loro prime m − n coordinate sono gli e1 , e2 , . . . , em−n , che
sono indipendenti).

iv. Sia ora ψ : (−, ) una curva su Σ di classe C 1 e ψ(0) = p. Siano g1 , . . . , gn le n


funzioni scalari che danno le coordinate di g. Visto che è su Σ allora (g1 ◦ ψ)(t) = 0
per ogni t. In particolare

d(g1 ◦ ψ)
0= (0) = ∇g1 (p) · ψ 0 (0)
dt
ovvero ∇g1 (p) è ortogonale a ψ 0 (0). Visto che ogni vettore di Tp Σ è combinazione
lineare di vettori di questo tipo ne segue che ∇g1 (p) ∈ (Tp Σ)⊥ . Questo può essere
ripetuto per g2 , . . . , gn , ottenendo quindi n vettori in (Tp Σ)⊥ . La richiesta secondo
cui Jg(p) ha rango n garantisce che questi n vettori sono linearmente indipendenti,
quindi abbiamo verificato che dim(Tp Σ)⊥ ≥ n.

v. Visto che dim(Tp Σ)+dim(Tp Σ)⊥ = dim Ep = n, da dim Tp Σ ≥ m−n e dim(Tp Σ)⊥ ≥
n, segue che dim Tp Σ = m − n e dim(Tp Σ)⊥ = n. Abbiamo quindi determinato la
dimensione di questi spazi ed inoltre abbiamo scoperto che (Tp Σ)⊥ è generato dai
vettori ∇gj (p) con j = 1, . . . , n.

Ora veniamo all’interpretazione del teorema dei moltiplicatori. Ricordiamo che per funzioni
f : Ω ⊆ Rm → R, in C 1 (Ω) la derivata direzionale in p nella direzione v è data da Dv f (p) =
h∇f (p), vi, e che da questa formula segue il fatto che ∇f (p) indica la direzione di massima
crescita per f . Ma allora se Σ è dato come sopra si ha che p ∈ Σ è un estremante locale per
f vincolato a Σ se e solo la proiezione ortogonale di ∇f (p) su Tp Σ è 0, e questo accade se
e solo se ∇f (p) ∈ (Tp Σ)⊥ ovvero se e solo se ∇f (p) ∈ span{∇g1 (p), . . . , ∇gn (p)}, e questo
è appunto il teorema dei moltiplicatori.
Capitolo 3

Equazioni Differenziali

Viene chiamata equazione differenziale ogni equazione che esprima una relazione che si
vuole venga soddisfatta tra x ed il valore che in x assumono la funzione incognita φ ed
alcune sue derivate, per tutti i valori di x in un intervallo. In modo meno vago, una
equazione differenziale è generata da una funzione f : Ω ⊆ R × Rk+1 → R ed ha per
soluzione una funzione ϕ : (α, β) → R di classe C k ((α, β)) tale che

f (x, ϕ(x), ϕ0 (x), . . . , ϕ(k) (x)) = 0 ∀x ∈ (α, β).

Una tale equazione è detta di ordine k.


Osservazione 3.0.1. Per quanto possa apparire diversamente, questo tipo di equazioni non
è la più generale equazione che coinvolga le derivate di una funzione incognita. Ad esempio
l’equazione
φ0 (x) − φ(x + 1) = 0
non è una equazione differenziale, almeno non nel senso con cui intendiamo qui questo
termine, perché il legame che si vorrebbe soddisfatto tra φ e φ0 non è nel medesimo punto.
Se k = 0 l’equazione è di tipo “implicito” che è già stato tratta nel Capitolo 2. D’ora in poi
possiamo quindi assumere k ≥ 1.
La teoria delle equazioni differenziali è abbastanza sviluppata nel caso l’equazione sia
scrivibile nella forma speciale

ϕ(k) (x) = f (x, ϕ(x), ϕ0 (x), . . . , ϕ(k−1) (x)),

in cui la derivata di ordine massimo è esplicitata. Queste equazioni sono dette essere in
forma normale.
Le equazioni in forma normale possono essere generalizzate a equazioni vettoriali, ovvero
equazioni dove l’incognita cercata ϕ : (α, β) → Rn di classe C k ((α, β)) è in realtà appunto
vettoriale, e l’equazione assume allora la forma

ϕ(k) (x) = f (x, ϕ(x), ϕ0 (x), . . . , ϕ(k−1) (x)) (3.1)

per ogni x ∈ (α, β), dove f : Ω ⊆ R × (Rn )k → Rn , Ω aperto.


Osservazione 3.0.2. In genere un’equazione differenziale ha più di una soluzione. Ad esem-
pio:
• l’equazione y 00 = y ha ϕa,x0 (x) = a sin(x − x0 ) come soluzione, comunque si scelgano a
e x0 in R;

49
50 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Rx
• l’equazione y 0 = f (x) (con f continua) ha la funzione ϕx0 ,y0 (x) = y0 + x0 f (u) du come
soluzione, comunque si scelgano x0 ed y0 (ma la coppia (x0 , y0 ) e la coppia (x̃0 , y0 +
R x̃0
x0 f (u) du) individuano la medesima soluzione. Come vedremo in seguito questo accade
perché le soluzioni di un’equazione del primo ordine dipendono da un solo parametro
scalare ‘libero’).

La struttura dell’equazione normale (3.1) suggerisce però che la soluzione sia unica qualora
si aggiunga una condizione iniziale della forma:

(ϕ(x0 ), ϕ0 (x0 ), . . . , ϕ(k−1) (x0 )) = (e


y0 , ye1 , ye2 , . . . , yek−1 )

con x0 e yej con j = 0, . . . , k − 1 assegnati. Questo perché la (3.1) valutata in x0 diventa

ϕ(k) (x0 ) = f (x0 , ϕ(x0 ), ϕ0 (x0 ), . . . , ϕ(k−1) (x0 ))

che a seguito delle condizioni iniziali diventa

ϕ(k) (x0 ) = f (x0 , ye0 , ye1 , . . . , yek−1 )

che quindi è noto.


Inoltre per derivazione di (3.1) (sempre che tali derivate esistano) si ha

d (k) d
ϕ(k+1) (x) = ϕ (x) = f (x, ϕ(x), ϕ0 (x), . . . , ϕ(k−1) (x))
dx dx
e chiamando x, y0 , y1 , . . . , yk−1 gli argomenti di f questo è:

∂f ∂f 0 ∂f
= + ·ϕ (x)+· · ·+ ·ϕ(k) (x).
∂x (x,ϕ(x),...,ϕ(k−1) (x)) ∂y0 (x,ϕ(x),...,ϕ(k−1) (x)) ∂yk−1 (x,ϕ(x),...,ϕ(k−1)(x) )

Quando questa espressione è valutata in x0 essa produce una identità in cui tutti i termini
a destra risultano noti (si osservi che effettivamente anche ϕ(k) (x0 ) è noto, poiché è stato
calcolato al passo precedente), quindi l’identità determina il valore di ϕ(k+1) (x0 ).
Il processo può formalmente proseguire ad ogni ordine (se f è C ∞ ) e determina ϕ(j) (x0 ) per
ogni j in modo iterativo. Quindi il processo riesce a determinare lo sviluppo di Taylor in x0
di ϕ e se questa serie converge a ϕ, allora di fatto abbiamo scoperto che ϕ è univocamente
determinata da quelle condizioni. Tutto questo è al momento del tutto formale: molti sono
i se che abbiamo supposto e quindi sono molte le criticità (f potrebbe non essere C ∞ , la
serie di Taylor potrebbe non convergere, se anche convergesse potrebbe non farlo a ϕ, . . . ).
L’argomento però ha il pregio di mostrare che è ragionevole supporre che la coppia

(k) 0 y (k−1) ) ← equazione diff. in forma normale
y = f (x, y, y , . . . ,



 y(x0 ) = y0

 
 

0
y (x0 ) = y1

 (3.2)
 . ← k condizioni tutte nel medesimo punto


 .
. 


 

 y (k−1) (x ) = y
 
0 k−1

abbia una sola soluzione. Buona parte della teoria che stiamo per esporre serve proprio ad
individuare le condizioni sotto cui questo principio è valido.
3.1. EQUAZIONI DI FORMA SPECIALE 51

Definizione 3.0.3. Sia f : Ω ⊆ R × (Rn )k → Rn , Ω aperto e f ∈ C(Ω); sia inoltre


(x0 , y0 , y1 , . . . , yk−1 ) ∈ Ω. Il sistema di richieste in (3.2) è detto problema di Cauchy.
Chiamiamo soluzione di (3.2) una funzione ϕ : (α, β) → Rn tale che:
i. x0 ∈ (α, β);
ii. ϕ ∈ C k ((α, β));
iii. ϕ (e le sue derivate) hanno valori tali per cui (3.2) vale per ogni x ∈ (α, β).
Si usa chiamare soluzione globale una soluzione per la quale (α, β) sia noto ed esplicitato,
e invece soluzione locale una soluzione per la quale (α, β) sia noto esistere ma non venga
determinato esplicitamente.
Osservazione 3.0.4. Si osservi che il dominio di una soluzione è (α, β), in particolare è un
intervallo aperto, e che ϕ per definizione deve essere di classe C k ((α, β)), dove k è l’ordine
dell’equazione.

3.1 Equazioni di forma speciale


Per certe funzioni f esistono procedure capaci di dare una formula esplicita della soluzione
del problema di Cauchy. Vediamone alcune.

3.1.1 Equazioni lineari del primo ordine


(
y 0 + p(x)y = q(x) dove p e q ∈ C((α, β)), x0 ∈ (α, β)
y(x0 ) = y0 e y0 ∈ R qualunque.
Rx
Sia H(x) una (qualunque) primitiva di p(x) ad esempio: H(x) = x0 p(u) du (esiste perché
p è continua e H 0 = p in (α, β)). Moltiplicando per eH(x) si ottiene
d
q(x)eH(x) = y 0 (x)eH(x) + p(x)eH(x) y(x) = y 0 (x)eH(x) + H 0 (x)eH(x) y(x) = (y(x)eH(x) ).
dx
Ma allora y(x)eH(x) è una primitiva per q(x)eH(x) , che è continua visto che q lo è per ipotesi
(e che H lo è per costruzione), per cui per il teorema fondamentale del calcolo integrale si
ha che Z x
H(x) H(x0 )
y(x)e − y(x0 )e = q(v)eH(v) dv.
x0

Siccome y(x0 ) = y0 , per la condizione iniziale, e visto che eH(x0 ) = 1, si ha che


h Z x i
−H(x)
y(x) = e y0 + q(v)eH(v) dv
x0

è soluzione su (α, β) e la procedura dimostra che quella trovata è l’unica soluzione del
problema di Cauchy assegnato.
Esempio 3.1.1. Si consideri il problema di Cauchy:
( 2
y 0 = 2xy + ex −x
y(0) = 3
Rx Rx 2 2 Rx
Abbiamo che H(x) = 0 −2u du = −x2 mentre 0 eu −u e−u du = 0 e−u du = 1 − e−x
2
perciò la soluzione (unica su R) è la funzione ϕ(x) = ex (4 − e−x ).
52 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Esempio 3.1.2. Si consideri il problema di Cauchy:


(
y 0 = − xy + cos x
y(1) = 2

La formula dà la funzione φ(x) = x1 (2 + x sin x + cos x − sin 1 − cos 1) quale soluzione su


(0, +∞).

3.1.2 Equazioni a variabili separabili


(
y 0 = h(x)g(y) con h ∈ C((α, β)), g ∈ C((γ, δ)),
y(x0 ) = y0 x0 ∈ (α, β) e y0 ∈ (γ, δ).

Anzitutto osserviamo che se g(y0 ) = 0, allora y(x) = y0 (funzione costante) per ogni
x ∈ (α, β) è soluzione. Tale soluzione non è però necessariamente unica (su questo punto
torneremo in seguito).
Supponiamo che invece g(y0 ) 6= 0. Allora esiste U(y0 ) in cui g è diverso da 0, in tal caso
l’equazione può essere scritta come
y 0 (x)
= h(x)
g(y(x))
che per integrazione diventa
Z y(x) Z x
du
= h(v) dv. (3.3)
y0 g(u) x0

La (3.3) è un’equazione implicita per y(x), della forma F (x, y) = 0 con


Z y Z x
du
F (x, y) := − h(v) dv.
y0 g(u) x0

Visto che ∂F 1
∂y = g(y) 6= 0, la (3.3) definisce implicitamente una ed una sola funzione φ con
F (x, φ(x)) = 0 per ogni x ∈ U (x0 ), e il ragionamento che ci ha portato alla (3.3) mostra
che la soluzione del problema di Cauchy e la soluzione di F (x, y) = 0 coincidono fino a
dove è lecito dividere per g(y), ovvero fino a che φ(x) non assume valori in corrispondenza
dei quali g(φ(x)) = 0. La soluzione appena individuata esiste ed è unica sul più ampio
intervallo su cui la procedura che l’ha individuata è corretta.
Nel caso invece in cui g(y0 ) = 0, oltre alla soluzione costante y(x) = y0 potrebbero esservi
altre soluzioni locale. La loro (eventuale) esistenza va indagata cercando se tra le soluzioni
dei problemi di Cauchy con condizioni iniziali generiche y(x̃0 ) = ỹ0 con g(ỹ0 ) 6= 0 ve ne
siano di alcune prolungabili fino a x0 con valore in questo punto uguale a y0 (su questo
punto vedasi l’Esempio 3.1.4 seguente).
Esempio 3.1.3. Si consideri il problema di Cauchy:
( √
y 0 = −8x3 y
y(0) = 256.

L’equazione differenziale ha la funzione costante y(x) = 0 quale soluzione, ma questa non


soddisfa la condizione iniziale e quindi non risolve il problema di Cauchy. Procediamo
3.1. EQUAZIONI DI FORMA SPECIALE 53

y 0
3
quindi nella separazione delle variabili, scrivendo l’equazione come 2√ y = −4x che per
R y du Rx √ √
integrazione dà 256 2√u = 0 −4v 3 dv, ovvero y − 256 = −x4 . La funzione ϕ(x) =
(16 − x4 )2 è quindi la soluzione almeno localmente. Essa di fatto lo è su tutto l’intervallo
(−2, 2), che è il più ampio intervallo contenente 0 su cui la funzione trovata è di classe C 1
e non assume il valore 0.
Esempio 3.1.4. Si consideri il problema di Cauchy:
(
y 0 = 3y 2/3
y(0) = 0.

L’equazione differenziale ha la funzione costante y(x) = 0 quale soluzione. La soluzione


del generico problema di Cauchy y(x0 ) = y0 (con x0 ∈ R qualunque ed y0 6= 0) è invece
1/3
y(x) = (x−x0 +y0 )3 , ottenuta per separazione delle variabili. Tra queste vi è la y(x) = x3
che, lo si verifica immediatamente, soddisfa il problema di Cauchy originalmente proposto.
La condizione y(0) = 0 ha quindi almeno due soluzioni locali: la y(x) = 0 costante e la
y(x) = x3 (in realtà ve ne sono anche altre: quali?).

3.1.3 Equazioni di Bernoulli


(
y 0 + p(x)y = q(x)y γ con p e q in C((α, β)), γ ∈ R, x0 ∈ (α, β)
y(x0 ) = y0 e y0 ∈ R è tale che y0γ è ben definita.

Se γ = 0 o γ = 1 allora l’equazione è lineare e sappiamo già come trattarla. Possiamo


quindi assumere γ 6= 0, 1.
Se γ > 0 tra le soluzioni dell’equazione c’è la funzione costante y(x) = 0 per ogni x (che
soddisfa il problema di Cauchy nel caso y0 = 0). Supponiamo sia y0 6= 0. Allora possiamo
dividere per y γ almeno localmente, ottenendo

y0 1
γ
+ p(x) γ−1 = q(x).
y y
0
Poniamo z(x) := y 1−γ . Allora z 0 (x) = (1 − γ) yyγ e quindi z soddisfa il problema di Cauchy

z0
( (
1−γ + p(x)z = q(x) z 0 + (1 − γ)p(x)z = (1 − γ)q(x)
ovvero
z(x0 ) = y01−γ z(x0 ) = y01−γ .

L’equazione per z è quindi lineare. Risolto il problema di Cauchy per z si ottiene la y


invertendo la soluzione z(x) = y(x)1−γ (ma prestando attenzione a dove questa relazione
sia invertibile in modo C 1 !). L’algoritmo illustrato può essere invertibile ad ogni passo se
y0 6= 0, quindi quella così trovata è l’unica soluzione locale sotto questa ipotesi.
Esempio 3.1.5. Si consideri il problema di Cauchy:
(
y 0 = xy − 3y 2/3
α ∈ R.
y(0) = α,

Si tratta di una equazione di tipo Bernoulli, y 0 +p(x)y = q(x)y γ , con p(x) := −x, q(x) := −3
ed γ = 2/3. La funzione identicamente nulla risolve l’equazione (ed il P.C., qualora α = 0).
54 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Supponiamo α 6= 0. Allora almeno localmente si ha y(x) 6= 0, quindi possiamo scrivere


l’equazione come
y0
= xy 1/3 − 3
y 2/3
y0
che in termini della nuova funzione z = z(x) := y 1/3 (che quindi soddisfa z 0 = 3y 2/3
),
fornisce il P.C. (
z 0 − x3 z = −1
α 6= 0,
z(0) = α1/3 ,
che come previsto è lineare. Applicando il metodo risolutivo per queste equazioni si ottiene
h Z x i
2 2
z(x) = ex /6 α1/3 − e−v /6 dv .
0

Invertendo la relazione z = y 1/3 (cosa lecita in modo C 1 fintanto che z 6= 0) si ottiene


h Z x i3
x2 /2 2
y(x) = e 1/3
α − e−v /6 dv
0

Rche quindi risolve il P.C. assegnato sul più ampio intervallo contenente 0 e su cui α1/3 −
x −v 2 /6
0 e dv 6= 0. L’ampiezza di tale intervallo dipende dalle soluzioni dell’equazione
Z x
2
e−v /6 dv = α1/3 .
0
Rx 2
Poniamo F (x) := 0 e−v /6 dv. È facile rendersi conto che essa è una funzione strettamente
crescente, dispari, e che tende ad un valore finito per x → +∞. Chiamiamo F (+∞)
tale valore. L’equazione precedente ha quindi soluzioni in x se e solo |α|1/3 < F (+∞).
L’intervallo sui cui la funzioneR y(x) trovata è soluzione è quindi: R se |α| ≥ F (+∞)3 ,
x 2
(−∞, xα ) con xα soluzione di 0 e−v /6 dv = α1/3 quando 0 < α < F (+∞)3 e (xα , +∞)
R x −v2 /6
con xα soluzione di 0 e dv = α1/3 quando F (+∞)3 < α < 0.
p
Il valore F (+∞) è noto: esso è pari a 3π/2.
3.2. STANDARDIZZAZIONE 55

3.2 Standardizzazione
Proseguiamo ora nello studio delle generiche equazioni differenziali.

3.2.1 Da equazione di ordine k a equazione del primo ordine


Da un certo punto di vista basta studiare le equazioni del primo ordine, purché vettoriali,
perché ogni equazione di ordine k e per una incognita vettoriale di dimensione n può
sempre essere scritta come equazione del primo ordine vettoriale di dimensione kn. Infatti
supponiamo sia dato il P.C.
(
y (k) = f (x, y, y 0 , . . . , y (k−1) ) con f : Ω ⊆ R × (Rn )k → Rn , Ω aperto,
(3.4)
y (j) (x0 ) = ye
j
j = 0, . . . , k − 1, f ∈ C(Ω) e (x0 , e y k−1 ) ∈ Ω,
y0, . . . , e

e supponiamo che ϕ ne sia una soluzione (quindi una funzione di classe C k ). Introduciamo
una nuova funzione che chiamiamo ψ e che in termini della ϕ è
   
ϕ(x) ψ 1 (x)
 ϕ0 (x)  ψ (x)
 2 
ψ(x) :=   =:  ..  .
 
..
 .   . 
ϕ(k−1) (x) ψ k (x)

Derivando le componenti di ψ (cosa che è possibile poiché ϕ ∈ C k ) troviamo che

ϕ0 (x) ϕ0 (x)
     
ψ2 (x)
 ϕ00 (x)
  ϕ00 (x)   .. 
ψ 0 (x) =

=
 
=
  . .

.. ..
 .
  .   ψk (x) 
(k)
ϕ (x) 0
f (x, ϕ(x), ϕ (x), . . . , ϕ (k−1) (x)) f (x, ψ 1 (x), ψ 2 (x), . . . , ψ k (x))

Introduciamo dunque la funzione


 
z2
 .. 
F : Ω ⊆ R × (Rn )k → Rkn , F (x, z) := 
 . ,

 zk 
f (x, z 1 , z 2 , . . . , z k )

dove z =: (z 1 , . . . , z k ) ed ogni z j appartiene a Rn . Osserviamo che tale funzione è in C(Ω)


(perché tale è f ). Il calcolo precedente ha dunque mostrato che ψ è una funzione di classe
C 1 che risolve il problema di Cauchy
(
z 0 = F (x, z)
(3.5)
z(x0 ) = (ey0, e
y1, . . . , e
y k−1 ).

Viceversa, supponiamo che ψ sia una soluzione del P.C. (3.5), quindi una funzione di classe
C 1 . Sia ϕ la funzione che dà le prime n coordinate di ψ. Questa è sicuramente di classe
C 1 (perché ψ lo è), ma in realtà è di classe C k . Infatti il P.C. (3.5) con quella funzione
F stabilisce che il primo blocco di n variabili (ovvero la ϕ) abbia per derivata il secondo
blocco di n variabili, le quali sono di classe C 1 (perché ψ lo è), e quindi sono di classe C 2 .
56 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Questo argomento, iterato k volte, dimostra che ϕ è di classe C k . Infine, i vari passi nei
calcoli precedenti possono essere invertiti e dimostrano che ϕ soddisfa il P.C. (3.4).
Questo argomento dimostra quindi che i P.C. (3.4) ed (3.5) sono equivalenti, nel senso
che da ogni soluzione di uno di essi si ricava una (unica) soluzione dell’altro. L’utilità
della procedura sta nel fatto che l’equazione che appare nel P.C. (3.5) è del primo ordine.
Ovviamente non ci sono pasti gratis, e paghiamo questa semplificazione con l’aumento della
dimensione del problema che prima era n ed ora è kn (quindi vettoriale anche qualora in
origine ci fosse n = 1 e fosse quindi scalare).
Per sviluppare la teoria generale potremo quindi limitarci allo studio di problemi di Cauchy
vettoriali ma del primo ordine.

3.2.2 Passaggio alla formulazione integrale


Sia dato il problema di Cauchy
(
y 0 = f (x, y) con f : Ω ⊆ R × Rn → Rn , Ω aperto,
(3.6)
y(x0 ) = y0 , f ∈ C(Ω) e (x0 , y0 ) ∈ Ω.

Supponiamo che ϕ sia una soluzione del problema di Cauchy (quindi in particolare è di
classe C 1 su un intervallo (α, β)). Integrando l’equazione tra x0 e x si ha
Z x
ϕ(x) = y0 + f (u, ϕ(u)) du per x ∈ (α, β).
x0

Definiamo l’operatore T come quella mappa che data una funzione “buona” φ la trasforma
nella funzione T φ i cui valori sono definiti ponendo
Z x
(T φ)(x) := y0 + f (u, φ(u)) du.
x0

Allora il calcolo precedente mostra che se ϕ è soluzione di (3.6) su (α, β) (quindi ϕ ∈ C 1 )


allora T ϕ è ben definito e T ϕ = ϕ ovvero ϕ è punto fisso per T .
Viceversa, supponiamo che ϕ sia in C((α, β)) e sia fissata da T . Questo significa che
Z x
ϕ(x) = (T ϕ)(x) = y0 + f (u, ϕ(u)) du ∀x ∈ (α, β). (3.7)
x0

La mappa u 7→ fR(u, ϕ(u)) è continua (perché composizione di funzioni continue), quindi


x
la mappa x 7→ x0 f (u, ϕ(u)) du è C 1 (perché è integrale di una continua). Ma allora
ϕ ∈ C 1 ((α, β)) per la (3.7). Valutando in x0 la (3.7) si ha ϕ(x0 ) = y0 e derivando la (3.4)
si ha ϕ0 (x) = f (x, ϕ(x)). Quindi ϕ soddisfa il P.C. (3.6).
Abbiamo così dimostrato che il problema di Cauchy equivale ad un problema di punto
fisso per l’operatore T . Questo tipo di equazioni è chiamato problema integrale di Volterra.
L’equivalenza del problema di Cauchy con uno di Volterra si rivela utile per il fatto che
mentre il primo è formulato in C 1 (α, β), il secondo lo è in C((α, β)). Il passaggio allo spazio
C((α, β)) semplifica la ricerca delle soluzioni perché esso è più grande (molto semplicemente
perché più il dominio in cui la si cerca è grande, e più è facile trovare in esso una soluzione).
3.3. TEOREMI DI ESISTENZA E UNICITÀ 57

3.3 Teoremi di esistenza e unicità


Basandosi su questa equivalenza si può dimostrare il seguente teorema.
Teorema 3.3.1 (Peano). Sia f : Ω ⊆ R × R → R, Ω aperto e f ∈ C(Ω). Sia (x0 , y0 ) ∈ Ω.
Allora il problema di Cauchy (
y 0 = f (x, y)
y(x0 ) = y0
ha una soluzione locale.
Si tratta di un risultato estremamente importante, presentato da Peano nel 1886 per la
versione scalare e nel 1890 per quella a valori vettoriali. Purtroppo la sua prima esposizione
risultò lacunosa in un punto fondamentale della dimostrazione, e la verità delle tesi restò
in forse per qualche anno, fino a che altri (Mie, Osgood, Perron) ne diedero dimostrazioni
su base diverse. Oggi esso viene solitamente dedotto usando due profondi risultati; uno è
il teorema di Ascoli ed Arzelà, che afferma che nello spazio C([a, b]) (le continue su [a, b],
con la norma del sup) gli insiemi relativamente compatti (ovvero a chiusura compatta),
coincidono con gli insiemi che sono equilimitati ed equicontinui (le proprietà che abbiamo
discusso a proposito dei Teoremi 1.1.10 ed 1.1.11). L’altro è un teorema di punto fisso
dovuto a Schauder e diverso da quello che abbiamo discusso in queste note, che garantisce
l’esistenza (non l’unicità) di tali punti per mappe continue da uno spazio metrico convesso
e compatto in sé. Purtroppo la dimostrazione di questi risultati richiede troppe risorse e
non può essere affrontata in queste note. Una esposizione particolarmente accessibile di
questi risultati è contenuta nel Capitolo 7 di [Sh].
Concludiamo osservando che però recentemente è stato messo in luce in [GM] come l’argo-
mento originale di Peano sia emendabile e possa effettivamente essere usato per dare una
dimostrazione corretta ed elementare, almeno negli strumenti, del suo risultato.
Osserviamo che il teorema afferma l’esistenza della soluzione ma non la sua unicità. In
effetti la sola ipotesi di continuità non basta per ottenere anche l’unicità della soluzione,
come illustrato dal seguente semplice esempio.
Esempio 3.3.2. Il problema di Cauchy
(
y 0 = 3y 2/3
y(0) = 0

ha sia y(x) ≡ 0 sia y(x) = x3 come soluzioni.


Introduciamo ora una proprietà aggiuntiva che si rivela adatta per garantire l’unicità della
soluzione.
Definizione 3.3.3. Sia data f : Ω ⊆ R × Rn → Rn , con Ω aperto, e sia dato (x0 , y0 ) ∈ Ω;
f è detta localmente lipschitziana nelle y uniformemente nelle x nel punto (x0 , y0 ) quando
esistono i numeri d, δ, L positivi e tali che

x ∈ [x0 − d, x0 + d]
=⇒ kf (x, y1 ) − f (x, y2 )k2 ≤ Lky1 − y2 k2 . (3.8)
y1 , y2 ∈ Bδ (y0 )
Osservazione 3.3.4. Si osservi che questa condizione esprime una regolarità di f , ma solo
nelle coordinate y, non in tutte le variabili di f . Ad esempio f (x, y) := bxc + y (bxc è la
parte intera di x) ha la proprietà appena definita, ma globalmente non è neppure continua.
58 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Osservazione 3.3.5. Se f ∈ C 1 (Ω) allora sicuramente ha quella proprietà in tutti i punti di


Ω (perché le derivate parziali di f sono continue quindi limitate sui compatti).

Teorema 3.3.6 (Esistenza e unicità locale). Sia data f : Ω ⊆ R × Rn → Rn , Ω aper-


to, f ∈ C(Ω), e sia (x0 , y0 ) ∈ Ω. Supponiamo che f sia localmente lipschitziana nelle y
uniformemente nelle x in (x0 , y0 ). Allora il problema di Cauchy
(
y 0 = f (x, y)
y(x0 ) = y0

ha una e una sola soluzione locale.

Dimostrazione. Siano d, δ, L come nella definizione di locale lipshitzianità. Sia

M := max{kf (x, y)k2 : (x, y) ∈ [x0 − d, x0 + d] × Bδ (y0 )},

Tale quantità esiste perché [x0 − d, x0 + d] × Bδ (y0 ) è compatto e f è continua. Sia d0 :=


δ 1
min(d, M , 2L ) e sia
X := C([x0 − d0 , x0 + d0 ], Bδ (y0 )),
l’insieme delle funzioni continue da [x0 − d0 , x0 + d0 ] a Bδ (y0 ). L’insieme X è uno spazio
metrico completo rispetto alla metrica

d(ϕ, ψ) := kϕ − ψk∞,[x0 −d0 ,x0 +d0 ]

(perché il limite uniforme di funzioni continue è continuo e Bδ (y0 ) è un insieme chiuso).


Sia T l’operatore integrale di Volterra associato al P.C., ovvero l’operatore che trasforma
una data funzione ϕ nella funzione T ϕ i cui valori sono
Z x
(T ϕ)(x) := y0 + f (u, ϕ(u)) du.
x0

i. Verifichiamo che T è una mappa X → X . Infatti è chiaro che se ϕ ∈ X allora T ϕ è


continua su [x0 − d0 , x0 + d0 ] (qui si usa la continuità di f e di ϕ) e inoltre:
Z x Z x
k(T ϕ)(x) − y0 k2 = f (u, ϕ(u)) du ≤ kf (u, ϕ(u))k2 du

x0 2 x0
0
≤ M |x − x0 | ≤ M d ≤ δ

(perché il grafico di ϕ è per ipotesi in [x0 − d0 , x0 + d0 ] × Bδ (y0 ) e qui f è limitata da


M . Il fatto che M d0 sia stimato da δ deriva dalla definizione di d0 ). Questo dimostra
che (T ϕ)(x) ∈ Bδ (y0 ), per ogni x ∈ [x0 − d0 , x0 + d0 ].

ii. Verifichiamo che T è una contrazione. Infatti se ϕ, ψ ∈ X abbiamo


Z x 
k(T ϕ)(x) − (T ψ)(x)k2 = f (u, ϕ(u)) − f (u, ψ(u)) du

x0 2
Z x
≤ kf (u, ϕ(u)) − f (u, ψ(u))k2 du .

x0
3.3. TEOREMI DI ESISTENZA E UNICITÀ 59

Ma f è localmente lipschitziana nelle y uniformemente nelle x, ovvero soddisfa la


stima (3.8), quindi questa è
Z x
≤ Lkϕ(u) − ψ(u)k2 du ≤ Lkϕ − ψk∞,[x0 −d0 ,x0 +d0 ] · |x − x0 |

x0
≤ d0 L · kϕ − ψk∞,[x0 −d0 ,x0 +d0 ] .

Questo vale per ogni x ∈ [x0 − d0 , x0 + d0 ], perciò abbiamo verificato che

kT ϕ − T ψk∞,[x0 −d0 ,x0 +d0 ] ≤ d0 L · kϕ − ψk∞,[x0 −d0 ,x0 +d0 ] .

Ma d0 L ≤ 21 , quindi T è una contrazione.

iii. Visto che T è una contrazione e X è completo, dal teorema di Banach–Caccioppoli


sappiamo che esiste ed è unico il punto fisso per T , ovvero una mappa ϕ ∈ X tale
che T ϕ = ϕ. Abbiamo già visto che l’esistenza e unicità della soluzione del problema
di Volterra equivale all’esistenza e unicità del problema di Cauchy.

Nella dimostrazione precedente si è posto d0 := min(d, M δ 1


, 2L ). In particolare il valore di d0
0
risente del valore di L. Visto che d è sostanzialmente il parametro che definisce il dominio
su cui siamo riusciti a dimostrare l’esistenza della soluzione, di fatto questa definizione fa
dipendere il dominio dal valore di L. In realtà un argomento un po’ più elaborato riesce a
verificare la tesi già con d0 := min(d, M
δ
), che quindi risulta indipendente da L. L’argomento
consiste nell’osservare che nonostante ora d0 sia probabilmente maggiore del valore scelto
precedentemente, è comunque possibile trovare k in modo che T (k) (iterata k-esima) sia
una contrazione. Fatto ciò la tesi allora seguirà dall’estensione del Teorema di Banach–
Caccioppoli (Corollario 2.3.5). In effetti, abbiamo visto che la stima di Lipschitz di base
consente la disuguaglianza
Z x
k(T ϕ)(x) − (T ψ)(x)k2 ≤ L kϕ(u) − ψ(u)k2 du .

x0

Iterandola si ottiene
Z x
k(T (2) ϕ)(x) − (T (2) ψ)(x)k2 ≤ L k(T ϕ)(u) − (T ψ)(u)k2 du

x0
Z xZ u
≤ L2 kϕ(u1 ) − ψ(u1 )k2 du1 du .

x0 x0

Quindi (per induzione su k), se la mappa è iterata k volte si ha


Z x Z u Z uk−2
k(T (k) ϕ)(x) − (T (k) ψ)(x)k2 ≤ Lk ··· kϕ(uk−1 ) − ψ(uk−2 )k2 duk−1 · · · du1 du ,

x0 x0 x0

dove appaiono k integrali iterati. Inserendo la stima kϕ(uk−1 ) − ψ(uk−2 )k2 ≤ kϕ − ψk∞
questa diventa
Z x Z u Z uk−2
(k) (k) k
k(T ϕ)(x) − (T ψ)(x)k2 ≤ L kϕ − ψk∞ ··· 1 duk−1 · · · du1 du .

x0 x0 x0
60 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

(x−x0 )k
Il valore dell’integrale è pari a k! (dimostrato per induzione su k), quindi la stima
diventa
Lk (Ld0 )k
k(T (k) ϕ)(x) − (T (k) ψ)(x)k2 ≤ |x − x0 |k kϕ − ψk∞ ≤ kϕ − ψk∞ .
k! k!
(Ld0 )k
Visto che limk→∞ k! = 0, esiste sicuramente un valore di k in corrispondenza del quale
(Ld0 )k
si ha k! ≤ (il fatto di aver preso d0 = min(d, M
1
2
δ
) anziché d0 = min(d, M δ 1
, 2L ) solo
forza k ad essere probabilmente > 1). Con quel valore di k l’iterata T (k) risulta quindi
contrattiva.
Esercizio 3.3.7. Si consideri il problema di Cauchy
(
y0 = y
y(0) = 1.

Il teorema precedente garantisce l’esistenza e unicità della soluzione


Rx e lo fa tramite il
teorema di Banach–Caccioppoli applicato a (T ϕ)(x) := 1 + 0 ϕ(u) du. In particolare
la sequenza delle iterate di T converge necessariamente ad una soluzione. Nel caso in
esame l’azione di T è abbastanza semplice, quindi si può verificare direttamente questa
convergenza. Come funzione iniziale ϕ0 si prenda
Rx la funzione identicamente nulla, e dato
ϕn si definisca ϕn+1 (x) := (T ϕn )(x) = 1 + 0 ϕn (u) du.

i. Calcolare ϕ1 , ϕ2 , ϕ3 , ϕ4 ;

ii. Determinare ϕn esplicitamente ∀n (per induzione);

iii. Verificare che ϕn (x) → exp(x) per ogni x ∈ R e verificare che effettivamente exp(x)
soddisfa il problema di Cauchy.

Riassumendo: dato un problema di Cauchy nella forma del teorema, se f è continua allora
esso ha almeno una soluzione locale (Peano), e se poi f è di classe C 1 allora la soluzione è
anche unica. Questo mostra che l’esistenza e unicità locale sono legate alla regolarità di f .
Non è così invece per l’esistenza/unicità di tipo globale.
Esempio 3.3.8. Si consideri il P.C.
(
y0 = y2
α ∈ R.
y(0) = α,

α
Esso ammette come soluzione y(x) = 1−αx negli intervalli (−∞, α1 ) se α > 0, ( α1 , +∞) se
α < 0 e R se α = 0. Ciò nonostante l’equazione ha la forma y 0 = f (x, y) con f (x, y) ∈
C ∞ (R × R). In effetti, come vedremo, l’esistenza e unicità globale è infatti sensibile alla
crescita di f come funzione di y.

Teorema 3.3.9 (Esistenza e unicità globale (striscia)). Sia data f : S := [a, b] × Rn → Rn ,


con f ∈ C(S). Supponiamo che f sia lipschitziana nelle y uniformemente nelle x in S,
ovvero che esista L > 0 tale che

x ∈ [a, b]
=⇒ kf (x, y1 ) − f (x, y2 )k2 ≤ Lky1 − y2 k2 . (3.9)
y1 , y2 ∈ Rn
3.3. TEOREMI DI ESISTENZA E UNICITÀ 61

Allora ogni problema di Cauchy (


y 0 = f (x, y)
y(x0 ) = y0
con (x0 , y0 ) ∈ S ha un’unica soluzione su [a, b].

Osservazione 3.3.10. La condizione (3.9) dice (tra le altre cose) che f cresce al più linear-
mente nelle y. Infatti da essa segue che

kf (x, y)k2 ≤ kf (x, 0)k2 + kf (x, y) − f (x, 0)k2 ≤ A + Lkyk2 ,

dove A := max{kf (x, 0)k2 , x ∈ [a, b]}, che esiste per la continuità di f .

Dimostrazione. Sia X := C([a, b], Rn ), considerato come spazio di Banach rispetto alla
norma dell’estremo superiore. Sia ϕ ∈ X e sia
Z x
(T ϕ)(x) = y0 + f (u, ϕ(u)) du.
x0

È chiaro che T ϕ è una funzione continua, e questo basta a concludere che T : X → X .


Come detto, X è completo rispetto a k · k∞,[a,b] , ma noi introduciamo una norma diversa,
anche se equivalente a questa. Fissiamo (per il momento ad arbitrio) λ > 0, e poniamo

kϕkλ := sup ke−λ|x−x0 | ϕ(x)k2 .


x∈[a,b]

Osserviamo che e−λ(b−a) ≤ e−λ|x−x0 | ≤ 1 per x ∈ [a, b], e che quindi

e−λ(b−a) kϕk∞,[a,b] ≤ kϕkλ ≤ kϕk∞,[a,b] .

Questo dimostra che k · k∞,[a,b] e k · kλ sono norme equivalenti così che X è completo
anche rispetto a k · kλ . Come fatto per il teorema locale, proseguiamo nella dimostrazione
osservando che
Z x 
kT ϕ(x) − T ψ(x)k2 = f (u, ϕ(u)) − f (u, ψ(u)) du

x0 2
Z x
≤ kf (u, ϕ(u)) − f (u, ψ(u))k2 du ,

x0

e che dalla stima di lipschitzianità di f segue che questa espressione è


Z x
≤ L kϕ(u) − ψ(u)k2 du .

x0

Ora introduciamo la nuova norma. Dalla definizione di k · kλ segue che kϕ(u) − ψ(u)k2 ≤
eλ|u−x0 | kϕ − ψkλ quando x ∈ [a, b] (e quindi anche u ∈ [a, b]), quindi questa quantità è
stimata da
Z x
≤ Lkϕ − ψkλ eλ|u−x0 | du .

x0
62 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Osserviamo che
Z x Z x 1  1 1
se x > x0 , eλ|u−x0 | du = eλ(u−x0 ) du = eλ(x−x0 ) −1 ≤ eλ(x−x0 ) = eλ|x−x0 | ,

x0 x0 λ λ λ
Z x Z x
1  1 1
se x ≤ x0 , eλ|u−x0 | du = − eλ(x0 −u) du = eλ(x0 −x) −1 ≤ eλ(x0 −x) = eλ|x−x0 | ,

x0 x0 λ λ λ
così che dalla stima precedente segue che
L
e−λ|x−x0 | kT ϕ(x) − T ψ(x)k2 ≤ kϕ − ψkλ , x ∈ [a, b].
λ
Passando all’estremo superiore in x ∈ [a, b] abbiamo quindi
L
kT ϕ − T ψkλ ≤ kϕ − ψkλ .
λ
Scegliendo λ > L otteniamo dunque una norma rispetto alla quale T è una contrazione.
La conclusione allora segue dal teorema di Banach–Caccioppoli e dalla equivalenza del
problema di Cauchy con il corrispondente problema di Volterra.

3.4 Stabilità rispetto al modello e ai dati iniziali


Teorema 3.4.1. Siano f, g : [a, b] × B → Rn dove B è un aperto di Rn . Assumiamo i
seguenti due fatti:
i. esiste L con kf (x, y) − f (x, z)k ≤ Lky − zk per ogni scelta di x ∈ [a, b] e y, z ∈ B,
ii. esiste R : [a, b] → R continua con kf (x, y) − g(x, y)k ≤ R(x) per ogni x ∈ [a, b] ed
y ∈ B.
Siano α, β ∈ B e siano ϕ e ψ funzioni di classe C 1 ([a, b]) che soddisfano
( (
ϕ0 (x) = f (x, ϕ(x)) ψ 0 (x) = g(x, ψ(x))
ϕ: ψ:
ϕ(a) = α ψ(a) = β.

Allora Z x
kϕ(x) − ψ(x)k2 ≤ e L(x−a)
kα − βk2 + e L(x−a)
e−L(s−a) R(s) ds.
a

Dimostrazione. Consideriamo la funzione kϕ(x) − ψ(x)k2 . Questa è una mappa [a, b] → R


continua che in tutti i punti in cui ϕ(x) 6= ψ(x) soddisfa
n i1/2 hϕ(x) − ψ(x), ϕ0 (x) − ψ 0 (x)i
d d hX
kϕ(x) − ψ(x)k2 = (ϕi (x) − ψi (x))2 =
dx dx kϕ(x) − ψ(x)k2
i=1

e quindi per la disuguaglianza di Cauchy–Schwarz è stimata da


kϕ(x) − ψ(x)k2 · kϕ0 (x) − ψ 0 (x)k2
≤ = kϕ0 (x) − ψ 0 (x)k2 .
kϕ(x) − ψ(x)k2
Dalle equazioni differenziali risolte da ϕ e ψ ed usando la disuguaglianza triangolare
ricaviamo che questo è

= kf (x, ϕ(x)) − g(x, ψ(x))k2 ≤ kf (x, ϕ(x)) − f (x, ψ(x))k2 + kf (x, ψ(x)) − g(x, ψ(x))k2
3.5. EQUAZIONI LINEARI 63

che per le ipotesi su f e g produce la stima

d
kϕ(x) − ψ(x)k2 ≤ Lkϕ(x) − ψ(x)k2 + R(x).
dx

Moltiplichiamo la disuguaglianza per e−Lx , ottenendo

d
e−Lx kϕ(x) − ψ(x)k2 − Le−Lx kϕ(x) − ψ(x)k2 ≤ e−Lx R(x),
dx
ovvero
d  −Lx 
e kϕ(x) − ψ(x)k2 ≤ e−Lx R(x).
dx
Integrando questa relazione su [a, x] abbiamo
Z x
−Lx −La
e kϕ(x) − ψ(x)k2 − e kα − βk2 ≤ e−Ls R(s) ds.
a

Quindi Z x
kϕ(x) − ψ(x)k2 ≤ e L(x−a)
kα − βk2 + e Lx
e−Ls R(s) ds,
a

che è la tesi. Questa però è stata ottenuta supponendo ϕ(x) 6= ψ(x) nell’intervallo di
integrazione (o almeno nella sua parte aperta). La tesi in generale è ottenuta incollando
questi risultati (cosa che è possibile perché kϕ(x) − ψ(x)k2 è continua su [a, b]). (Nota: si
osservi che questa osservazione è inutile qualora R sia identicamente nulla. In questo caso
infatti le ϕ e ψ risolvono la medesima equazione differenziale per cui possiamo supporre
che certamente ϕ(x) 6= ψ(x) in [a, b]: infatti, se mai esistesse un punto in cui ϕ(x) = ψ(x),
allora le due funzioni sarebbero identiche (per il teorema di esistenza ed unicità locale) e
la tesi sarebbe certamente soddisfatta).

Questo risultato è noto col nome di Lemma di Grönwall. Esso dà una stima di quanto
velocemente cambia la soluzione al variare della condizione iniziale (α o β) e della forma
dell’equazione (f o g). La stima in sé non è però molto buona per via del termine eL(x−a)
(esponenziale); d’altra parte sotto le ipotesi date non è possibile fare meglio di quanto già
affermato1 . Questo risultato è il più semplice all’interno di una vasta famiglia di risultati
sulla dipendenza continua delle soluzioni dai parametri del problema di Cauchy.

3.5 Equazioni lineari


Sono equazioni della forma

y (n) + a1 (x)y (n−1) + · · · + an−1 (x)y 0 + an (x)y = f (x) (3.10)

dove le funzioni a1 , . . . , an ed f : [a, b] → R sono assunte continue in [a, b]. Il seguente


risultato è lo strumento che governa lo studio di questo tipo di equazioni. Esso discende
direttamente dal teorema di esistenza ed unicità globale.
1
Basta considerare i problemi di Cauchy con la stessa equazione y 0 = y e condizioni iniziali y(0) = α ed
y(0) = β. Le due soluzioni sono rispettivamente ϕ(x) = αex ed ψ(x) = βex , e per loro la stima del teorema
di fatto vale come uguaglianza.
64 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Teorema 3.5.1. Per ogni scelta di x0 ∈ [a, b] e di y0 , . . . , yn−1 ∈ R il problema di Cauchy


(
y (n) + a1 (x)y (n−1) + · · · + an−1 (x)y 0 + an (x)y = f (x)
y (j) (x0 ) = yj j = 0, . . . , n − 1

ha una e una sola soluzione su [a, b].

Dimostrazione. Formuliamo il problema di Cauchy come problema del primo ordine (in
dimensione n) (
z 0 = F (x, z)
z(j) (x0 ) = yj−1 j = 1, . . . , n,
dove    
y z2
 y0   z3 
z :=  e F (x, z) :=  .
   
..  ..
 .  
Pn . 
y (n−1) f (x) − j=1 an−j+1 (x)zj
Osserviamo che F : [a, b] × Rn → Rn è continua, e che
n
X 2
kF (x, z) − F (x, w)k22 = (z2 − w2 )2 + · · · + (zn − wn )2 + an−j+1 (x)(zj − wj )
j=1
n
X   Xn 
≤ kz − wk22 + (an−j+1 (x))2 kz − wk22 = 1 + (an−j+1 (x))2 kz − wk22 .
j=1 j=1

Visto che le aj sono continue su [a, b], la funzione [1 + nj=1 (aj (x))2 ]1/2 ha un massimo su
P
[a, b] che chiamiamo L. Il calcolo precedente mostra così che

kF (x, z) − F (x, w)k2 ≤ Lkz − wk2 ∀z, w ∈ Rn ,

uniformemente in [a, b]. Quindi F ha tutte le proprietà richieste per poter applicare il
teorema di esistenza e unicità globale.

La struttura dell’equazione lineare ne consente la seguente importante riscrittura. Siano


a1 , . . . , an e f continue in [a, b], e sia

L : C n ([a, b]) −→ C([a, b]),


Pn
ϕ 7→ (Lϕ)(x) := ϕ(n) + j=1 aj (x)ϕ
(n−j) (x).

Si osservi che effettivamente Lϕ ∈ C([a, b]).


Tramite l’operatore2 differenziale3 L l’equazione (3.10) è scritta come

Lϕ = f.
2
Tradizione vuole che siano chiamate funzioni quelle mappe che trasformano punti in punti, ed operatori
quelle mappe che trasformano funzioni in funzioni. Chiaramente da un punto di vista più moderno i
termini mappa/funzione/operatore sono in realtà interscambiabili, indicando essi semplicemente funzioni
tra insiemi: è solo una certa tradizione che preferisce l’uso di un termine o l’altro a seconda della natura
di questi insiemi.
3
È così chiamato perché agisce attraverso derivate.
3.5. EQUAZIONI LINEARI 65

Risolvere l’equazione quindi equivale a trovare la contro immagine di f tramite L. Questa


interpretazione è utile poiché L è un operatore lineare: in effetti L(λϕ + ψ) = λLϕ + Lψ
per ogni λ ∈ R e ϕ, ψ ∈ C n ([a, b]). Il seguente risultato è una immediata conseguenza di
questo fatto.
Teorema 3.5.2. Sia L l’operatore differenziale appena definito. Allora:
i. l’insieme V := ker L = {y : Ly = 0} è uno spazio vettoriale;

ii. sia ϕ0 una qualunque funzione tale che Lϕ0 = f . Allora

{ϕ : Lϕ = f } = V + ϕ0 .

La seconda tesi può essere enunciata dicendo che l’insieme delle soluzioni di Ly = f è uno
spazio affine.
Dimostrazione. Il fatto che V sia vettoriale discende immediatamente dal fatto che esso
è il nucleo di un operatore lineare. Per la seconda tesi osserviamo che se ϕ̃ ∈ V , allora
L(ϕ̃ + ϕ0 ) = Lϕ̃ + Lϕ0 = 0 + f = f : questo mostra l’inclusione: V + ϕ0 ⊆ {ϕ : Lϕ = f }.
D’altra parte, se ψ è tale che Lψ = f allora ψ = (ψ − ϕ0 ) + ϕ0 e L(ψ − ϕ0 ) = Lψ − Lϕ0 =
f − f = 0, quindi ψ − ϕ0 ∈ V : questo dimostra l’inclusione: V + ϕ0 ⊇ {ϕ : Lϕ = f }.

3.5.1 Costruzione di una base


La seguente proposizione esprime un fatto centrale di questa teoria.
Teorema 3.5.3. Sia L come sopra e sia V := ker L = {ϕ ∈ C n ([a, b]) : Lϕ = 0}. Allora
dim V = n.
Dimostrazione. Sia x0 ∈ [a, b] fissato. Consideriamo i seguenti n problemi di Cauchy:
  

 Ly = 0 
 Ly = 0 
 Ly = 0
  
y(x0 ) = 1 y(x0 ) = 0 y(x0 ) = 0

 
 


 
 

  
y 0 (x0 ) = 0
 y 0 (x0 ) = 1
 y 0 (x0 ) = 0

, ,...,

 y 00 (x0 ) = 0 
 y 00 (x0 ) = 0 
 y 00 (x0 ) = 0
.. .. ..

 
 

. . .
 
 


 
 


 (n−1) 
 (n−1) 
 (n−1)
y (x0 ) = 0 y (x0 ) = 0 y (x0 ) = 1.

Per il Teorema 3.5.1 ognuno di essi ha una e una sola soluzione, che chiamiamo rispettiva-
mente ϕ1 , ϕ2 , . . . , ϕn .
Verifichiamo che dim V ≥ n. Lo facciamo dimostrando che le ϕj sonoPlinearmente indipen-
denti su R. Infatti supponiamo che α1 , α2 , . . . , αn ∈ R siano tali che nj=1 αj ϕj =: ψ sia la
funzione identicamente nulla. Allora ψ (k) (x0 ) = 0 per ogni k, ma dalle condizioni iniziali
segue che:
n n n
(k) (k)
X X X
ψ (k) (x) = αj ϕj (x) =⇒ 0 = ψ (k) (x0 ) = αj ϕj (x0 ) = αj δj,k+1 = αk+1
j=1 j=1 j=1

quindi ogni αk = 0.
Verifichiamo che dim V ≤ n. Sia h ∈ V . Allora h ∈ C n ([a, b]) e in particolare i numeri
66 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

h(j) (x0 ) con j = 0, . . . , n − 1 sono ben definiti. Sia ψ := nj=1 h(j−1) (x0 )ϕj . Osserviamo
P
che ψ ∈ C n ([a, b]) e Lψ = 0 (perché Lϕj = 0 per ogni j e L è lineare). Inoltre con lo stesso
conto di prima mostriamo che
n n
(k)
X X
ψ (k) (x0 ) = h(j−1) (x0 )ϕj (x0 ) = h(j−1) (x0 )δj,k+1 = h(k) (x0 ), k = 0, . . . , n − 1.
j=1 j=1

Quindi sia h che ψ sono soluzioni del problema di Cauchy


(
Ly = 0
y (j) (x0 ) = h(j) (x0 ) ∀j = 0, . . . , n − 1.

Sappiamo che però il problema di Cauchy ha un’unica soluzione, quindi


n
X
h=ψ= h(j−1) (x0 )ϕj ,
j=1

ovvero h è combinazione lineare delle ϕj .

Osservazione 3.5.4. La dimostrazione del teorema mostra che le ϕj costituiscono una base
per V . Non solo quindi conosciamo la dimensione dello spazio, ma sappiamo che possiamo
anche ottenerne una base costruendo le soluzioni di n problemi di Cauchy con quelle
condizioni iniziali. In realtà è semplice verificare che la costruzione del teorema produce
una base anche per condizioni iniziali diverse, basta che siano linearmente indipendenti.

3.5.2 Matrice Wronskiana


Definizione 3.5.5. Siano ϕ1 , . . . , ϕn , n soluzioni di Ly = 0 (non necessariamente quelle
del Teorema 3.5.2 e neppure necessariamente indipendenti). Chiamiamo matrice Wron-
skiana la matrice n × n
 
ϕ1 ϕ2 ... ϕn
 ϕ01 ϕ02 ... ϕ0n 
W :=  .. .. .. 
 
..
 . . . . 
(n−1) (n−1) (n−1)
ϕ1 ϕ2 . . . ϕn

e Wronskiano la funzione det W : x 7→ det(W (x)).

Proposizione 3.5.6. Sia W come sopra. Allora (det W )0 (x) = −a1 (x)(det W )(x) in [a, b],
e quindi
 Z x 
(det W )(x) = (det W )(x0 ) · exp − a1 (u) du ∀x ∈ [a, b].
x0

In particolare (det W )(x) = 0 per qualche x se e solo se (det W )(x) = 0 per ogni x.

Dimostrazione. La formula di Leibniz esprime det W come somma sulle permutazioni (con
segno) di prodotti degli elementi della matrice. Da ciò segue che (det W )0 è la somma (con
3.5. EQUAZIONI LINEARI 67

segno) delle derivate dei prodotti, ciascuna delle quali è a sua volta somma di n termini in
cui la derivata è eseguita volta per volta su ciascun fattore. Questo implica che

(det W )0 (x)
 
ϕ1 ... ϕn
 
ϕ1 ... ϕn
ϕ01 ϕ0n
 
...
ϕ001 ... ϕ00n  ϕ01 ... ϕ0n

ϕ01 ϕ0n
 
... 
.. ..

..
ϕ001 ϕ00n
   
= det

.. .. .. + det
  ...  
+ · · ·+ det
 . .

..
. . .   .. .. .. (n−2)

(n−2) 
.

(n−1) (n−1)
 . . ϕ1

. . . ϕn
ϕ1 . . . ϕn

(n−1) (n−1) (n) (n)
ϕ1 . . . ϕn ϕ1 . . . ϕn

I primi n − 1 determinanti della sommatoria sono in realtà nulli poiché hanno due righe
uguali. Abbiamo quindi
 
ϕ1 ... ϕn
 . .. .. 
 .. . . 
(det W )0 (x) = det 
 (n−2) (n−2)  .

ϕ1 . . . ϕn 
(n) (n)
ϕ1 . . . ϕn

(n) (n−k)
Inoltre, ogni ϕj soddisfa la relazione Lϕj = 0, ovvero ϕj = − nk=1 ak (x)ϕj
P
; sosti-
tuendo questa identità si ha:
 
ϕ1 ... ϕn
 .. .. .. 
0
 . . . 
(det W ) (x) = det  (n−2) (n−2)

ϕ1 ... ϕn
 
 
Pn (n−k) P n (n−k)
− k=1 ak (x)ϕ1 . . . − k=1 ak (x)ϕn
 
ϕ1 ... ϕn
n  . .. .. 
X  .. . . 
=− ak (x) det  (n−2)

(n−2)  ,

k=1  ϕ 1 . . . ϕ n 
(n−k) (n−k)
ϕ1 . . . ϕn

dove per l’ultima uguaglianza si è usata la linearità del determinante rispetto alle sue righe.
Le matrici che appaiono nei termini con indice k ≥ 2 hanno due righe uguali e quindi hanno
determinante nullo. Resta quindi solo il termine con k = 1 che dà
 
ϕ1 ... ϕn
 . .. .. 
= −a1 (x) det  .. . .  = −a1 (x)(det W )(x)
(n−1) (n−1)
ϕ1 . . . ϕn

che è l’equazione data. Le altre formule sono immediate conseguenze.

Corollario 3.5.7. Siano ϕ1 , . . . , ϕn , funzioni nel nucleo di L, ovvero soluzioni di Ly = 0.


Siano Φj con j = 1, . . . , n le funzioni a valori vettoriali definite da:
(n−1)
Φj := (ϕj , ϕ0j , ϕ00j , . . . , ϕj ).

Allora:
68 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

• le funzioni ϕ1 , . . . , ϕn sono una base del nucleo se e solo se esiste x0 ∈ [a, b] in corri-
spondenza del quale i vettori Φj (x0 ) con j = 1, . . . , n sono linearmente indipendenti;

• esiste un x0 ∈ [a, b] in corrispondenza del quale i vettori Φj (x0 ) con j = 1, . . . , n sono


linearmente indipendenti se e solo se i vettori Φj (x0 ) con j = 1, . . . , n sono linearmente
indipendenti per ogni x0 ∈ [a, b].
Dimostrazione. La tesi segue dal fatto che i vettori Φj sono le colonne della matrice wron-
skiana, e quindi essi sono linearmente indipendenti se e solo se il determinante della matrice
è diverso da zero. La Proposizione (3.5.6) mostra che questo accade in un punto se e solo
se accade in ogni punto.

La prima parte del corollario precedente mostra come costruire una base per il nucleo:
basta prendere le soluzioni di n Problemi di Cauchy con condizioni iniziali linearmente
indipendenti.

3.5.3 Costruzione di una soluzione


Supponiamo sia stata assegnata una funzione f ∈ C([a, b]), e cerchiamo ora di costruire
una soluzione di Ly = f nota una base di Ly = 0, costituita dalle funzioni ϕ1 , . . . , ϕn . In
particolare cerchiamo una soluzione di Ly = f che sia della forma
n
X
ψ(x) = Aj ϕj
j=1

con A1 , . . . , An funzioni incognite da determinare, che immaginiamo in C 0 ([a, b]). Osservia-


mo che
ψ(x) = hϕ, Ai
dove A := (A1 , . . . , An ) e ϕ := (ϕ1 , . . . , ϕn ) (ovvero che ψ può essere vista come prodotto
scalare tra le funzioni a valori vettoriali A ed φ). Con questa notazione possiamo scrivere
in forma compatta che
ψ 0 = hϕ, A0 i + hϕ0 , Ai.
Se quindi imponiamo la condizione hϕ, A0 i = 0 si ha:

ψ 0 = hϕ0 , Ai.

Ripetendo il procedimento otteniamo

ψ 00 = hϕ0 , A0 i + hϕ00 , Ai,

e se imponiamo hϕ0 , A0 i = 0 otteniamo

ψ 00 = hϕ00 , Ai.

Proseguiamo in questo modo n − 1 volte, fino a ottenere il seguente sistema di identità


 

 ψ0 = hϕ0 , Ai 
hϕ, A0 i = 0
 
ψ 00

= hϕ00 , Ai hϕ0 , A0 i = 0

.. sotto le condizioni .. (3.11)


 . 

 .

 (n−1) 
 (n−1) 0
ψ = hϕ(n−2) , Ai hϕ , A i = 0.
3.5. EQUAZIONI LINEARI 69

Una ulteriore derivazione produce l’uguaglianza

ψ (n) = hϕ(n−1) , A0 i + hϕ(n) , Ai.

Ma allora:

n−1
X n−1
X
Lψ = ψ (n) + an−j ψ (j) = hϕ(n−1) , A0 i + hϕ(n) , Ai + an−j hϕ(j) , Ai
j=0 j=0
(n−1) 0
= hϕ , A i + hLϕ, Ai,

dove Lϕ := (Lϕ1 , . . . , Lϕn ). Ma ϕ1 , . . . , ϕn sono nel nucleo, quindi Lϕ = 0, e così

Lψ = hϕ(n−1) , A0 i. (3.12)

Da (3.11) ed (3.12) segue che affinché ψ soddisfi l’equazione Lψ = f basta che le A1 , . . . , An


soddisfino


 hϕ, A0 i = 0  0   
A1 0

0 0

hϕ , A i = 0


  ..   .. 
..
ovvero W  .  =  . 
   
. 0

 (n−2) , A0 i = 0
 A n−1
 0



 hϕ An 0 f
hϕ(n−1) , A0 i = f

dove W è la matrice Wronskiana.


Sappiamo che det W (x) 6= 0 per ogni x, quindi il sistema nelle A01 , . . . , A0n può sempre
essere risolto, e una volta fattolo si trovano le Aj integrando le A0j trovate. In una formula:

A01
       
0 A1 (x) 0
 ..   ..   ..  Z x  .. 
 . 
 0  = W −1  .  e quindi . = W −1 (u)  .  du
     

An−1  0 An−1 (x) x0  0 
An0 f An (x) f (u)

e così
 
n A1 (x)
Aj (x)ϕj (x) = [ϕ1 (x), . . . , ϕn (x)] ·  ... 
X
ψ(x) =
 
j=1 An (x)
 
0
 x −1
Z  .. 
W (u)  .  du.

= ϕ1 (x) . . . ϕn (x)
 
x0  0 
f (u)
70 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Tenendo conto della formula per l’inversa di una matrice questa può essere scritta anche
 
ϕ1 (u) ... ϕn (u)
.. .. ..
.
 
det  (n−2)
 . . 
(n−2)

ϕ (u) ... ϕn (u)
1
Z x ϕ1 (x) ... ϕn (x)
ψ(x) =   f (u) du. (3.13)
x0 ϕ1 (u) ... ϕn (u)
 .. .. .. 
 . . . 
det  (n−2)

(n−2)

ϕ1 (u) ... ϕn (u)

(n−1) (n−1)
ϕ1 (u) ... ϕn (u)

Si noti che nell’ultima riga del numeratore la variabile è x (non u come invece in tutte le
altre righe), e che il denominatore è sempre diverso da 0 perché è il Wronskiano.

3.5.4 Equazioni lineari a coefficienti costanti: descrizione del nucleo


La formula precedente presuppone la conoscenza di una base per ker L e il Corollario 3.5.7
contiene una “ricetta” per costruire una base: risolvere n problemi di Cauchy con condizioni
indipendenti. Purtroppo questo è difficile da fare concretamente. Tuttavia questo può essere
fatto in modo efficiente qualora i coefficienti aj dell’equazione siano costanti. Ecco come.
Sia:
Ly = y (n) + a1 y (n−1) + · · · + an−1 y 0 + an y (0)
con aj ∈ R (costanti). Sia P ∈ R[z] il polinomio di grado n associato ad L definito da

P (z) := z n + a1 z n−1 + · · · + an−1 z + an .

Esso è detto polinomio caratteristico dell’equazione. Osserviamo che se y(x) = eλx , con λ
costante, allora y 0 (x) = λeλx , y 00 (x) = λ2 eλx ed in generale y (j) (x) = λj eλx . Ne segue che

L(eλx ) = P (λ)eλx .

Da questa relazione segue che se λ è una radice di P , ovvero se P (λ) = 0, allora

L(eλx ) = P (λ)eλx = 0,

e quindi eλx ∈ ker L. Possiamo perciò costruire funzioni del nucleo prendendo eλx al variare
di λ tra le radici di P .
Esercizio 3.5.8. Sia data l’equazione: y 00 − 3y 0 + 2y = 0, quindi con Ly = y 00 − 3y 0 + 2y.
Il polinomio caratteristico è P (z) = z 2 − 3z + 2. Esso ha le radici 1 e 2, quindi ex e
e2x sono nel nucleo. È chiaro che queste funzioni sono linearmente indipendenti quindi,
ker L = spanR (ex , e2x ).
Vi sono però due problemi, illustrati dai due esempi seguenti.
Esempio 3.5.9. (radici multiple.) Si consideri: y 00 − 2y 0 + y = 0. Il polinomio caratteristico
P (z) = z 2 − 2z + 1 = (z − 1)2 ha una sola radice doppia, l’ 1; la procedura costruisce la
sola funzione ex ma il nucleo ha dimensione due quindi manca un secondo elemento per
avere una base.
3.5. EQUAZIONI LINEARI 71

Esempio 3.5.10. (radici non reali.) Si consideri: y 00 +2y 0 +5y = 0. Il polinomio caratteristico
ha radici −1 + 2i e −1 − 2i non reali. Le funzioni e(−1+2i)x e e(−1−2i)x non sono a valori
reali e quindi non sono nel ker L reale.
Entrambi i problemi posso però essere risolti. Ricordiamo che se λ ∈ C è una radice di un
polinomio P ∈ C[z], allora la molteplicità µ di λ è il massimo esponente intero tale che
(z − λ)µ divide P (z) in C[z]. Quindi se λ1 , . . . , λk sono le radici distinte in C di P e se
µ1 , . . . , µk le loro molteplicità e P è monico4 dal teorema fondamentale dell’algebra segue
che
P (z) = (z − λ1 )µ1 · · · (z − λk )µk .
Se poi P ∈ R[z] (quindi è a coefficienti reali) e se λ ∈ C è una radice di P , allora anche λ
è radice di P (perché il fatto che P abbia coefficienti reali fa sì che P (λ) = P (λ) = 0 = 0)
e le molteplicità di λ e λ sono uguali.

Teorema 3.5.11. Sia L a coefficienti costanti e P il suo polinomio caratteristico. Ad ogni


λ preso nell’insieme delle radici reali di P ed ad ogni coppia (λ, λ) di radici complesse non
reali associamo le seguenti funzioni:

• a λ ∈ R associamo

eλx , xeλx , x2 eλx , . . . , xµ−1 eλx µ funzioni;

• alla coppia (λ, λ) ∈ C\R associamo (posto λ =: u + iv, u, v ∈ R):

eux cos(vx), xeux cos(vx), . . . , xµ−1 eux cos(vx)


µ + µ funzioni.
eux sin(vx), xeux sin(vx), . . . , xµ−1 eux sin(vx)

Le n funzioni costruite in questo modo sono nel ker L e sono linearmente indipendenti.
Esse quindi ne sono una base perché dim ker L = n.

Dimostrazione. Sia λ radice di molteplicità µ. Allora P (z) = Q(z)(z −λ)µ con Q(z) ∈ C[z].
d
Osserviamo che L = P ( dx ), ovvero L è l’operatore differenziale associato al polinomio P
dalla sostituzione
d d dj
z j 7→ ◦ ··· ◦ = .
|dx {z dx} dxj
j volte

d
L’operatore dx e l’operatore λ· (quello che moltiplica per lo scalare λ) commutano, ovvero
d d
dx (λ(f (x)) = λ( dx (f (x))) perché λ è costante. Ne segue che
 d   d  d µ
L=P =Q −λ . (3.14)
dx dx dx
Osserviamo che  d 
− λ (eλx ) = λeλx − λeλx = 0
dx
e che  d 
− λ (xl eλx ) = lxl−1 eλx + λxl eλx − λxl eλx = lxl−1 eλx .
dx
4
Ovvero il coefficiente del termine di grado massimo è 1.
72 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

Quindi iterando si ha
 d µ
− λ (xl eλx ) = l(l − 1)(l − 2) · · · (l − µ + 1)xl−µ eλx ,
dx
che è identicamente 0 quando l < µ, perché in tal caso si annulla il coefficiente l(l −
1) . . . (l − µ + 1). Questo dimostra che
 d   d  d µ
L(xl eλx ) = P (xl eλx ) = Q − λ (xl eλx ) = 0
dx dx dx
se l < µ, ovvero che eλx , xeλx , . . . , xµ−1 eλx appartengono al nucleo di L. Si osservi che il
calcolo vale anche se λ ∈ C.
Ora mostriamo che le funzioni elencate nel teorema sono linearmente indipendenti. Basta
farlo per la famiglia di funzioni

eλx , xeλx , . . . , xµ−1 eλx (3.15)

perché la famiglia eux cos(vx), eux sin(vx), . . . è combinazione lineare (complessa) di quella
esponenziale.
Siano λ1 , . . . , λk le radici in C distinte e siano µ1 , . . . , µk le loro molteplicità. La generica
combinazione lineare delle (3.15) corrisponde ad una somma della forma
k
X
pj (x)eλj x ,
j=1

dove ogni pj è un polinomio a coefficienti complessi di grado ≤ µj . Dimostriamo che se


tale combinazione è nulla allora sono nulli tutti i pj (questo dà la tesi). Supponiamo che

k
X
pj (x)eλj x = 0 ∀x. (3.16)
j=1

Possiamo escludere dalla somma quei pj che sono identicamente nulli, quindi possiamo
assumere che per assurdo ogni pj nella (3.16) sia diverso dal polinomio nullo. Per derivazione
da (3.16) segue che
Xk
(p0j (x) + pj (x)λj )eλj x = 0.
j=1

Ripetendo la derivazione otteniamo


k
X
(p00j (x) + 2λj p0j (x) + λ2j pj (x))eλj x = 0,
j=1

ed iterandola k volte deduciamo che


   λ x
p1 p2 ... pk e 1
 0
p1 + λ1 p1 0
p2 + λ2 p2 ... 0
p k + λk pk   e λ2 x 
p00 + 2λ1 p0 + λ2 p1 p00 + 2λ2 p0 + λ2 p2 . . . p00 + 2λk p0 + λ2 pk   ..  = 0.
  
 1 1 1 2 2 2 k k k  . 
.. .. .. ..
. . . . e λk x
3.6. ALCUNI ESEMPI INTERESSANTI 73

Sia M la matrice k × k che appare a sinistra nella identità precedente. Visto che il vettore
[eλ1 x , . . . , eλk x ] non è il vettore nullo, il determinante di M deve essere nullo, identicamente
in x. Osserviamo che il grado di p01 è sempre minore di quello di pj quindi se p1 (x) =
a1 xdeg p1 + termini di grado minore, allora
l  
l (l−j)
λj1 p1
X
= λl1 a1 xdeg p1 + termini di grado minore
j
j=0

e quindi

0 = det M
 
1 1 ... 1
 λ1 λ2 ... λk

 deg p1 +deg p2 +···+deg pk
= a1 a2 · · · ak det x + termini grado minore

.. .. .. ..
 . . .  .
λk−1
1 λk−1
2 . . . λk−1
k
Y
deg p1 +deg p2 +···+deg pk
= a1 a2 · · · ak (λj − λi )x + termini grado minore
1≤i<j≤k

(l’ultima uguaglianza è l’identità di Van der Monde). Ma questo è impossibile perché


a1 , . . . , ak sono 6= 0 e i λj sono due a due distinti. Siamo dunque arrivati a un assurdo che
nasce dall’ipotesi che i pj non siano il polinomio nullo.

3.6 Alcuni esempi interessanti


Sia y 00 + 4y = 0. Le radici del polinomio caratteristico sono ±2i e quindi lo spazio delle
soluzioni è spanR (cos(2x), sin(2x)). Se poi imponiamo le condizioni

00
y + 4y = 0

y(0) = a

 0
y (0) = b

la soluzione del P.C. è a cos(2x) + 2b sin(2x).


   
y(0) y(x)
Sia Ex la mappa che manda 0 7→ 0 (evoluzione al punto x).
y (0) y (x)

y0 y0

y y x

E0 Ex

Allora:
1
a cos(2x) + 2b sin(2x)
      
a cos(2x) 2sin(2x) a
Ex = = .
b −2a sin(2x) + b cos(2x) −2 sin(2x) cos(2x) b
74 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

quindi Ex è una mappa lineare, che può essere decomposta come


"√ # " 1 #
2 0 cos(2x) sin(2x) √2 0
√ .
0 √12 − sin(2x) cos(2x) 0 2

Si noti che la matrice centrale rappresenta una rotazione.


Osservazione 3.6.1. Come Ex trasforma una regione del piano? Proviamo col quadrato:
 √10   √2 0 
2
√ cos 2x sin 2x
 
0 √1
y0 0 2 y0 − sin 2x cos 2x y0 2 y0

y y y y

Si osservi che Ex ha conservato l’area. Questo deriva dal fatto che det Ex = 1 e questo
a sua volta accade perché la matrice Ex è la Wronskiana del sistema (con base cos(2x)
e 21 sin(2x)) e sappiamo che (det W )0 = −a1 det W dove a1 è il coefficienti dell’equazione
y 00 + a1 y 0 + a2 y = 0. In questo caso a1 = 0, quindi det W è costante e così det Ex =
det W (x) = det W (0) = 1.
Osservazione 3.6.2. Per ogni x, z ∈ R, si ha Ex · Ez = Ex+z . Infatti
"√ # " # "√ # " #
2 0 √1 0 2 0 √1 0
Ex · Ez = Rx 2 √ Rz 2 √
0 √12 0 2 0 √12 0 2
"√ # " # "√ # " #
2 0 √1 0 2 0 √1 0
= Rx Rz 2 √ = Rx+z 2 √ = Ex+z .
0 √12 0 2 0 √12 0 2

Quindi l’insieme degli {Ex : x ∈ R} è un gruppo abeliano di trasformazioni del piano (di
fatto un sottogruppo di SL(2, R)). Anche questo fenomeno ha una spiegazione generale ma
illustrarla ci porterebbe troppo lontano. . .

3.7 Soluzione particolare per le lineari a coefficienti costanti


Consideriamo ora l’equazione non omogenea

y (n) + a1 y (n−1) + · · · + an y = f (x), f (x) ∈ C([a, b]).

Visto che conosciamo una base esplicita per il nucleo, possiamo trovare una soluzione
particolare usando la formula generale (3.13). Questo è in effetti tutto quello che si può
dire per una generica funzione. Tuttavia per certe f di forma speciale si può trovare una
soluzione seguendo una strada puramente algebrica.
Teorema 3.7.1. Sia f (x) = q(x)eλx con q ∈ R[x] e λ ∈ R. Sia µ la molteplicità di λ come
radice del polinomio caratteristico dell’equazione (con µ = 0 se λ non è radice). Allora
esiste r(x) ∈ R[x] con deg r = deg q tale che

L(xµ r(x)eλx ) = q(x)eλx .


3.7. SOLUZIONE PARTICOLARE PER LE LINEARI A COEFFICIENTI COSTANTI75

Ovvero l’equazione Ly = q(x)eλx ha xµ r(x)eλx come soluzione particolare. Questo consente


di trovare r per via algebrica.

Dimostrazione. Per ogni scelta di interi n e d e λ ∈ R consideriamo l’insieme di funzioni


(n,λ)
Vd := {ϕ(x) : ϕ(x) = r(x)xn eλx con r ∈ R[x] e grado di r ≤ d}.
(n,λ)
Osserviamo che Vd è uno spazio R−vettoriale di dimensione d + 1 perché n e λ so-
no fissati quindi gli stessi per tutti gli elementi. La dimostrazione consiste nel verificare
separatamente due cose. Precisamente

i. che
(µ,λ) (0,λ)
L : Vd → Vd ,
ovvero L manda elementi della forma r(x)xµ eλx dove µ è la molteplicità di λ e grado
di r ≤ d, in elementi della forma q(x)eλx con grado q ≤ d);

ii. che L è iniettiva.


(µ,λ) (0,λ)
Fatto ciò, visto che dim Vd = d + 1 = dim Vd , ne segue che L è anche suriettiva,
ovvero la tesi. Entrambi i fatti discendono da questo calcolo:
 d 
− λ̃ (xm eλx ) = (mxm−1 + (λ − λ̃)xm )eλx .
dx

In particolare il risultato ha grado strettamente minore di m se e solo se λ̃ = λ. Come


nel testo del teorema, sia ora µ la molteplicità di λ come radice del polinomio caratteri-
stico P (con µ = 0 qualora λ non sia radice). Fattorizzando completamente P in C, la
formula (3.14) per l’operatore L può anche essere scritta come
 d  Y d   d µ
L=P = − λ̃j ◦ −λ ,
dx dx dx
j

dove le λ̃j sono le radici (in C) di P diverse da λ (ma eventualmente uguali tra loro).
Si osservi che questa scrittura ha senso anche nel caso in cui µ = 0 (ovvero λ non è una
radice), oppure in cui non ci sono radici λ̃j 6= λ (in tal caso il prodotto in j è vuoto ed è
posto uguale a 1). Di conseguenza, in particolare, si ha
Y d   d µ
L(xµ+d eλx ) = − λ̃j ◦ − λ (xµ+d eλx ).
dx dx
j

d
Il calcolo precedente mostra che ogni applicazione di dx − λ su xµ+d eλx ne fa diminuire il
d
grado in x di una (ed una sola) unità, mentre gli altri operatori dx − λ̃j non ne mutano il
grado. Questo dimostra che
(0,λ) (0,λ)
L(xµ+d eλx ) ∈ Vd \Vd−1 .

(0,λ) (µ,λ)
Il fatto che l’immagine sia in Vd dimostra i., perché ogni elemento di Vd è somma di
0
termini della forma xµ+d eλx con d0 ≤ d, ed il calcolo mostra che essi sono tutti mandanti
(0,λ) (0,λ)
in Vd0 che è contenuto in Vd .
76 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

(0,λ)
Il fatto che l’immagine non sia in Vd−1 dimostra invece ii. Infatti supponiamo che il nucleo
(µ,λ)
di L in Vd non sia banale e che quindi esista un elemento xµ w(x)eλx con deg w ≤ d
mandato dal L in 0, nonostante w non sia zero (quindi deg w 6= −∞). Sia w(x) = axdeg w +
w̃(x), dove w̃(x) ha grado strettamente inferiore. Il calcolo precedente mostra che

0 = L(xµ w(x)eλx ) = L(xµ (axdeg w + w̃(x))eλx ) = aL(xµ+deg w eλx ) + L(xµ w̃(x)eλx )

ovvero
L(xµ w̃(x)eλx ) = −aL(xµ+deg w eλx )
(0,λ)
ma questo è assurdo poiché il lato sinistro è in Vdeg w−1 mentre il lato destro non appartiene
a questo spazio.

Osservazione 3.7.2. Il teorema è applicabile a ogni λ ∈ R quindi anche quando λ = 0,


ovvero quando f (x) = q(x) e quindi quando f è un polinomio.
Osservazione 3.7.3. Il teorema è applicabile anche se la radice λ è complessa. In tal caso
però si dovrà tener conto del fatto che anche l’esponenziale eλx è a valori complessi e non
reali.
Esempio 3.7.4. Sia y 00 − 4y = (x + 2)ex . Il polinomio caratteristico è z 2 − 4 e ha radici ±2
con molteplicità uno.
La funzione f (x) := (x + 2)ex è della forma prevista con λ = 1 di molteplicità zero
(non è radice) e q(x) := x + 2. Allora esiste una soluzione della forma xµ r(x)eλx ovvero
x0 (ax + b)ex = (ax + b)ex con a e b opportuni. Per trovarli osserviamo che se y = (ax + b)ex
allora
y 0 = (ax + a + b)ex , y 00 = (ax + 2a + b)ex .
Così

(x + 2)ex = y 00 − 4y = ax + 2a + b − 4(ax + b) ex = (−3ax + 2a − 3b)ex .




Ma allora x + 2 = −3ax + 2a − 3b da cui si ricava


(
−3a = 1 1 8
=⇒ a=− , b=− .
2a − 3b = 2 3 9

La soluzione generale è quindi αe2x + βe−2x − ( 13 x + 89 )ex con α, β ∈ R.


Esempio 3.7.5. Sia y 00 − 4y = (x + 2)e2x . Come prima il polinomio caratteristico è z 2 − 4
e ha radici ±2 con molteplicità uno.
La funzione f (x) := (x + 2)e2x è della forma prevista con λ = 2 di molteplicità uno e
q(x) := x + 2. Allora esiste una soluzione della forma xµ r(x)eλx ovvero x1 (ax + b)e2x =
(ax2 + bx)e2x con a e b opportuni. Per trovarli osserviamo che se y = (ax2 + bx)e2x allora

y 0 = (2ax2 + (2a + 2b)x + b)e2x , y 00 = (4ax2 + (8a + 4b)x + 2a + 4b)e2x .

Così

(x + 2)e2x = y 00 − 4y = 4ax2 + (8a + 4b)x + 2a + 4b − 4(2ax2 + (2a + 2b)x + b) e2x




= (8ax + 2a + 4b)e2x .
3.7. SOLUZIONE PARTICOLARE PER LE LINEARI A COEFFICIENTI COSTANTI77

Ma allora x + 2 = 8ax + 2a + 4b da cui si ricava


(
8a = 1 1 7
=⇒ a= , b= .
2a + 4b = 2 8 16

La soluzione generale è quindi αe2x + βe−2x + ( 81 x + 7


16 )e
2x con α, β ∈ R.
Usando le formule cos x = 1 ix
2 (e + e−ix ) e sin x = 1 ix
2 (e − e
−ix ) (e le inverse eix = cos x +
i sin x, e−ix = cos x − i sin x) si dimostra la seguente variante. Sia,
f (x) = q(x)eux cos(vx),
con q ∈ R[x] ed u, v ∈ R. Sia µ la molteplicità di u + iv come radice del polinomio
caratteristico. Allora esistono due polinomi r1 e r2 in R[x] con grado entrambi ≤ deg q tali
che
L(xµ (r1 (x) cos(vx) + r2 (x) sin(vx))eux ) = q(x)eux cos(vx),
ovvero l’equazione Ly = f ha xµ (r1 (x) cos(vx) + r2 (x) sin(vx))eux quale soluzione.
Osservazione 3.7.6. In generale r1 e r2 sono entrambi 6= 0, ovvero la soluzione contiene sia
cos(vx), sia sin(vx) anche se in f (x) appare solo cos(vx).
Osservazione 3.7.7. Il fatto che il grado di r1 e r2 sia minore o uguale di quello di q consente
di individuare r1 e r2 per via algebrica.
Osservazione 3.7.8. La stessa conclusione vale anche nel caso in cui f (x) = q(x)eux sin(vx).
Esercizio 3.7.9. Si supponga che il polinomio caratteristico P dell’equazione differenziale
lineare a coefficienti costanti Ly = f abbia radici distinte (complesse o reali non importa,
comunque se si vuole si può assumere che siano in R), λ1 , . . . , λk . Verificare che allora la
formula (3.13) che dà una soluzione particolare dell’equazione assume la forma
k
xX
eλj (x−u)
Z
f (u) du.
x0 j=1 P 0 (λj )

Come diventa questa formula qualora vi siano radici coincidenti? Usate questa formula per
dare una dimostrazione alternativa della tesi del Teorema 3.7.1.
Osservazione 3.7.10. Si osservi che l’espressione trovata nell’esercizio precedente è della
forma Z x
K(x − u) f (u) du
x0
per una opportuna funzione K ∈ ∞
C (R). Integrali di questo tipo godono di varie proprietà
speciali e sono chiamati integrali di convoluzione. La loro comparsa in questa formula è
legata al fatto che l’operatore differenziale L è a coefficienti costanti, ovvero indipendenti
da x: questo fa sì che l’operatore L commuti con ogni operatore di traslazione τs , ovvero
si abbiano le identità
τs L = Lτs , ∀s ∈ R
dove τs è quell’operatore che trasforma la generica funzione g nella funzione (τs g)(x) :=
g(x − s)). Si osservi che l’insieme {τs : s ∈ R} è un gruppo continuo e abeliano. Si dimostri
che g ∈ ker L se e solo se τs g ∈ ker L per ogni s. Come vedrete in seguito, il Teorema di
Noether è una generalizzazione di questa osservazione e mostra l’esistenza di un profondo
legame tra invarianza dell’equazione differenziale, esistenza di un flusso ad un parametro
che agisce sulle soluzioni, ed esistenza di una legge di conservazione.
78 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

3.7.1 Generalizzare l’esponenziale


La funzione esponenziale exp(x) può essere definita come l’unica soluzione dell’equazione
differenziale y 0 = y che soddisfi la condizione y(0) = 1. Anche le funzioni iperboliche hanno
una caratterizzazione simile: cosh(x) e sinh(x) sono le soluzioni dell’equazione differenziale
y 00 = y che soddisfano rispettivamente le condizioni y(0) = 1, y 0 (0) = 0 (per il coseno
iperbolico) ed y(0) = 0, y 0 (0) = 1 (per il seno iperbolico).
Visto che questi problemi di Cauchy individuano univocamente tali funzioni, tutte le pro-
prietà che le rendono utili5 in realtà sono già codificate in essi. In questa sezione vogliamo
sia evidenziare questo fatto sia generalizzarlo ulteriormente.
Fissiamo dunque un ordine k e consideriamo l’equazione differenziale y (k) = y. Si tratta di
una equazione lineare a coefficienti costanti. Possiamo quindi già concludere che ogni pro-
blema di Cauchy con questa equazione ammette una ed una sola soluzione su R, e che ogni
soluzione è in realtà di classe C ∞ (R) (per la regolarità basta osservare che ogni funzione ϕ
che sia soluzione dell’equazione deve essere di tipo C k (R), dopo di che essendo ϕ(k) = ϕ,
deve avere ϕ(k) ∈ C k (R). Iterando questa osservazione si conclude che ϕ ∈ C ∞ (R)).
Osserviamo inoltre che se ϕ è una soluzione dell’equazione, allora anche tutte le sue deri-
vate lo sono. Questo è un effetto della particolare strutture dell’equazione che permette le
seguenti uguaglianze
(k) (j)
ϕ(j) = ϕ(j+k) = ϕ(k) = ϕ(j) ∀j ∈ N.

Per ogni n = 0, . . . , k − 1, sia ϕn la soluzione del problema di Cauchy


(
y (k) = y
y (j) (0) = δj,n ∀j = 0, . . . , k − 1,

dove δj,n := 1 se j = n e 0 altrimenti. Sappiamo che queste k funzioni sono una base per
lo spazio delle soluzioni dell’equazione. In realtà sono tutte legate tra loro da una semplice
relazione differenziale. Per formularla facilmente conviene estendere l’insieme degli indici
in modo k-periodico, ovvero porre

ϕn+`k := ϕn n = 0, . . . , k − 1, ` ∈ Z.

Si osservi che le funzioni ϕ0 , . . . , ϕk−1 sono tutte distinte, ma che per effetto della estensione
esistono anche ϕk , ϕ−1 , ϕk+1 , che di fatto coincidono rispettivamente con ϕ0 , ϕk−1 e ϕ1 .
Con questa notazione, la funzione ϕn risulta essere l’unica soluzione del problema di Cauchy
(
(k)
ϕn = ϕn
y (j) (0) = δn=j (mod k) ∀j = 0, . . . , k − 1

(dove ora δn=j (mod k) rappresenta la funzione che vale 1 quando n = j (mod k) e 0 altri-
menti). Da questo discende subito che

ϕ(j)
n = ϕn−j ∀n, j ∈ Z, (3.17)
5
Tipicamente l’identità cosh2 (x) − sinh2 (x) = 1 e le formule di addizione
exp(x + y) = exp(x) exp(y),
cosh(x + y) = cosh(x) cosh(y) + sinh(x) sinh(y), sinh(x + y) = sinh(x) cosh(y) + cosh(x) sinh(y).
3.7. SOLUZIONE PARTICOLARE PER LE LINEARI A COEFFICIENTI COSTANTI79

ovvero che non solo la derivata j-esima di una soluzione è anch’essa una soluzione, ma di
fatto la derivata j-esima della soluzione numero n è la soluzione numero n−j. Si osservi che
questo fatto generalizza la relazione secondo cui cosh0 (x) = sinh(x) e sinh0 (x) = cosh(x).
Veniamo ora alle formule di addizione. Fissiamo z ∈ R, e consideriamo le funzioni
k−1
X
ψn,z (x) := ϕn (x + z) e φn,z (x) := ϕ` (x)ϕn−` (z).
`=0

Entrambe soddisfano l’equazione differenziale y (k) = y (si ricordi che le derivate sono
prese rispetto ad x, la quantità z è vista come parametro reale arbitrario ma fissato): la
prima per calcolo immediato, la seconda perché è combinazione lineare (con coefficienti
che dipendono da z, ma che comunque sono costanti essendo z fissato) di funzioni che
soddisfano tale equazione. D’altra parte, è chiaro che per ogni indice di derivazione j si ha
sia
(j)
ψn,z (0) = ϕ(j)
n (z),

sia
k−1 k−1
(j)
X X
φ(j)
n,z (0) = ϕ` (0)ϕn−` (z) = δ`−j (mod k) ϕn−` (z) = ϕn−j (z) = ϕ(j)
n (z).
`=0 `=0
Le funzioni ψn,z e φn,z quindi devono coincidere, poiché risolvono il medesimo problema di
Cauchy. Questo fornisce l’identità
k−1
X
ϕn (x + z) = ψn,z (x) = φn,z (x) = ϕ` (x)ϕn−` (z).
`=0

Visto che questa è stata verificata per ogni z fissato e per ogni x ∈ R, di fatto abbiamo
verificato la formula di addizione
k−1
X
ϕn (x + z) = ϕ` (x)ϕn−` (z), ∀x, z ∈ R. (3.18)
`=0

Si osservi che queste identità nel caso k = 1 e nel caso k = 2 affermano le formule di
addizione per exp e per la coppia di funzioni cosh, sinh, rispettivamente.
Un modo forse migliore di esprimere queste identità è però il seguente. Sia
 
ϕ0 ϕ1 . . . ϕk−1
 ϕ00 ϕ01 . . . ϕ0k−1 
W := W (ϕ0 , ϕ1 , . . . , ϕk−1 ) :=  .. .. .. 
 
 . . ... . 
(k−1) (k−1) (k−1)
ϕ0 ϕ1 . . . ϕk−1

la matrice wronskiana associata alle funzioni ϕ0 , ϕ1 , . . . , ϕk−1 (prese in questo ordine). Per
via delle identità in (3.17) questa matrice è costante sulle diagonali (quindi è una matrice
di Toeplitz) e anzi è addirittura circolante (ovvero ogni riga è ottenuta per shift a destra
della riga che la precede), e coincide con
 
ϕ0 ϕ1 . . . ϕk−1
ϕk−1 ϕ0 . . . ϕk−2 
E :=  . ..  . (3.19)
 
. ..
 . . ... . 
ϕ1 ϕ2 . . . ϕ0
80 CAPITOLO 3. EQUAZIONI DIFFERENZIALI

In termini di E (e quindi di W , visto che sono uguali), le formule di addizione (3.18)


diventano
E(x + z) = E(x) · E(z) ∀x, z ∈ R.
Da questo segue immediatamente che l’insieme delle matrici {E(x) : x ∈ R} costituisce un
sottogruppo abeliano in GL(k, R) e che la mappa R → GL(k, R) che manda x 7→ E(x) è
una rappresentazione di R in Rk .
Supponiamo ora che k sia almeno 2. Allora l’equazione differenziale y (k) = y scritta nella
forma standard (3.10) manca del termine di ordine k − 1, ovvero il suo coefficiente a1 è
zero. Per la Proposizione 3.5.6 questo implica che il determinante di W è in realtà costante,
così che

(det E)(x) = (det W )(x) = (det W )(0) = (det E)(0) = 1 ∀x ∈ R.

Questa relazione generalizza l’identità cosh2 (x) − sinh2 (x) = 1 ad ogni k ≥ 2 (e non ha un
analogo in k = 1, ovvero per l’esponenziale).
Le funzioni ϕn ammettono anche due descrizioni abbastanza esplicite, entrambe importanti.
La prima è che
+∞
X x`
ϕn (x) = . (3.20)
`!
`=0
`=n (mod k)

Si noti come la somma sia di fatto solo sugli interi che sono congruenti a n modulo k, e
come questa espressione generalizzi gli sviluppi di exp, cosh e sinh. La validità di (3.20) può
essere verificata anzitutto constatando che la serie di potenze ha raggio infinito e quindi
converge in tutto R. Poi osservando che il teorema di derivazione delle serie di potenze
garantisce che per ogni indice j ∈ N si ha
+∞ +∞
h X x` i(j) X x`−j
= ` · (` − 1) · · · (` − j + 1)
`! `!
`=0 `=j
`=n (mod k) `=n (mod k)
+∞ +∞
X xl X xl
= (l + j) · (l + 1) · · · (l + 1) = .
(l + j)! l!
l=0 l=0
l=n−j (mod k) l=n−j (mod k)

Usando queste identità si vede subito che la serie di potenze in (3.20) soddisfa il medesimo
problema di Cauchy risolto da ϕn , e ciò basta per dimostrare che essa coincide con ϕn .
La seconda rappresentazione è invece la seguente. Il polinomio caratteristico dell’equazione
y (k) = y è λk − 1. Le radici caratteristiche sono quindi le soluzioni di λk = 1, ovvero le
k-esime radici (complesse) dell’unità. Ogni ϕn deve quindi essere esprimibile come somma
delle funzioni exp(x), exp(ζk x), exp(ζk2 x), . . . , exp(ζkk−1 x), dove ζk := exp(2πi/k). Questa
rappresentazione può essere dedotta dal seguente calcolo. Osserviamo anzitutto che

k−1 k−1 e se k non divide ` allora è ζk`k −1 = 0,
`j ` j
X X
ζk` −1

ζk = ζk
se invece k divide ` allora è k.
j=0 j=0

Quindi
k−1
1 X `j
ζk = δ`=0 (mod k) . (3.21)
k
j=0
3.7. SOLUZIONE PARTICOLARE PER LE LINEARI A COEFFICIENTI COSTANTI81

Da questo e dalla uguaglianza in (3.20) segue che


+∞ +∞ +∞ k−1
X x` X x` X 1 X (`−n)j x`
ϕn (x) = = δ`−n=0 (mod k) = ζk
`! `! k `!
`=0 `=0 `=0 j=0
`=n (mod k)
k−1 +∞ k−1 +∞ k−1 +∞
1 X X (`−n)j x` 1 X −nj X `j x` 1 X −nj X 1 j `
= ζk = ζk ζk = ζk ζ x .
k `! k `! k `! k
j=0 `=0 j=0 `=0 j=0 `=0

La serie interna è una nostra vecchia conoscenza: essa rappresenta l’esponenziale (comples-
so) calcolato in ζkj x. Abbiamo quindi dimostrato che
k−1
1 X −nj
ζk exp ζkj x

ϕn (x) = x ∈ R, ∀n ∈ N, (3.22)
k
j=0

che effettivamente esprime ϕn (x) come combinazione lineare delle exp ζkj x . Il calcolo che


abbiamo appena svolto ha una lunga storia, ed è di fatto un esempio di analisi/sintesi di


Fourier (qui sul gruppo ciclico di k elementi). Per ora questo è poco più di un nome, ma nei
corsi successivi avrete sicuramente modo di generalizzare questa procedura e di riconoscere
in essa uno strumento fondamentale di indagine.
Per k = 2 questa formula fornisce le consuete identità
1  1 
cosh(x) = ϕ0 (x) = exp(x) + exp(−x) , sinh(x) = ϕ1 (x) = exp(x) − exp(−x) .
2 2
Anche le rappresentazioni (3.22) possono essere meglio espresse se organizzate in matrice.
Infatti, sia Mk la matrice di M (k × k, C) data da
1
Mk := √ (ζknj )k−1
n,j=0 .
k
Allora l’identità (3.21) afferma che

Mk · Mk∗ = Mk∗ · Mk = I (3.23)

(la matrice Mk∗ è per definizione l’aggiunta di Mk , cioè la sua trasposta coniugata) ovvero
che Mk è unitaria, e le varie identità in (3.22) per n = 0, . . . , k − 1 possono essere riassunte
scrivendo che
1 
ϕ0 , ϕ1 , · · · , ϕk−1 = √ exp(x), exp ζk x , · · · , exp ζkk−1 x · Mk∗
   
k
(l’uguaglianza è da intendersi come uguaglianza tra matrici, in particolare quello a destra
è un prodotto riga per colonne). Anche la matrice E può essere riscritta usando questa
nuova base. Infatti un breve calcolo basato sulla (3.22) mostra che

E(x) = Mk∗ · D(x) · Mk ,

dove D(x) := diag(exp(x), exp(ζk x), . . . , exp(ζkk−1 x)). Si osservi che questa formula e
la (3.23) consentono di ridimostrare la (3.19). Infatti usandola si ha che

E(x)E(z) = Mk∗ D(x)Mk · Mk∗ D(z)Mk = Mk∗ D(x) · D(z)Mk = Mk∗ D(x + z)Mk = E(x + z).

Vi sarebbero molte altre cose da discutere, ma forse è meglio fermarsi qui.


82 CAPITOLO 3. EQUAZIONI DIFFERENZIALI
Capitolo 4

Curve, campi vettoriali, forme


differenziali

4.1 Curve
Definizione 4.1.1. Sia Ω ⊆ Rn , aperto. Chiamiamo curva in Ω qualunque mappa con-
tinua ϕ : [a, b] ⊆ R → Ω. L’immagine γ di ϕ è detto sostegno della curva e ϕ è detta
parametrizzazione di γ.

ϕ
p q
a b

Osservazione 4.1.2. Il dato geometrico è codificato in γ, quindi capiterà spesso di chiamare


“curva” quello che è (solo) il sostegno di una data curva.
Definizione 4.1.3. La curva è detta:
• Chiusa quando ϕ(a) = ϕ(b).

p=q p=q

• Semplice quando ϕ è iniettiva in [a, b) e in (a, b].

Curve non semplici

• Regolare quando ϕ è C 1 e ϕ0 (t) 6= 0 per ogni t ∈ [a, b].

• Regolare a tratti quando esistono a = t0 < t1 < · · · < tn = b tali che ϕ è regolare in ogni
tratto [tj , tj+1 ].

83
84 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

a b
t0 t1

Osservazione 4.1.4. La definizione di regolarità è probabilmente “strana”. Il fatto è che si


vuole che l’oggetto non solo sia regolare dal punto di vista “analitico” (ovvero ϕ ∈ C 1 ) ma
che lo sia anche dal punto di vista “geometrico” (ovvero ϕ0 (t) 6= 0 per ogni t). La condizione
ϕ0 (t)
ϕ0 (t) 6= 0 consente infatti di definire un versore tangente τ (t) := kϕ 0 (t)k in ogni punto. Si

osservi che kτ (t)k = 1 per ogni t.

4.1.1 Classe di equivalenza e orientazione


Sia ϕ : [a, b] → Rn una curva, sia poi f : [a0 , b0 ] → [a, b] una mappa biunivoca e bidifferen-
ziale (quindi f e f −1 entrambi C 1 , ovvero f è un diffeomorfismo). Allora

ϕ̃ := ϕ ◦ f : [a0 , b0 ] → Rn

è una nuova curva con lo stesso sostegno di ϕ. Inoltre ϕ̃ sarà chiusa/ regolare/ regolare a
tratti/ semplice se e solo se ϕ ha le medesime proprietà.
Sotto molti punti di vista quindi ϕ e ϕ̃ sono la stessa cosa; ciò suggerisce di introdurre una
relazione di equivalenza, che denoteremo con ∼, in base alla quale ϕ e ϕ̃ sono equivalenti
quando esiste f diffeomorfismo tale che ϕ̃ = ϕ ◦ f (e scriveremo ϕ ∼ ϕ̃, appunto). Si tratta
di un’effettiva relazione di equivalenza. Inoltre le informazioni geometriche sono legate non
tanto alla curva (cioè a ϕ) quanto alla classe di equivalenza [ϕ]/∼ .
Per dimostrare che qualche concetto è quindi “geometrico” nonostante sia definito usando
una specifica ϕ si dovrà verificare che esso dipende solo dalla classe di equivalenza [ϕ]/∼ .
Ad esempio:

Definizione 4.1.5. Data ϕ : [a, b] → Rn regolare a tratti, chiamiamo lunghezza (del


sostegno γ) della curva ϕ il numero
Z b
l(γ) := kϕ0 (t)k dt.
a

In effetti l’integrale esiste ed il suo valore non cambia quando si utilizza una diversa ϕ̃ che
è equivalente a ϕ.

Dimostrazione. Se ϕ̃ = ϕ ◦ f con f : [a0 , b0 ] → [a, b] diffeomorfismo. La derivata di f non si


annulla in alcun punto, poiché f è un diffeomorfismo. Quindi essa è o sempre negativa o
sempre positiva. Supponiamo f 0 > 0. Allora a = f (a0 ) e b = f (b0 ) e si ha
Z b Z b0 Z b0 Z b0
0 0 0 0 0
kϕ (t)k dt = kϕ (f (u))kf (u) du = kϕ (f (u))f (u)k du = kϕ̃0 (u)k du.
a a0 a0 a0
4.1. CURVE 85

Se invece si suppone f 0 < 0, e allora a = f (b0 ) e b = f (a0 ), si ha


Z b Z a0 Z b0 Z b0
kϕ0 (t)k dt = kϕ0 (f (u))kf 0 (u) du = kϕ0 (f (u))f 0 (u)k du = kϕ̃0 (u)k du.
a b0 a0 a0

Che l’integrale costituisca una misura della lunghezza della curva è una definizione motivata
dal fatto che l’integrale assume come valore l’usuale lunghezza nel caso di curve che sono
delle spezzate.
Ci sono anche altri motivi per chiamare lunghezza quell’integrale. Ad esempio è ragionevole
pensare alla lunghezza di una curva come al sup delle lunghezze delle spezzate interpolanti.

γ
a b
l(γ) := sup{lunghezza delle spezzate con vertici in γ}.

Si dimostra che se γ è regolare a tratti allora questo estremo superiore esiste e coincide
con l’integrale dato nella definizione 4.1.5. Non dimostreremo questo risultato.
Sia poi ϕ una curva regolare semplice. Per definizione ϕ0 (t) 6= 0 per ogni t. Sia p :=
ϕ(t0 ). L’insieme dei vettori hλϕ0 (t0 )iλ∈R è un sottospazio d Ep di dimensione 1. Sia ora
ϕ̃ = ϕ ◦ f una diversa parametrizzazione della medesima curva, e sia t0 := f (u0 ), così
che p = ϕ̃(u0 ). Con la nuova parametrizzazione il vettore derivato (calcolato ancora in p)
cambia in ϕ̃0 (u0 ) = ϕ0 (f (u0 ))f 0 (u0 ). Lo span di ϕ̃0 (u0 ) è però lo stesso di ϕ0 (t0 ). Questo
mostra che lo spazio vettoriale span{ϕ0 (t0 )}R è così definito usando ϕ ma è invariante
sotto relazione di equivalenza ∼: esso è quindi un oggetto geometrico, e infatti è lo spazio
tangente a γ in p.
Il versore τ invece non è invariante: se ϕ̃ = ϕ ◦ f con t0 = f (u0 ), si ha

ϕ̃0 (u0 ) ϕ0 (t0 )f 0 (t0 ) ϕ0 (t0 ) f 0 (t0 )


τ̃ (u0 ) = = = · = τ (t0 ) · sgn(f 0 (t0 )).
kϕ̃0 (u0 )k kϕ0 (t0 )f 0 (t0 )k kϕ0 (t0 )k |f 0 (t0 )|

Questo mostra che il nuovo versore τ̃ coincide con il vecchio versore se e solo f 0 > 0 (ovvero
f è crescente), altrimenti è il suo opposto.
.
Ciò suggerisce di introdurre una nuova (e più fine) relazione di equivalenza: ϕ̃ ∼ ϕ quando
.
esiste f biunivoca, bidifferenziabile e crescente tale che ϕ̃ = ϕ ◦ f . Anche ∼ è una relazione
di equivalenza e ogni classe di equivalenza è chiamata curva orientata.
Per le curve orientate ha senso parlare di un “prima” e un “dopo” almeno se sono semplici
e non chiuse.
Data una curva ϕ : [a, b] → Rn con sostegno γ si indica con −γ la curva ϕ : [a, b] → Rn con
.
ϕ(t) := ϕ(a + b − t). Allora ϕ e ϕ non sono ∼ equivalenti anche se sono ∼ equivalenti; ogni
.
ϕ̃ che sia ∼ ϕ è di fatto ∼ equivalente a ϕ o a ϕ. Questo corrisponde a dire che
.
• se ϕ̃ ∼ ϕ allora ϕ̃ ∼ ϕ;
86 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

.
• la classe di equivalenza [ϕ]/∼ si spezza in due classi di ∼ equivalenza.

q q q
= ∪
p p p

Da ciò segue che τ non è ben definito in [ϕ]/∼ ma lo è in [ϕ]/∼. .

4.1.2 Concatenazione
Se γ1 è sostegno di una curva da p a q e γ2 di una da q a s allora è possibile concatenare
γ1 con γ2 in ciò che denotiamo con γ1 + γ2 . Anche γ1 + γ2 è il sostegno di una curva: se
ϕ1 : [a1 , b1 ] ha sostegno γ1 e ϕ2 : [a2 , b2 ] ha sostegno γ2 allora ϕ : [0, 1] → Rn con
(
ϕ1 (a1 + (b1 − a1 )2t) t ∈ [0, 21 ]
ϕ(t) =
ϕ2 (a2 + (b2 − a2 )(2t − 1)) t ∈ [ 12 , 1]

parametrizza γ1 + γ2 . Si osservi che ϕ è ben definita perché ϕ1 (b1 ) = q = ϕ2 (a2 ), così che
ϕ è sicuramente continua. Inoltre ϕ è regolare a tratti se ϕ1 e ϕ2 lo sono, ma in generale
ϕ non è regolare perché in q le derivate di ϕ1 e ϕ2 possono non coincidere.
q
q
q
γ1 γ2 γ1 + γ2
p p
s s

Definizione 4.1.6. Dato Ω ⊆ Rn aperto, Ω è detto connesso per archi (semplici/ regola-
ri/. . . ) quando per ogni coppia di punti in Ω esiste una curva (di quel tipo) con sostegno
in Ω che li connette.
Teorema 4.1.7. Sia Ω ⊆ Rn un aperto connesso allora è connesso per archi (che si
possono prendere regolari ed orientati).
Dimostrazione. Fisso w un qualunque punto di Ω, fissato. Sia

A := {q ∈ Ω : per i quali esiste una curva che connette w con q}.

Osserviamo che:
• A non è vuoto. Infatti esiste una bolla di centro w e tutta in Ω (perché Ω è aperto) e
ogni punto della bolla è connesso a w dal raggio. Quindi la bolla è contenuta in A.

• A è aperto. Infatti sia q ∈ A. Visto che Ω è aperto, esiste una bolla centrata in q tutta
in Ω. Ogni elemento r della bolla è connesso dal raggio a q e q lo è a w (perché q ∈ A),
quindi r è connesso a w (dalla concatenazione) perciò r ∈ A.

• A è chiuso in Ω ovvero Ac ∩ Ω è aperto. Infatti sia q ∈ Ac . Se non esistesse una bolla di


centro q tutta in Ac allora la bolla di centro q e tutta in Ω (che esiste perché Ω è aperto)
avrebbe almeno un punto r in A, ovvero connesso a w. Ma allora r sarebbe connesso a q
dal raggio e quindi w sarebbe connesso a q, contro l’ipotesi. L’assurdo dimostra che Ac
è aperto.
4.1. CURVE 87

Ma allora A 6= ∅ e sia A che Ac ∩Ω sono aperti. Visto che Ω è connesso, segue che Ac ∩Ω = ∅
ovvero che A = Ω. In altre parole, abbiamo dimostrato che ogni punto di Ω è connesso
a w da una curva (che se vogliamo possiamo assumere essere regolare a tratti). La tesi
segue osservando che due punti qualunque p e q in Ω sono allora connessi tra loro dalla
concatenazione delle curve pγ1 w e qγ2 w che li connettono a w (e la concatenazione sarà
regolare a tratti se esse lo sono). Questo basta per dimostrare la tesi nella versione in cui
si afferma l’esistenza di curve di connessione che siano regolari a tratti ed orientate. Per
dimostrare che questi possono essere presi regolari c’è ancora un po’ di lavoro da fare,
poiché di per sé anche supponendo che pγ1 w e qγ1 w siano regolari non è detto che lo sia la
loro concatenazione. Tuttavia, sia δ > 0 abbastanza piccolo perché la bolla aperta Bδ (w)
di centro w e raggio δ sia in Ω. Allora si dimostra che è sempre possibile modificare le
porzioni di pγ1 w e qγ1 w in Bδ (w) così da costruire una curva regolare che connette p e
q1.

Osservazione 4.1.8. Vale anche il viceversa: se Ω ⊆ Rn è aperto e connesso per archi, allora
è anche connesso. Infatti, supponiamo non lo sia, e che quindi esistano due aperti A, B ⊆ Ω
non vuoti e tali che A ∪ B = Ω. Prendiamo un p ∈ A ed un q ∈ B. Per ipotesi esiste una
curva ϕ[ 0, 1] → Ω con ϕ(0) = p e ϕ(1) = q. Essendo una curva, la funzione ϕ è continua,
quindi gli insiemi ϕ(A)−1 e ϕ(B)−1 (le controimmagini di A e B) sono aperti. Essi sono
anche non vuoti (perché contengono rispettivamente 0 e 1), e la loro unione è [0, 1] visto
che ϕ è a valori in Ω = A ∪ B. Ma allora abbiamo scomposto [0, 1] in unione di due aperti
non vuoti disgiunti, cosa che è impossibile perché sappiamo che [0, 1] è connesso.
Osservazione 4.1.9. L’equivalenza di connessione e connessione per archi può cadere se
l’insieme non è aperto. Ad esempio l’insieme

Ω := {(x, y) ∈ R2 : x ∈ (0, 1], y = sin(1/x)} ∪ {(0, y) ∈ R2 : y ∈ [−1, 1]}

è connesso ma non connesso per archi.


Osservazione 4.1.10. I convessi sono connessi per archi (si scelga il segmento che unisce
due punti).

Definizione 4.1.11. Ω è detto stellato quando esiste P ∈ Ω tale che il segmento P Q ∈ Ω


per ogni Q ∈ Ω.

In tal caso P è detto centro di Ω. In base alle rispettive definizioni quindi si ha che ogni
convesso è anche stellato ed ogni stellato è anche connesso per archi, ovvero

{Convessi} ⊆ {Stellati} ⊆ {Connessi per archi}.

Esempio 4.1.12. Esistono domini che sono aperti, stellati ed hanno un unico centro. Ad
esempio Ω := R2 \[{(x, 0) ∈ R2 , |x| ≥ 1} ∪ {(0, y) ∈ R2 , |y| ≥ 1}] ha come unico centro il
punto (0, 0).
1
Non è una costruzione immediata, ma in sostanza si tratta di verificare che presi due punti a, b sulla
bolla di raggio 1 e centro 0 e due vettori va ∈ Ea e vb ∈ Eb , esiste una funzione ϕ : [0, 1] → Rn di classe
C 1 , con ϕ(0) = a, ϕ0 (0+ ) = va , ϕ(1− ) = b, ϕ0 (1) = vb , kϕ(t)k ≤ 1 e ϕ0 (t) 6= 0 per ogni t.
88 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

Curiosità: Se Ω è stellato l’insieme dei suoi centri è convesso.

4.2 Campi vettoriali e forme differenziali


Sia Ω ⊆ Rn un aperto. Ad ogni p ∈ Ω è associato lo spazio Ep (delle frecce uscenti da p) e
lo spazio Ep∗ : il duale vettoriale di Ep (ovvero l’insieme dei funzionali lineari si Ep ).
Definizione 4.2.1. Chiamiamo campo vettoriale su Ω ogni mappa che associa ad ogni
x ∈ Ω un elemento di Ex ; chiamiamo forma differenziale su Ω ogni mappa che associa ad
x ∈ Ω un elemento di Ex∗ .

Per ogni scelta del punto p, lo spazio Ep è euclideo, ovvero supporta un prodotto scalare
h·, ·i definito positivo. Ciò significa che dato un campo vettoriale F si può sempre costruire
una forma differenziale prendendo in ogni p il prodotto scalare (in Ep ) con il vettore F (p),
secondo la formula
F → ωF ωF := hF, ·i.
Il fatto che il prodotto scalare sia definito positivo consente di procedere anche nell’altra
direzione. L’isomorfismo di Riesz2 tra Ep∗ ed Ep consente infatti di associare ad ogni fun-
zionale in Ep∗ un vettore di Ep così che data una forma differenziale ω esiste un campo F
tale che
ω → Fω Fω tale che ω = hFω , ·i.
2
Si tratta di un importante teorema che afferma l’esistenza di un isomorfismo canonico tra uno spazio
vettoriale ed il suo duale quando lo spazio supporta un prodotto scalare non degenere. Per spazi finiti
dimensionali esso discende dal seguente argomento. Sia V uno spazio vettoriale reale finito dimensionale
e sia V ∗ il suo duale. Supponiamo che in V sia definito una mappa h·, ·i : V × V → R che sia bilineare
(ovvero lineare in ogni argomento) e non degenere nel primo argomento, ovvero tale che l’unico v ∈ V per
il quale si abbia hv, wi = 0 per ogni w ∈ V è lo 0. Allora ad ogni v ∈ V si può associare il funzionale
ϕv ∈ V ∗ definito da ϕv (w) := hv, wi. Che si tratti di un funzionale discende dal fatto che la mappa h·, ·i è
per ipotesi lineare nel secondo argomento. La mappa v 7→ ϕv è quindi una mappa da V a V ∗ . Tale mappa
è a sua volta lineare (questa volta perché h·, ·i è lineare nella prima variabile). Questa mappa è iniettiva,
in conseguenza della ipotesi di non degenericità dei h·, ·i. Visto che V e V ∗ hanno la stessa dimensione, ne
segue che di fatto la mappa è anche suriettiva, ovvero che ogni funzionale φ è della forma ϕv per qualche
v ∈ V . Nel caso degli spazi Ep si può usare il prodotto scalare quale mappa h·, ·i: il fatto che sia non
degenere segue immediatamente dal fatto che in tal caso hv, vi = kvk2 .
4.2. CAMPI VETTORIALI E FORME DIFFERENZIALI 89

Le due costruzioni inoltre sono inverse una dell’altra. Usare campi o forme è quindi del
tutto equivalente3 .
C’è un modo “canonico” per produrre un campo vettoriale e una forma differenziale a
partire da una funzione f : Ω → R di classe C 1 .
Sia x ∈ Ω fissato. La mappa v ∈ Ex → (Dv f )(x) che associa ad ogni v ∈ Ex la derivata di
f in x lungo v dipende da v linearmente, poiché f è per ipotesi differenziabile in x. Essa
quindi è un elemento di Ex∗ e viene solitamente indicata con il simbolo ( df )(x). Al variare
di x ∈ Ω questa definisce quindi una forma differenziale su Ω che è chiamata il differenziale
di f .
Il campo vettoriale associato a questa forma (tramite l’isomorfismo di Riesz di cui sopra)
è per definizione quel campo vettoriale F che in x ∈ Ω dà quel vettore F (x) di Ex che
garantisce l’identità hF (x), vi = ( df )(x)(v) = (Dv f )(x). Visto che f è per ipotesi C 1 il
vettore F (x) è di fatto (∇f )(x), il gradiente di f in x.
Le forme differenziali ed i campi vettoriali appena costruiti sono più che dei semplici esempi,
e anzi costituiscono un punto fondamentale per la teoria che stiamo indagando. Non stupirà
quindi l’esistenza di una nomenclatura specifica per questa situazione.

Definizione 4.2.2. Un campo vettoriale F è detto conservativo su Ω se esiste f : Ω → R


di classe C 1 con F = ∇f . Una forma differenziale ω è detta esatta su Ω se esiste f : Ω → R
di classe C 1 con ω = df . In entrambi i casi f è detto potenziale (o primitiva) per F (o
per ω).

Osservazione 4.2.3. Quando esiste il potenziale non è mai unico: questo perché qualunque
sia il valore di una costante c ∈ R si ha ∇(f + c) = ∇f (e d(f + c) = df ). D’altra parte
è evidente che se f e f˜ sono due potenziali per il medesimo campo allora ∇(f − f˜) = 0.
Quindi i potenziali sono unici a meno di funzioni C 1 (Ω) a gradiente identicamente 0. Si
osservi che
V0 (Ω) := {g ∈ C 1 (Ω) : ∇g = 0}
è uno spazio vettoriale. Ogni funzione di tale spazio è costante sulle componenti connesse
di Ω, d’altra parte per ogni componente connessa Cj si può scegliere arbitrariamente un
cj ∈ R e ponendo
g(x) := {cj quando x ∈ Cj , ∀j}
definire un elemento di V0 (Ω). Questo dimostra che

dim V0 (Ω) = #{Componenti connesse in Ω}.

3
Ma solo nella situazione attuale in cui Ω è un aperto di Rn . Quando queste costruzioni verranno
estese a varietà differenziali si troverà che non sempre è possibile procedere a questa identificazione, poiché
non sempre esiste un prodotto scalare euclideo sullo spazio tangente, o non sempre questo dipende con
continuità dal punto.
90 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

4.2.1 Notazione
Per Ω ⊆ Rn indichiamo con:

• ∂xi (o ∂i ) il campo vettoriale definito da ∂xi := versore ei di Ex che è parallelo ad ei di


Rn

p
e2 ∂1 (p)
e1
x

• dxi la forma differenziale ottenuta differenziando la funzione che dà la i-esima coordinata


(quindi il differenziale della proiezione sulla i-esima direzione). Di fatto le forme dxj ed
i campi ∂xi quando vengono valutati in un punto p danno basi duali di Ep∗ ed Ep , ovvero
soddisfano la relazione (
1 se j = i
( dxi )(p)(∂j (p)) =
0 se j 6= i.

Il generico campo vettoriale sarà quindi scritto

F = a1 (x)∂1 + a2 (x)∂2 + · · · + an (x)∂n ,

la generica forma differenziale sarà

ω = a1 (x) dx1 + a2 (x) dx2 + · · · + an (x) dxn ,

ed F (o ω) sono di classe C k quando a1 , . . . , an sono C k (Ω).


Esempio 4.2.4. In R2 prendiamo il campo F (x) := (3x − y)∂x + (7x2 − 9y)∂y e la forma
ω(x) = (4 − 2x) dx + (5 − xy) dy. Allora ω(x)(F (x)) = (4 − 2x)(3x − y) + (5 − xy)(7x2 − 9y).
Inoltre F è conservativa (in Ω) se e solo se esiste f ∈ C 1 (Ω) tale che

∂f
 ∂x1 (x) = a1 (x)


..
 .
 ∂f (x) = a (x).

∂xn n

Analogamente ω è esatta se e solo se esiste f ∈ C 1 (Ω) tale che



∂f
 ∂x1 (x) = a1 (x)


..
 .
 ∂f (x) = a (x).

∂xn n
4.2. CAMPI VETTORIALI E FORME DIFFERENZIALI 91

4.2.2 Integrazione di forme/campi lungo curve


Sia ω una forma differenziale continua su Ω, sia ϕ una curva in Ω regolare a tratti, orientata
e con sostegno γ. Si pone
Z n
Z X n
Z bX
ω := ai (x) dxi := ai (ϕ(t)) · ϕ0i (t) dt.
γ γ i=1 a i=1

Se F è un campo vettoriale analogamente si pone


Z Z n
Z bX
F · ds := hF, dsi = ai (ϕ(t)) · ϕ0i (t) dt.
γ γ a i=1

R
Osservazione 4.2.5. L’integrale γ F · ds è anche chiamato lavoro di F lungo il cammino
γ.
Osservazione 4.2.6. Le due
R definizioni
R sono coerenti, nel senso che se ω è la forma associata
ad F (o viceversa) allora γ ω = γ F · ds.
.
Osservazione 4.2.7. L’integrale appena definito è ∼ invariante: se ϕ̃ è una diversa parame-
trizzazione di γ (ma con la stessa orientazione), l’integrale calcolato con ϕ̃ o con ϕ danno
lo stesso valore. Tuttavia non è ∼ invariante, infatti
Z Z
ω = − ω,
−γ γ

ovvero cambiando l’orientazione l’integrale inverte il segno.


Osservazione 4.2.8. L’integrale è “γ-additivo” ovvero vale la seguente identità
Z Z Z
ω= ω+ ω
γ1 +γ2 γ1 γ2

purché γ1 + γ2 sia definito, orientato e C 1 a tratti.

4.2.3 Condizioni di esattezza


La seguente proposizione spiega perché la nozione di campo conservativo / forma esatta
sia interessante e quale sia il legame con l’integrale definito.

Proposizione 4.2.9. Sia Ω aperto connesso e ω una forma differenziale continua in Ω.


Allora le seguenti proprietà sono equivalenti:

i. ω è esatta;
R
ii. Siano p e q punti qualunque in Ω, allora l’integrale pγq ω, dove γ è (il sostegno di)
una qualunque curva regolare a tratti e orientata da p a q, non dipende dalla scelta
di γ;
R
iii. Per ogni curva γ in Ω che sia regolare a tratti e chiusa si ha γ ω = 0.

Osservazione 4.2.10. L’ipotesi di Ω connesso garantisce Ω connesso per archi, così dati p e
q esiste sicuramente almeno una curva pγq che li connette.
92 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

OsservazioneR 4.2.11. La proposizione mostra che l’esattezza di ω equivale alla possibilità


di calcolare pγq ω a p e q fissati senza dover fissare quale sia la curva γ che li connette.
Osservazione 4.2.12. L’equivalente affermazione per i campi vettoriali dice che F è conser-
vativo se e solo se il lavoro di F da p e q lungo γ non dipende da γ.

Dimostrazione.
i. =⇒ ii. Supponiamo che ω sia esatta, quindi che ω = df con f ∈ C 1 (Ω). Allora se
ϕ : [a, b] → Ω è la curva (C 1 a tratti, orientata) da p a q si ha
Z n
Z bX n
Z bX Z b
∂f d
ω= ai (ϕ(t))ϕ0i (t) dt = 0
(ϕ(t))ϕi (t)dt = (f (ϕ(t))) dt
pγq a i=1 a ∂xi a dt
i=1
= f (ϕ(b)) − f (ϕ(a)) = f (q) − f (p)

che quindi non dipende da γ.


ii. =⇒ iii. Sia γ una curva chiusa. Prendiamo p e q su γ e spezziamo γ come γ1 + γ2 dove
γ1 va da p a q e γ2 da q a p, scegliendo una orientazione compatibile con quella di γ. Allora
Z Z Z Z Z Z
ω= ω= ω+ ω= ω− ω=0
γ γ1 +γ2 γ1 γ2 γ1 −γ2

perché sia γ1 sia −γ2 vanno da p a q e stiamo assumendo ii.


iii. =⇒ ii. Se γ1 a γ2 vanno da p a q allora γ1 + (−γ2 ) è chiusa, quindi
Z Z Z Z Z
ω− ω= ω+ ω= ω=0
γ1 γ2 γ1 −γ2 γ1 +(−γ2 )
R
ii. =⇒ i. Sia p ∈ Ω fissato (ad arbitrio, ma fissato). Sia f (x) := pγx ω dove γ è una
qualunque curva (regolare a tratti, orientata) che collega p ad x in Ω: γ esiste perché Ω è
connesso per archi. La funzione f è ben definita in Ω, perché ii. mostra che f (x) dipende
solo da x e non dalla scelta di γ. Mostriamo che f è un potenziale per ω: questo implica
che ω è esatta.
Sia h 6= 0 e abbastanza piccolo perché x + he1 sia anch’esso in Ω (ciò è possibile perché
Ω è aperto). Allora f (x + he1 ) ∈ Ω è per definizione l’integrale lungo qualunque cammino
che colleghi p con x + he1 ∈ Ω. Come cammino prendiamo γ+ il segmento [x, x + he1 ].

x Ω x he1 Ω

γ γ
p p

Così
Z Z Z Z
1  1 1 
f (x + he1 ) − f (x) = ω+ ω− ω = ω.
h h pγx [x,x+he1 ] pγx h [x,x+he1 ]

Come parametrizzazione del segmento prendiamo

ϕ : [0, h] → Rn , ϕ(t) = x + te1 .


4.2. CAMPI VETTORIALI E FORME DIFFERENZIALI 93

Allora ϕ0 (t) = e1 quindi


Z n Z n
hX Z h
1 X 1 1
ai (w)dwi = ai (x + te1 ) · (e1 )i dt = a1 (x + te1 ) dt.
h [x,x+he1 ] i=1 h 0 h 0
i=1

Ma a1 è continua, quindi per il teorema del valor medio integrale questo è

= a1 (x + ξe1 )

per un certo ξ tra 0 ed h. Se h → 0 allora ξ → 0 ed a1 (x + ξe1 ) → a1 (x) perché a1 è


continua, quindi
1 
lim f (x + te1 ) − f (x) esiste e vale a1 (x).
h→0 h
Lo stesso vale per le altre direzioni, quindi df = ω. Infine, visto che le ai sono continue
concludiamo che f ∈ C 1 (Ω).

Il teorema appena visto spiega l’interesse per la proprietà di conservatività del campo
vettoriale (o esattezza della forma), ma è poco pratico
R come strumento per dimostrare
queste proprietà. (Banalmente: come verificare che γ ω = 0 per ogni curva chiusa?). La
seguente proprietà mostra una conseguenza della esattezza e quindi è un utile criterio
necessario.
Definizione 4.2.13. Sia Ω un aperto in Rn . Sia F = a1 ∂1 +. . .+an ∂n un campo vettoriale
su Ω, di classe C 1 (Ω). Il campo F è detto irrotazionale in Ω quando
∂aj ∂ai
(x) = (x) ∀x ∈ Ω, ∀i, j = 1, . . . , n.
∂xi ∂xj

Analogamente, sia data una forma differenziale ω = a1 (x) dx1 + · · · + an (x) dxn su Ω e di
classe C 1 (Ω). La forma ω è detta chiusa in Ω quando
∂aj ∂ai
(x) = (x) ∀x ∈ Ω, ∀i, j = 1, . . . , n.
∂xi ∂xj

Teorema 4.2.14. Sia Ω aperto e F campo vettoriale su Ω di classe C 1 (Ω). Se F è con-


servativo allora F è irrotazionale. Analogamente sia ω una forma differenziale di classe
C 1 (Ω); se ω è esatta allora è chiusa.
Dimostrazione. Diamo la dimostrazione della tesi per i campi; quella per le forme è dimo-
strata in modo analogo. Per ipotesi F = (a1 (x), . . . , an (x)) con aj ∈ C 1 (Ω) e F è, sempre
per ipotesi, esatta. Quindi esiste f : Ω → R, f ∈ C 1 (Ω) con F = ∇f . Così
∂f
aj (x) = (x) ∀j.
∂xj

Visto che aj ∈ C 1 (Ω) allora f ∈ C 2 (Ω), e così le derivate seconde di f possono essere
scambiate, dando l’identità
∂aj ∂ ∂f ∂ ∂f ∂ai
(x) = (x) = (x) = (x).
∂xi ∂xi ∂xj ∂xj ∂xi ∂xj
94 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

−y x
Esempio 4.2.15. (vortice) Sia F (x, y) := ∂
x2 +y 2 x
+ ∂ ,
x2 +y 2 y
cui è associata la forma
differenziale equivalente
1
ω(x, y) := (−y dx + x dy).
x2 + y2
Tale campo è irrotazionale (ovvero la forma è chiusa) perché

∂  −y  y 2 − x2 ∂ x 
= = .
∂y x2 + y 2 x2 + y 2 ∂x x2 + y 2
Il campo F non è però conservativo (ovvero la forma non è esatta): infatti se con γ
indichiamo la circonferenza di raggio 1 percorsa in senso antiorario, si ha

ϕ(t) = (cos t, sin t) t : 0 → 2π


Z 2π Z 2π
−y dx + x dy
Z Z
ω= = − sin t d(cos t) + cos t d(sin t) = 1 dt = 2π.
γ γ x2 + y 2 0 0

Se F fosse conservativo l’integrale appena calcolato dovrebbe però valere 0, visto che γ è
curva regolare e chiusa.
y

Il lavoro del campo vettoriale x2−y x


∂ + x2 +y
+y 2 x 2 ∂y

lungo una circonferenza attorno a (0, 0) non è


x nullo visto che il campo stesso ruota attorno tale
punto.

La irrotazionalità per campi vettoriali o la chiusura per le forme differenziali non sono
quindi sufficienti per l’essere conservativi o esatte.
Osservazione 4.2.16. Dato Ω aperto siano:

V1c (Ω) := {forme ω ∈ C 1 (Ω), chiuse},


V1e (Ω) := {forme ω ∈ C 1 (Ω), esatte}.

V1c (Ω) è spazio vettoriale, perché se ω e ω̃ sono forme chiuse e λ ∈ R, anche ω + λω̃ lo è
visto che
∂ ∂ai ∂ãi
(ai + λãi ) = +λ .
∂xj ∂xj ∂xj
Anche V1e (Ω) è uno spazio vettoriale perché se ω = df e ω̃ = df˜ e λ ∈ R, allora ω + λω̃ =
d(f + λf˜).
Inoltre il Teorema 4.2.14 mostra che V1e (Ω) è un sottoinsieme di V1c (Ω), e visto che le
operazioni che eseguiamo su V1e (Ω) sono le stesse di quelle che eredita come sottoinsieme
di V1c (Ω), di fatto V1e (Ω) è un sottospazio di V1c (Ω). Questo suggerisce l’introduzione dello
spazio quoziente:
c
V1 (Ω) := V1 (Ω)V e (Ω).
1
4.2. CAMPI VETTORIALI E FORME DIFFERENZIALI 95

Esso infatti misura quanto l’insieme delle forme chiuse “disti” da quello delle esatte, visto
che ogni forma chiusa è anche esatta se e solo se il quoziente V1c (Ω) coincide con V1e (Ω),
ovvero se e solo se V1 (Ω) è banale.
L’esempio del vortice mostra che per Ω = R2 \{(0, 0)} si ha V1 (Ω) 6= V1e (Ω), ovvero in
questo caso il loro quoziente V1 (Ω) non è banale (e quindi ha dimensione ≥ 1).
Ovviamente le stesse considerazioni possono essere fatte per l’insieme dei campi irrotazio-
nali e conservativi. Il Teorema 4.2.18 seguente è fondamentale, ma per dimostrarlo abbiamo
prima bisogno del seguente risultato.

Lemma 4.2.17 (Derivazione sotto segno di integrale). Sia f : Ω × [a, b] → R, con Ω aperto
di R. Sia x0 ∈ Ω e supponiamo che esista U(x0 ) aperto tale che:

• f è continua in U(x0 ) × [a, b],


∂f
• ∂x esiste in U(x0 ) × [a, b] ed è continua in U(x0 ) × [a, b].

Allora la funzione
Z b
F (x) := f (x, t) dt
a
è derivabile in x0 e Z b
dF ∂f
(x0 ) = (x0 , t) dt.
dx a ∂x
Dimostrazione. Sia h 6= 0 e sufficientemente piccolo perché x0 + h sia comunque in U(x0 ).
Allora
1h b
Z Z b i Z b 1
1 
[F (x0 +h)−F (x0 )] = f (x0 +h, t) dt− f (x0 , t) dt = f (x0 +h, t)−f (x0 , t) dt.
h h a a a h

Per dimostrare la tesi basta dimostrare che è lecito scrivere che


Z b Z b
1  1 
lim f (x0 + h, t) − f (x0 , t) dt = lim f (x0 + h, t) − f (x0 , t) dt (4.1)
h→0 a h a h→0 h

perché se questa identità è corretta, allora si ha


Z b
1 1 
lim [F (x0 + h) − F (x0 )] = lim f (x0 + h, t) − f (x0 , t) dt
h→0 h a h→0 h
Rb
e per ipotesi il lato destro coincide con a ∂f ∂x (x0 , t) dt, verificando così sia l’esistenza del
limite a sinistra (quindi la derivabilità di F in x0 ), sia la formula per la derivata.
Per dimostrare la (4.1) basta dimostrare la tesi sulle sequenze infinitesime, ovvero che per
ogni sequenza hn che tende a 0 si ha
Z b Z b
1   1  
lim f (x0 + hn , t) − f (x0 , t) dt = lim f (x0 + hn , t) − f (x0 , t) dt; (4.2)
n→∞ a hn a n→∞ hn

questo perché in R (in realtà negli spazi metrici) la convergenza equivale alla convergenza
per successioni. Per dimostrare la (4.2) poniamo
1  
gn (t) := f (x0 + hn , t) − f (x0 , t)
hn
96 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

∂f
ed osserviamo che la successione gn tende puntualmente in [a, b] alla funzione ∂x (x0 , ·),
ovvero che
∂f
lim gn (t) = (x0 , t) ∀t ∈ [a, b].
n→∞ ∂x
La (4.2) quindi seguirà immediatamente dai soliti teoremi di passaggio al limite sotto il
segno integrale se riusciremo a dimostrare che la convergenza di gn a quella funzione è in
realtà uniforme in [a, b]. Questo è appunto ciò che ci accingiamo a fare. Come vedremo,
essa è conseguenza della ipotesi di continuità di ∂f ∂x in U(x0 ) × [a, b].
Sia η > 0 abbastanza piccolo perché [x0 −η, x0 +η] ⊆ U(x0 ). L’insieme [x0 −η, x0 +η]×[a, b]
è un compatto e la funzione ∂f ∂x è continua, quindi è qui uniformemente continua. Così per
ogni  > 0 esiste δ = δ() > 0 tale che
(
k(x1 , t1 ) − (x2 , t2 )k2 ≤ δ ∂f ∂f
=⇒ (x1 , t1 ) − (x2 , t2 ) ≤ . (4.3)

(x1 , t1 ), (x2 , t2 ) ∈ [x0 − η, x0 + η] × [a, b] ∂x ∂x

Sia allora  > 0 fissato, e sia δ come sopra. Per il teorema di Lagrange applicato alla
funzione f (·, t) esiste θ = θ(n, , δ, t) tale che

1   ∂f
gn (t) = f (x0 + hn , t) − f (x0 , t) = (x0 + θ, t),
hn ∂x

con θ che sta tra 0 ed hn (quindi θ cambia valore al variare di n, , δ e t, ma sempre


restando |θ| ≤ |hn |).
Sia N = N () > 0 abbastanza grande perché sia |hn | ≤ min(η, δ) per n ≥ N : tale N
esiste sicuramente visto che per ipotesi hn → 0 quando n diverge. Per questi n allora si ha
|θ| ≤ |hn | ≤ min(η, δ), e quindi i punti (x0 + θ, t) ed (x0 , t) soddisfano le ipotesi di (4.3)
per qualunque scelta di t ∈ [a, b], quindi da (4.3) si ha
∂f ∂f ∂f
gn (t) − (x0 , t) = (x0 + θ, t) − (x0 , t) ≤  ∀t ∈ [a, b].

∂x ∂x ∂x
Ovvero, prendendo l’estremo superiore di questa espressione, concludiamo che
∂f
g − (x , ·) ≤ .

n 0
∂x

∞,[a,b]

Abbiamo quindi dimostrato che per ogni  > 0 esiste un N = N () tale che se n ≥ N
allora gn − ∂f , ovvero che la convergenza di gn ad ∂f

(x
∂x 0 , ·)
∞,[a,b]
≤ ∂x (x0 , ·) è uniforme
in [a, b].

Teorema 4.2.18 (Lemma di Poincaré). Sia Ω ⊆ Rn aperto e stellato. Sia poi ω una forma
differenziale di classe C 1 (Ω). Se ω è chiusa in Ω allora è anche esatta in Ω.

Osservazione 4.2.19. Ovviamente esiste il teorema gemello per i campi vettoriali.


Osservazione 4.2.20. Il teorema mostra che un’informazione sulla topologia di Ω rende la
chiusura una condizione sufficiente per l’esattezza.
Osservazione 4.2.21. Ogni bolla aperta è convessa quindi stellata. Ne segue che le forme
chiuse sono sempre localmente esatte (ma purtroppo l’esattezza locale non implica quella
globale).
4.2. CAMPI VETTORIALI E FORME DIFFERENZIALI 97

Osservazione 4.2.22. Il teorema può essere enunciato anche dicendo che se Ω è stellato
allora V1c (Ω) = V1e (Ω) ovvero il loro quoziente V1 (Ω) è banale.

Dimostrazione. Sia ω = nj=1 aj (x) dxj la scrittura di ω. Ω è stellato per ipotesi, sia quindi
P
p uno dei suoi centri (quale non importa). Sia x ∈ Ω, il segmento px è quindi tutto in Ω.
Il segmento è parametrizzato da ϕ : [0, 1], ϕ(t) = p + t(x − p). Sia
Z Z n
X Z n
1X
f (x) := ω= aj (x) dxj = aj (p + t(x − p))(xj − pj ) dt.
p→x p→x j=1 0 j=1

La funzione f è ben definita perché il segmento px è in Ω e le aj sono continue (si osservi


che si è usato ϕ0j = (x − p)j = coordinata j-esima di x − p = xj − pj ).
∂f
Dimostriamo la tesi mostrando che f è un potenziale per ω. Infatti consideriamo ∂x 1
. Tale
funzione esiste per il lemma di derivazione sotto il segno di integrale ed è continua per lo
∂f ∂f
stesso teorema. Visto che lo stesso vale per ∂x2
, . . . , ∂xn
ne segue che f ∈ C 1 (Ω). Inoltre
Z n
1X
∂f ∂
= aj (p + t(x − p))(xj − pj ) dt.
∂x1 ∂x1 0 j=1

Dal lemma sappiamo che questo è

Z 1 n
∂ X
= aj (p + t(x − p))(xj − pj ) dt
0 ∂x1
j=1
Z 1h n
X ∂aj i
= t (p + t(x − p))(xj − pj ) + a1 (p + t(x − p)) dt.
0 ∂x1
j=1

∂aj ∂a1
Per ipotesi ω è chiusa, quindi ∂x1 = ∂xj per ogni j. Così questa espressione è anche uguale
a
Z 1h n
X ∂a1 i
= t (p + t(x − p))(xj − pj ) + a1 (p + t(x − p)) dt
0 ∂xj
j=1
Z 1
d  t=1
= t · a1 (p + t(x − p)) dt = t · a1 (p + t(x − p)) = a1 (x).

0 dt t=0

∂f ∂f
Lo stesso calcolo può essere ripetuto per ∂x 2
, . . . , ∂x n
, verificando così che ω = df ovvero
che ω è esatta e che f ne è un potenziale.

Sia Ω = R2 \{(0, 0)}. L’insieme è evidentemente un aperto non stellato, e infatti dall’Esem-
pio 4.2.15 sappiamo che in questo caso V1e (Ω) ( V1c (Ω) così che
c
V1 (Ω) = V1 (Ω)V e (Ω) ha dimensione ≥ 1.
1

Con l’aiuto del (difficile) Teorema 4.3.13 di Jordan verificheremo nel Teorema 4.3.15 che
la dimensione è proprio 1.
98 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

4.3 Omotopìe
Ricordiamo la definizione di omotopìa (tra curve in aperti di Rn ).

Definizione 4.3.1. Sia Ω aperto in Rn . Siano p e q ∈ Ω e siano γ0 e γ1 i sostegni di due


curve (regolari a tratti, orientate) da p a q.
γ0 e γ1 sono dette omòtope in Ω se esiste una mappa ψ : [0, 1] × [0, 1] → Ω, continua, tale
che:

i. ψ(0, t), t ∈ [0, 1] parametrizza γ0 ,

ii. ψ(1, t), t ∈ [0, 1] parametrizza γ1 ,

iii. ψ(s, 0) = p per ogni s, e ψ(s, 1) = q per ogni s.

In pratica, γ0 e γ1 sono omòtope in Ω quando è possibile passare da γ0 a γ1 con continuità


restando in Ω.

q Ω q Ω

γ0 γ0
γ1 γ1
p p

Se all’interno delle due curve è presente un “buco” del dominio le due curve non potranno
mai essere omòtope.
Osservazione 4.3.2. La relazione di omotopìa è una relazione di equivalenza.

Teorema 4.3.3 (Invarianza Omotòpica). Sia Ω ⊆ Rn aperto, sia ω = nj=1 aj (x) dxj una
P

forma differenziale chiusa (quindi con ogni aj ∈ C 1 ) su Ω. Siano p e q ∈ Ω (qualunque)


e siano γ0 e γ1 sostegni di curve (regolari a tratti, orientate) da p a q. Se γ0 e γ1 sono
omòtope in Ω allora Z Z
ω= ω.
γ0 γ1

Osservazione 4.3.4. Il teorema non afferma che l’integrale sia 0, neppure nel caso p = q
(curva chiusa), ma “solo” che il valore dell’integrale non cambia quando il cammino è
deformato per omotopìa.

Dimostrazione. Nelle generalità con cui lo abbiamo enunciato il teorema ha una dimostra-
zione abbastanza complicata, con vari passaggi intermedi ed approssimazioni successive,
per le quali demandiamo ai testi di topologia algebrica / geometria differenziale (ad esem-
pio [Sp]). Noi ne diamo una dimostrazioni sotto ipotesi più forti sulla mappa di omotopìa
ψ. Precisamente assumiamo che

i. ψ : Ω# → Ω dove Ω# è un aperto che contiene il quadrato [0, 1] × [0, 1],

ii. ψ è C 2 (Ω# ) (quindi non solo continua),


4.3. OMOTOPÌE 99

iii. ψ(0, t) : [0, 1] → Ω parametrizza γ0 ,

iv. ψ(1, t) : [0, 1] → Ω parametrizza γ1 ,

v. ψ(s, 0) = p per ogni s, e ψ(s, 1) = q per ogni s.

Le ipotesi più forti sono le prime due, chiaramente. Introduciamo la forma


n  ∂ψ
#
X j ∂ψj 
ω (s, t) := aj (ψ(s, t)) ds + dt
∂s ∂t
j=1
n n
X ∂ψj  X ∂ψj 
= aj (ψ(s, t)) ds + aj (ψ(s, t)) dt.
∂s ∂t
j=1 j=1

Osserviamo che ω # è una forma differenziale su Ω# , di classe C 1 (perché la ψ è C 2 ). Senza


ledere di generalità possiamo supporre che Ω# sia convesso (perché Ω# per noi è solo uno
spazio ausiliario, quindi possiamo “rimpicciolirlo” per averlo convesso).

Ω]

Verifichiamo che ω # è chiusa. Infatti


n n
∂ hX ∂ψj i X ∂ h ∂ψj i
aj (ψ(s, t)) = aj (ψ(s, t))
∂t ∂s ∂t ∂s
j=1 j=1
n Xn n
X ∂aj ∂ψi ∂ψj X ∂ 2 ψj
= (ψ(s, t)) + aj (ψ(s, t)) .
∂xi ∂t ∂s ∂t∂s
j=1 i=1 j=1

Ora rinominiamo i e j nel primo addendo e visto che ψ è di classe C 2 possiamo scambiare
∂ ∂
∂s e ∂t nel secondo termine, ottenendo

n X
n n
X ∂ai ∂ψj ∂ψi X ∂ 2 ψj
= (ψ(s, t)) + aj (ψ(s, t)) .
∂xj ∂t ∂s ∂s∂t
i=1 j=1 j=1

∂ai ∂aj
Per ipotesi ω è una forma chiusa, quindi ∂xj = ∂xi per ogni coppia di indici i e j, quindi

n X
n n
X ∂aj ∂ψj ∂ψi X ∂ 2 ψj
= (ψ(s, t)) + aj (ψ(s, t))
∂xi ∂t ∂s ∂s∂t
i=1 j=1 j=1
n
∂ hX ∂ψj i
= aj (ψ(s, t)) .
∂s ∂t
j=1
100 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

Per costruzione Ω# è convesso quindi ω # è esatta in Ω# , perciò γ ω # = 0 per ogni cammino


R

chiuso γ. In particolare scegliamo come cammino il quadrato [0, 1]×[0, 1] orientato in senso
antiorario. Valutiamo l’integrale sui quattro lati tenendo conto che
Z Z Z Z
# #
ω + ω + ω + ω # = 0.
#
→ ↓ ← ↑

Calcolo di → ω # . Come parametrizzazione del segmento inferiore scegliamo t : 0 7→ 1 e


R

s = 0 (quindi ds = 0), così abbiamo:


Z Z n
1X Z
# ∂ψj
ω = aj (ψ(0, t)) (0, t) dt = ω.
→ 0 j=1 ∂t γ0

Un conto analogo mostra che


Z Z n
0X Z
∂ψj
ω# = aj (ψ(1, t)) (1, t) dt = − ω.
← 1 j=1 ∂t γ1

#.
R
Calcolo di ↑ω Parametrizziamo con s : 0 7→ 1 e t = 1, ottenendo
Z Z n
1X
# ∂ψj
ω = aj (ψ(s, 1)) (s, 1) ds.
↑ 0 j=1 ∂s

Ma ψ(s, 1) = q per ogni s, quindi anche ∂ψ ∂s (s, 1) = 0 per ogni s. Questo implica che
l’integrale precedente è in realtà 0, per cui
Z
ω # = 0.

Analogo conto per l’altro segmento verticale ↓. Visto che la somma dei quattro integrali
deve valere 0, i calcoli precedenti mostrano che
Z Z Z Z Z Z Z Z
# # # #
0= ω + ω + ω + ω = ω+0− ω+0= ω− ω,
→ ↓ ← ↑ γ0 γ1 γ0 γ1

che è la tesi.

Definizione 4.3.5. Dato Ω ⊆ Rn aperto, dato p ∈ Ω e dato γ sostegno di una curva da p


a p (chiusa, regolare a tratti) in Ω diciamo che γ è nulla omòtopa in Ω quando è omòtopa
in Ω alla curva costante di sostegno p.
Purtroppo le curve costanti non sono curve regolari a tratti (almeno, non secondo la no-
stra definizione di curva regolare, secondo cui una curva è regolare a tratti se e solo se
ammette una parametrizzazione di classe C 1 a tratti con derivata diversa da 0: le costanti
non soddisfano questa ultima condizione). Per procedere abbiamo quindi della seguente
proprietà.
Proposizione 4.3.6. Dato Ω ⊆ Rn aperto, dato p ∈ Ω e dato γ sostegno di una curva da
p a p (chiusa, regolare a tratti) in Ω. La curva γ è nulla omòtopa in Ω a p se e solo se per
ogni  > 0 e sufficientemente piccolo la curva γ è omòtopa ad una circonferenza passante
per p e di raggio al più .
4.3. OMOTOPÌE 101

La tesi della proposizione è ragionevolmente intuitiva, ed in effetti la sua dimostrazione


formale non è complicata: basta osservare che esiste una bolla B aperta di centro p in Ω
(perché Ω è aperto), che B è stellato con centro p, che usando le omotetìe di centro p è
possibile costruire omotopie tra le circonferenze di B passanti per p e la curva costante in
p.
Proposizione 4.3.7. Dato Ω ⊆ Rn aperto, sia p ∈ Ω e sia γ una curva chiusa regolare
a tratti, passante per p e nullo omòtopa. Sia poi ω una forma differenziale chiusa in Ω.
Allora Z
ω = 0.
γ

Dimostrazione. Il punto p è in Ω che è un aperto. Esiste quindi η > 0 tale che la bolla
chiusa B η (p) di centro p e raggio η è contenuta in Ω (basta prendere la bolla aperta di
centro p che è contenuta in Ω, diminuire il suo raggio e prenderne la chiusura). Sia ora
 > 0 e minore di η. Per ipotesi la curva γ è nullo-omòtopa a p, e per la proposizione
precedente questo implica che essa è omòtopa ad una circonferenza C passante per p e
raggio al più . Si osservi che C ⊂ Bη (p), poiché abbiamo assunto  < η.
Dal teorema di invarianza omotopica sappiamo che
Z Z
ω= ω.
γ C

Dimostreremo la tesi mostrando che quest’ultimo integrale è arbitrariamente piccolo. Ri-


cordiamo che l’integrale di una forma è sempre uguale all’integrale del lavoro per il campo
vettoriale Fω associato alla forma. Utilizzando questo formalismo e procedendo con le
maggiorazioni consuete e con la disuguaglianza di Cauchy-Schwarz si ottiene:
Z Z Z Z Z
ω = ω = hFω , dsi ≤ |hFω , dsi| ≤ kFω k · k dsk.

γ C C C C

Il campo vettoriale Fω è valutato sui punti di C che è un sottoinsieme del compatto B η (p). I
valori che kFω k assume su C sono quindi limitati da numero kFω k∞,η := sup{kFω (x)k : x ∈
B η (p)}. Si osservi che questo numero è effettivamente una quantità finita, poiché Fω è
continuo. Proseguendo quindi nella stima precedente abbiamo che:
Z Z
ω ≤ kFω k∞,η k dsk.

γ C

L’integrale presente di fatto esprime la lunghezza di C , e quindi il suo valore è ≤ 2π.


Abbiamo così dimostrato che Z
ω ≤ 2πkFω k∞,η ,


γ
che dimostra la tesi vista l’arbitrarietà di .

Definizione 4.3.8. Sia Ω aperto connesso. Ω è detto semplicemente connesso quando il


sostegno di ogni curva chiusa in Ω è nulla omòtopa rispetto a qualche punto (eventualmente
diverso da curva a curva).
Osservazione 4.3.9. Il fatto che Ω sia connesso garantisce che la proprietà non dipende da
p: se vale per la curva passante per p allora vale necessariamente per le curve passanti per
qualunque p0 (perché Ω è anche connesso per archi).
102 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

Osservazione 4.3.10. Se Ω è stellato allora è semplicemente connesso. Non vale il viceversa,


per esempio: R3 \{(0, 0, 0)} è semplicemente connesso ma non stellato. (Lo sappiamo da
quando abbiamo quattro anni: non si può legare un pallone!).

Corollario 4.3.11. Sia Ω aperto, connesso, semplicemente connesso, in Rn . Se ω è chiusa


in Ω allora è esatta.

Dimostrazione. Per definizione di semplice connessione ogni curva chiusa è nullo-omotòpa.


R
Inoltre ω è chiusa, per ipotesi. Dalla Proposizione 4.3.7 sappiamo che allora γ ω = 0 per
ogni tale curva γ. Dal Proposizione 4.2.9 deduciamo che allora ω è esatta.

Corollario 4.3.12. Sia Ω aperto, connesso, semplicemente connesso, allora


c
V1 (Ω) = V1 (Ω)V e (Ω) = {0},
1

ovvero lo spazio quoziente è banale.

Teorema 4.3.13 (Jordan). Sia γ in R2 il sostegno di una curva chiusa e semplice. Al-
lora γ divide R2 in due componenti connesse: una limitata (l’interno) e uno non limitata
(l’esterno).

E
γ
I

Inoltre, se γ è C 1 a tratti si ha che:

i. p è interno quando la “generica” semiretta uscente da p interseca γ un numero dispari


di volte,

ii. p è esterno quando la “generica” semiretta uscente da p interseca γ un numero pari


di volte.

E Le semirette per p intersecano γ un


γ numero dispari di volte: p è interno.
p
q Le semirette per q intersecano γ un
I numero pari di volte: q è esterno.

Osservazione 4.3.14. Il teorema ha una dimostrazione molto complessa che si semplifica


un po’ per curve C 1 . La nozione di semiretta “generica” è vaga e andrebbe precisata, ma
non si può pretendere che la tesi valga per ogni semiretta: in effetti è facile costruire esempi
per i quali esistono semirette che intersecano γ lungo segmenti o col numero sbagliato di
punti.
4.4. DIVAGAZIONI 103

γ γ

E I E I

p p

Teorema 4.3.15. Sia Ω = R2 \{(0, 0)} allora dim(V1 (Ω)) = 1.


1
Dimostrazione. (Sketch). Sia ω una forma chiusa in Ω = R2 \{(0, 0)}, sia α := 2π
R
◦ω dove
◦ è la circonferenza di centro 0 e raggio 1 percorsa in senso antiorario. Sia poi

−y dx + x dy
ω0 := (il vortice),
x2 + y 2

e sia ω̃ := ω − αω0 . Allora ω̃ è chiusaR(perché ω e ω0 lo sono). Mostriamo che in realtà ω̃


è esatta. Lo facciamo verificando che γ ω̃ = 0 per ogni curva chiusa γ.
Infatti sia γ chiusa (regolare e semplice) allora (per Jordan) γ divide R2 in due connessi:
I (interno) e E (esterno). Ci sono quindi due soli casi:
R
i. 0 ∈ E. In tal caso γ è nulla omòtopa e perciò γ ω̃ = 0.

ii. 0 ∈ I. L’interno è aperto, allora contiene un aperto B di centro 0 che contiene Cr ,


circonferenza di raggioR r > 0Re centro 0, sufficientemente piccolaR e antioraria.
R Ma γ è
omòtopa a Cr , quindi γ ω̃ = Cr ω̃ e Cr è omòtopa a C1 , quindi Cr ω̃ = C1 ω̃. Così
Z Z Z Z Z Z
ω̃ = ω̃ = (ω − αω0 ) = ω−α ω0 = ω − 2πα = 0
γ C1 C1 C1 C1 C1

per la definizione di α.
R
Quindi γ ω̃ = 0 per ogni curva chiusa (regolare semplice) γ, e questo garantisce che ω è
esatta. Ma allora la scrittura ω = αω0 + ω̃ mostra che ω coincide con αω0 a meno di forme
c
esatte (la ω̃). Questo equivale ad affermare che V1 (Ω) = V1 (Ω)V e (Ω) = hω0 iR , che quindi
1
ha dimensione 1.

4.4 Divagazioni
Sia Ω ⊆ R aperto sia p ∈ Ω fissato ad arbitrio. Consideriamo tutte le curve γ chiuse da p
in p. Tra queste curve abbiamo un’operazione di “addizione”: la concatenazione.

+ =
γ1 γ2 γ1 + γ2
p p p
104 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

Tale operazione è associativa: γ1 + (γ2 + γ3 ) = (γ1 + γ2 ) + γ3 (i.e. è un semigruppo) con


elemento neutro 0 dato dalla curva costante ϕ(t) = p per ogni t ∈ [0, 1]. In questo semi-
gruppo però gli elementi non nulli sono privi di inverso visto che se γ non è costante, la
curva γ + η non potrò essere costante qualunque sia la curva η.
Tuttavia l’omotopìa è una relazione di equivalenza e questa si comporta bene rispetto
alla concatenazione: se γ1 ≈ γ̃1 e γ2 ≈ γ̃2 (dove ≈ è la relazione di omotopìa) allora
γ1 + γ2 ≈ γ̃1 + γ̃2 .
Inoltre a meno di omotopìa la curva −γ si comporta da inversa di γ rispetto alla con-
catenazione, ovvero γ + (−γ) ≈ 0 qualunque sia la curva γ. Infatti sia ϕ : [0, 1] → Ω la
parametrizzazione di γ (quindi ϕ è continua e ϕ(0) = ϕ(1) = p). Sia ψ : [0, 1] × [0, 1] → Ω
la funzione
ψ(s, t) := ϕ(4st(1 − t)).

È immediato verificare che effettivamente essa è continua, che ψ(0, t) parametrizza la co-
stante, che ψ(1, t) parametrizza γ + (−γ) (percorre γ quando t ∈ [0, 1/2] e −γ quando
t ∈ [1/2, 1]), e che ψ(s, 0) = ψ(s, 1) = p per ogni s, e che quindi ψ è una omotopia tra
γ + (−γ) e la curva costante.
Ne segue che:

π1 (Ω, p) := {Classi di omotopìa delle curve di Ω passanti per p}

con l’operazione + di concatenazione è un gruppo. Esso è detto primo gruppo di omotopìa


(primo perché ce ne sono altri. . . ).
Supponiamo che Ω sia un aperto connesso (quindi connesso per archi). Allora dati p e q
esiste una curva ρ che li congiunge e il cammino (−ρ) + γ + ρ parte da q e arriva in q.
Viceversa: se γ̃ è una curva da q a q allora ρ + γ̃ + (−ρ) va da p in p. L’applicazione di ρ
passa alle classi di omotopìa, quello appena indicato è quindi un isomorfismo tra π1 (Ω, p)
e π1 (Ω, q). Possiamo quindi parlare semplicemente di π1 (Ω). Così

i. se Ω è semplicemente connesso allora π1 (Ω) = {0} (facile);

ii. se Ω = R2 \{(0, 0)} allora π1 (Ω) ∼ Z, ovvero gruppo libero con un generatore (non
facile).

In generale π1 (Ω) non è abeliano: per mostrarlo evidenziamo che talvolta esiste un commu-
tatore non banale. Sia ad esempio Ω := R2 \{a, b} (ovvero R2 privato di due punti). Siano
γa e γb come in figura

γa γb
a b

Allora γa + γb + (−γa ) + (−γb ) è omòtopa in Ω a


4.4. DIVAGAZIONI 105

a b

ma questa non è omòtopa in Ω alla curva costante in p. Quindi in π1 (Ω) si ha [γa + γb +


(−γa ) + (γb )] 6= [0]. (In effetti per Ω = R2 \{a, b} si dimostra che π1 (Ω) è il gruppo libero
generato da [γa ] e [γb ]).
Consideriamo π10 (Ω) il gruppo generato dai commutatori di π1 (Ω) (quindi dagli elementi
[γ + ρ + (−γ) + (−ρ)] al variare di γ e ρ in π1 (Ω)). Questo è un sottogruppo normale di
π1 (Ω), quindi è possibile definire il gruppo quoziente

πab (Ω) := π1 (Ω)π 0 (Ω),


1

che è detto l’abelianizzato di π1 (Ω). Esso è in effetti commutativo, per costruzione. Questo
gruppo è anche uno Z-modulo (perché per ogni intero n ed ogni curva γ, nγ può essere
intesa come la curva di sostegno γ percorsa |n| volte nello stesso senso se n è positivo e in
senso opposto se n è negativo). Come Z-modulo non ha torsione (ovvero nγ = 0, a meno di
omotopìa, se e solo se n = 0 oppure γ è la curva 0); si può allora “estendere” lo Z-modulo
ad un R-modulo tensorizzandolo con R, ottenendo

πab (Ω) ⊗Z R.

Concretamente, questo corrisponde a prendere una Z-base di πab (Ω) e considerare l’insieme
delle loro combinazioni lineari a coefficienti in R.
Ma allora πab (Ω) ⊗Z R è un R-modulo libero ovvero uno spazio vettoriale. A cosa serve
tutto ciò?
Osserviamo che anche se [γ + ρ + (−γ) + (−ρ)] 6= [0] si ha comunque che
Z Z Z Z Z Z Z Z Z
ω= ω+ ω+ ω+ ω = ω + ω − ω − ω = 0,
γ+ρ+(−γ)+(−ρ) γ ρ −γ −ρ γ ρ γ ρ

quindi l’integrazione di una forma chiusa non solo non distingue tra curve omòtope ma è
pure banale sui commutatori. R
Questa osservazione consente di vedere γ ω come una mappa bilineare

V1 (Ω) × πab (Ω) ⊗Z R −→ R,


R
(ω, γ) 7→ hω, γi := γ ω.

La mappa h·, ·i è ben definita perché l’integrale delle forme esatte fa sempre 0 visto che
le curve sono chiuse e che inoltre il suo valore non cambia per omotopìa e vale 0 sui
commutatori.
Questa mappa è bilineare per costruzione, ma ciò che la rende utile è il fatto che essa è
non degenere in entrambi gli argomenti, ovvero:
i. Se ω è tale che hω, γi = 0 ∀γ, allora ω è 0 (in V1 (Ω)),
106 CAPITOLO 4. CURVE, CAMPI VETTORIALI, FORME DIFFERENZIALI

ii. Se γ è tale che hω, γi = 0 ∀ω, allora γ è 0 (in πab (Ω) ⊗Z R).
R
La prima tesi è esattamente il teorema di esattezza che abbiamo studiato: se γ ω = 0
per ogni γ allora ω è esatta (e quindi ω = 0 in V1 (Ω)). La seconda tesi è invece nuova (e
difficile): per dimostrarla si deve Rfar vedere che se γ non è omòtopa a 0 allora esiste una
forma chiusa (non esatta) ω con γ ω 6= 0; intuitivamente γ non 0-omòtopa significa che γ
circonda qualche punto che non sta in Ω, allora si prende ω di tipo “vortice” su quel punto,
ma i dettagli di questa dimostrazione sono complicati. . .
Ma allora si deduce4 che
V1c (Ω) e
V1 (Ω) = V1 (Ω) è isomorfo a πab (Ω) ⊗Z R (come spazi vettoriali).

Credo che questo sia un buon punto per terminare il corso. . .

4
Vale il teorema seguente: Se V e W sono R-spazi vettoriale finito dimensionali ed esiste h·, ·i : V × W →
R bilineare e non degenere in entrambi gli argomenti allora V e W sono isomorfi.

Dimostrazione. Le ipotesi infatti implicano che la mappa W → V ∗ che associa ad ogni elemento w ∈ W
il funzionale h·, wi è iniettiva, e lo stesso la analoga mappa V → W ∗ . Ma allora dim(V ) ≤ dim(W ∗ ) =
dim(W ) ≤ dim(V ∗ ) = dim(V ) e quindi dim(V ) = dim(W ).
Capitolo 5

Bibliografia

Testi usati come riferimento principale per il corso:

[R1 ] W. Rudin: Real and complex analysis, McGraw-Hill Book Co., New York, 1987.
[R2 ] W. Rudin: Principles of mathematical analysis, McGraw-Hill Inc., New York, 1974.

Testi di approfondimento:

[AP ] A. Ambrosetti, G. Prodi: A primer of nonlinear analysis, Cambridge Studies in Advanced


Mathematics, 34, Cambridge University Press, Cambridge, 1995.
[DeMGZ ] G. De Marco, G. Gorni, G. Zampieri: Global inversion of functions: an introduction,
NoDEA Nonlinear Differential Equations Appl. 1(3), 1994, 229–248.
[GD ] A. Granas, J. Dugundji: Fixed point theory, Springer Monographs in Mathematics, Springer-
Verlag, New York, 2003.
[GM ] G. H. Greco and S. Mazzucchi: Peano’s 1886 existence theorem on first-order scalar diffe-
rential equations: a review, Boll. Unione Mat. Ital. 9(3) pg. 375–389, 2016.
[KP ] S. G. Krantz and H. R. Parks: The implicit function theorem, Modern Birkhäuser Classics,
Birkhäuser/Springer, New York, 2013.
[Sh ] J. H. Shapiro: A fixed-point farrago, Universitext, Springer, 2016. Birkhäuser/Springer, New
York, 2013.
[Sp ] M. Spivak: Calculus on manifolds. A modern approach to classical theorems of advanced
calculus, W. A. Benjamin, Inc., New York-Amsterdam, 1965.

107
108 CAPITOLO 5. BIBLIOGRAFIA
Capitolo 6

Indice dei nomi

• Niels Henrik Abel. Frindöe (Norway) 5-8-1802, Froland (Norway) 6-4-1829.


• Cesare Arzelà. Santo Stefano di Magra, La Spezia (now Italy) 6-3-1847, 15-3-1912.
• Guido Ascoli. Livorno (Italy) 12-12-1887, Turin 10-5-1957.
• Stefan Banach. Cracow 30-3-1892, Lvov (Ucraina) 31-8-1945.
• Sergei Bernstein. Odessa (Ukraine) 5-3-1880, Moscow 26-10-1968.
• Renato Caccioppoli. Naples 20-1-1904, Naples 8-5-1959.
• Augustin Louis Cauchy. Paris 21-8-1789, Sceaux (France) 23-5-1857.
• Jean Le Rond d’Alembert. Paris 17-11-1717, Paris 29-10-1783.
• Ulisse Dini. Pisa 14-11-1845, Pisa 28-10-1918.
• Jean Baptiste Joseph Fourier. Auxerre (France) 21-3-1768, Paris 16-5-1830.
• Thomas Hakon Grönwall. Dylta bruk (Sweden) 16-1-1877, New York 9-5-1932.
• Jacques Salomon Hadamard. Versailles 8-12-1865, Paris 17-10-1963.
• Helmut Hasse. Kassel (Germany) 25-08-1898, Ahrensburg (Germany) 26-12-1979.
• Marie Ennemond Camille Jordan. La Croix-Rousse (France) 5-1-1838, Paris 22-1-1922.
• Joseph Louis Lagrange. Turin 25-1-1736, Paris 10-4-1813.
• Gottfried Wilhelm von Leibniz. Lipsia 1-7-1646, Hannover 14-11-1716.
• Rudolf Otto Lipschitz. Königsberg Prussia (now Kaliningrad, Russia) 14-5-1832, Bonn 7-10-1903.
• Gustav Adolf Fedor Wilhelm Ludwig Mie. Rostock (Germany) 1868, Fribourg (Germany) 1957.
• Amalie Emmy Noether. Erlangen (Germany) 23-3-1882, Bryn Mawr, Pennsylvania 14-4-1935.
• William Fogg Osgood. Boston 10-5-1864, Belmont 22-7-1943.
• Giuseppe Peano. Spinetta (Italia) 27-8-1858, Turin 20-4-1932.
• Oskar Perron. Frankenthal (Germany) 7-5-1880, Munich 22-2-1975.
• Jules Henri Poincaré. Nancy (France) 29-4-1854, 17-7-1912.
• Frigyes Riesz. Györ (Hungary) 20-1-1880, Budapest 28-2-1956.
• Georg Friedrich Bernhard Riemann. Breselenz (Germany) 17-9-1826, Selasca (Italy) 20-6-1866.
• Juliusz Pawel Schauder. Lemberg (now Lviv, Ukraine) 21-9-1899, Lwow, Poland (now Ukraine) 9-1943.
• Hermann Amandus Schwarz. Hermsdorf, Silesia (now Poland) 25-1-1843, Berlin 30-11-1921.
• Marshall Harvey Stone. New York 8-4-1903, Madras (India) 9-1-1989.
• Brook Taylor. Edmonton (Great Britain) 18-8-1685, London 29-12-1731.
• Otto Toeplitz. Breslau (Germany, now Wrocław, Poland) 8-8-1881, Jerusalem 15-2-1940.
• Vito Volterra. Ancona 3-5-1860, Rome 11-10-1940.
• Karl Theodor Wilhelm Weierstrass. Ostenfelde (Germany) 31-10-1815, Berlin 19-2-1897.

109

Potrebbero piacerti anche