Sei sulla pagina 1di 116

Corso di Analisi 3

Parte I: Equazioni Differenziali


Appunti delle lezioni tenute dal Prof. A. Fonda

Università di Trieste, CdL Matematica, a.a. 2020/2021

1 Prime definizioni
Le equazioni differenziali sono uno degli strumenti principali utilizzati per
modellizzare i fenomeni della Natura, nel senso più ampio del termine. Le
troviamo in tutte le Scienze, principalmente nella Fisica, ma anche in ambito
economico, biologico, medico, sociale. Esse sono catalogabili in due tipi di-
versi: le equazioni differenziali ordinarie e le equazioni differenziali alle derivate
parziali. In queste note, tratteremo solo delle prime.
Consideriamo un’espressione del tipo
u0 = f (t, u) , (1)
che chiameremo “equazione differenziale in forma canonica”, e iniziamo a spie-
garne il significato. Qui f è una funzione continua definita su un sottoinsieme
aperto Ω di R × RN , a valori in RN .
Definizione 1 Diremo che una funzione u : I → RN è “soluzione di (1) in
I” se:
• I è un intervallo non degenere di R ,
• (t, u(t)) ∈ Ω per ogni t ∈ I ,
• u è derivabile su I ,
• u0 (t) = f (t, u(t)) per ogni t ∈ I .
Ricordiamo che
u(s) − u(t)
u0 (t) = lim ∈ RN
s→t s−t
è il “vettore derivata” di u in t.1 Spesso, pensando ai modelli della mecca-
nica, u(t) si può interpretare come “vettore posizione al tempo t” e u0 (t) come
“vettore velocità al tempo t”. Si chiama “orbita” della soluzione u : I → RN
l’insieme immagine u(I) = {u(t) : t ∈ I}, mentre chiameremo “traiettoria” di
u il suo grafico {(t, u(t)) : t ∈ I}. Lo spazio RN si chiama “spazio delle fasi”.
Siano a = inf I e b = sup I. Se a ∈ I, allora u0 (a) sarà un limite destro. Similmente, se
1

b ∈ I, allora u0 (b) sarà un limite sinistro.

1
Nelle applicazioni ci si trova spesso ad affrontare la ricerca di una soluzione
dell’equazione differenziale che soddisfi una “condizione iniziale” del tipo

u(t0 ) = u0 .

Avendo in mente i modelli della meccanica, si dice che la “posizione” di u


“al tempo iniziale” t0 è u0 . Ci si trova cosı̀ a dover risolvere il “problema di
Cauchy”  0
u = f (t, u)
(P C)
u(t0 ) = u0
dove f : Ω ⊆ R × RN → RN è una funzione continua, e (t0 , u0 ) ∈ Ω.

Definizione 2 Diremo che una funzione u : I → RN è “soluzione del pro-


blema (P C)” se:
• I è un intervallo contenente al suo interno t0 ,
• u è soluzione di (1) in I ,
• u(t0 ) = u0 .

Risulta molto utile la seguente formulazione equivalente del problema.

Teorema 3 Una funzione u : I → RN è soluzione del problema (P C) se e


solo se:
• I è un intervallo contenente al suo interno t0 ,
• (t, u(t)) ∈ Ω per ogni t ∈ I,
• u è continua su I ,
Rt
• u(t) = u0 + t0 f (s, u(s)) ds per ogni t ∈ I. 2

Dimostrazione. Dobbiamo dimostrare una doppia implicazione. Se u è una


soluzione del problema (P C), allora
Z t Z t
0
u(t) − u(t0 ) = u (s) ds = f (s, u(s)) ds ,
t0 t0

il che dimostra una delle due implicazioni.


2
L’integrale di una funzione a valori vettoriali g : [a, b] → RN , con

g(t) = (g1 (t), . . . , gN (t)) ,

è definito da !
Z b Z b Z b
g(t) dt = g1 (t) dt, . . . , gN (t) dt .
a a a

Esso è quindi un vettore di RN . Se a < b, risulterà utile la seguente disuguaglianza:


Z Z
b b
g(t) dt ≤ kg(t)k dt .


a a

2
Viceversa, se u è una funzione continua per cui si abbia
Z t
u(t) = u0 + f (s, u(s)) ds ,
t0

si ha che u(t0 ) = u0 , e la funzione s 7→ f (s, u(s)) è continua. Quindi u è


derivabile, e si ha

d t
Z
0
u (t) = f (s, u(s)) ds = f (t, u(t)) ,
dt t0

per ogni t ∈ I.
Spesso le equazioni differenziali coinvolgono anche derivate di ordine più
elevato. Un tipico esempio è dato dall’equazione di Newton F = ma. In
questo caso, se x(t) denota la posizione di un oggetto di massa m al tempo t,
l’equazione si può solitamente scrivere come
1
x00 = F (t, x, x0 ) .
m
Qui F dipende dal tempo t, dalla posizione x e dalla velocità x0 . Definendo
y = x0 , u = (x, y), e f (t, u) = (y, m1 F (t, x, y)), l’equazione si può scrivere come

x0 = y


y 0 = m1 F (t, x, y) ,

ossia u0 = f (t, u), che ne è la forma canonica (1). Il problema di Cauchy in


questo caso avrà una condizione iniziale del tipo x(t0 ) = x0 , x0 (t0 ) = y0 .
In generale, un’equazione differenziale “di ordine n” si presenta nella forma

x(n) = g(t, x, x0 , . . . , x(n−1) ) .

Essa può essere ricondotta alla forma canonica (1), con u = (u1 , u2 , . . . , un ),
ponendo

u1 = x, u2 = x0 , . . . , un = x(n−1) , f (t, u) = (u2 , u3 , . . . , g(t, u1 , u2 , . . . , un ) .

Il corrispondente problema di Cauchy avrà come condizioni iniziali

x(t0 ) = x0 , x0 (t0 ) = x1 , . . . , x(n−1) (t0 ) = xn−1 .

2 Alcune semplici equazioni


Iniziamo a considerare il caso scalare N = 1: in generale, purtroppo, anche
in questo caso “semplice”, trovare una soluzione esplicita di un’equazione dif-
ferenziale può essere un’impresa senza speranza.

3
Consideriamo dapprima l’equazione differenziale

u0 = a(t)u + b(t) ,

dove a, b : R → R sono due funzioni continue. Si parla in questo caso di


“equazione differenziale lineare”. Studiamo il relativo problema di Cauchy
 0
u = a(t)u + b(t)
u(t0 ) = u0 .

Notiamo che, se u è una soluzione, allora

d h − tt a(s) ds
R i
− tt a(s) ds 0
R
− tt a(s) ds
R
u(t)e 0 =e 0 (u (t) − a(t)u(t)) = e 0 b(t) ;
dt
integrando su [t0 , t],
Rt Z t Rσ
− a(s) ds − a(s) ds
u(t)e t0
− u0 = e t0
b(σ) dσ ,
t0

da cui ricaviamo la formula risolutiva


Rt  Z t Rσ 
a(s) ds − a(s) ds
u(t) = e t0
u0 + e t0
b(σ) dσ .
t0

Ad esempio, il problema di Cauchy


 0
u = 3u + t2
u(0) = 0 ,

ha come soluzione
Rt
Z t Rσ
u(t) = e 0 3 ds
e− 0 3 ds 2
σ dσ
0
Z t
=e 3t
e−3σ σ 2 dσ
0
2 1 2
= (e3t − 1) − t2 − t .
27 3 9
Analizziamo ora le “equazioni differenziali a variabili separabili”:

u0 = e(t)g(u) .

Qui g : J → R ha come dominio un intervallo J, ed e : R → R. Supponiamo


inoltre g(u) 6= 0 per ogni u nell’intervallo J, per cui l’equazione si può scrivere
l’equazione nella forma equivalente

u0 (t)
= e(t) , u(t) ∈ J . (2)
g(u(t))

4
Come sopra, studiamo il relativo problema di Cauchy
 0
u = e(t)g(u)
u(t0 ) = u0 ,

Supponendo che u([t0 , t]) sia contenuto in J si può integrare (2) su [t0 , t] e, con
un cambio di variabile, si ottiene
Z u(t) Z t
du
= e(s) ds .
u0 g(u) t0

Se denotiamo con P : J → R una primitiva di 1/g, otteniamo


Z t
P(u(t)) = P(u0 ) + e(s) ds ,
t0

e siccome P è strettamente monotona (avendo derivata sempre diversa da


zero), possiamo scrivere
 Z t 
−1
u(t) = P P(u0 ) + e(s) ds .
t0

Ad esempio, vediamo come trattare il problema di Cauchy


 0
u = sin t (u2 + 1)
u(0) = u0 .

Abbiamo che Z u(t) Z t


du
2
= sin s ds = 1 − cos t ,
u0 u +1 0

da cui
arctan u(t) = arctan u0 + 1 − cos t ,
ossia  
u(t) = tan arctan u0 + 1 − cos t .
Si noti che l’espressione è ben definita se t varia in un intorno di 0, ma potrebbe
non esserlo per ogni t ∈ R.
Come secondo esempio, cerchiamo una soluzione del problema di Cauchy

 u0 = 1 + 2t

cos u
u(0) = π .

Abbiamo che Z u(t) Z t


cos u du = (1 + 2s) ds = t + t2 ,
π 0
da cui
sin u(t) = t + t2 .

5
Ora bisogna fare attenzione che ci troviamo con u(t) sull’intervallo contenente
π dove la funzione sin è strettamente monotona, cioè in [ π2 , 3π
2
]. Definendo
w(t) = u(t) − π, avremo che w(t) ∈ [− π2 , π2 ] e
sin w(t) = sin(u(t) − π) = − sin u(t) = −(t + t2 ) ,
per cui w(t) = arcsin(−(t + t2 )) = − arcsin(t + t2 ), e quindi
u(t) = π + w(t) = π − arcsin(t + t2 ) .

3 Il problema di Cauchy: esistenza e unicità


3.1 Esistenza locale
Nel 1890, Giuseppe Peano ha dimostrato il seguente risultato di “esistenza
locale”.
Teorema 4 (di Peano) Per ogni (t0 , u0 ) ∈ Ω, esiste un r0 > 0 tale che il
problema (P C) ha una soluzione u : [t0 − r0 , t0 + r0 ] → RN .
Si noti che la soluzione potrebbe non essere unica. Ad esempio, sia f : R →
R definita da  √
2 √u se u ≥ 0
f (u) =
−2 −u se u < 0.
(Qui la funzione f non dipende esplicitamente da t. Si ha pertanto a che fare
con un’“equazione differenziale autonoma”.) Si vede subito che il problema di
Cauchy  0
u = f (u)
u(0) = 0
ha la soluzione costante u(t) = 0, ma anche la soluzione
 2
t se t ≥ 0
u(t) = t|t| = 2
−t se t < 0 .
Inoltre, ce ne sono infinite altre, date da

(t − c)2 se t ≥ c
u(t) =
0 se t < c ,
dove c ≥ 0 è una costante arbitraria, oppure

0 se t ≥ c
u(t) =
−(t − c)2 se t < c ,
dove c ≤ 0, o anche

 (t − c2 )2 se t ≥ c2
u(t) = 0 se c1 < t < c2
−(t − c1 )2 se t < c1 ,

con c1 ≤ 0 ≤ c2 .
Per avere anche l’unicità della soluzione, è necessario introdurre delle ipotesi
aggiuntive sulla funzione f .

6
3.2 Esistenza e unicità locale
Definizione 5 Diremo che la funzione f : Ω → RN è localmente lipschitziana
rispetto alla seconda variabile se per ogni (t0 , u0 ) ∈ Ω esiste un intorno U e
una costante LU > 0 tale che
kf (t, v) − f (t, w)k ≤ LU kv − wk ,
per ogni (t, v) e (t, w) in U .
Proposizione 6 La funzione f : Ω → RN è localmente lipschitziana rispetto
alla seconda variabile se e solo se per ogni compatto K ⊆ Ω esiste una costante
LK > 0 tale che
kf (t, v) − f (t, w)k ≤ LK kv − wk ,
per ogni (t, v) e (t, w) in K.
Dimostrazione. Per quanto riguarda la prima implicazione, è sufficiente scegliere
un intorno U compatto, e si ha la tesi. Vediamo quindi la seconda. Per as-
surdo, supponiamo che esista un compatto K ⊆ Ω ed esistano due successioni
(tn , vn )n e (tn , wn )n in K (con la stessa tn ) tali che
kf (tn , vn ) − f (tn , wn )k > nkvn − wn k . (3)
Sia MK := max{kf (t, u)k : u ∈ K}. Per la compattezza di K la successione
(tn , vn )n possiede una sottosuccessione (tnk , vnk )k convergente a un elemento
(t̄, ū) ∈ K. Essendo
1 1
kvnk − wnk k ≤ kf (tnk , vnk ) − f (tnk , wnk )k ≤ 2MK → 0 ,
nk nk
abbiamo che anche limk wnk = ū. Sia allora U un intorno di (t̄, ū) e LU > 0
tale che
kf (t, v) − f (t, w)k ≤ LU kv − wk ,
per ogni (t, v) e (t, w) in U . Per k sufficientemente grande, (tnk , vnk ) e (tnk , wnk )
apparterranno a U e nk ≥ LU , per cui
kf (tnk , vnk ) − f (tnk , wnk )k ≤ LU kvnk − wnk k
≤ nk kvnk − wnk k ,
in contraddizione con (3).

Proposizione 7 Se esiste la derivata parziale ∂f ∂u


: Ω → L(RN ) ed è continua,
allora f è localmente lipschitziana rispetto alla seconda variabile.
Dimostrazione. Consideriamo un punto (t0 , u0 ) ∈ Ω e fissiamo un ρ > 0 tale
che K := [t0 − ρ, t0 + ρ] × B(u0 , ρ) ⊆ Ω. Sia LK := max{k ∂f
∂u
(t, u)k : u ∈ K}.
Allora, per ogni (t, v) e (t, w) in K,
n ∂f o
kf (t, v) − f (t, w)k ≤ sup (t, w + s(v − w)) : s ∈ [0, 1] · kv − wk

∂u
≤ LK kv − wk .
il che dimostra l’asserto.

7
Teorema 8 (di Cauchy–Lipschitz) Sia f : Ω → RN localmente lipschitziana
rispetto alla seconda variabile. Allora per ogni (t0 , u0 ) ∈ Ω esiste un r0 > 0 tale
che il problema (P C) ha una ed una sola soluzione u : [t0 − r0 , t0 + r0 ] → RN .
Inoltre, la successione di funzioni (un )n , definita da
Z t
u0 (t) = u0 , un+1 (t) = u0 + f (s, un (s)) ds ,
t0

è tale che limn un = u, uniformemente su [t0 − r0 , t0 + r0 ].

Dimostrazione. Siano r1 > 0 e r2 > 0 tali che3

K := [t0 − r1 , t0 + r1 ] × B̄(u0 , r2 ) ⊆ Ω ,

sia LK > 0 la relativa constante di Lipschitz, e sia

M = max{kf (t, u)k : (t, u) ∈ K} .

Scegliamo r0 > 0 tale che


 
r2 1
r0 < min r1 , , .
M LK
Poniamo I0 = [t0 − r0 , t0 + r0 ] e

X = {u ∈ C(I0 , RN ) : ku − u0 k∞ ≤ r2 } .

Sia F la funzione che associa ad ogni v ∈ X la funzione F (v) : I0 → RN


definita da Z t
[F (v)](t) = u0 + f (s, v(s)) ds .
t0

Dimostriamo che F (v) ∈ X. Infatti, F (v) è una funzione continua, e si ha


Z t Z t

k[F (v)](t) − u0 k = f (s, v(s)) ds ≤ kf (s, v(s))k ds ≤ M |t − t0 | < r2 .

t0 t0

Quindi, abbiamo definito una funzione F : X → X. Notiamo inoltre che, prese


v, w in X, si ha

kF (v) − F (w)k0 = sup{k[F (v)](t) − [F (w)](t)k : t ∈ I0 }


 Z t 

= sup (f (s, v(s)) − f (s, w(s))) ds : t ∈ I0

t0
 Z t 

≤ sup kf (s, v(s)) − f (s, w(s))k ds : t ∈ I0

t
 Z 0t 

≤ sup LK kv(s) − w(s)k ds : t ∈ I0
t0
≤ LK r0 kv − wk0 .
3
Qui B̄(u0 , ρ) denota la palla chiusa centrata in u0 di raggio ρ > 0.

8
Ponendo α = LK r0 , si ha quindi che α < 1 e

kF (v) − F (w)k0 ≤ αkv − wk0 .

La funzione F : X → X è pertanto una contrazione, e per il Teorema delle


Contrazioni esiste un unico u ∈ X tale che F (u) = u. Allora
Z t
u(t) = u0 + f (s, v(s)) ds , per ogni t ∈ I0 ,
t0

per cui u : [t0 − r0 , t0 + r0 ] → RN è una soluzione del nostro problema. Il


Teorema delle Contrazioni assicura inoltre che la successione (un )n definita
iterativamente in X da un+1 = F (un ) converge a u, nella topologia di X, cioè
uniformemente.

3.3 L’unicità in grande


Consideriamo il problema di Cauchy
 0 p
u = 2 |u|
u(0) = −1 .

Poiché u(0) = −1, per continuità la soluzione u è negativa in un intorno di


t0 = 0; finché u(t) non si annulla si può applicare il metodo di separazione
delle variabili, che ci porta alla formula

u(t) = −(t − 1)2 .

Tale funzione si annulla per t = 1, dunque il metodo fornisce una soluzione


definita nell’intervallo ] − ∞, 1]. In tale intervallo la soluzione è unica. Nel
punto (1, 0) il campo vettoriale cessa di essere localmente lipschitziano; da
tale punto si biforcano infinite soluzioni per t > 1. In particolare, le funzioni

 −(t − 1)2 se t ≤ 1
uc (y) = 0 se 1 < t < c
2
(t − c) se t ≥ c,

al variare di c > 0, sono tutte soluzioni del problema di Cauchy in oggetto.


Questo esempio dimostra che può esserci unicità locale ma non globale. La
perdita dell’unicità nell’esempio precedente è dovuta al fatto che, pur essendoci
unicità locale in un intorno di t0 , la traiettoria della soluzione passa per un
punto in cui si perdono la locale lipschitzianità del campo vettoriale e l’unicità
delle soluzioni ivi passanti.

Teorema 9 Sia f localmente lipschitziana e siano u1 : I1 → RN , u2 : I2 → RN


soluzioni del problema (P C), con I1 , I2 intervalli aperti. Allora u1 = u2 su
I1 ∩ I2 .

9
Dimostrazione. Sia J = {t ∈ I1 ∩ I2 : u1 (s) = u2 (s) per ogni s ∈ [t0 , t]}. Per
assurdo, sia t1 = sup J < sup I1 ∩I2 , per cui t1 ∈ I1 ∩I2 . Applicando il Teorema
di Cauchy–Lipschitz al problema di Cauchy con condizione iniziale u(t1 ) =
u1 (t1 ), si trova una contraddizione. Si giunge poi ad un’analoga contradizione
anche se inf J > inf I1 ∩ I2 .

4 Prolungabilità ed esistenza globale


Definizione 10 Sia u : I → RN una soluzione di (1). Diremo che una fun-
zione u∗ : I∗ → RN è un “prolungamento” di u se I è un sottoinsieme proprio
di I∗ e u∗ è anch’essa una soluzione di (1). Si dice che u è una “soluzione
massimale” se non ammette prolungamenti. Il suo intervallo di definizione I
viene allora detto “intervallo massimale di esistenza” di u.

Proposizione 11 L’intervallo massimale di esistenza di una soluzione è un


intervallo aperto.

Dimostrazione. Se per assurdo l’intervallo massimale I contenesse il suo es-


tremo destro b = max I, potrei considerare il problema di Cauchy
 0
v = f (t, v)
v(b) = u(b)

e trovarne una soluzione v : [b − δ, b + δ] → RN , per un certo δ > 0. Sia allora


u∗ : I ∪ [b, b + δ] → RN definita da

u(t) se t ∈ I
u∗ (t) =
v(t) se t ∈ ]b, b + δ] .

Si può verificare che u∗ è derivabile (anche nel punto b) ed è un prolungamento


di u, in contraddizione con l’ipotesi. Analogamente se I contenesse il suo
estremo sinistro.

Teorema 12 Sia f localmente lipschitziana rispetto alla seconda variabile.


Allora ogni soluzione u del problema (P C) si può prolungare in modo univoco
a un intervallo massimale ]α, ω[ , con −∞ ≤ α < ω ≤ +∞.

Dimostrazione. Si consideri l’insieme S di tutte le possibili soluzioni del pro-


blema (P C). Ogni u ∈ S avrà per dominio un intervallo, che indichiamo con
Iu . Sia I∗ = ∪u∈S Iu e si definisca u∗ : I∗ → RN ponendo u∗ (t) = u(t) se t ∈ Iu .
Bisogna verificare che questa è una buona definizione, cioè che il valore di
u∗ (t) non dipende dalla scelta dell’intervallo Iu a cui t appartiene. Sia dunque
t ∈ Iu ∩ Iv , dove u : Iu → RN e v : Iv → RN sono due soluzioni del problema
(P C). Per l’unicità, si ha che u = v su Iu ∩ Iv , per cui u(t) = v(t).

10
Se ora u∗ : I ∗ → RN è una soluzione che prolunga u∗ : I∗ → RN , allora
u∗ ∈ S, perciò per costruzione I ∗ ⊆ I∗ . Quindi u∗ non ammette prolungamenti:
è una soluzione massimale.

Teorema 13 Sia f localmente lipschitziana rispetto alla seconda variabile, e


sia u soluzione del problema (P C) sul suo intervallo massimale ]α, ω[ . Allora
per ogni compatto K0 ⊆ Ω contenente (t0 , x0 ) esistono un un a0 ∈ ]α, t0 [ e un
b0 ∈ ]t0 , ω[ tali che

t ∈ ]α, a0 [ ∪ ]b0 , ω[ ⇒ (t, u(t)) ∈


/ K0 .

Per la dimostrazione di questo teorema, avremo bisogno del seguente risul-


tato preliminare.

Lemma 14 Sia f localmente lipschitziana rispetto alla seconda variabile, e sia


u soluzione del problema (P C) su un intervallo ]a, b[ . Se esiste una successione
crescente (tn )n in ]t0 , b[ tale che tn → b− e u(tn ) → ū, per un certo ū ∈ RN ,
con (b, ū) ∈ Ω, allora la soluzione u è prolungabile all’intervallo ]a, b].

Dimostrazione. Definiamo la funzione ũ : ]a, b] → RN in questo modo:



u(t) se t < b
ũ(t) =
ū se t = b .

Siccome Z tn
u(tn ) = u0 + f (s, u(s)) ds ,
t0

passando al limite per n → +∞ otteniamo


Z b Z b
ũ(b) = u0 + f (s, u(s)) ds = u0 + f (s, ũ(s)) ds ,
t0 t0

e pertanto
Z t
ũ(t) = u0 + f (s, ũ(s)) ds , per ogni t ∈ ]a, b] .
t0

Se dimostriamo che ũ è continua, per il Teorema 3 avremo che essa è soluzione


del problema (P C) sull’intervallo ]a, b], quindi è un prolungamento di u, il che
è una contraddizione. Faremo quindi vedere che ũ è continua anche in b, ossia
che limt→b− u(t) = ū.
Siano r1 > 0 e r2 > 0 tali che

K := [b − r1 , b + r1 ] × B̄(ū, r2 ) ⊆ Ω ,

e sia
M = max{kf (t, u)k : (t, u) ∈ K} .

11
Fissiamo ε ∈ ]0, r2 [ . Esiste un n̄ tale che, se n ≥ n̄, allora
ε ε
b − tn < , ku(tn ) − ūk < .
4M 2
Vogliamo ora dimostrare che
ε
t ∈ [tn̄ , b[ ⇒ ku(t) − u(tn̄ )k < .
2
Per assurdo, supponiamo che l’insieme
n εo
E = t ∈ ]tn̄ , b[ : ku(t) − u(tn̄ )k ≥
2
sia non vuoto, e poniamo τ = inf E. Per la continuità, ku(τ ) − u(tn̄ )k = 2ε , e
quindi τ > tn̄ . Notiamo inoltre che
ε
ξ ∈ [tn̄ , τ [ ⇒ ku(ξ) − u(tn̄ )k < ⇒ (ξ, u(ξ)) ∈ K .
2
Quindi,

ku(τ ) − u(tn̄ )k ≤ sup{ku0 (ξ)k : ξ ∈ [tn̄ , τ ]}(τ − tn̄ )


= sup{kf (ξ, u(ξ))k : ξ ∈ [tn̄ , τ ]}(τ − tn̄ )
ε ε
≤ M (τ − tn̄ ) ≤ M (b − tn̄ ) < M = ,
4M 4
una contraddizione.
Naturalmente, vale un lemma analogo se tn → a+ .
Dimostrazione del Teorema 13. Se ω = +∞, basta prendere b0 > t0 sufficien-
temente grande. Se ω ∈ R, supponiamo che esista un compatto K0 ⊆ Ω e una
successione crescente (tn )n in ]t0 , ω[ tale che tn → ω − e (tn , u(tn )) ∈ K0 . Per la
compattezza di K0 , esiste una sottosuccessione (tnk )k tale che (tnk , u(tnk )) →
(ω, ū) ∈ K0 , per un certo ū ∈ RN . Per il Lemma 14, la soluzione u si può
estendere a ]α, ω], una contraddizione. Analogo ragionamento per α.
Osserviamo che, anche quando l’insieme Ω ha una proiezione sulla coor-
dinata t che coincide con tutto R, l’intervallo di esistenza massimale ]α, β[
potrebbe essere un sottoinsieme proprio di R. Ad esempio, sia f : R → R
definita da f (u) = u2 . Si verifica subito che il problema di Cauchy
 0
u = u2
u(0) = 1

ha come soluzione u(t) = (1 − t)−1 , per cui ]α, β[ = ] − ∞, 1[ .


Per garantire l’“esistenza globale” della soluzione u, è necessario control-
larne la crescita in norma. Ad esempio, si può dimostrare il seguente risultato,
dove Ω = R × RN .

12
Teorema 15 Sia f : R × RN → RN localmente lipschitziana rispetto alla
seconda variabile. Se inoltre esiste una funzione continua ` : R → [0, +∞[ per
cui
kf (t, v)k ≤ `(t)(kvk + 1) , (4)
per ogni (t, v) ∈ R × RN , allora la soluzione del problema (P C) si può prolun-
gare in modo univoco a tutto R.

Nella dimostrazione avremo bisogno del seguente

Lemma 16 (di Gronwall) Sia I ⊆ R un intervallo, t0 ∈ I e ν : I → [0, +∞[


una funzione continua. Se esistono α, β ∈ [0, +∞[ tali che
Z t
ν(t) ≤ α + β ν(s) ds , per ogni t ∈ I ,

t0

allora
ν(t) ≤ αeβ|t−t0 | , per ogni t ∈ I .

Dimostrazione del Lemma. Consideriamo dapprima l’intervallo I ∩ [t0 , +∞[ .


Fissiamo un ε > 0 e definiamo la funzione φε : I ∩ [t0 , +∞[→ R ponendo
Z t
φε (t) = α + ε + β ν(s) ds .
t0

Allora, per ogni t ∈ I ∩ [t0 , +∞[ ,

φ0ε (t) = βν(t) ≤ βφε (t) ,

per cui
d
ln φε (t) ≤ β .
dt
Integrando su [t0 , t],
φε (t)
ln ≤ β(t − t0 ) ,
φε (t0 )
da cui
ν(t) ≤ φε (t) ≤ φε (t0 )eβ(t−t0 ) = (α + ε)eβ(t−t0 ) ,
per ogni t ∈ I ∩ [t0 , +∞[ e ogni ε > 0. Passando al limite per ε → 0+ , si
ottiene
ν(t) ≤ αeβ(t−t0 ) , per ogni t ∈ I ∩ [t0 , +∞[ .
Consideriamo ora l’intervallo I∩ ] − ∞, t0 ] . Definiamo l’intervallo J =
{τ ∈ R : τ = 2t0 − t, con t ∈ I} e la funzione w : J → [0, +∞[ definita da
w(τ ) = ν(2t0 − τ ). Se t ∈ I∩ ] − ∞, t0 ], allora τ = 2t0 − t ∈ J ∩ [t0 , +∞[ e
Z t0 Z τ
w(τ ) = ν(2t0 − τ ) ≤ α + β ν(2t0 − s) ds = α + β w(σ) dσ .
2t0 −τ t0

13
Per quanto visto sopra,

w(τ ) ≤ αeβ(τ −t0 ) , per ogni τ ∈ J ∩ [t0 , +∞[ ,

per cui
ν(t) ≤ αeβ(t0 −t) , per ogni t ∈ I∩ ] − ∞, t0 ] .
La dimostrazione è cosı̀ completa.
Dimostrazione del Teorema 15. Sia u : ]α, ω[ → RN una soluzione del problema
(P C), definita sul suo intervallo massimale, con α < t0 < ω. Supponiamo per
assurdo che ω ∈ R, e poniamo

`1 = max{`(t) : t ∈ [t0 , ω]} , R = [ku0 k + `1 |ω − t0 |] e`1 (ω−t0 ) .

Preso il compatto K0 = [t0 , ω] × B(0, R), possiamo applicare il Teorema 13 e


trovare un b0 ∈ ]t0 , ω[ tale che

t ∈ ]b0 , ω[ ⇒ u(t) ∈
/ B(0, R) .

D’altra parte, per ogni t ∈ [t0 , ω[ ,


Z t
ku(t)k = u0 + f (s, u(s)) ds

t
Z0 t
≤ ku0 k + kf (s, u(s))k ds
t0
Z t
≤ ku0 k + `(s)(ku(s)k + 1) ds
t0
Z t
 
≤ ku0 k + `1 (ω − t0 ) + `1 ku(s)k ds .
t0

Per il Lemma di Gronwall, con ν(t) = ku(t)k, abbiamo che, per ogni t ∈ [t0 , ω[ ,

ku(t)k ≤ ku0 k + `1 (ω − t0 ) e`1 (t−t0 ) < R ,


 

una contraddizione.

5 Dipendenza dai dati


Nelle applicazioni è importante avere una “dipendenza continua” dai dati del
problema che si vuole studiare. Infatti, le misurazioni non sono mai esatte, ma
presentano delle piccole imprecisioni, che però non dovrebbero influire troppo
sulle previsioni date dal modello matematico.
Nell’enunciato seguente, supponiamo per semplicità che sia Ω = R × RN .

14
Teorema 17 Sia f : R × RN → RN localmente lipschitziana rispetto alla
seconda variabile e sia ` : R → [0, +∞[ una funzione continua tale che

kf (t, v)k ≤ `(t)(kvk + 1) , (5)

per ogni (t, v) ∈ R × RN . Sia u la soluzione massimale del problema (P C).


Allora u è definita su tutto R. Inoltre, fissati a, b tali che a < t0 < b, per ogni
ε > 0 esiste un δ > 0 tale che, se (t̃0 , ũ0 ) ∈ Ω e f˜ : R × RN → RN soddisfano

|t̃0 − t0 | + kũ0 − u0 k + kf˜ − f k∞ < δ , 4

allora ogni soluzione massimale ũ del problema di Cauchy

u = f˜(t, u)
 0
(P C)
g
u(t̃0 ) = ũ0

è definita su tutto R e

kũ(t) − u(t)k < ε , per ogni t ∈ [a, b] .

Dimostrazione. Per il Teorema 15, la soluzione u è definita su tutto R. Pren-


deremo inoltre δ ∈ ]0, 1], per cui si trova facilmente una funzione continua
`ˆ : R → [0, +∞[ tale che, se kf˜ − f k∞ < δ, allora

kf˜(t, v)k ≤ `(t)(kvk


ˆ + 1) ,

per ogni (t, v) ∈ R × RN . Tutte le soluzioni ũ sono pertanto definite su tutto


R, e seguendo la dimostrazione del Teorema 15, ponendo `ˆ1 = max{`(t) ˆ :t∈
[a, b]}, se t̃0 ∈ [a, b] e kũ0 − u0 k < δ si ha che
 ˆ
kũ(t)k ≤ (ku0 k + 1) + `ˆ1 (b − a) e`1 (b−a) := R .


Sia K = [a, b] × B(0, R), un compatto, sia LK la relativa costante di Lipschitz


di f su K (vedi la Proposizione 6), e sia

M = max{kf (t, v)k : (t, v) ∈ K} .

Siccome δ ≤ 1, abbiamo che

max{kf˜(t, v)k : (t, v) ∈ [a, b] × B(0, R)} ≤ M + 1 .

Scriviamo
Z t Z t
u(t) = u0 + f (s, u(s)) ds , ũ(t) = ũ0 + f˜(s, ũ(s)) ds .
t0 t̃0

4
Qui kgk∞ = sup{g(t, x) : (t, x) ∈ R × RN }.

15
Allora, per t > t0 ,
Z t Z t̃0

ku(t) − ũ(t)k = u0 − ũ0 +
˜
(f (s, u(s)) − f (s, ũ(s))) ds + ˜
f (s, ũ(s)) ds

t0 t0
Z t
≤ ku0 − ũ0 k + kf (s, u(s)) − f (s, ũ(s))k ds +
t0
Z t Z t̃0
+ ˜
kf (s, ũ(s)) − f (s, ũ(s))k ds +
˜
kf (s, ũ(s))k ds

t0 t0
Z t
≤ ku0 − ũ0 k + LK ku(s) − ũ(s)k ds + (b − a)kf − f˜k∞ + (M + 1)|t0 − t̃0 | .
t0

Per il Lemma di Gronwall,


h i
ku(t) − ũ(t)k ≤ ku0 − ũ0 k + (b − a)kf − f˜k∞ + (M + 1)|t0 − t̃0 | eLK (t−t0 )
h i
˜
≤ ku0 − ũ0 k + (b − a)kf − f k∞ + (M + 1)|t0 − t̃0 | eLK (b−a) .

Analogamente se t < t0 . Da qui la conclusione.


Si potrebbe dimostrare un risultato più generale, che qui solo enunciamo.

Teorema 18 Sia f : Ω → R localmente lipschitziana rispetto alla seconda


variabile. Indichiamo con u la soluzione del problema (P C), definita sull’inter-
vallo massimale ]α, β[ . Allora per ogni ε > 0 e ogni intervallo compatto [a, b] ⊆
]α, β[ , contenente al suo interno t0 , esiste un δ > 0 tale che, se (t̃0 , ũ0 ) ∈ Ω e
f˜ ∈ C(Ω, RN ) soddisfano

|t̃0 − t0 | + kũ0 − u0 k + kf˜ − f k∞ < δ ,

allora ogni soluzione ũ del problema di Cauchy

u = f˜(t, u)
 0
(P
g C)
u(t̃0 ) = ũ0

si può estendere al dominio [a, b] e

kũ(t) − u(t)k < ε , per ogni t ∈ [a, b] .

6 Sistemi lineari
Studiamo un “sistema lineare” del tipo

u0 = A(t)u + b(t) , (6)

dove A(t) è una matrice N × N e b(t) un vettore di RN , entrambi dipendenti


in modo continuo da t ∈ R. Quindi, se indichiamo con MN l’insieme delle
matrici N × N , le due funzioni A : R → MN e b : R → RN sono continue.

16
Dalla teoria generale possiamo subito affermare che i problemi di Cauchy
associati all’equazione (6) avranno soluzione unica e globalmente definita.
Necl caso in cui sia b = 0, avremo l’equazione autonoma associata

u0 = A(t)u . (7)

Nella pratica può essere utile la seguente semplice osservazione.

Proposizione 19 Sia ū(t) una soluzione particolare di (6). Allora ogni altra
soluzione u(t) di (6) si ottiene come somma u(t) = ū(t) + v(t), dove v(t) è
una qualsiasi soluzione dell’equazione autonoma associata (7).

Dimostrazione. Se u(t) = ū(t) + v(t), con v(t) soluzione dell’equazione (7),


allora

u0 (t) = ū0 (t) + v 0 (t) = [A(t)ū(t) + b(t)] + A(t)v(t)


= A(t)(ū(t) + v(t)) + b(t) = A(t)u(t) + b(t) .

Viceversa, se u(t) è una soluzione di (6), allora u = ū + (u − ū), e

(u − ū)0 (t) = [A(t)ū(t) + b(t)] − [A(t)ū(t) + b(t)] = A(t)(u − ū)(t) ,

per cui u − ū è soluzione di (7).

6.1 L’equazione autonoma


Indicheremo con S l’insieme di tutte le soluzioni dell’equazione autonoma (7).
Ricordiamo che ogni u ∈ S è definita su tutto R.

Proposizione 20 L’insieme S delle soluzioni di (7) è un sottospazio vetto-


riale di C 1 (R, RN ). Esso ha dimensione N .

Dimostrazione. È facile vedere che, se u1 , u2 : R → RN sono soluzioni di (7) e


α, β ∈ R sono due costanti, allora anche αu1 + βu2 è una soluzione. Pertanto
S è un sottospazio vettoriale di C 1 (R, RN ).
Fissato t0 , consideriamo la funzione δt0 : S → RN che a ogni soluzione
u di (7) associa il valore u(t0 ). Si tratta di un’applicazione lineare. Inoltre,
per l’unicità delle soluzioni dei problemi di Cauchy, per ogni u0 ∈ RN esiste
un’unica soluzione u di (7) tale che u(t0 ) = u0 . L’applicazione δt0 è quindi
biiettiva, dunque un isomorfismo tra spazi vettoriali. Di conseguenza, dim S =
dim RN = N .
Può essere utile la seguente

Proposizione 21 Date φ1 , . . . , φp ∈ S, le seguenti affermazioni sono equi-


valenti:

17
(i) φ1 , . . . , φp sono linearmente indipendenti;
(ii) esiste t0 ∈ R tale che φ1 (t0 ), . . . , φp (t0 ) sono linearmente indipendenti;
(iii) per ogni t ∈ R si ha che φ1 (t), . . . , φp (t) sono linearmente indipendenti.

Dimostrazione. È chiaro che iii) implica ii).


Dimostriamo che (ii) implica (i). Sia t0 ∈ R tale che φ1 (t0 ), . . . , φp (t0 )
sono linearmente indipendenti. Se una combinazione lineare c1 φ1 + · · · + cp φp
è nulla, per definizione si avrà che c1 φ1 (t) + · · · + cp φp (t) = 0 per ogni t ∈ R,
quindi in particolare c1 φ1 (t0 ) + · · · + cp φp (t0 ) = 0. Da (ii) segue allora che
c1 = · · · = cp = 0, da cui (i).
Verifichiamo infine che (i) implica (iii). Supponiamo che valga (i) e che
per assurdo non valga (iii). Allora esiste t0 ∈ R per cui φ1 (t0 ), . . . , φp (t0 )
sono linearmente dipendenti, cioè esistono c1 , . . . , cp non tutti nulli tali che
c1 φ1 (t0 ) + · · · + cp φp (t0 ) = 0. Poniamo u = c1 φ1 + · · · + cp φp . Essendo S spazio
vettoriale, si ha che u ∈ S, per cui u è soluzione del problema di Cauchy
u0 = A(t)u, u(t0 ) = 0. Ma siccome anche la funzione nulla è soluzione di tale
problema di Cauchy, per unicità si ha che u = 0, ossia c1 φ1 + · · · + cp φp = 0,
in contraddizione con (i).

Definizione 22 Si chiama “funzione matrice fondamentale” (brevemente “ma-


trice fondamentale”) associata a (7) una qualsiasi funzione Φ : R → MN tale
che, indicati con φ1 (t), . . . , φN (t) i vettori corrispondenti alle colonne della
matrice Φ(t), si ha che φ1 , . . . , φN : R → RN sono una base di S.

Proposizione 23 Se Φ : R → MN è una matrice fondamentale associata


a (7), allora
Φ0 (t) = A(t)Φ(t) ,
per ogni t ∈ R. Inoltre, ogni u ∈ S può essere rappresentata come u(t) = Φ(t)c,
per un certo c ∈ RN .

Dimostrazione. Fissata una matrice fondamentale Φ(t) = (φ1 (t), . . . , φN (t)), si


ha

Φ0 (t) = (φ01 (t), . . . , φ0N (t)) = (A(t)φ1 (t), . . . , A(t)φN (t)) = A(t)Φ(t) .

Si vede poi che, se u(t) = Φ(t)c, per un certo c ∈ RN , allora

u0 (t) = Φ0 (t)c = [A(t)Φ(t)]c = A(t)[Φ(t)c] = A(t)u(t) ,

per cui u è una soluzione di (7). Viceversa, presa una soluzione u di (7), sia ad
esempio u(t0 ) = u0 . Allora, ponendo c = Φ(t0 )−1 u0 , la funzione w(t) = Φ(t)c
è una soluzione di (7) tale che w(t0 ) = Φ(t0 )Φ(t0 )−1 u0 = u0 e quindi, per
l’unicità delle soluzioni del problema di Cauchy, deve coincidere con u(t).

18
6.2 L’equazione non autonoma
Il seguente teorema di Lagrange illustra il metodo della “variazione delle
costanti”.

Teorema 24 Il problema di Cauchy


 0
u = A(t)u + b(t) ,
(8)
u(t0 ) = u0

ha come soluzione
 Z t 
−1
u(t) = Φ(t) Φ(t0 ) u0 + Φ(s)−1 b(s) ds .
t0

dove Φ(t) è una qualsiasi matrice fondamentale relativa al sistema autonomo


associato (7).

Dimostrazione. La generica soluzione dell’equazione autonoma associata u =


A(t)u è del tipo u(t) = Φ(t)c, dove Φ(t) è una qualsiasi matrice fondamentale
associata a (7) e c è un generico elemento di RN . Cerchiamo una funzione
derivabile c : R → R tale che la funzione u(t) = Φ(t)c(t) sia soluzione del
problema (8). Anzitutto dovrà essere Φ(t0 )c(t0 ) = u0 , da cui c(t0 ) = Φ(t0 )−1 u0 .
Inoltre,
d
(Φ(t)c(t)) = A(t)(Φ(t)c(t)) + b(t)
dt
⇔ Φ0 (t)c(t) + Φ(t)c0 (t) = (A(t)Φ(t))c(t) + b(t)
⇔ Φ(t)c0 (t) = b(t)
⇔ c0 (t) = Φ(t)−1 b(t) .

Allora
Z t Z t
0 −1
c(t) = c(t0 ) + c (s) ds = Φ(t0 ) u0 + Φ(s)−1 b(s) ds ,
t0 t0

da cui la tesi.
Esempio. Vogliamo risolvere il problema di Cauchy
 00
x + 4x = 3t ,
(9)
x(0) = 0 , x0 (0) = 1 .

Lo scriviamo nella forma canonica come


 0

 x =y
 0
y = −4x + 3t ,
(10)

 x(0) = 0 ,
y(0) = 1 .

19
Una matrice fondamentale associata al sistema autonomo è
 
sin(2t) cos(2t)
Φ(t) = .
2 cos(2t) −2 sin(2t)

Calcoliamo l’inversa, osservando che il suo determinante è −2:

sin(2t) 21 cos(2t)
   
−1 1 −2 sin(2t) − cos(2t)
Φ (t) = = .
−2 −2 cos(2t) sin(2t) cos(2t) − 12 sin(2t)

La soluzione u(t) = (x(t), y(t)) è data quindi da


  Z t 3
0 12
      
x(t) sin(2t) cos(2t) 0 2
s cos(2s)
= + ds
y(t) 2 cos(2t) −2 sin(2t) 1 0 1 0 − 23 s sin(2s)
 3
t sin(2t) + 38 cos(2t) + 18
 
sin(2t) cos(2t) 4
= 3
2 cos(2t) −2 sin(2t) 4
t cos(2t) − 38 sin(2t)
 1
sin(2t) + 34 t

= 8 .
1
4
cos(2t) + 34

La soluzione di (9) è quindi x(t) = 18 sin(2t) + 34 t.


Un modo equivalente: scriviamo la soluzione cercata u(t) = x(t)

y(t)
di (10)
2
come u(t) = Φ(t)c(t), e cerchiamo di trovare la funzione c : R → R . Indicando
con c1 (t), c2 (t) le componenti di c(t), avremo che

x(t) = sin(2t)c1 (t) + cos(2t)c2 (t) , y(t) = 2 cos(2t)c1 (t) − 2 sin(2t)c2 (t) .

Derivando la prima, abbiamo che

x0 (t) = 2 cos(2t)c1 (t) + sin(2t)c01 (t) − 2 sin(2t)c2 (t) + cos(2t)c02 (t) .

Essendo x0 (t) = y(t), vediamo che deve essere

sin(2t)c01 (t) + cos(2t)c02 (t) = 0 .

Procediamo quindi derivando una seconda volta:

x00 (t) = −4 sin(2t)c1 (t) + 2 cos(2t)c01 (t) − 2 cos(2t)c2 (t) − 2 sin(2t)c02 (t) ,

e imponendo che x(t) sia soluzione dell’equazione differenziale, otteniamo che

2 cos(2t)c01 (t) − 2 sin(2t)c02 (t) = 3t .

Risolvendo il sistema
sin(2t)c01 (t) + cos(2t)c02 (t) = 0


2 cos(2t)c01 (t) − 2 sin(2t)c02 (t) = 3t ,

troviamo che
c01 (t) = 23 t cos(2t) , c02 (t) = − 23 t sin(2t) ,

20
da cui

c1 (t) = 43 t sin(2t) + 38 cos(2t) + γ1 , c2 (t) = 43 t cos(2t) − 38 sin(2t) + γ2 ,

dove γ1 e γ2 sono costanti da determinarsi. Troviamo cosı̀

x(t) = ( 43 t sin(2t) + 38 cos(2t) + γ1 ) sin(2t) + ( 34 t cos(2t) − 38 sin(2t) + γ2 ) cos(2t)


= 34 t + γ1 sin(2t) + γ2 cos(2t) .

Imponendo la condizione x(0) = 0 abbiamo che γ2 = 0. Inoltre, imponendo


che sia x0 (0) = 1 abbiamo che γ1 = 18 . La soluzione del problema (9) è quindi
x(t) = 34 t + 18 sin(2t).

Si noti che c’è un procedimento molto più rapido per trovare la soluzione
di (9). Infatti, si vede subito che una soluzione particolare dell’equazione
x00 + 4x = 3t è x̄(t) = 34 t. Allora tutte le soluzioni dell’equazione sono del tipo

x(t) = α sin(2t) + β cos(2t) + 34 t .

Imponendo la condizione x(0) = 0 vediamo che deve essere β = 0. Inoltre,


imponendo la condizione x0 (0) = 1 troviamo α = 18 . Quindi, a soluzione del
problema (9) è x(t) = 81 sin(2t) + 43 t.

Nota. Una particolare matrice fondamentale è data da5


Rt
A(s) ds
Φ(t) = e t0
.

Si può quindi scrivere una soluzione del problema (8) nella forma

Rt  Z t Rσ 
A(s) ds − A(s) ds
u(t) = e t0
u0 + e t0
b(σ) dσ ,
t0

che è analoga alla formula trovata nel caso scalare.


5
Per far questo, bisogna però definire l’esponenziale di una matrice. Lo si può fare in
modi diversi, ispirandosi alle note formule

 x n X xn
ex = lim 1+ , ex = .
n→∞ n n=0
n!

Se A è una matrice N × N , si può in effetti definire la matrice eA in uno di questi due modi:

A
 1 n A
X 1 n
e = lim I+ A , e = A ,
n→∞ n n=0
n!

con A0 = I. Il calcolo esplicito della matrice potrebbe però non essere agevole.

21
6.3 Equazioni lineari di ordine N
Consideriamo un’equazione diferenziale lineare di ordine N :

x(N ) + aN −1 (t)x(N −1) + · · · + a1 (t)x0 + a0 (t)x = h(t) . (11)

Possiamo riscriverla nella forma

u0 = A(t)u + b(t) ,

con u = (u1 , u2 , . . . , uN ), ponendo

u1 = x, u2 = x0 , . . . , uN = x(N −1) ,

e
   
0 1 0 ··· 0 0

 0 0 1 ··· 0 


 0 

A= .. .. .. .. .. ..
, b(t) =  .
   
 . . . . .   . 
 0 0 0 ··· 1   0 
−a0 (t) −a1 (t) −a2 (t) ··· −aN −1 (t) h(t)

Spesso in questo caso una matrice fondamentale Φ(t) prende il nome di “ma-
trice wronskiana” e si denota con W (t).

Proposizione 25 Se x1 , . . . , xp : R → R sono funzioni linearmente indipen-


denti, di classe C n−1 , allora le funzioni φ1 , . . . , φp : R → RN definite da
   
x1 (t) xp (t)
 x01 (t)   x0p (t) 
φ1 (t) =  .. , ... , φp (t) =  ..
   

 .   . 
(N −1) (N −1)
x1 (t) xp (t)

sono linearmente indipendenti, e viceversa.

Dimostrazione. Siano x1 , . . . , xp linearmente indipendenti, e sia α1 φ1 + · · · +


αp φp = 0. Allora anche α1 x1 + · · · + αp xp = 0, da cui α1 = · · · = αp = 0.
Pertanto, φ1 , . . . , φp sono linearmente indipendenti.
Viceversa, siano φ1 , . . . , φp linearmente indipendenti, e sia α1 x1 + · · · +
αp xp = 0. Derivando, si trova che
(n−1)
α1 x01 + · · · + αp x0p = 0 , ... , α 1 x1 + · · · + αp x(n−1)
p = 0,

per cui α1 φ1 + · · · + αp φp = 0. Ne segue che α1 = · · · = αp = 0, per cui


x1 , . . . , xp sono linearmente indipendenti.

22
Quindi, se x1 , . . . , xN : R → R sono soluzioni linearmente indipendenti
dell’equazione autonoma
x(N ) + aN −1 (t)x(N −1) + · · · + a1 (t)x0 + a0 (t)x = 0 .
potremo scrivere la matrice wronskiana
 
x1 (t) ... xN (t)
 x01 (t) . .. x0N (t) 
W (t) =  .. .. .
 
 . ··· . 
(N −1) (N −1)
x1 (t) . . . xN (t)
C i concentreremo sul caso particolare “a coefficienti costanti”
x(N ) + aN −1 x(N −1) + · · · + a1 x0 + a0 x = h(t) . (12)
L’equazione autonoma associata è
x(N ) + aN −1 x(N −1) + · · · + a1 x0 + a0 x = 0 . (13)
Si definisce il “polinomio caratteristico”
p(λ) = λN + aN −1 λN −1 + aN −2 λN −2 + · · · + a1 λ + a0 .
Se p(λ) ha n radici reali distinte λ1 , λ2 , . . . , λN , si vede facilmente che sono
soluzioni linearmente indipendenti di (13) le seguenti:
eλ1 t , eλ2 t , . . . , eλN t .
Se invece λk è una radice reale di molteplicità νk , alla funzione eλk t bisognerà
sostituire
eλk t , t eλk t , . . . , tνk −1 eλk t .
Se p(λ) ha un autovalore complesso λ = α + iβ, con β 6= 0, automaticamente
ha anche l’autovalore complesso coniugato α − iβ. In questo caso, al posto di
eλt bisogna considerare le soluzioni
eαt cos(βt) , eαt sin(βt) .
Quindi, se l’autovalore λ ha molteplicità ν, bisognerà considerare le seguenti:
eαt cos(βt) , t eαt cos(βt) , . . . , tν−1 eαt cos(βt) ,
eαt sin(βt) , t eαt sin(βt) , . . . , tν−1 eαt sin(βt) .
Per quanto riguarda una soluzione particolare dell’equazione (12), si può
utilizzare il metodo della variazione delle costanti (Teorema di Lagrange). In
alternativa, c’è il cosiddetto “metodo per simiglianza”, che può essere applicato
quando h(t) è un polinomio P (t), oppure è del tipo
P (t)eγt , P (t)eγt cos(µt) , P (t)eγt sin(µt) .
Caso 1: h(t) = P (t) è un polinomio di grado m. Allora una soluzione partico-
lare x(t) può essere cercata tra

23
1a. i polinomi Q(t) di grado m se 0 non è radice dell’equazione caratteristica;
1b. i polinomi della forma tν Q(t) con Q(t) polinomio di grado m, se 0 è radice
di molteplicità ν dell’equazione caratteristica.
Caso 2: h(t) = P (t)eγt , con P (t) polinomio di grado m. Allora cerchiamo x(t)
nella forma
2a. Q(t)eγt con Q(t) polinomio di grado m, se γ non è radice dell’equazione
caratteristica;
2b. tν Q(t)eγt , con Q(t) polinomio di grado m, se γ è radice di molteplicità ν
dell’equazione caratteristica.
Caso 3: h(t) = P (t)eγt cos(µt) oppure h(t) = P (t)eγt sin(µt), con P (t) poli-
nomio di grado m. Allora cerchiamo x(t) nella forma
3a. Q(t)eγt (a cos(µt) + b sin(µt)), con Q(t) polinomio di grado m, se γ + iµ
non è radice dell’equazione caratteristica;
3b. tν Q(t)eγt (a cos(µt) + b sin(µt)), con Q(t) polinomio di grado m, se γ + iµ
è radice di molteplicità ν dell’equazione caratteristica.
Se h(t) dovesse essere combinazione lineare di alcune delle formule prece-
denti, si cercherà x(t) come combinazione lineare delle rispettive funzioni qui
sopra evidenziate.

6.4 Il fenomeno della risonanza


Consideriamo l’equazione del secondo ordine

x00 + λx = e(t) , (14)

dove e : R → R è continua e T -periodica, mentre λ > 0 è un numero reale.


Siccome λ > 0, le soluzioni dell’equazione

x00 + λx = 0 (15)

sono tutte periodiche di periodo √
λ
:
√ √
x(t) = a cos( λ t) + b sin( λ t) .

Se scriviamo il sistema equivalente


 0
x =y
y 0 = −λx ,

vediamo che le orbite nel piano delle fasi sono ellissi di equazione x2 + λy 2 = c,
con c ≥ 0, che circondano l’origine, il quale pertanto è un centro isocrono.

24
Consideriamo ora, sempre per λ > 0, l’equazione (14) e scriviamo il sistema
equivalente  0
x =y
y 0 = −λx + e(t) .
Ponendo u = xy , la soluzione con punto iniziale u(0) = u0 è data da


 Z t   
−1 0
u(t) = W (t) u0 + W (s) ds ,
0 e(s)
dove W (t) è la matrice wronskiana con W (0) = I :
√ √
cos( λ t) √1λ sin( λ t)
 

W (t) =  .
√ √ √
− λ sin( λ t) cos( λ t)
Scrivendo u0 = xy00 e sviluppando, essendo


√ √
cos( λ s) − √1λ sin( λ s)
 

W −1 (s) =  ,
√ √ √
λ sin( λ s) cos( λ s)
troviamo
√  1
Z t √ 
x(t) = cos( λ t) u0 − √ e(s) sin( λ s) ds +
λ 0
1 √  Z t √ 
+ √ sin( λ t) v0 + e(s) cos( λ s) ds ,
λ 0
√ √ Z t √ 
y(t) = − sin( λ t) λ u0 − e(s) sin( λ s) ds +
0
√  Z t √ 
+ cos( λ t) v0 + e(s) cos( λ s) ds .
0

Distinguiamo due casi con caratteristiche completamente diverse.


I caso. Se λ = ( 2πNT
)2 , per un certo intero positivo N, considerando i coeffi-
cienti di Fourier 6
2 T 2 T
Z  2πN  Z  2πN 
aN = e(s) cos s ds , bN = e(s) sin s ds ,
T 0 T T 0 T
si vede che
T 2 bN T aN
x(T ) = u0 − , y(T ) = v0 + .
4πN 2
Quindi, in questo caso, ci sono soluzioni T -periodiche di (14) se e solo se
aN = bN = 0. In tal caso, tutte le soluzioni di (14) sono T -periodiche.
6
Ricordiamo che si ha

a0 X   2πk   2πk 
e(t) ∼ + ak cos t + bk sin t .
2 T T
k=1

25
Al contrario, se aN 6= 0 o bN 6= 0, tutte le soluzioni di (14) sono illimi-
tate, sia in passato che in futuro. Si vede infatti che, per k ∈ Z,

T 2 bN T aN
x(kT ) = u0 − k , y(kT ) = v0 + k .
4πN 2
II caso. Se λ > 0 è tale che λ 6= ( 2πn
T
)2 , per ogni n ∈ N, poniamo

2
Z T √ 2
Z T √
αλ = e(s) cos( λ s) ds , βλ = e(s) sin( λ s) ds .
T 0 T 0

Cerchiamo una soluzione T -periodica di (14) imponendo che sia u(T ) = u0 .


Risolvendo il sistema {u(T ) = u0 , v(T ) = v0 }, ossia
 √  T  1 √  T 
 x0 = cos( λ T ) x0 − √ βλ + √ sin( λ T ) y0 + αλ ,

√ 2 λ  λ √ 2 

 y0 = − sin( λ T ) λ x0 − T βλ + cos( λ T ) y0 + T αλ ,


2 2
troviamo
√ √
T  sin( λ T )  T  1 + cos( λ T ) 
x0 = √ βλ + √ αλ , y0 = √ βλ − α λ .
4 λ 1 − cos( λ T ) 4 sin( λ T )

Quindi, in questo caso, esiste un’unica soluzione T -periodica di (14). La


denotiamo con xλ,e (t). Tutte le altre soluzioni di (14) sono del tipo
√ √
x(t) = xλ,e (t) + a cos( λ t) + b sin( λ t) ,

e sono pertanto tutte limitate su R.


Notiamo infine che, se λ tende a ( 2πN
T
)2 , per un certo N ∈ N, allora αλ →
aN , βλ → bN e l’ampiezza di xλ,e (t) tende all’infinito se aN 6= 0 o bN 6= 0.

7 Stabilità degli equilibri


Consideriamo un’equazione differenziale autonoma

u0 = f (u) , (16)

con f : Ω → RN continua. Si dice che u0 ∈ Ω è un “equilibrio” o “punto


stazionario” dell’equazione differenziale (16) se f (u0 ) = 0. In altri termini, la
funzione costante u(t) = u0 è una soluzione dell’equazione differenziale (16).

Definizione 26 Diremo che un punto di equilibrio u0 è “stabile” se per ogni


ε > 0 esiste un δ > 0 con la seguente proprietà: se per una soluzione u e per
un certo τ ∈ R si ha che ku(τ ) − u0 k < δ, allora

ku(t) − u0 k < ε , per ogni t ≥ τ .

26
Diremo che un equilibrio u0 è “asintoticamente stabile” se è stabile ed esiste
un δ 0 > 0 con la seguente proprietà: se per una soluzione u e per un certo
τ ∈ R si ha che ku(τ ) − u0 k < δ 0 , allora

lim u(t) = u0 .
t→+∞

Nel caso in cui f : Ω → RN sia di classe C 1 , abbiamo il seguente.

Teorema 27 Sia u0 un equilibrio per l’equazione differenziale (16). Se gli au-


tovalori della matrice jacobiana Jf (u0 ) hanno tutti parte reale negativa, allora
u0 è asintoticamente stabile. Se esiste un autovalore con parte reale positiva,
tale equilibrio non è stabile.

7.1 L’equazione del pendolo


Analizziamo la ben nota equazione del pendolo matematico
g
ϑ00 + c ϑ0 + sin ϑ = 0 ,
`
dove g è la costante di gravità e ` è la lunghezza del pendolo. Qui c ≥ 0 è un
coefficiente di attrito.

Ponendo a = g/`, passiamo al sistema equivalente nel piano delle fasi


 0
x = y,
y 0 = −cy − a sin x .

27
Troviamo facilmente gli equilibri: sono i punti del tipo (kπ, 0), con k ∈ Z.
Siccome la funzione seno è 2π-periodica, ci sono due punti di equilibrio ge-
ometricamente distinti, (0, 0) e (π, 0), mentre tutti gli altri si ottengono da
questi per 2π-periodicità. Studiamo la stabilità di questi due punti di equili-
brio. Calcoliamo
   
0 1 0 1
Jf (0, 0) = , Jf (π, 0) = .
−a −c a −c

di λ2 + cλ + a = 0. Se c2 > 4a,
Gli autovalori di Jf (0, 0) sono le soluzioni √
1
sono entrambi reali e negativi: λ1,2 = 2 (−c ± c2 − 4a) ; se c2 ∈ ]0, 4a[ , sono
1

2
complessi coniugati, con parte reale negativa: λ 1,2 = 2 (−c ± i 4a − c ) ; Se

c = 0, sono uguali a ±i a, quindi hanno parte reale nulla.
Gli autovalori di Jf (π, 0) sono le soluzioni di λ2 + cλ −√a = 0. Essi sono
entrambi reali, uno positivo e uno negativo: λ1,2 = 12 (−c ± c2 + 4a) .
Possiamo quindi concludere che l’equilibrio (π, 0) non è stabile, mentre
l’equilibrio (0, 0) è stabile se c > 0. Il caso c = 0 va trattato a parte: analizzi-
amo le soluzioni (x(t), y(t)). Le loro orbite si trovano lungo le linee di livello
nel piano delle fasi della “funzione hamiltoniana”

H(x, y) = 12 y 2 − a cos x ,

e sono visualizzate in figura. Siccome la funzione coseno è 2π-periodica, le linee


di livello della funzione hamiltoniana presentano questo tipo di periodicità nella
variabile x.

Il punto di equilibrio (0, 0) è un “centro”: tutte le soluzioni vicine sono


periodiche. Esso è pertanto stabile. Se indichiamo con τ (α) il periodo della

28
soluzione con punto iniziale x(0) = α, y(0) = 0, si vede che, al variare di α in
]0, π[ , il periodo τ (α) è strettamente crescente, e


lim+ τ (α) = √ , lim τ (α) = +∞ .
α→0 a α→π −

Il punto di equilibrio (π, 0) è una “sella”. Esso è il punto di arrivo asintotico


di una soluzione (x∗ (t), y ∗ (t)), detta “eteroclina”, per la quale si ha

lim x∗ (t) = −π , lim x∗ (t) = π , e y ∗ (t) > 0, per ogni t ∈ R .


t→−∞ t→+∞

Abbiamo anche la soluzione eteroclina simmetrica (x∗ (t), y∗ (t)), tale che

lim x∗ (t) = π , lim x∗ (t) = −π , e y∗ (t) < 0, per ogni t ∈ R .


t→−∞ t→+∞


orbita attraversa l’asse verticale al di sopra del valore 2 a
Le soluzioni la cui √
o al di sotto di −2 a non sono periodiche. Esse corrispondono alla situazione
fisica in cui il pendolo continua a ruotare in senso antiorario oppure orario,
rispettivamente.
Nel caso in cui il pendolo venga sollecitato con una forza esterna periodica,
esso può reagire in diversi modi. Il problema, di carattere prettamente nonlin-
eare, è tuttora in fase di studio. Riportiamo il seguente interessante risultato,
ottenuto da J. Mawhin e M. Willem nel 1984.

Teorema 28 Sia e : R → R una funzione continua e T -periodica, tale che


Z T
e(t) dt = 0 ,
0

allora l’equazione differenziale


g
ϑ00 + sin ϑ = e(t)
`
ha almento due soluzioni T -periodiche geometricamente distinte.

Chiaramente, se l’equazione ha una soluzione T -periodica ϑ(t), tutte le


funzioni che si ottengono da questa aggiungendo un multiplo intero di 2π sono
ancora soluzioni T -periodiche. Si dice che due soluzioni sono geomericamente
distinte se non si possono ottenere l’una dall’altra in questo modo.

7.2 Dinamica delle popolazioni


Vogliamo studiare alcuni modelli di distribuzione di specie (animali o vegetali)
in un ecosistema. Cominciamo esaminando la crescita della popolazione umana
mondiale negli ultimi due secoli.

29
Una prima interpretazione, per quanto imprecisa, ci fa pensare a una crescita
di tipo esponenziale. Uno dei primi modelli di crescita, proposto da Malthus
nel 1798, prevede proprio questo tipo di sviluppo. Esso si basa sulla semplice
ipotesi che il tasso di crescita sia proporzionale alla numerosità della popo-
lazione.7
Indichiamo con u(t) una misura di densità della numerosità della specie u al
tempo t. Per poter trattare più facilmente il problema con i metodi dell’analisi
matematica, si suppone che u(t) vari in modo continuo al variare di t. Questa
ipotesi potrebbe sembrare strana, visto che il numero di individui è sempre un
intero, ma diventa ragionevole se tale numero è molto elevato e i cambiamenti
(nascite, morti o migrazioni) avvengono in modo casuale.
Il modello di Malthus è allora esprimibile con l’equazione differenziale

u0 = αu ,

che, com’è noto, ha la soluzione

u(t) = u0 eαt .

Una crescita di questo tipo si può verificare in laboratorio osservando una


coltura di batteri. Questi si riproducono duplicandosi, a intervalli di tempo
regolari, pertanto il loro numero segue una legge di tipo esponenziale. A un
certo punto, però, la loro quantità tende a stabilizzarsi verso un limite, noto
come capacità portante. Ecco che un modello più preciso deve tener conto di
una competizione intraspecifica, dovuta alle risorse limitate. Nel 1838, Verhulst
ha proposto l’equazione differenziale
 u
u0 = αu 1 − ,
K
7
Questo modello si applica piuttosto bene a diverse situazioni, sia della biologia che di
altre discipline.

30
nota come equazione logistica. Essa si può risolvere esplicitamente:
Ku0 eαt
u(t) = ,
K + u0 (eαt − 1)
e un possibile grafico è rappresentato nella sottostante figura.

7.3 Interazione tra popolazioni


Passiamo ora a discutere un sistema in cui ci sia interazione tra diverse specie.
Si possono presentare diverse situazioni: le specie possono essere l’una preda
dell’altra, oppure competere per la sopravvivenza, o ancora cooperare, essere
in simbiosi. Analizzeremo questi tre casi separatamente supponendo dapprima
di avere a che fare con due sole specie. Anche in questa lezione supponiamo
che non ci sia dipendenza dalla posizione x.
1. Modello preda-predatore
Il primo modello che presentiamo, forse il più semplice, è quello di Lotka–
Volterra per un sistema preda-predatore. Indichiamo con u(t) e v(t) la quantità
di prede e di predatori, rispettivamente. Il modello è il seguente:
( 0
x = x(α − βy) ,
y 0 = y(−γ + δx) .
Qui le costanti α, β, γ, δ sono tutte positive. Notiamo che, in assenza di preda-
tori, le prede seguono l’equazione di Malthus x0 = αx, per cui la loro crescita è
di tipo esponenziale. Introducendo i predatori, il fattore di interazione −βxy
limita la crescita delle prede. Al contrario, in assenza di prede, i predatori
seguono l’equazione y 0 = −δy, per cui il loro numero decresce esponenzial-
mente, e sono destinati a estinguersi. Qualora ci siano prede in giro, il fattore
δxy ravviva i predatori, che possono cosı̀ crescere di numero.
Esamineremo ora il sistema preda-predatore, limitandoci allo studio delle
soluzioni positive. Si osserva subito che esiste un punto di equilibrio, precisa-
mente γ α
, .
δ β

31
Uno studio della matrice jacobiana in questo punto ci mostra che gli autovalori
hanno parte reale nulla. Per studiarne la stabilità, dobbiamo pertanto usare
qualche altro stratagemma.
Siccome abbiamo deciso di studiare le soluzioni con x(t) > 0 e y(t) > 0,
definiamo le funzioni u1 (t) = ln x(t), u2 (t) = ln y(t). Abbiamo che

x0 (t)

0
 u1 (t) = = α − βy(t) = α − βeu2 (t) ,


x(t)
0
0 y (t)
 u2 (t) = = −γ + δx(t) = −γ + δeu1 (t) .


y(t)

Per questo sistema c’è una funzione hamiltoniana:

H(u1 , u2 ) = δeu1 − γu1 + βeu2 − αu2 .

Le soluzioni stanno sulle linee di livello di questa funzione, che sono tutte curve
chiuse. Tornando al piano delle fasi iniziale, abbiamo il seguente diagramma.

Le soluzioni sono periodiche e ruotano attorno al punto di equilibrio, in


senso antiorario. Vediamo un possibile grafico di x(t) e di y(t).

Questo semplice modello, formulato intorno al 1920, può essere reso più
realistico usando le idee introdotte nello studio di una singola popolazione.
Ad esempio, la crescita alla Malthus delle prede potrebbe essere sostituita con

32
una crescita alla Verhulst, o con funzioni di crescita più sofisticate. Potrebbero
essere introdotti anche un ritardo, costante o di tipo integrale, e perturbazioni
stagionali. Lo stesso vale per i predatori, naturalmente. Questi modelli sono in
fase di studio e alimentano molta ricerca attuale. Si possono trovare soluzioni
periodiche, o quasi periodiche, studiarne la stabilità al variare dei parametri
e delle condizioni iniziali. In alcuni casi si è persino evidenziato il fenomeno
del caos, parola usata in situazioni di estrema instabilità, per cui piccolissime
variazioni iniziali possono portare a un evolversi delle soluzioni del tutto im-
prevedibile.
Risulta molto importante, in questo contesto, il problema della persistenza
di tutte le specie. Le oscillazioni osservate potrebbero infatti portare, nella
realtà, all’estinzione delle prede o dei predatori.

2. Due specie in competizione


Supponiamo di avere due specie che competono per la sopravvivenza (ad es-
empio, hanno le stesse risorse di nutrimento, che sono limitate). Possiamo
assumere che, in assenza dell’altra specie, ciascuna abbia una crescita di tipo
logistico. Un modello plausibile è il seguente:
x + b12 y 
 
0
 x = α1 x 1 − ,


K1
 y + b21 x 
 y 0 = α2 y 1 −

 .
K2
Anche qui le costanti α1 , α2 , K1 , K2 , b12 , b21 sono tutte positive. In particolare,
b12 misura l’effetto della specie v sulla crescita di u, mentre b21 misura l’effetto
di u sulla crescita di v. A seconda dei parametri
K2 K1
a12 = b12 , a21 = b21 ,
K1 K2
possono verificarsi essenzialmente quattro situazioni diverse.
I caso: a12 < 1 e a21 < 1. Qui c’è un equilibrio stabile nel primo quadrante
del piano delle fasi: le due specie possono coesistere.
II caso: a12 > 1 e a21 > 1. Anche qui c’è un equilibrio, ma è instabile. A
seconda delle condizioni iniziali, una delle due specie si estinguerà.

III caso: a12 < 1 e a21 > 1. Non ci sono equilibri nel primo quadrante, la
specie v si estingue, mentre la u si stabilizza verso la sua capacità portante K1 .

33
IV caso: a12 > 1 e a21 < 1. Anche qui non ci sono equilibri nel primo
quadrante, la specie u si estingue, mentre la v si stabilizza verso la sua capacità
portante K2 .

8 Risonanza non lineare


Ci proponiamo ora di studiare su un paio di esempi semplici il comportamento
di un oscillatore non lineare, nel caso in cui venga sollecitato da una forza
periodica nel tempo. Ci interessa in particolare capire se sia ancora possibile
definire il concetto di “risonanza”.

8.1 L’oscillatore asimmetrico


Per dare una risposta parziale alla nostra domanda, affrontiamo lo studio degli
oscillatori asimmetrici. Consideriamo l’equazione differenziale scalare
x00 + µx+ − νx− = e(t) , (17)
dove e : R → R è una funzione continua e T -periodica e µ > 0, ν > 0 sono due
numeri reali. Qui
x + |x| −x + |x|
x+ = max{x, 0} = , x− = max{−x, 0} = .
2 2
Si noti che x = x+ − x− , mentre |x| = x+ + x− . Se µ = ν, abbiamo l’equazione
lineare, che è stata studiata nella sezione precedente. Essendo µ e ν positivi,
le soluzioni dell’equazione
x00 + µx+ − νu− = 0 (18)
sono tutte periodiche di periodo
π π
τ=√ +√ .
µ ν
Una soluzione è data da
  
1 √ π
 √µ sin( µt) se t ∈ 0 , √ ,


µ

φ(t) = √  π  
 1  π π π
 √ sin ν √ −t se t ∈ √ , √ + √ ,


ν µ µ µ ν
estesa a tutto R in modo da risultare τ -periodica. Tutte le altre soluzioni
di (18) sono del tipo x(t) = ρφ(t + θ), con ρ ≥ 0 e θ ∈ [0, τ [ .

34
Se scriviamo il sistema equivalente
 0
x = y,
y 0 = −µx+ + νx− ,

vediamo che le orbite nel piano delle fasi sono curve chiuse che circondano
l’origine, il quale pertanto è un centro isocrono. Ognuna di queste curve è
ottenuta incollando assieme due semi-ellissi, ossia

{(x, y) : x ≥ 0 e y 2 + µx2 = c} ∪ {(x, y) : x ≤ 0 e y 2 + νx2 = c} ,

con c ≥ 0.
Come nel caso lineare abbiamo considerato gli autovalori dell’operatore
differenziale, cosı̀ qui possiamo considerare l’insieme Σ delle coppie (µ, ν) per
cui l’equazione (18) ha soluzioni T -periodiche non nulle. Si vede allora che
Σ contiene, oltre ai due assi cartesiani {µ = 0} e {ν = 0}, una successione
(CN )N ≥1 di curve:
( ! )
π π
CN = (µ, ν) ∈ R2 : µ > 0, ν > 0, N √ + √ =T .
µ ν

L’insieme Σ è spesso chiamato “spettro di Fučı́k”.


A differenza dell’equazione lineare, non è pensabile di scrivere le soluzioni
T -periodiche di (17) in modo esplicito. Possiamo comunque enunciare alcuni
risultati sulla dinamica delle soluzioni dell’equazione (17). Ecco il risultato di
Fučı́k, pubblicato nel 1976.

Teorema 29 Se (µ, ν) 6∈ Σ, allora l’equazione (17) ha almeno una soluzione


T -periodica.

Si noti che la soluzione non è necessariamente unica. Ad esempio, pren-


dendo e(t) = 1, costante, abbiamo un punto di equilibrio x = µ1 . In un intorno
di questo punto, le soluzioni risolvono l’equazione lineare

x00 + µx = 1 ,

e sono pertanto periodiche di periodo √2πµ . D’altra parte, le soluzioni di grande


ampiezza hanno un periodo che si avvicina a τ . Supponiamo che sia ν < µ. Se
n è un intero positivo tale che

2π T π π
√ < <√ +√ ,
µ n µ ν
T
troviamo in corrispondenza una soluzione T -periodica, di periodo minimo n
.
Di tali n ce ne possono essere molti.

35
Supponiamo ora che sia (µ, ν) ∈ Σ, per cui esiste un N ∈ N tale che

π π T
τ=√ +√ = .
µ ν N

Nel 1976, Dancer ha introdotto la funzione


Z T
Φ(θ) = e(t)φ(t + θ) dt ,
0

e ha dimostrato il seguente risultato.

Teorema 30 Se
Φ(θ) 6= 0 , per ogni θ ∈ R ,
allora l’equazione (17) ha almeno una soluzione T -periodica. Inoltre, tutte le
soluzioni sono limitate.

Diversa è la situazione se la funzione Φ cambia segno. Faremo l’ipotesi che


essa abbia solo zeri semplici, ossia che, se Φ(θ) = 0, allora Φ0 (θ) 6= 0. Osservi-
amo che, in questo caso, essendo τ -periodica, la funzione Φ avrà nell’intervallo
[0, τ [ un numero pari di zeri. Nei lavori di Alonso–Ortega e Fabry–Fonda del
1998, è stato dimostrato il seguente

Teorema 31 Se gli zeri della funzione Φ nell’intervallo [0, τ [ sono tutti sem-
plici ed il loro numero è di almeno quattro, allora l’equazione (17) ha almeno
una soluzione T -periodica. D’altra parte, in questo caso, tutte le soluzioni di
grande ampiezza sono illimitate.

Ci sono effettivamente degli esempi in cui la funzione Φ ha esattamente


due zeri semplici nell’intervallo [0, τ [ e l’equazione (17) non ha soluzioni T -
periodiche.

8.2 Ponti sospesi


Un ponte è una struttura complessa, le cui componenti sono soggette a varie
forme di sollecitazioni. I più lunghi al mondo sono tutti di tipo ponte sospeso.
Attualmente il ponte di Akashi, in Giappone, detiene il record di lunghezza
della campata centrale, con i suoi 1991 metri.
Scorrendo la lista dei ponti sospesi più lunghi, vedi ad esempio
https://en.wikipedia.org/wiki/List of longest suspension bridge spans
si trovano al sedicesimo e al diciassettesimo posto il Ponte di Verrazzano a
New York (1298 metri) e il Golden Gate Bridge a San Francisco (1280 metri).
È notevole il fatto che quest’ultimo sia stato costruito nel 1937, più di ottanta
anni fa, ed è tuttora in uso. Tre anni dopo fu costruito un altro ponte, che
però non ebbe altrettanta fortuna.

36
Inaugurato il 1◦ luglio 1940, il Ponte di Tacoma Narrows divenne subito
famoso per la sua caratteristica di oscillare verticalmente, in presenza di vento
trasversale, con oscillazioni di uno-due metri di ampiezza. Questo comporta-
mento inusuale era dovuto al fatto che il ponte aveva una sezione molto stretta
e di piccolo spessore, per cui risultava molto flessibile rispetto ai ponti costruiti
fino ad allora.
Il mattino del 7 novembre 1940 il ponte stava oscillando, come al solito,
quando improvvisamente le oscillazioni verticali si trasformarono in oscillazioni
trasversali. Queste aumentarono in ampiezza fino a superare l’angolo di 45◦ e,
alle ore 11:10, la struttura cedette precipitando nel mare sottostante. Il breve
documentario su
www.youtube.com/watch?v=KVc7oBKzq9U
mostra la sequenza delle oscillazioni del ponte prima del crollo, e ne attribuisce
la causa al fenomeno della risonanza.
Questo fenomeno è ben noto per i sistemi lineari. Esso entra in gioco
quando la frequenza di un termine forzante periodico risulta uguale alla fre-
quenza delle oscillazioni libere della struttura. Si è allora ipotizzato che la
forza periodica agente sulla struttura fosse provocata dai vortici di von Kar-
man, che si alternano in modo periodico al passare del fluido lungo la struttura.
Un rapido calcolo permette però di vedere che la frequenza delle oscillazioni
del ponte di Tacoma non era strettamente correlata con la velocità del vento,
e quindi con la frequenza dei vortici da esso generati.
D’altra parte, un modello lineare presuppone che la struttura presenti pic-
cole oscillazioni, mentre le oscillazioni del ponte di Tacoma, quel 7 novembre
del 1940, erano evidentemente di grande ampiezza. Inoltre, la struttura stessa

37
di un ponte sospeso è asimmetrica: le funi che lo sostengono agiscono da una
sola parte del ponte, per cui una trazione verso il basso incontra una forza di
richiamo elastica nel verso contrario, mentre un sollevamento del ponte verso
l’alto potrebbe far allentare le funi, per cui non ci sarebbe alcuna forza di
richiamo.
Viene allora spontanea una domanda: esiste una risonanza nonlineare?
Come la si può definire?
Analizziamo un possibile modello di ponte sospeso, per quanto molto sem-
plificato. Si tratta di un oscillatore in verticale, soggetto alla forza di gravità,
sostenuto da una molla, con questa caratteristica: se lo si solleva al di sopra
di un’altezza h, la molla si allenta e non esercita più alcuna forza. Misurando
la posizione u(t) verso il basso, avremo l’equazione differenziale
x00 + F (x) = e(t) ,
dove 
µ(x + h) − g se x ≥ −h ,
F (x) =
−g se x ≤ −h .
Osserviamo che, per ragioni di continuità, deve essere µh = g, per cui l’equazione
si può scrivere brevemente come
x00 + µ (x + h)+ − h = e(t) .
 
(19)
Iniziamo a studiare le oscillazioni libere, quando cioè il termine forzante è nullo.
Prendendo una soluzione con condizioni iniziale x(0) = α > 0 e x0 (0) = 0, si
può vedere che essa è sempre periodica. Abbiamo due casi, a seconda che sia
α minore o maggiore di h. Infatti, se α ≤ h, la soluzione rimane nella zona
lineare, e il suo periodo è

τ (α) = √ .
µ
Se invece α ≥ h, la soluzione esce dalla zona lineare, e si può calcolare che
"   r  #
2 h α 2
τ (α) = √ arccos − + −1 .
µ α h
Si nota che il periodo τ (α) è una funzione crescente di α, strettamente crescente
se α ≥ h, e
lim τ (α) = +∞ .
α→+∞
Come si può allora ancora parlare di risonanza in questo caso?
Per quanto riguarda le soluzioni periodiche per l’equazione differenziale (19),
avendo osservato che i periodi delle oscillazioni libere tendono a +∞ al crescere
delle ampiezze, si può ipotizzare l’esistenza di soluzioni subarmoniche, ossia
soluzioni kT -periodiche, dove k è un intero positivo sufficientemente grande.
In effetti, vale il seguente risultato, provato da Ding e Zanolin nel 1992.
Teorema 32 Esiste un numero naturale k̄ tale che, per ogni k ≥ k̄, l’equazione
differenziale (19) ha almeno due soluzioni subarmoniche di periodo minimo kT .

38
8.3 Moto in campo gravitazionale
Affrontiamo il problema del moto di un corpo in un campo gravitazionale
Newtoniano, dove la forza è data dalla nota formula
mM
F =G .
d2
In altri termini, se usiamo la notazione x = (x1 , x2 ), l’equazione del moto è8

GM
ẍ(t) = − x.
|x|3

Per trovare la traiettoria del moto, passiamo a coordinate polari:

x(t) = (ρ(t) cos θ(t), ρ(t) sin θ(t)) .

Abbiamo allora

ẋ(t) = (ρ̇(t) cos θ(t) − ρ(t)θ̇(t) sin θ(t), ρ̇(t) sin θ(t) + ρ(t)θ̇(t) cos θ(t)) ,

e quindi

ẍ = (ρ̈ cos θ−2ρ̇θ̇ sin θ−ρθ̈ sin θ−ρθ̇2 cos θ, ρ̈ sin θ+2ρ̇θ̇ cos θ+ρθ̈ cos θ−ρθ̇2 sin θ).

L’equazione differenziale diventa pertanto


GM

2
 ρ̈ cos θ − 2ρ̇θ̇ sin θ − ρθ̈ sin θ − ρθ̇ cos θ = − ρ2 cos θ ,

GM
 ρ̈ sin θ + 2ρ̇θ̇ cos θ + ρθ̈ cos θ − ρθ̇2 sin θ = − 2 sin θ .


ρ
Moltiplicando la prima equazione per cos θ, la seconda per sin θ e sommando,
otteniamo
GM
ρ̈ − ρθ̇2 = − 2 .
ρ
D’altra parte, moltiplicando la prima equazione per sin θ, la seconda per cos θ
e sottraendo, si ha che
−2ρ̇θ̇ − ρθ̈ = 0 .
A questo punto, notiamo che
d 2
(ρ θ̇) = 2ρρ̇θ̇ + ρ2 θ̈ = ρ(2ρ̇θ̇ + ρθ̈) = 0 ,
dt

il che significa che la quantità µ := ρ2 (t)θ̇(t) è costante nel tempo t. Essa si


chiama momento angolare scalare. Supporremo ad esempio µ > 0, e pertanto
8
Useremo qui la notazione di Newton per indicare le derivate rispetto a t: scriveremo ad
esempio ẋ(t) invece di x0 (t), e ẍ(t) invece di x00 (t).

39
avremo che θ̇(t) > 0, per ogni t. Sostituendo nella prima equazione, abbiamo
quindi 
µ2 GM
 ρ̈ − 3 + 2 = 0 ,


ρ ρ
µ
 θ̇ = 2 .


ρ
Vogliamo trovare una funzione F : R → ]0, +∞[ tale che

ρ(t) = F(θ(t)) , per ogni t ∈ R .

Supponendo che una tale funzione esista, introduciamo anche la funzione ausil-
iaria G(θ) = 1/F(θ) e abbiamo
µ µ
ρ̇(t) = F 0 (θ(t))θ̇(t) = F 0 (θ(t)) 2
= F 0 (θ(t)) = −µG 0 (θ(t)) ,
ρ(t) F(θ(t))2

e quindi, ricordando che 1/ρ(t) = G(θ(t)),


µ
ρ̈(t) = −µG 00 (θ(t))θ̇(t) = −µG 00 (θ(t)) 2
= −µ2 G 00 (θ(t))G(θ(t))2 .
ρ(t)

Sostituendo nell’equazione, otteniamo che

−µ2 G 00 (θ(t))G(θ(t))2 − µ2 G(θ(t))3 + GM G(θ(t))2 = 0 ,

da cui
GM
G 00 (θ(t)) + G(θ(t)) = .
µ2
Questa è l’equazione di un oscillatore armonico con un termine forzante costante,
di facile soluzione: si ha
GM
G(θ(t)) = + γ cos(θ(t) − θ0 ) ,
µ2
dove γ e θ0 sono costanti da determinarsi a partire dalle condizioni iniziali.
Vista la simmetria del problema, fissiamo per semplicità θ0 = π. Abbiamo
cosı̀ l’equazione
1
ρ(t) = GM .
µ2
+ γ cos θ(t)
Ponendo
µ2 µ2 γ
`= , ε= ,
GM GM
otteniamo
`
ρ(t) = ,
1 − ε cos θ(t)
che è l’equazione di una conica in coordinate polari.

40
d Ricaviamo l’equazione di un’ellisse in coordinate polari, supponendo che uno dei due e
fuochi sia posizionato nell’origine, e l’asse maggiore sia orizzontale.
Com’è noto, se indichiamo con
a la lunghezza del semiasse maggiore,
b la lunghezza del semiasse minore,
c la semi-distanza tra i due fuochi,
l’equazione cartesiana di questa ellisse è

(x − c)2 y2
+ = 1.
a2 b2
21/03/17, 16:20

Ricordiamo inoltre che si ha


a2 = b2 + c2 .
Scrivendo un punto P dell’ellisse in coordinate polari

P = (ρ cos θ, ρ sin θ) ,

21/03/17, 16:15
https://upload.wikimedia.org/wikipedia/commons/9/90/Ellisse.png Pagina 1 di 1

A F1 θ C F2 B

d1 d2

abbiamo che p
ρ+ (ρ cos θ − 2c)2 + (ρ sin θ)2 = 2a ,
da cui, facendo i calcoli,
b2
ρ= .
a − c cos θ
Se denotiamo con
b2
`= il semilato retto,
a
c
ε = l’eccentricità,
a

41
21/03/17, 16:31

si ha l’equazione
`
. ρ=
1 − ε cos θ
In seguito ci sarà utile conoscere la formula dell’area dell’ellisse:
Z ar  Z π/2
x2 
A=2 b2 1 − 2 dx = 2b a cos2 u du = πab .
−a a −π/2
https://upload.wikimedia.org/wikipedia/commons/d/d5/Ellisse4.png Pagina 1 di 1

b (Abbiamo usato la sostituzione x = a sin u.) c


La Prima legge di Keplero afferma che un oggetto attratto da una massa
fissa si deve muovere lungo un’ellisse con uno dei fuochi posizionato nel punto
attrattore. In realtà, questo succede se l’eccentricità ε è minore di 1. In
particolare, se ε = 0, si ha un’orbita circolare.
Se ε = 1 l’orbita è una parabola, mentre se ε > 1 si ha un’iperbole. Questo
tipo di orbite non erano state predette da Keplero.
La Seconda legge di Keplero descrive la velocità di movimento di x(t) lungo
l’ellisse. Indichiamo con A(t) l’area spazzata dal vettore x(τ ) al variare di τ
da 0 a t. Scrivendo x(τ ) = (ρ(τ ) cos θ(τ ), ρ(τ ) sin θ(τ )), abbiamo che ρ(τ ) =
F(θ(τ )), per cui
!
Z θ(t)
Z Z F (ϑ) θ(t)
1
A(t) = r dr dϑ = 2
F(ϑ)2 dϑ .
θ(0) 0 θ(0)

Ricordando che µ = ρ(τ )2 θ̇(τ ) è costante, e supponendo µ > 0, abbiamo che


τ 7→ θ(τ ) è strettamente crescente, per cui possiamo effettuare un cambio di
variabile nell’integrale:
Z θ(t)
1
Rt 1 Rt 1
A(t) = 2
F(ϑ)2
dϑ = 0 2
F(θ(τ ))2
θ̇(τ ) dτ = 0 2
ρ(τ )2 θ̇(τ ) dτ = 12 µt .
θ(0)

Ecco quanto afferma la seconda legge: l’area A(t) cresce linearmente in t, per
cui la sua derivata A0 (t) è costante.
La Terza legge di Keplero fornisce una relazione tra il periodo di rotazione
e il semiasse maggiore dell’orbita ellittica. Sia T il tempo impiegato dal nostro
oggetto per compiere una rotazione attorno alla massa fissa. Abbiamo quindi
(vedi la formula per l’area dell’ellisse) che
1
2
µT = πab .

42
Da ciò, essendo b2 = a` e µ2 = GM `, troviamo la formula

4π 2 3
T2 = a .
GM

È interessante notare che il periodo dipende solo dalla lunghezza del semiasse
maggiore, ed è indipendente dalla lunghezza del semiasse minore.
Le tre leggi sono state trovate da Johannes Kepler studiando il moto dei pi-
aneti attorno al sole. Le prime due furono enunciate nel 1609, la terza nel 1619.
Isaac Newton ne ha poi dato un’interpretazione generale nei suoi Philosophiae
Naturalis Principia Mathematica, pubblicati nel 1687. Una spiegazione origi-
nale delle leggi di Keplero si può trovare qui:

www.youtube.com/watch?v = ge06Znj7hyk

43
Corso di Analisi 3
Parte II: Integrale di Riemann
Appunti delle lezioni tenute dal Prof. A. Fonda

Università di Trieste, CdL Matematica, a.a. 2020/2021

Nota. Questi appunti sono volutamente stringati, in quanto la teoria dell’in-


tegrale verrà ripresa e generalizzata nel corso di Analisi Reale del prossimo
anno. Ci limiteremo all’esposizione dell’integrale secondo Riemann.

Integrale su un rettangolo
Sia Q un rettangolo di RN , ossia un insieme del tipo

Q = [a1 , b1 ] × [a2 , b2 ] × . . . × [aN , bN ] ,

e sia f : Q → R una funzione limitata. Questo significa che esistono due


costanti c, C tali che

c ≤ f (x) ≤ C , per ogni x ∈ Q .

Per semplicità, supporremo N = 2, ma quello che segue può essere fatto anche
nel caso generale.
Sia dunque Q = [a, b]×[c, d]. Consideriamo una suddivisione del rettangolo
Q: si tratta di scegliere un insieme finito di punti

D1 = {x0 , x1 , x2 , . . . , xn } ,

tali che
a = x0 < x1 < x2 < . . . < xn−1 < xn = b ,
e un insieme finito di punti

D2 = {y0 , y1 , y2 , . . . , ym } ,

tali che
c = y0 < y1 < y2 < . . . < ym−1 < ym = d ,
e di definire D = D1 × D2 . Restano cosı̀ individuati i rettangolini

Qkh = [xk−1 , xk ] × [yh−1 , yh ] ,

per la cui area useremo la notazione |Qkh | = (xk − xk−1 )(yh − yh−1 ).

1
Definiamo i numeri reali
`0kh = inf{f (x, y) : (x, y) ∈ Qkh } , `00kh = sup{f (x, y) : (x, y) ∈ Qkh } ,
(si ricordi che f è limitata) e le corrispondenti somme
n X
X m n X
X m
0
S (f, D) = `0kh |Qkh | , 00
S (f, D) = `00kh |Qkh | ,
k=1 h=1 k=1 h=1

che chiameremo somma inferiore e somma superiore, rispettivamente.


Lemma. Valgono le seguenti proprietà di monotonia:
D⊆D
e ⇒ S 0 (f, D) ≤ S 0 (f, D)
e ,
D⊆D
e ⇒ S 00 (f, D) ≥ S 00 (f, D)
e .

Inoltre, se D e D
e sono due suddivisioni qualiasi di Q, allora

S 0 (f, D) ≤ S 00 (f, D)
e .

Ricordando che f è una funzione limitata, possiamo dare la seguente


Definizione. Se il numero reale
σ 0 (f ) = sup{S 0 (f, D) : D è una suddivisione di Q}
coincide con
σ 00 (f ) = inf{S 00 (f, D) : D è una suddivisione di Q} ,
tale numero reale si chiama integrale di f su Q, e si indica con uno dei simboli
Z Z Z
f, f (x) dx , f (x, y) dx dy .
Q Q Q

In tal caso si dice che la funzione f è integrabile (secondo Riemann) su Q.


Quindi, l’integrale di f su Q, se esiste, è quel σ ∈ R con questa proprietà:
per ogni ε > 0 esistono due suddivisioni D0 e D00 di Q per cui
σ − ε ≤ S 0 (f, D0 ) ≤ S 00 (f, D00 ) ≤ σ + ε .
Equivalentemente, tenendo conto delle proprietà di monotonia viste sopra,
per ogni ε > 0 esiste una suddivisione D di Q per cui
σ − ε ≤ S 0 (f, D) ≤ S 00 (f, D) ≤ σ + ε .
Esempio 1. Sia f : Q → R la funzione costante di valore α ∈ R. Si verifica
rapidamente che, per ogni Rsuddivisione D di Q, si ha S 0 (f, D) = S 00 (f, D) =
α|Q|. Ne segue quindi che Q f = α|Q|, ossia che
Z
α dx dy = α|Q| .
Q

2
Esempio 2. Una funzione non integrabile è f : Q → R definita da
(
1 , se x ∈ Q ,
f (x, y) =
0 , se x ∈ / Q.

Si vede infatti che, qualsiasi sia la suddivisione D di Q, si ha `0k = 0 e `00k = 1,


per ogni k, per cui

S 0 (f, D) = 0 , S 00 (f, D) = |Q| .

Allora anche
σ 0 (f ) = 0 , σ 00 (f ) = |Q| ,
per cui f non è integrabile.

Proprietà delle funzioni integrabili su rettangoli


Continuiamo a indicare con Q un rettangolo di RN . Risulta utile il seguente
Criterio di integrabilità. La funzione f è integrabile su Q se e solo se per
ogni ε > 0 esiste una suddivisione D di Q per cui

S 00 (f, D) − S 0 (f, D) ≤ ε .

Per quanto riguarda l’integrabilità delle funzioni continue, abbiamo il se-


guente
Teorema. Se f : Q → R è continua, allora essa è integrabile.
Enunciamo alcune proprietà elementari dell’integrale.
Teorema. Se f, g sono funzioni integrabili su Q e λ ∈ R, anche f ± g e λf lo
sono, e in tal caso
Z Z Z Z Z
(f ± g) = f± g, λf = λ f .
Q Q Q Q Q

Teorema. Se f, g sono funzioni integrabili su Q, anche f g e |f | lo sono.


Vediamo ora una stima sulla “media integrale”.
Teorema. Se f è una funzione integrabile su Q, allora
Z
1
inf f (Q) ≤ f (x) dx ≤ sup f (Q) .
|Q| Q
Corollario. Se f è una funzione integrabile su Q e f ≥ 0, allora
Z
f ≥ 0.
Q

Come conseguenza, se f, g sono funzioni integrabili su Q e f ≤ g, allora


Z Z
f≤ g.
Q Q

3
Inoltre, se f è integrabile su Q, allora
Z Z

f ≤ |f | .

Q Q

Enunciamo un teorema di “passaggio al limite sotto segno di integrale”.


Teorema. Sia f : Q → R una funzione continua e sia (fn )n una successione
di funzioni continue fn : Q → R che converge uniformemente a f . Allora
Z Z 
f = lim fn .
Q n Q

Concludiamo questa sezione con la proprietà di additività dell’inte-


grale.
Teorema. Sia Q = Q1 ∪ Q2 , con Q1 e Q2 due rettangoli non sovrapposti.
Allora una funzione f : Q → R è integrabile su Q se e solo se lo è su Q1 e su
Q2 . In tal caso, Z Z Z
f= f+ f.
Q Q1 Q2

Il teorema di riduzione su un rettangolo


Sia Q = Q1 × Q2 , con Q1 e Q2 due rettangoli in RN1 e RN2 , rispettivamente.
Scriveremo gli elementi di Q come coppia (x, y), con x ∈ Q1 e y ∈ Q2 .
Teorema. Sia f : Q → R integrabile su Q, e supponiamo che per ogni y ∈ Q2 ,
la funzione1Rf (·, y) sia integrabile su Q1 . Allora la funzione G : Q2 → R definita
da G(y) = Q1 f (x, y) dx è integrabile, e vale la foirmula
Z Z
f= G.
Q Q2

Si ha quindi Z Z Z 
f= f (x, y) dx dy .
Q Q2 Q1

Dimostrazione. Supporremo per semplicità N = 2 e Q1 = [a, b], Q2 = [c, d].


Sia D = D1 × D2 una qualsiasi suddivisione di Q, con le notazioni introdotte
in precedenza. Essendo f limitata, anche G lo è. Poniamo, per ogni y ∈ [c, d],

mk (y) = inf{f (x, y) : x ∈ [xk−1 , xk ]} , Mk (y) = sup{f (x, y) : x ∈ [xk−1 , xk ]} .

Allora, per ogni y ∈ [c, d],


n
X n
X
mk (y)(xk − xk−1 ) ≤ G(y) ≤ Mk (y)(xk − xk−1 ) .
k=1 k=1

1
La funzione g = f (·, y) : Q1 → R è definita da g(x) = f (x, y).

4
Notiamo inoltre che

`0kh ≤ mk (y) ≤ Mk (y) ≤ `00kh , per ogni y ∈ [yh−1 , yh ] .

Avremo quindi
m
X n o
S 00 (G, D2 ) = sup G(y) : y ∈ [yh−1 , yh ] (yh − yh−1 )
h=1
m
X n
nX o
≤ sup Mk (y)(xk − xk−1 ) : y ∈ [yh−1 , yh ] (yh − yh−1 )
h=1 k=1
Xm Xn n o
≤ sup Mk (y) : y ∈ [yh−1 , yh ] (xk − xk−1 )(yh − yh−1 )
h=1 k=1
Xn X m
≤ `00kh |Qkh | = S 00 (f, D) .
k=1 h=1

Analogamente,
m
X n o
0
S (G, D2 ) = inf G(y) : y ∈ [yh−1 , yh ] (yh − yh−1 )
h=1
Xm n
nX o
≥ inf mk (y)(xk − xk−1 ) : y ∈ [yh−1 , yh ] (yh − yh−1 )
h=1 k=1
m X
X n n o
≥ inf mk (y) : y ∈ [yh−1 , yh ] (xk − xk−1 )(yh − yh−1 )
h=1 k=1
n X
X m
≥ `0kh |Qkh | = S 0 (f, D) .
k=1 h=1

Pertanto, per ogni suddivisione D = D1 × D2 , si ha che

S 0 (f, D) ≤ S 0 (G, D2 ) ≤ S 00 (G, D2 ) ≤ S 00 (f, D) .

Fissato ε > 0, siccome f è integrabile su Q, esiste D tale che S 00 (f, D) −


S 0 (f, D) ≤ ε. Ma allora S 00 (G, D2 ) − S 0 (G, D2 ) ≤ ε, per cui anche G è
integrabile su [c, d]. D’altra parte, essendo
Z Z d
0 00 0
S (f, D) ≤ f ≤ S (f, D) , S (G, D2 ) ≤ G ≤ S 00 (G, D2 ) ,
Q c

si ha che Z d Z
G− f ≤ ε .


c Q
Rd R
Per l’arbitrarietà di ε > 0, ne segue che c
G= Q
f.
Naturalmente, vale anche un enunciato simmetrico.

5
Teorema. Sia f : Q → R integrabile su Q, e supponiamo che per ogni x ∈ Q1 ,
la funzione Rf (x, ·) sia integrabile su Q2 . Allora la funzione G : Q1 → R definita
da G(x) = Q2 f (x, y) dy è integrabile, e vale la formula
Z Z
f= G.
Q Q1

Si ha quindi Z Z Z 
f= f (x, y) dy dx .
Q Q1 Q2
Esempio. Sia Q = [1, 2] × [0, 1] e sia f : Q → R definita da
f (x, y) = x−3 exp(x−1 y) .
Allora
Z Z 2 Z 1 
−3 −1
f = x exp(x y) dy dx
Q 1 0
Z 2  −2 y=1
= x exp(x−1 y) y=0 dx
Z1 2
 
= x−2 exp(x−1 ) − 1 dx
1
2 √
= − exp(x−1 ) + x−1 1 = e − e − 12 .


Integrale su un insieme limitato


Sia Ω un sottoinsieme limitato di RN . Vogliamo definire l’integrale di una
funzione f : Ω → R. Prendiamo un rettangolo Q contenente Ω e definiamo la
funzione fΩ : Q → R in questo modo:

f (x) se x ∈ Ω ,
fΩ (x) =
0 altrimenti.
Diremo
R Rche f è integrabile su Ω se fΩ è integrabile su Q, e in tal caso porremo

f = Q fΩ . Si può verificare che questa è una buona definizione, ossia che
non dipende dalla scelta del rettangolo Q contenente Ω.
Nel caso particolare di una funzione costante di valore 1, abbiamo la se-
guente
Definizione. Diremo che l’insieme limitato Ω è misurabile (secondo Peano-
Jordan) se la costante 1 è integrabile su Ω, e in tal caso la misura di Ω è definita
da Z
|Ω| = 1.

Si può verificare che, se Q è il rettangolo [a1 , b1 ] × [a2 , b2 ] × . . . × [aN , bN ],
allora
|Q| = (b1 − a1 )(b2 − a2 ) · · · (bN − aN ) .
Risultano particolarmente importanti gli insiemi di misura nulla.

6
Proposizione. Un insieme Ω ha misura nulla se e solo se per ogni ε > 0
esistono un numero finito di rettangoli Q1 , Q2 , . . . , Qn tali che

Ω ⊆ Q1 ∪ Q2 ∪ . . . ∪ Qn e |Q1 | + |Q2 | + . . . + |Qn | ≤ ε .

Esempi di insiemi di misura nulla sono quelli costituiti da un numero finito


di punti, o da un segmento in R2 , o una porzione di piano in R3 . Se g : Q → R
è una funione continua, allora il suo grafico ha misura nulla. L’unione di un
numero finito di insiemi di misura nulla ha misura nulla.
È interessante la seguente caratterizzazione della misurabilità secondo Rie-
mann.
Teorema. Un insieme limitato Ω è misurabile se e solo se ∂Ω ha misura nulla.
Vediamo ora una caratterizzazione dell’integrabilità. Si dice che un insieme
Ω è “trascurabile secondo Lebesgue” se per ogni ε > 0 esistono un numero finito
o numerabile di rettangoli (Qn )n≥1 tali che
[ X
Ω⊆ Qn e |Qn | ≤ ε .
n≥1 n≥1

Teorema. Una funzione f : Q → R è integrabile secondo Riemann se e solo


se l’insieme dei suoi punti di discontinuità è trascurabile secondo Lebesgue.
Le proprietà elementari dell’integrale si estendono anche al caso di funzioni
integrabili su un insieme Ω. Enunciamo in particolare la proprietà di additività.
Teorema. Sia Ω = Ω1 ∪ Ω2 , con Ω1 e Ω2 due insiemi disgiunti. Allora una
funzione f : Ω → R è integrabile su Ω se e solo se lo è su Ω1 e su Ω2 . In tal
caso, Z Z Z
f= f+ f.
Ω Ω1 Ω2

Il teorema di riduzione su un insieme limitato


Si tratta di tradurre la formula del teorema di riduzione su un rettangolo
al caso di una funzione f : Ω → R, con Ω limitato contenuto in un rettangolo
Q. Come sopra, scriviamo Q = Q1 × Q2 , con Q1 e Q2 due rettangoli in RN1
e RN2 , rispettivamente. Scriveremo gli elementi di Q come coppia (x, y), con
x ∈ Q1 e y ∈ Q2 . Definiamo, per ogni x ∈ Q1 , le sezioni

Ωx = {y ∈ Q2 : (x, y) ∈ Ω} .

Definiamo inoltre la proiezione

P1 Ω = {x ∈ Q1 : Ωx 6= Ø} .

Allora la formula si può scrivere in questo modo:


Z Z Z 
f= f (x, y) dy dx .
Ω P1 Ω Ωx

7
Analogamente, definendo per ogni y ∈ Q2 le sezioni

Ωy = {x ∈ Q1 : (x, y) ∈ Ω}

e la proiezione
P2 Ω = {y ∈ Q2 : Ωy 6= Ø} ,
si ha Z Z Z !
f= f (x, y) dx dy .
Ω P2 Ω Ωy

Come casi particolari, prendendo f costante uguale a 1, abbiamo le formule


per la misura Z Z
|Ω| = |Ωx | dx = |Ωy | dy .
P1 Ω P2 Ω

Esempi. 1) Calcoliamo l’area di un cerchio centrato nell’origine di raggio


r > 0,
Ω = {(x, y) ∈ R2 : x2 + y 2 ≤ r2 } .
√ √
Abbiamo che P1 = [−r, r] e Ωx = [− r2 − x2 , r2 − x2 ], per ogni x ∈ [−r, r].
Quindi, Z r √
|Ω| = 2 r2 − x2 dx = πr2 .
−r

2) Calcoliamo il volume di una palla tridimensionale centrata nell’origine di


raggio r > 0,
Ω = {(x, y, z) ∈ R3 : x2 + y 2 + z 2 ≤ r2 } .
Possiamo procedere in due modi, a seconda di come raccogliamo le variabili.
Primo modo. Scriviamo (x, y, z) = (x, (y, z)). Abbiamo che P1 = [−r, r] e

Ωx = {(y, z) ∈ R2 : y 2 + z 2 ≤ r2 − x2 } , per ogni x ∈ [−r, r] .



Quindi, Ωx è un cerchio di raggio r2 − x2 , la cui area è |Ωx | = π(r2 − x2 ), e
possiamo calcolare
Z r
4
|Ω| = π(r2 − x2 ) dx = πr3 .
−r 3

Secondo modo. Scriviamo (x, y, z) = ((x, y), z). Allora

P1 Ω = {(x, y) ∈ R2 : x2 + y 2 ≤ r2 } ,

mentre
h p p i
Ω(x,y) = − r2 − x2 − y2, 2 2 2
r − x − y , per ogni (x, y) ∈ P1 (Ω) .

Quindi, Z p
|Ω| = 2 r2 − x2 − y 2 dx dy .
P1 Ω

8
Usiamo di nuovo la formula
√ di riduzione
√ sull’insieme D = P1 Ω. Abbiamo che
P1 D = [−r, r] e Dx = [− r − x , r − x2 ], per ogni x ∈ [−r, r]. Pertanto,
2 2 2

Z p Z r Z √r2 −x2 p !
|Ω| = 2 r2 − x2 − y 2 dx dy = √
2 r2 − x2 − y 2 dy dx
D −r − r2 −x2
Z r
π 4
= 2(r2 − x2 ) dx = πr3 .
−r 2 3

Abbiamo operato la sostituzione u = arcsin(y/ r2 − u2 ) e calcolato
Z π/2
π
cos2 u du = .
−π/2 2

3) Vogliamo calcolare il volume del tetraedro regolare di lato `. Lo supporremo


appoggiato al piano
√ xy, per cui la sua
√ “base” è un triangolo equilatero di lato
1 1 2
`, altezza h = 2 ` 3 e area A = 4 ` 3 . L’altezza det tetraedro Ω è pertanto
q q
H = ` − ( 3 h) = 23 ` .
2 2 2

Raggruppiamo
h q le i variabili come ((x, y), z) e proiettiamo sull’asse z, ottenendo
2
P2 Ω = 0, 3 ` . Per ogni z ∈ P2 Ω, la sezione Ωz è un triangolo equilatero di
q
lato `z = ` − 32 z e area
√ 
1 2√ 3 q 2
|Ωz | = `z 3 = ` − 32 z .
4 4
Pertanto,
Z H Z √2 ` √  r  √
3 3 3 2 2 3
|Ω| = |Ωz | dz = `− z dz = `.
0 0 4 2 12
Nota. Dehn ha dimostrato nel 1902, in risposta al Terzo Problema di Hilbert,
che non è possibile tagliare il tetraedro in poliedri più piccoli che, ricombinati
assieme, formino un parallelepipedo.
Più in generale, consideriamo ora un “cono” tridimensionale Ω. Esso è
ottenuto prendendo un insieme S, che supponiamo contenuto in {(x, y, z) :
z = 0} (la “base” di Ω) e un punto v = (0, 0, h), con h > 0 (il “vertice” di Ω).
L’insieme Ω è cosı̀ definito:

Ω = {(1 − λ)v + λx : λ ∈ [0, 1], x ∈ S} .

La sua proiezione sull’asse z ci dà il segmento P Ω = [0, h], e per ogni z ∈ P Ω


la sezione Ωz ha un’area
 h − z 2  h − z 2
|Ωz | = |Ω0 | = |S| .
h h

9
Quindi il volume del cono Ω è
Z Z h  h − z 2 1
|Ω| = |Ωz | dz = |S| dz = |S|h ,
PΩ 0 h 3
ossia “area della base volte altezza diviso tre”.

Cambiamento di variabili
Siano ϕ un diffeomorfismo tra due aperti A e B = ϕ(A) di RN , D un sottoin-
sieme chiuso e limitato di A e f : ϕ(D) → R una funzione continua. Sotto le
opportune ipotesi di integrabilità, si può dimostrare che vale la formula
Z Z
f (x) dx = f (ϕ(u))| det ϕ0 (u)| du .
ϕ(D) D

Ponendo ϕ(D) = E, possiamo anche scrivere la formula equivalente


Z Z
f (x) dx = f (ϕ(u))| det ϕ0 (u)| du .
E ϕ−1 (E)

Ci sono alcune trasformazioni che lasciano invariata la misura di ogni


insieme misurabile. Ne consideriamo qui alcune delle più usate nella pratica.
Le traslazioni. y

x
Si dice traslazione, per mezzo di un vettore fissato a = (a1 , a2 ) ∈ R2 , la
trasformazione definita da
ϕ(u, v) = (u + a1 , v + a2 ) .
Si vede immediatamente che ϕ è un diffeomorfismo con det ϕ0 = 1, per cui vale
la formula Z Z
f (x, y) dx dy = f (u + a1 , v + a2 ) du dv .
ϕ(D) D

Le riflessioni. y

x
Una riflessione rispetto a un asse è definita da:
ϕ(u, v) = (−u, v) , oppure ϕ(u, v) = (u, −v) .

10
Qui det ϕ0 = −1, per cui, ad esempio nel primo caso, si ha:
Z Z
f (x, y) dx dy = f (−u, v) du dv .
ϕ(D) D

Le rotazioni. y

x
Una rotazione attorno all’origine di un angolo fissato α è definita da:

ϕ(u, v) = (u cos α − v sin α , u sin α + v cos α) .

Si tratta di un diffeomorfismo, con


 
0 cos α − sin α
det ϕ (u, v) = det = (cos α)2 + (sin α)2 = 1 .
sin α cos α

Quindi, si ha
Z Z
f (x, y) dx dy = f (u cos α − v sin α , u sin α + v cos α) du dv .
ϕ(D) D

Coordinale polari.

y
ρ

θ
x
Un altro tipo di trasformazione utile è la funzione ψ : [0, +∞[ × [0, 2π[ → R2
data da
ψ(ρ, θ) = (ρ cos θ, ρ sin θ) ,
che definisce le note coordinate polari in R2 . Qui bisogna fare attenzione, perché
non si tratta di un diffeomorfismo. Consideriamo gli insiemi aperti

A = ]0, +∞[ × ]0, 2π[ , B = R2 \ ([0, +∞[ ×{0}) .

La funzione ϕ : A → B definita da ϕ(ρ, θ) = ψ(ρ, θ) risulta essere un dif-


feomorfismo e si vede facilmente che det ϕ0 (ρ, θ) = ρ. Preso un sottoinsieme
chiuso e limitato E di R2 , fissato un ε > 0 possiamo applicare il teorema di
cambiamento di variabili all’insieme
 
2 2 2
Eε = E \ {(x, y) : x + y < ε } ∪ {(x, y) : x > 0, y ∈ ]0, ε[ } .

11
Siccome
lim |E \ Eε | = 0 , lim |ψ −1 (E) \ ψ −1 (Eε )| = 0 ,
ε→0+ ε→0+

otteniamo la seguente formula di cambiamento di variabili in coordinate


polari: Z Z
f (x, y) dx dy = f (ψ(ρ, θ))ρ dρ dθ .
E ψ −1 (E)

Esempio. Sia f (x, y) = xy definita su

E = {(x, y) ∈ R2 : x ≥ 0, y ≥ 0, x2 + y 2 < 9} .

Facendo il cambiamento di variabili in coordinate polari, si ha che ψ −1 (E) =


[0, 3[×[0, π2 ]; per il teorema di riduzione, possiamo quindi scrivere
π/2 3
81 π/2
Z Z Z  Z
3 81
f= ρ cos θ sin θ dρ dθ = cos θ sin θ dθ = .
E 0 0 4 0 8

Coordinate cilindriche.
z

y
θ ρ
x

Consideriamo la funzione ξ : [0, +∞[ ×[0, 2π[ ×R → R3 definita da

ξ(ρ, θ, z) = (ρ cos θ, ρ sin θ, z) ,

che definisce le coordinate cilindriche in R3 . Anche qui dobbiamo trattare una


funzione che non è un diffeomorfismo. Considerando gli insiemi aperti

A = ]0, +∞[ × ]0, 2π[ ×R , B = (R3 \ ([0, +∞[ ×{0}) × R ,

la funzione ϕ : A → B definita da ϕ(ρ, θ, z) = ξ(ρ, θ, z) risulta essere un dif-


feomorfismo e si vede facilmente che det ϕ0 (ρ, θ, z) = ρ. Preso un sottoinsieme
limitato E di R3 , procedendo in modo simile al caso delle coordinate polari, ot-
teniamo la seguente formula di cambiamento di variabili in coordinate
cilindriche:
Z Z
f (x, y, z) dx dy dz = f (ξ(ρ, θ, z))ρ dρ dθ dz .
E ξ −1 (E)
R
Esempio. Calcoliamo l’integrale E
f, dove f (x, y, z) = x2 + y 2 e

E = {(x, y, z) ∈ R3 : x2 + y 2 ≤ 1, 0 ≤ z ≤ x + y + 2} .

12
Passando a coordinate cilindriche, notiamo che

ρ cos θ + ρ sin θ + 2 ≥ 0 ,
per ogni θ ∈ [0, 2π[ e ogni ρ ∈ [0, 1]. Facendo il cambio di variabili e usando il
teorema di riduzione, si ha:
Z Z
2 2
(x + y ) dx dy dz = ρ3 dz dθ dρ
E ξ −1 (E)
√ ! !
Z 1Z Z 2π ρ cos θ+ρ sin θ+ 2
= ρ3 dz dθ dρ
0 0 0
1 2π √
Z Z 
3
= ρ (ρ cos θ + ρ sin θ + 2) dθ dρ
0 0
Z √ 1
= 2π ρ3 2 dρ
√0
π 2
= .
2
Coordinate sferiche.
z

φ
ρ y
θ
x

Consideriamo σ : [0, +∞[ ×[0, 2π[ ×[0, π] → R3 definita da


σ(ρ, θ, φ) = (ρ sin φ cos θ, ρ sin φ sin θ, ρ cos φ) ,
che definisce le coordinate sferiche in R3 . Anche qui non abbiamo un diffeo-
morfismo. Considerando gli insiemi aperti
A = ]0, +∞[ × ]0, 2π[ × ]0, π[ , B = R3 \ ([0, +∞[ ×{0} × R) .
La funzione ϕ : A → B definita da ϕ(ρ, θ, φ) = σ(ρ, θ, φ) risulta essere un
diffeomorfismo e si vede facilmente che det ϕ0 (ρ, θ, φ) = ρ2 sin φ. Preso un sot-
toinsieme limitato E di R3 , possiamo applicare il teorema di cambiamento di
variabili a Ẽ = E ∩ B. Siccome Ẽ e ϕ−1 (Ẽ) differiscono da E e σ −1 (E), rispet-
tivamente, per un insieme di misura nulla, otteniamo la seguente formula di
cambiamento di variabili in coordinate sferiche:
Z Z
f (x, y, z) dx dy dz = f (σ(ρ, θ, φ))ρ2 sin φ dρ dθ dφ .
E σ −1 (E)

Esempio. Calcoliamo il volume dell’insieme


n p o
3 2 2 2 2 2
E = (x, y, z) ∈ R : x + y + z ≤ 1, z ≥ x + y .

13
Si ha:
Z
µ(E) = 1 dx dy dz
ZE
= ρ sin φ dρ dθ dφ
σ −1 (E)
!
Z 1 Z π/4 Z 2π 
= ρ2 sin φ dθ dφ dρ
0 0 0
!
Z 1 Z π/4
= 2π ρ2 sin φ dφ dρ
0 0
√ !Z 1
2
= 2π 1 − ρ dρ
2 0
√ !
2 2π
= 1− .
2 3

Integrale su sottoinsiemi non limitati


Useremo la notazione
B[0, r] = [−r, r] × [−r, r] × . . . × [−r, r] ⊆ RN .
Sia Ω un sottoinsieme di RN , non necessariamente limitato, e sia f : Ω → R
una funzione limitata tale che
f (x) ≥ 0 , per ogni x ∈ Ω .
Se f è integrabile su ciascun insieme limitato Ω ∩ B[0, r], con r > 0, si definisce
Z Z
f = lim f.
Ω r→+∞ Ω∩B[0,r]

In questo caso, il risultato non cambia se al posto di B[0, r] si considera la palla


euclidea B(0, r), o una qualsiasi famiglia crescente di insiemi che invadono R2 .
Nel caso in cui la funzione assuma anche valori negativi, procediamo in
questo modo. Definiamo le funzioni f ± : Ω → R ponendo
f + (x) = max{f (x), 0} , f − (x) = max{−f (x), 0} ,
per cui f (x) = f + (x) − f − (x). Se ben definito, si pone quindi
Z Z Z
f= f − f −.
+
Ω Ω Ω
Come caso particolare, abbiamo la misura di un insieme non necessaria-
mente limitato
|Ω| = lim |Ω ∩ B[0, r]| .
r→+∞

Si noti che il valore |Ω| può essere in alcuni casi +∞. Le proprietà dell’integrale
e della misura si estendono facilmente agli insiemi illimitati.

14
Esempio. Sia Ω = {(x, y) ∈ R2 : x2 + y 2 ≥ 1} e sia f : Ω → R definita da
f (x, y) = (x2 + y 2 )−α , con α > 0. Abbiamo
Z Z
1
f = lim dx dy
Ω r→+∞ Ω∩B(0,r) (x + y 2 )α
2
Z 2π Z r
1
= lim 2α
ρ dρ dθ
r→+∞ 0 1 ρ
Z r
= 2π lim ρ1−2α dρ .
r→+∞ 1

Si vede quindi che f è integrabile su Ω se e solo se α > 1, nel qual caso


π
l’integrale vale α−1 .
2 2
Esempio. Consideriamo la funzione f (x, y) = e−(x +y ) e facciamo un cam-
biamento di variabili in coordinate polari:
Z Z
−(x2 +y 2 ) 2 2
e dx dy = lim e−(x +y ) dx dy
R2 r→+∞ B(0,r)
Z 2π Z r 
−ρ2
= lim e ρ dρ dθ
r→+∞ 0 0
h ir
2
= 2π lim − 21 e−ρ
r→+∞
 2
0
= π lim 1 − e−r = π .
r→+∞

D’altra parte, usando il teorema di riduzione, si ha:


Z
2 2
π = lim e−(x +y ) dx dy
r→+∞ B[0,r]
Z r Z r 
−x2 −y 2
= lim e e dx dy
r→+∞ −r −r
Z r  Z r 
−x2 −y 2
= lim e dx e dy
r→+∞ −r −r
Z r 2  Z r 2
−x2 −x2
= lim e dx = lim e dx
r→+∞ −r r→+∞ −r
Z +∞ 2
−x2
= e dx ,
−∞

per cui troviamo il risultato


Z +∞ √
2
e−x dx = π.
−∞

15
Integrale di funzioni non limitate
Sia f : Ω → R non necessariamente limitata. Supponiamo dapprima

f (x) ≥ 0 , per ogni x ∈ Ω ,

e consideriamo, per ogni n ∈ N, la funzione fn (x) = min{f (x), n}. Se queste


funzioni sono integrabili su Ω, si pone
Z Z
f = lim fn .
Ω n Ω

Nel caso in cui la funzione assuma anche valori negativi, si pone


Z Z Z
f= f − f −.
+
Ω Ω Ω

Esempio. Sia Ω = {(x, y) ∈ R2 : 0 < x2 + y 2 ≤ 1} e sia f : Ω → R definita da


f (x, y) = (x2 + y 2 )−α , con α > 0. Abbiamo

f (x, y) se x2 + y 2 ≥ n−1/α ,

fn (x, y) =
n se x2 + y 2 ≤ n−1/α .

Quindi
Z Z Z
fn =  1 
fn +  1 
fn
Ω B 0,n− 2α B(0,1)\B 0,n− 2α
 1
 Z 2π Z 1 1

− 2α
= n B 0, n + ρ dρ dθ


n− 2α ρ
1
0
Z 1
α−1
= πn α + 2π 1
ρ1−2α dρ .
n− 2α

Si vede quindi che f è integrabile su Ω se e solo se α < 1, nel qual caso


l’integrale vale
Z Z 
α−1
h ρ2−2α i1 
π
f = lim fn = lim πn α + 2π 1 = .
Ω n→+∞ Ω n→+∞ 2 − 2α n 2α

1−α

16
Appendice. Alcune applicazioni nella Fisica
Dato un corpo Ω ⊆ RN , è possibile definire una “densità di massa” µ :
Ω → [0, +∞[. La massa totale del corpo è pertanto
Z
M= µ(x) dx .

Risulta molto utile considerare il “baricentro” di Ω: si tratta del punto


Z
1
b= µ(x)x dx .
M Ω
Nel caso in cui la densità di massa sia costante, si tratta di un “corpo omo-
geneo”. In questo caso, si ha M = µ|Ω| e il suo baricentro di chiama anche
“centroide”; lo denoteremo con
Z
1
c= x dx .
|Ω| Ω
Esempio. Troviamo il centroide di

Ω = {(x, y) ∈ R2 : x ≥ 0, y ≥ 0, x2 + 4y 2 ≤ 1} .

Trattandosi di un quarto di ellisse di semiassi a = 1 e b = 21 , sappiamo già che


|Ω| = 14 πab = 81 π. Pertanto,
Z Z 
π
c= x dx dy , y dx dy .
8 Ω Ω

Utilizzando la trasformazione in coordinate polari modificate ϕ(ρ) = (ρ cos θ, 12 ρ sin θ)


otteniamo
Z 1  Z π/2 Z 1  Z π/2 !  
π 1 2

1 2
 4 2
c= 2
ρ cos θ dθ dρ , 4
ρ sin θ dθ dρ = , .
8 0 0 0 0 3π 3π

Risulta interessante la seguente considerazione di Pappo di Alessandria


(circa 300 d.C.). Sia Ω un corpo tridimensionale ottenuto ruotando attorno
all’asse z un’insieme S, che supponiamo essere contenuto in {(y, z) ∈ R2 : y ≥
0}. Pertanto,
n p o
Ω = (x, y, z) ∈ R3 : ( x2 + y 2 , z) ∈ S .

Utilizzando le coordinate cilindriche abbiamo che


Z 2π  Z Z 2π  Z  Z 
  1
|Ω| = ρ dρ dz dθ = y dy dz dθ = |S| 2π y dy dz .
0 S 0 S |S| S
Il Teorema di Pappo afferma dunque che il volume del solido di rotazione
Ω è uguale all’area dell’insieme S moltiplicata per la lunghezza del percorso
circolare compiuto dal suo baricentro attorno all’asse z.

17
Concludiamo questa parte introducendo il potenziale gravitazionale di un
corpo tridimensionale Ω con densità di massa µ : Ω → [0, +∞[ . Secondo la
legge di Newton, esso è la funzione U : R3 \ Ω → R definita da
Z
Gµ(x)
U (ξ) = − dx .
Ω kξ − xk

Se il corpo Ω è omogeneo, ossia se µ è costante, si ha che


Z
1 1
U (ξ) = −GM dx ,
|Ω| Ω kξ − xk

e se tutta la sua massa M è concentrata in un punto c, si pone


GM
U (ξ) = − .
kξ − ck

Ora vogliamo trovare il potenziale gravitazionale di una palla omogenea centra-


ta nell’origine, di raggio r > 0. Sarà sufficiente calcolare U (ξ) con ξ = (0, 0, h),
per un certo h > r, in quanto il problema presenta una simmetria sferica e
questo permette di trovare U (ξ) per ogni ξ con kξk > r. Abbiamo quindi,
passando a coordinate sferiche,
Z

U (0, 0, h) = − p dx dy dz
Ω x2 + y 2 + (h − z)2
Z 2π Z r Z π ! !
2
Gµρ sin φ
=− p dφ dρ dθ
0 0 0 ρ − 2hρ cos φ + h2
2
Z rh p
ρ iφ=π
= −2πGµ ρ2 − 2hρ cos φ + h2 dρ
0 h φ=0
Z r
G
= −2π µ ρ(|ρ + h| − |ρ − h|) dρ
h 0
Z r
G
= −2π µ 2ρ2 dρ
h 0
G 4πr3 GM
=− µ=− .
h 3 h
Otteniamo cosı̀ lo stesso potenziale gravitazionale di un corpo avente tutta la
sua massa concentrata nell’origine.

18
Lezioni sulle forme di↵erenziali
Prof. Alessandro Fonda, a.a. 2019/2020

1 Gli spazi vettoriali ⌦M (RN )


Consideriamo, per ogni numero naturale M, gli insiemi ⌦M (RN ), formati dalle
funzioni M lineari antisimmetriche su RN , a valori reali, con la convenzione che
⌦0 (RN ) = R. Essi sono spazi vettoriali su R. Se scegliamo degli indici i1 , ..., iM
nell’insieme {1, ..., N }, possiamo definire l’applicazione M lineare antisimmetrica
dxi1 ,...,iM : è quella funzione che associa ai vettori
0 (1) 1 0 (M ) 1
v1 v1
B .. C B .. C
v(1) =@ . A , ... , v
(M )
=@ . A,
(1) (M )
vN vN

il numero reale 0 1
(1) (M )
v i1 ... vi1
B . .. C
det B
@ .
. ··· . CA.
(1) (M )
viM ... viM
Si noti che se due indici coincidono, si ha l’applicazione nulla. Se due indici ven-
gono scambiati, l’applicazione cambia di segno. Richiamiamo il seguente risultato
algebrico.
N
Proposizione. Se 1  M  N, lo spazio ⌦M (RN ) ha dimensione M . Una sua
N
base è data da (dxi1 ,...,iM )1i1 <...<iM N . Se M > N, si ha ⌦M (R ) = {0}.

Dimostrazione. Vediamo che gli dxi1 ,...,iM , con 1  i1 < ... < iM  N , sono
linearmente indipendenti: sia
X
↵i1 ,...,iM dxi1 ,...,iM = 0 .
1i1 <...<iM N

1
Fissiamo 1  j1 < ... < jM  N e dimostriamo che ↵j1 ,...,jM = 0. Applicando
l’espressione scritta sopra alla M -pla di vettori della base canonica ej1 , ... , ejM ,
abbiamo che
0 1
i1 j1 ... i1 jM
X B C
↵i1 ,...,iM det @ ... ···
..
. A = 0.
1i1 <...<iM N ...
iM j1 iM jM

(Qui ij è il simbolo di Kronecker: vale 1 se i = j, altrimenti vale 0.) Si vede allora


che, siccome 1  i1 < ... < iM  N e 1  j1 < ... < jM  N , tutti i determinanti
scritti sopra sono nulli tranne quello in cui {i1 = j1 , ..., iM = jM }, che vale 1. Ne
segue che ↵j1 ,...,jM = 0.
Resta da dimostrare che ⌦M (RN ) è generato dai dxi1 ,...,iM . Sia dunque ' un
elemento di ⌦M (RN ). Allora
0 1
N
X N
X
(1) (M )
'(v(1) , . . . , v(M ) ) = ' @ v k1 e k1 , . . . , v kM e kM A
k1 =1 kM =1
N
X (1) (M )
= '(ek1 , ..., ekM )vk1 · · · vkM .
k1 ,...,kM =1

Di questa somma dobbiamo considerare solo i temini con indici distinti, essendo '
antisimmetrica. Allora la somma per k1 , ..., kM che vanno da 1 a N può essere fatta
prendendo in tutti i modi possibili degli indici 1  i1 < ... < iM  N e considerando
tutte le loro permutazioni i (1) , ..., i (M ) , con : {1, ..., M } ! {1, ..., M }. Scriveremo
quindi
N
X (1) (M )
'(ek1 , ..., ekM )vk1 · · · vkM =
k1 ,...,kM =1
X X (1) (M )
= '(ei (1)
, ..., ei (M )
)vi (1)
· · · vi (M )
.
1i1 <...<iM N

Riordinando tutti i termini ei (1) , ..., ei (M ) e tenendo conto del fatto che scambiando
due vettori il valore di ' cambia segno, otteniamo
X X (1) (M )
'(v(1) , . . . , v(M ) ) = '(ei1 , ..., eiM ) " vi (1) · · · vi (M ) ,
1i1 <...<iM N

dove " denota il segno di ogni permutazione : {1, ..., M } ! {1, ..., M }. Per la

2
definizione di determinante, abbiamo quindi
0 1
(1) (M )
vi1 ... vi1
X B . .. C
'(v(1) , . . . , v(M ) ) = '(ei1 , ..., eiM ) det B .
@ . ··· . A ,
C
1i1 <...<iM N (1) (M )
viM ... viM

ossia X
'= '(ei1 , ..., eiM )dxi1 ,...,iM .
1i1 <...<iM N

La dimostrazione è cosı̀ completa.


Ci interessa in particolar modo il caso N = 3. Andiamo a vedere più da vicino
come sono fatti gli spazi ⌦1 (R3 ), ⌦2 (R3 ) e ⌦3 (R3 ).
Consideriamo ⌦1 (R3 ), lo spazio delle applicazioni lineari definite su R3 , a valori
in R. Indicheremo con dx1 , dx2 , dx3 le seguenti applicazioni lineari:
0 1 0 1 0 1
v1 v1 v1
dx1 : @ v2 A 7! v1 , dx2 : @ v2 A 7! v2 , dx3 : @ v2 A 7! v3 .
v3 v3 v3

Si ha che ⌦1 (R3 ) ha dimensione 3 e (dx1 , dx2 , dx3 ) ne è una base.


Consideriamo ⌦2 (R3 ), lo spazio delle applicazioni bilineari antisimmetriche def-
inite su R3 ⇥ R3 , a valori in R. Esso ha dimensione 3, e una sua base è data da
(dx1,2 , dx1,3 , dx2,3 ), con
00 1 0 0 11
v1 v1 ✓ ◆
@@ A @ AA v1 v10
dx1,2 : v2 , v2 0 7! det = v1 v20 v2 v10 ,
0 v2 v20
v3 v3
00 1 0 0 11
v1 v1 ✓ ◆
@@ A @ AA v1 v10
dx1,3 : v2 , v2 0 7! det = v1 v30 v3 v10 ,
0 v3 v30
v3 v3
00 1 0 0 11
v1 v1 ✓ ◆
@@ A @ AA v2 v20
dx2,3 : v2 , v2 0 7! det = v2 v30 v3 v20 .
0 v3 v30
v3 v3

È utile ricordare che si ha:

dx1,1 = dx2,2 = dx3,3 = 0 ,

dx2,1 = dx1,2 , dx3,1 = dx1,3 , dx3,2 = dx2,3 .

3
Consideriamo ⌦3 (R3 ), lo spazio delle applicazioni trilineari antisimmetriche def-
inite su R3 ⇥ R3 ⇥ R3 , a valori in R. Indichiamo con dx1,2,3 la seguente applicazione
trilineare antisimmetrica:
00 1 0 0 1 0 00 11 0 1
v1 v1 v1 v1 v10 v100
dx1,2,3 : @@ v2 A , @ v20 A , @ v200 AA 7! det @ v2 v20 v200 A .
v3 v30 v300 v3 v30 v300

Ogni elemento dello spazio vettoriale ⌦3 (R3 ) è multiplo di dx1,2,3 . Si ha che ⌦3 (R3 )
ha dimensione 1. Ricordiamo che

dx1,2,3 = dx2,3,1 = dx3,1,2 = dx3,2,1 = dx2,1,3 = dx1,3,2

e, se due indici coincidono, si ha l’applicazione nulla.

2 Forme di↵erenziali in RN
Definizione. Dato un sottoinsieme aperto U di RN , chiameremo forma differen-
ziale di grado M (o M forma di↵erenziale) una funzione ! : U ! ⌦M (RN ).
Se M 1, considerata la base (dxi1 ,...,iM )1i1 <...<iM N , le componenti della
M forma di↵erenziale ! verranno denotate con fi1 ,...,iM : U ! R. Scriveremo
quindi: X
!(x) = fi1 ,...,iM (x) dxi1 ,...,iM .
1i1 <...<iM N

Pertanto, l’applicazione M lineare antisimmetrica !(x) è determinata dal vettore


N
M dimensionale
F (x) = (fi1 ,...,iM (x))1i1 <...<iM N .
Una 0 forma di↵erenziale non è altro che una funzione definita su U a valori in R.
Diremo che una M forma di↵erenziale è di classe C k se tutte le sue componenti lo
sono.
Si può definire la somma di due M forme di↵erenziali: se ! è come sopra e !
˜,
anch’essa definita su U , è del tipo
X
˜ ( x) =
! gi1 ,...,iM (x) dxi1 ,...,iM ,
1i1 <...<iM N

si definisce in modo naturale ! + !


˜ come segue:
X
˜ )(x) =
(! + ! (fi1 ,...,iM (x) + gi1 ,...,iM (x)) dxi1 ,...,iM .
1i1 <...<iM N

4
Inoltre, se c 2 R, si definisce c !, il prodotto dello scalare c per la M forma dif-
ferenziale !, nel modo seguente:
X
(c !)(x) = cfi1 ,...,iM (x) dxi1 ,...,iM .
1i1 <...<iM N

Con queste definizioni, l’insieme delle forme di↵erenziali di grado M risulta essere
uno spazio vettoriale.
Vediamo da vicino il caso N = 3. Consideriamo un sottoinsieme U di R3 . Se
indichiamo con !M una M forma di↵erenziale, avremo, nei casi M = 1, 2, 3, le
seguenti possibilità:

!1 (x) = f1 (x) dx1 + f2 (x) dx2 + f3 (x) dx3 ,


!2 (x) = f1,2 (x) dx1,2 + f1,3 (x) dx1,3 + f2,3 (x)dx2,3 ,
!3 (x) = f1,2,3 (x) dx1,2,3 .

Si noti che !1 (x) e !2 (x) sono determinate dai vettori tridimensionali F (x) =
(f1 (x), f2 (x), f3 (x)) e G(x) = (f12 (x), f13 (x), f23 (x)), rispettivamente.

3 Prodotto esterno
Date due forme di↵erenziali ! : U ! ⌦M (RN ), ! ˜ : U ! ⌦M̃ (RN ), di grado M e M̃ ,
rispettivamente, vogliamo definire la forma di↵erenziale ! ^ ! ˜ , di grado M + M̃ , che
si dice prodotto esterno di ! e ! ˜ . Se
X
!(x) = fi1 ,...,iM (x) dxi1 ,...,iM ,
1i1 <...<iM N
X
˜ (x) =
! gj1 ,...,jM̃ (x) dxj1 ,...,jM̃ ,
1j1 <...<jM̃ N

si pone
P
˜ )(x) =
(! ^ ! fi1 ,...,iM (x)gj1 ,...,jM̃ (x) dxi1 ,...,iM ,j1 ,...,jM̃ .
1i1 <...<iM N
1j1 <...<jM̃ N

Di solito si omette il simbolo ^ qualora una delle due è una 0 forma di↵erenziale,
in quanto il prodotto esterno assomiglia, in questo caso, al prodotto per uno scalare.
Si noti che nella sommatoria saranno nulli tutti gli elementi in cui un indice compare
due volte. Vediamo ora alcune proprietà.

5
Proposizione. Se !, ! ˜
˜, ! ˜ , rispetti-
˜ sono tre forme di↵erenziali di grado M, M̃ , M̃
vamente, allora:
˜ ^ ! = ( 1)M M̃ ! ^ !
! ˜,
(! ^ ! ˜˜ = ! ^ (˜
˜) ^ ! ˜˜ ) ;
!^!
se c 2 R, allora
(c !) ^ !
˜ = ! ^ (c !
˜ ) = c(! ^ !
˜) ;
inoltre, nel caso in cui M = M̃ , si ha

˜˜ = (! ^ !
˜) ^ !
(! + ! ˜˜ ) + (˜ ˜˜ ) ,
!^!

˜
˜ ^ (! + !
! ˜˜ ^ !) + (!
˜ ) = (! ˜˜ ^ !
˜) .

Dimostrazione. Supponiamo che ! e !


˜ siano della forma scritta sopra, e sia
X
˜
˜ (x) =
! hk1 ,...,k ˜ (x) dxk1 ,...,k ˜ .
M̃ M̃
1k1 <...<k ˜ N

La prima uguaglianza si ottiene osservando che, per arrivare dalla sequenza di in-
dici i1 , ..., iM , j1 , ..., jM̃ alla j1 , ..., jM̃ , i1 , ..., iM , bisogna dapprima spostare j1 verso
sinistra operando M scambi, poi fare lo stesso per l’eventuale j2 , e cosı̀ via fino a
jM̃ . In totale, sono quindi necessari M M̃ scambi di indici. Tenuto conto che ad ogni
scambio la forma di↵erenziale cambia di segno, si ha la formula cercata.
La dimostrazione della seconda uguaglianza (proprietà associativa) non presenta
difficoltà di rilievo, come pure le uguaglianze in cui compare la costante c.
Per quanto riguarda la proprietà distributiva, abbiamo:

˜
˜ )(x) =
˜) ^ !
((! + !
P
= (fi1 ,...,iM (x) +
1i1 <...<iM N
1k1 <...<k ˜ N

+gi1 ,...,iM (x))hk1 ,...,k ˜ (x) dxi1 ,...,iM ,k1 ,...,k ˜


M̃ M̃
P
= (fi1 ,...,iM (x)hk1 ,...,k ˜ (x) +
1i1 <...<iM N M̃
1k1 <...<k ˜ N

+gi1 ,...,iM (x)hk1 ,...,k ˜ (x)) dxi1 ,...,iM ,k1 ,...,k ˜


M̃ M̃
˜
= ((! ^ ! ˜˜ ))(x) .
!^!
˜ ) + (˜

L’ultima uguaglianza si dimostra in modo analogo, oppure usando la prima e la


quarta.

6
Se consideriamo il caso particolare delle due forme di↵erenziali costanti

!(x) = dx1 , ˜ (x) = dx2


!

(per ogni x 2 U ), avremo che (! ^ !


˜ )(x) = dx1,2 , per ogni x 2 U. Possiamo quindi
scrivere
dx1 ^ dx2 = dx1,2 .
Più in generale, in vista della proprietà associativa del prodotto esterno, possiamo
scrivere:
dxi1 ^ ... ^ dxiM = dxi1 ,...,iM .
Nel seguito, useremo indi↵erentemente l’una o l’altra scrittura.

4 Di↵erenziale esterno
Data una M forma di↵erenziale ! di classe C 1 , vogliamo definire la forma di↵eren-
ziale dex !, di grado M + 1, che si dice di↵erenziale esterno di !.
Se ! è una 0 forma di↵erenziale, ! = f : U ! R, il suo di↵erenziale esterno
dex !(x) non sarà altro che il di↵erenziale df (x), applicazione lineare definita in RN ,
a valori in R. Essendo, per ogni v = (v1 , ..., vN ),
@f @f
df (x)v = (x) v1 + ... + ( x) v N
@x1 @xN
si ha:
N
X
@f @f @f
df (x) = (x) dx1 + ... + (x) dxN = (x) dxm .
@x1 @xN @xm
m=1
Nel caso generale, se
X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N

poniamo X
dex !(x) = dfi1 ,...,iM (x) ^ dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N

o, equivalentemente,

X N
X @fi1 ,...,iM
dex !(x) = (x) dxm ^ dxi1 ^ ... ^ dxiM .
@xm
1i1 <...<iM N m=1

Nel seguito, per comodità di scrittura, scriveremo sempre d! al posto di dex !. Ve-
diamo alcune proprietà del di↵erenziale esterno.

7
Proposizione. Se ! e ! ˜ sono due forme di↵erenziali di classe C 1 , di grado M e M̃ ,
rispettivamente, si ha:
d(! ^ ! ˜ + ( 1)M ! ^ d˜
˜ ) = d! ^ ! !;
se M = M̃ e c 2 R, allora
d(! + !
˜ ) = d! + d˜
!,
d(c !) = c d! ;
se ! è di classe C 2, allora
d(d!) = 0 .

Dimostrazione. Per quanto riguarda la prima uguaglianza, se ! e !


˜ sono come
sopra, si ha:
˜ )(x) =
d(! ^ !
N
X
P @
= (fi ,...,i gj ,...,j )(x) dxm,i1 ,...,iM ,j1 ,...,jM̃
1i1 <...<iM N @xm 1 M 1 M̃
1j1 <...<jM̃ N m=1
N ✓
X
P @fi 1 ,...,iM
= gj1 ,...,jM̃ +
1i1 <...<iM N @xm
1j1 <...<jM̃ N m=1

@gj1 ,...,jM̃
+fi1 ,...,iM (x)dxm,i1 ,...,iM ,j1 ,...,jM̃
@xm
N ✓
X ◆
P @fi1 ,...,iM
= gj1 ,...,jM̃ (x) dxm,i1 ,...,iM ,j1 ,...,jM̃ +
1i1 <...<iM N @xm
1j1 <...<jM̃ N m=1
N ✓
X ◆
M P @gj1 ,...,jM̃
+( 1) fi1 ,...,iM (x) dxi1 ,...,iM ,m,j1 ,...,jM̃
1i1 <...<iM N @xm
1j1 <...<jM̃ N m=1

˜ )(x) + ( 1)M (! ^ d˜
= (d! ^ ! ! )(x) .
La seconda e la terza uguaglianza seguono facilmente dalla linearità della derivata.
Per quanto riguarda l’ultima uguaglianza, abbiamo:
X N X
X N
@ @fi1 ,...,iM
d(d!)(x) = (x) dxk,m,i1 ,...,iM .
@xk @xm
1i1 <...<iM N k=1 m=1

Tenuto conto che


@ @fi1 ,...,iM @ @fi1 ,...,iM
=
@xk @xm @xm @xk
e del fatto che dxk ^ dxm = dxm ^ dxk , si vede che gli addendi delle sommatorie si
eliminano a due a due, per cui si ha d(d!)(x) = 0.

8
5 Forme di↵erenziali in R3
Nel caso N = 3, se !1 e !
˜ 1 sono due 1-forme di↵erenziali,
!1 (x) = f1 (x) dx1 + f2 (x) dx2 + f3 (x) dx3 ,
˜ 1 (x) = g1 (x) dx1 + g2 (x) dx2 + g3 (x) dx3 ,
!
usando le proprietà distributiva e associativa si ottiene:
!1 ^ !
˜ 1 = (f1 g2 f2 g1 ) dx1,2 + (f1 g3 f3 g1 ) dx1,3 + (f2 g3 f3 g2 ) dx2,3 .
Se invece !1 è una 1-forma di↵erenziale e !2 è una 2-forma di↵erenziale,
!1 (x) = f1 (x)dx1 + f2 (x)dx2 + f3 (x)dx3 ,
!2 (x) = g1,2 (x) dx1,2 + g1,3 (x) dx1,3 + g2,3 (x) dx2,3 ,
si ha:
!1 ^ !2 = (f1 g2,3 f2 g1,3 + f3 g1,2 ) dx1,2,3 .
Se abbiamo una 0-forma di↵erenziale !0 = f : U ! R, allora
@f @f @f
d!0 (x) = (x) dx1 + (x) dx2 + (x) dx3 .
@x1 @x2 @x3
Se abbiamo una 1-forma di↵erenziale
!1 (x) = f1 (x) dx1 + f2 (x) dx2 + f3 (x) dx3 ,
allora
✓ ◆
@f2 @f1
d!1 (x) = ( x) (x) dx1 ^ dx2 +
@x1 @x2
✓ ◆
@f3 @f1
+ ( x) (x) dx1 ^ dx3 +
@x1 @x3
✓ ◆
@f3 @f2
+ ( x) (x) dx2 ^ dx3 .
@x2 @x3
Se abbiamo una 2-forma di↵erenziale
!2 (x) = f1,2 (x) dx1 ^ dx2 + f1,3 (x) dx1 ^ dx3 + f2,3 (x) dx2 ^ dx3 ,
allora ✓ ◆
@f2,3 @f1,3 @f1,2
d!2 (x) = ( x) ( x) + (x) dx1 ^ dx2 ^ dx3 .
@x1 @x2 @x3
A questo punto, osserviamo che una scelta della base per lo spazio vettoriale
⌦2 (R3 ) più adatta alle applicazioni potrebbe essere la seguente:
(dx2,3 , dx3,1 , dx1,2 ) .
Infatti, in questo modo, associando

9
• a ogni funzione scalare f : U ! R
una 0 forma di↵erenziale !0 = f , oppure
una 3 forma di↵erenziale !3 = f dx1,2,3 ;
• a ogni campo di vettori F = (F1 , F2 , F3 ) : U ! R3
una 1 forma di↵erenziale !1 = F1 dx1 + F2 dx2 + F3 dx3 , oppure
una 2 forma di↵erenziale !2 = F1 dx2,3 + F2 dx3,1 + F3 dx1,2 ,
si ha che:
d!0 corrisponde al gradiente di f :
✓ ◆
@f @f @f
grad f = , , ;
@x1 @x2 @x3
d!1 corrisponde al rotore di F :
✓ ◆
@F3 @F2 @F1 @F3 @F2 @F1
rot F = , , ;
@x2 @x3 @x3 @x1 @x1 @x2
d!2 corrisponde alla divergenza di F :
@F1 @F2 @F3
div F = + + .
@x1 @x2 @x3
Allora, presi due campi di vettori F e F̃ , considerate le 1 forme di↵erenziali
associate
!1 = F1 dx1 + F2 dx2 + F3 dx3 , !
˜ 1 = F̃1 dx1 + F̃2 dx2 + F̃3 dx3 ,
si ha che !1 ^ !
˜ 1 corrisponde al prodotto vettoriale di F e F̃ :
F ⇥ F̃ = (F2 F̃3 F3 F̃2 , F3 F̃1 F1 F̃3 , F1 F̃2 F2 F̃1 ) ;
se invece di !
˜ 1 consideriamo la 2 forma di↵erenziale
˜ 2 = F̃1 dx2 ^ dx3 + F̃2 dx3 ^ dx1 + F̃3 dx1 ^ dx2 ,
!
si ha che !1 ^ !
˜ 2 corrisponde al prodotto scalare di F e F̃ :
hF |F̃ i = F1 F̃1 + F2 F̃2 + F3 F̃3 .
Le proprietà del prodotto esterno e del di↵erenziale esterno permettono di di-
mostrare alcune formule in cui appaiono il gradiente, il rotore o la divergenza. Se
f : U ! R, f˜ : U ! R, F : U ! R3 e F̃ : U ! R3 , abbiamo ad esempio le seguenti:
rot(grad f ) = 0 ,
div(rot F ) = 0 ,
grad(f f˜) = f˜(grad f ) + f (grad f˜) ,
rot(f F ) = (grad f ) ⇥ F + f (rot F ) ,
div(f F̃ ) = hgrad f | F̃ i + f (div F̃ ) ,
div(F ⇥ F̃ ) = hrot F | F̃ i hF | rot F̃ i .

10
6 M superfici
Indichiamo con I un rettangolo di RM , dove 1  M  N.
Definizione. Chiameremo M superficie in RN una funzione 1 : I ! RN di
classe C 1 . Se M = 1, si dirà anche curva; se M = 2, si dirà semplicemente
superficie. L’insieme (I) è detto supporto della M superficie . Diremo che la
M superficie è regolare se, per ogni u 2 I , la matrice jacobiana 0 (u) ha rango
M.
Consideriamo da vicino il caso N = 3. Una curva in R3 è una funzione :
[a, b] ! R3 , = ( 1 , 2 , 3 ). La curva è regolare se, per ogni t 2 ]a, b[ , il vettore
0 (t) = ( 0 (t), 0 (t), 0 (t)) è non nullo. In tal caso, si definisce il seguente versore
1 2 3
tangente nel punto (t) :
0 (t)
⌧ (t) = .
|| 0 (t)||

σ(b )

τσ(t )

σ(t ) + τσ(t )
σ(a )

σ(t )

Esempio. La curva : [0, 2⇡] ! R3 definita da

(t) = (R cos(2t), R sin(2t), 0)

ha come supporto la circonferenza

{(x, y, z) : x2 + y 2 = R2 , z = 0}

(che viene percorsa due volte). Essendo 0 (t) = ( 2R sin(2t), 2R cos(2t), 0), si tratta di una curva
regolare, e si ha:
⌧ (t) = ( sin(2t), cos(2t), 0) .
1
Le derivate parziali di devono essere continue su tutto I e nei punti di frontiera vanno intese,
se necessario, come derivate destre o sinistre. Equivalentemente, si potrebbe estendere ad una
funzione di classe C 1 definita su un aperto contenente I (a questo riguardo, si veda un articolo di H.
Whitney su “Transactions of the American Mathematical Society”, del 1934). In questa ottica, il
dominio di potrebbe essere un insieme più generale, ad esempio la chiusura di un aperto limitato,
affinché il di↵erenziale risulti ben definito anche nei punti di frontiera. Considerazioni analoghe si
possono fare per quanto riguarda il dominio delle forme di↵erenziali.

11
Una superficie in R3 è una funzione : [a1 , b1 ] ⇥ [a2 , b2 ] ! R3 . La superficie è
regolare se, per ogni (u, v) 2 ]a1 , b1 [ ⇥ ]a2 , b2 [ , i vettori @@u (u, v), @@v (u, v) sono linear-
mente indipendenti. In tal caso, essi individuano un piano, detto piano tangente
alla superficie nel punto (u, v), e si definisce il seguente versore normale:

σ(u ,v ) + νσ(u ,v )

νσ(u ,v )

σ(u , v)

@ @
@u (u, v) ⇥ @v (u, v)
⌫ (u, v) = @ @
.
|| @u (u, v) ⇥ @v (u, v)||
Esempi. 1. La superficie : [0, ⇡] ⇥ [0, ⇡] ! R3 definita da
( , ✓) = (R sin cos ✓, R sin sin ✓, R cos )
ha come supporto la semisfera
{(x, y, z) : x2 + y 2 + z 2 = R2 , y 0} .

Essendo
@
( , ✓) = (R cos cos ✓, R cos sin ✓, R sin ) ,
@
@
( , ✓) = ( R sin sin ✓, R sin cos ✓, 0) ,
@✓
si tratta di una superficie regolare, e si ha:
⌫ ( , ✓) = (sin cos ✓, sin sin ✓, cos ) .

12
2. La superficie : [0, 2⇡] ⇥ [0, 2⇡] ! R3 definita da

(u, v) = ((R + r cos u) cos v, (R + r cos u) sin v, r sin u)

dove 0 < r < R, ha come supporto l’anello toroidale o “toro”

p
{(x, y, z) : ( x2 + y 2 R)2 + z 2 = r2 } .
Si può verificare che anche in questo caso si tratta di una superficie regolare.

Una 3-superficie in R3 si dice anche volume.


Esempio. La funzione : [0, R] ⇥ [0, ⇡] ⇥ [0, 2⇡] ! R3 definita da

(⇢, , ✓) = (⇢ sin cos ✓, ⇢ sin sin ✓, ⇢ cos )

ha come supporto la palla chiusa

{(x, y, z) : x2 + y 2 + z 2  R2 } .
0
In questo caso, det (⇢, , ✓) = ⇢2 sin e pertanto si tratta di un volume regolare.

Definizione. Due M superfici : I ! RN e ˜ : J ! RN si dicono equivalenti


se hanno lo stesso supporto ed esistono due insiemi aperti A ⇢ I, B ⇢ J, e un
di↵eomorfismo ' : A ! B con le seguenti proprietà: gli insiemi I\A e J\B sono

13
trascurabili e, per ogni u 2 A, (u) = ˜ ('(u)). Diremo che e ˜ hanno la stessa
orientazione se det '0 (u) > 0 per ogni u 2 A; diremo che hanno orientazione
opposta se det '0 (u) < 0 per ogni u 2 A.
Esempi. Data una curva : [a, b] ! RN , una curva ad essa equivalente con orientazione opposta
è, ad esempio, ˜ : [a, b] ! RN definita da

˜ (t) = (a + b t) .

Se è regolare, un esempio interessante di curva equivalente con la stessa orientazione si ottiene


considerando la funzione Z t
'(t) = || 0 (r)|| dr .
a

Siccome '0 (t) = || 0 (t)|| > 0 per ogni t 2 ]a, b[ , ponendo ◆1 = '(b), si ha che ' : [a, b] ! [0, ◆1 ] è
biietiva e la curva 1 (s) = (' 1 (s)) è equivalente a . Si noti che, per ogni s 2 ]0, ◆1 [ , si ha
0
|| 1 (s)|| = || 0 (' 1
(s))(' 1 0
) (s)||
0 1 1
= (' (s)) 0
' (' 1 (s))
0 1 1
= (' (s)) = 1.
|| 0 (' 1 (s))||

Data una superficie : [a1 , b1 ]⇥[a2 , b2 ] ! R3 , una superficie ad essa equivalente con orientazione
opposta è, ad esempio, ˜ : [a1 , b1 ] ⇥ [a2 , b2 ] ! R3 definita da

˜ (u, v) = (u, a2 + b2 v) ,

oppure da
˜ (u, v) = (a1 + b1 u, v) .

Come vedremo in seguito, non sempre due M superfici aventi lo stesso supporto
sono equivalenti. Introduciamo una classe particolare di M superfici per le quali
questo inconveniente non si verifica.
Definizione. Una M superficie : I ! RN è una M parametrizzazione di un
insieme M se è regolare, iniettiva su I , e (I) = M. Diremo che un sottoinsieme
di RN è M parametrizzabile se esiste una sua M parametrizzazione.
Esempi. La circonferenza M = {(x, y) 2 R2 : x2 + y 2 = 1} è parametrizzabile e : [0, 2⇡] ! R2 ,
definita da (t) = (cos t, sin t), ne è una parametrizzazione.
Una parametrizzazione della sfera M = {(x, y, z) 2 R3 : x2 + y 2 + z 2 = 1} è, ad esempio,
: [0, ⇡] ⇥ [0, 2⇡] ! R3 , definita da

( , ✓) = (sin cos ✓, sin sin ✓, cos ) .

Teorema. Due M parametrizzazioni di uno stesso insieme sono sempre equiv-


alenti.

14
Dimostrazione. Sia M il sottoinsieme di RN considerato, e siano : I ! RN e
˜ : J ! RN due sue M parametrizzazioni. Definiamo gli insiemi
1 1
A=I \ (M \ ( (@I) [ ˜ (@J))) , B=J \˜ (M \ ( (@I) [ ˜ (@J))) .
Allora, per ogni u 2 A, essendo (u) 2 M \ ( (@I) [ ˜ (@J)) e ˜ (J) = M, esiste un
v 2 J tale che ˜ (v) = (u). Chiaramente, si ha che ˜ (v) 2 M \ ( (@I) [ ˜ (@J)),
per cui v 2 B. Inoltre, siccome ˜ è iniettiva su J , esiste un unico v in J con tale
proprietà. Possiamo quindi definire ' : A ! B ponendo '(u) = v. Pertanto, per
ogni u 2 A e v 2 B,
'(u) = v , (u) = ˜ (v) .
Questa funzione ' : A ! B è invertibile: un argomento simmetrico può essere usato
per definire la sua inversa ' 1 : B ! A.
Verifichiamo che A è un insieme apetro. Poiché , ˜ sono funzioni continue e @I,
@J sono insiemi compatti, si ha che (@I) [ ˜ (@J) è compatto, e pertanto chiuso.
Allora M \ ( (@I) [ ˜ (@J)) è relativamente aperto in M, e 1 (M \ ( (@I) [ ˜ (@J))
è relativamente aperto in I, per cui la sua intersezione con I è un insieme aperto.
In modo analogo si dimostra che anche B è un insieme aperto.
Prendiamo un v0 2 J , e poniamo x0 = ˜ (v0 ). La matrice jacobiana ˜ 0 (v0 )
ha rango M , e possiamo supporre senza perdita di generalità che le prime M righe
siano linearmente indipendenti. Essendo RN ' RM ⇥ RN M , scriveremo ogni punto
x 2 RN nella forma x = (x1 , x2 ), con x1 2 RM e x2 2 RN M . Inoltre, per non
avere doppi indici in basso, scriveremo x0 = (x01 , x02 ).
Sia : J ⇥ RN M ! RN definita da
(v, z) = ˜ (v) + (0, z) .
Allora 0 (v0 , 0) è invertibile, per cui è un di↵eomorfiismo locale: esistono un
intorno aperto V0 di v0 , un intorno aperto ⌦0 di 0 in RN M , e un intorno aperto
W0 di x0 tali che : V0 ⇥ ⌦0 ! W0 è un di↵eomorfismo. Inoltre, possiamo assumere
1 : W ! V ⇥ ⌦ . Scriveremo (x) = (
che V0 ✓ J . Sia = 0 0 0 1 (x), 2 (x)), con
1 ( x) 2 V 0 e 2 ( x) 2 ⌦ 0 .

Dimostriamo ora che ' è di classe C 1 . Prendiamo un u0 2 A, e poniamo x0 =


(u0 ) e v0 = '(u0 ). Sia v0 come sopra, con ˜ 0 (v0 ) avente le prime M righe
linearmente independenti, per cui possiamo definire il di↵eomorfismo locale :
W0 ! V0 ⇥ ⌦0 . Prendiamo un intorno aperto U0 di u0 , contenuto in A, tale che
(U0 ) ✓ W0 . Allora, per u 2 U0 e v 2 B,
'(u) = v , ( u) = (v, 0) , (v, 0) = ( (u)) .
Pertanto, ' coincide con 1 sull’insieme aperto U0 , il che mostra che ' è dif-
ferenziabile con di↵erenziale continuo.

15
In modo simmetrico si dimostra che ' 1 : B ! A è di classe C 1 , per cui ' risulta
essere un di↵eomorfismo.
Dimostriamo ora che gli insiemi I \ A e J \ B sono trascurabili. Prendiamo in
considerazione, ad esempio, il secondo:

J \ B = @J [ (J \ B) = @J [ {v 2 J : ˜ (v) 2 (@I)} [ {v 2 J : ˜ (v) 2 ˜ (@J)} .

Sappiamo che @J è trascurabile; proviamo che {v 2 J : ˜ (v) 2 (@I)} è anch’esso


trascurabile.
Sia v0 2 J tale che ˜ (v0 ) 2 (@I). Allora esiste un u0 2 @I tale che (u0 ) =
˜ (v0 ). Ragionando come sopra, definiamo : W0 ! V0 ⇥ ⌦0 . Sia U0 un intorno
aperto di u0 tale che (U0 \ I) ✓ W0 . Dimostriamo che

1
J \˜ ( (U0 \ @I)) ✓ ( 1 )(U0 \ @I) .

In e↵etti, prendendo v 2 J \ ˜ 1 ( (U0 \ @I)), abbiamo che ˜ (v) 2 (U0 \ @I).


Allora, essendo (v, 0) = ˜ (v), abbiamo che (˜ (v)) = (v, 0) 2 V0 ⇥ ⌦0 , da cui
v 2 1 ( (U0 \ @I)), e l’inclusione è cosı̀ dimostrata. Ora, siccome 1 è di
classe C 1 , abbiamo che ( 1 )(U0 \ @I) è trascurabile. Infine, la conclusione che
{v 2 J : ˜ (v) 2 (@I)} è trascurabile segue dal fatto che @I è compatto, e pertanto
può essere ricoperto da un numero finito di insiemi aperti come U0 .
Resta da dimostrare che {v 2 J : ˜ (v) 2 ˜ (@J)} è trascurabile. Sia v0 2 J
tale che ˜ (v0 ) 2 ˜ (@J). Allora, esiste un ṽ0 2 @J tale che ˜ (ṽ0 ) = ˜ (v0 ). Sia
Ve0 un intorno aperto di ṽ0 tale che ˜ (Ve0 \ J) ✓ W0 . Come sopra si vede che
J \ ˜ 1 (˜ (Ve0 \ @J)) ✓ ( 1 ˜ )(Ve0 \ @J), il che mostra che J \ ˜ 1 (˜ (Ve0 \ @J)) è
trascurabile. La conclusione segue come sopra, ricoprendo @J con un numero finito
di insiemi aperti come Ve0 .

7 Integrale di una forma di↵erenziale


Vogliamo ora definire la nozione di integrale di una M forma di↵erenziale su una
M superficie. Supponiamo di avere una M forma di↵erenziale
X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N

definita su un sottoinsieme U di RN contenente il supporto di una M superficie


: I ! RN , con 1  M  N. Possiamo considerare, al variare degli indici i1 , ..., iM ,

16
le funzioni (i1 ,...,iM ) : I ! RM definite da
0 1 0 1
u1 i1 (u1 , ..., uM )
B . C B .. C
(i1 ,...,iM ) : @ .. A 7! @ . A.
uM iM (u1 , ..., uM )

Definizione. Diremo che la M forma di↵erenziale ! : U ! ⌦M (RN ) è integrabile


sulla M superficie : I ! U se, per ogni scelta degli indici i1 , ..., iM nell’insieme
{1, ..., N }, si ha che (fi1 ,...,iM 0
) det (i è integrabile su I. In tal caso, si pone
1 ,...,iM )
Z X Z
0
!= fi1 ,...,iM ( (u)) det (i 1 ,...,iM )
( u) d u .
1i1 <...<iM N I

Ad esempio, ! sarà integrabile su qualora tutte le sue componenti siano funzioni


continue. Notiamo che si ha:
0 @ i1 @ i1
1
@u1 (u) ... @uM (u)
@( i1 , ..., iM ) B .. .. C
0
(i1 ,...,iM ) (u) = (u) = B
@ . ··· . C.
A
@(u1 , ..., uM ) @ @
iM iM
@u1 (u) ... @uM (u)

N
Se definiamo, per ogni x 2 U e per ogni u 2 I i vettori M dimensionali
F (x) = (fi1 ,...,iM (x))1i1 <...<iM N ,
⇣ ⌘
0
⌃(u) = det (i 1 ,...,iM )
( u) ,
1i1 <...<iM N

si ha che Z Z
!= hF ( (u))|⌃(u)i du ,
I
N
dove h·|·i indica il prodotto scalare euclideo in R(M ) .
È importante vedere come cambia l’integrale di una forma di↵erenziale ! su due
M superfici equivalenti aventi la stessa orientazione oppure orientazione opposta.
Teorema. Siano : I ! RN e ˜ : J ! RN due M superfici equivalenti. Se hanno
la stessa orientazione, allora Z Z
!= !;
˜
se hanno orientazione opposta, allora
Z Z
!= !.
˜

17
Dimostrazione. Abbiamo una M forma di↵erenziale del tipo
X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM .
1i1 <...<iM N

Sia ' : A ! B, come nella definizione di M superfici equivalenti, tale che = ˜ '.
Per il teorema di cambiamento di variabili nell’integrale, si ha:
Z X Z
!= fi1 ,...,iM (˜ ('(u))) det(˜ ')0(i1 ,...,iM ) (u) du
1i1 <...<iM N A
X Z
0
= fi1 ,...,iM (˜ ('(u))) det ˜(i 1 ,...,iM )
('(u)) det '0 (u) du
1i1 <...<iM N A
X Z
0
=± fi1 ,...,iM (˜ (v)) det ˜(i 1 ,...,iM )
( v ) dv
1i1 <...<iM N B
Z
=± !,
˜

con segno positivo se det '0 > 0, negativo se det '0 < 0.
R R
Nota. In generale, se e ˜ sono equivalenti, non sempre si ha l’uguaglianza | !| = | ˜ !|. Non
è detto infatti che esse abbiano la stessa orientazione od orientazione opposta. Ad esempio, se
consideriamo le due superfici , ˜ : [1, 2] ⇥ [0, 2⇡] ! R3 definite da

(u, v) =
✓✓ ✓ ◆ ◆ ✓ ✓ ◆ ◆ ✓ ◆ ◆
3 3 v 3 3 v 3 v
+ u cos cos v, + u cos sin v, u sin ,
2 2 2 2 2 2 2 2
⇣ ⇡⌘
˜ (u, v) = u, v + ,
2
si può vedere che sono entrambe parametrizzazioni dello stesso insieme (un nastro di Möbius) e
pertanto sono equivalenti (il lettore è invitato ad esplicitare un di↵eomorfismo ' : A ! B con le
proprietà della definizione). D’altra parte, se consideriamo la 2-forma di↵erenziale !(x1 , x2 , x3 ) =
dx12 , determinata dal campo vettoriale costante (0, 0, 1), facendo i conti si ottiene
Z Z p
!=0, != 3 2.
˜

Consideriamo ora il caso importante in cui M = N.


Teorema. Sia M = N ; se è regolare e iniettiva su I con det 0 > 0 e ! è della
forma
!(x) = f (x) dx1 ^ ... ^ dxN ,
R R
allora != (I) f.

18
Dimostrazione. Facendo uso del teorema del di↵eomorfismo locale, si vede che
induce un di↵eomorfismo tra I e (I ). Essendo trascurabili sia la frontiera di I che
la sua l’immagine attraverso l’applicazione (vedi il lemma a p. 98) tenendo conto
del teorema di cambiamento di variabili, avremo
Z Z
! = f ( (u)) det( 0 (u)) du
ZI
= f ( (u)) det( 0 (u)) du
ZI Z
= f= f.
(I ) (I)

R
R Se è la funzione identità, si ha che (I) = I e al posto di ! si userà scrivere
I !.

Vediamo il significato della definizione data quando N = 3. Se M = 1, :


[a, b] ! R3 è una curva e ! è una 1-forma di↵erenziale:

!(x) = F1 (x) dx1 + F2 (x) dx2 + F3 (x) dx3 .

Si ha:
Z Z b
0 0 0
!= [F1 ( (t)) 1 (t) + F2 ( (t)) 2 (t) + F3 ( (t)) 3 (t)] dt
a
Z b
= hF ( (t))| 0 (t)i dt .
a

Questa quantità si chiama integrale di linea 2 del campo di vettori F = (F1 , F2 , F3 )


lungo la curva , e si indica con il simbolo
Z
hF |d`i .

Esempio. Calcoliamo l’integrale di linea del campo F (x, y, z) = ( y, x, z 2 ) lungo la curva :


[0, 2⇡] ! R3 definita da (t) = (cos t, sin t, t). Si ha:
Z Z 2⇡
8⇡ 3
hF |d`i = [(sin t)2 + (cos t)2 + t2 ] dt = 2⇡ + .
0 3

2
In meccanica si usa questo concetto, ad esempio, per definire il lavoro di una particella che
descrive una curva in un campo di forze.

19
Se M = 2, : [a1 , b1 ] ⇥ [a2 , b2 ] ! R3 è una superficie e ! è una 2-forma
di↵erenziale:
!(x) = F1 (x) dx2 ^ dx3 + F2 (x) dx3 ^ dx1 + F3 (x) dx1 ^ dx2 .
Si trova:
2 0@ @ 2 1
Z Z b2 Z b1 @u (u, v) @v (u, v)
2

!= 4F1 ( (u, v)) det @ A+


a2 a1 @ 3 @ 3
@u (u, v) @v (u, v)
0@ 3 @ 3 1
@u (u, v) @v (u, v)
+F2 ( (u, v)) det @ A+
@ 1 @ 1
@u (u, v) @v (u, v)
0@ 1 @ 1 13
@u (u, v) @v (u, v)
+F3 ( (u, v)) det @ A5 du dv
@ 2 @ 2
@u (u, v) @v (u, v)
Z Z * +
b2 b1
@ @
= F ( (u, v)) (u, v) ⇥ (u, v) du dv .
a2 a1 @u @v

Questa quantità si chiama integrale di superficie o flusso 3 del campo di vettori


F = (F1 , F2 , F3 ) attraverso la superficie , e si indica con il simbolo
Z
hF |dSi .

Esempio. Calcoliamo il flusso del campo F (x, y, z) = ( y, x, z 2 ) attraverso la superficie :


[0, 1] ⇥ [0, 1] ! R3 definita da (u, v) = (u2 , v, u + v). Si ha:
Z Z 1Z 1
3
hF |dSi = [( v)( 1) + u2 ( 2u) + (u + v)2 (2u)] du dv = .
0 0 2

8 Funzioni scalari e misura M superficiale


Siano X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N

una M forma di↵erenziale definita su un sottoinsieme U di RN , con 1  M  N, e


: I ! RN , una M superficie con supporto contenuto in U. Ricordiamo che
Z Z
! = hF ( (u))|⌃(u)i du ,
I
3
In fluidodinamica si usa questo concetto, ad esempio, per definire la quantità di fluido che
attraversa una superficie in un’unità di tempo.

20
dove

F (x) = (fi1 ,...,iM (x))1i1 <...<iM N ,


⇣ ⌘
0
⌃(u) = det (i 1 ,...,iM )
( u) .
1i1 <...<iM N

Nelle applicazioni, oltre all’integrale di una M forma di↵erenziale, è utile definire


l’integrale di una funzione scalare f : U ! R su di una M superficie.
Definizione. La funzione f : U ! R è integrabile sulla M superficie : I ! RN
se (f )||⌃|| è integrabile su I. In tal caso, si pone
Z Z
f = f ( (u))||⌃(u)|| du
I
2 31/2
Z X ⇣ ⌘2
= f ( (u)) 4 det 0
(i1 ,...,iM ) (u)
5 du .
I 1i1 <...<iM N

In questo caso, l’integrale non di↵erisce per M superfici equivalenti.


Teorema. Se e ˜ sono due M superfici equivalenti, si ha:
Z Z
f= f.
˜

Dimostrazione. Con le notazioni introdotte in precedenza, essendo (u) = ˜ ('(u))


con ' : A ! B, abbiamo:
⇣ ⌘
0
⌃(u) = det (i 1 ,...,iM )
( u )
1i1 <...<iM N
⇣ ⇣ ⌘⌘
0 0
= det ˜(i 1 ,...,iM )
('( u ))' ( u )
1i1 <...<iM N
⇣ ⌘
0
= det ˜(i1 ,...,iM ) ('(u)) det '0 (u)
1i1 <...<iM N
˜
= ⌃('( u)) det '0 (u) .
Pertanto, per il teorema di cambiamento di variabili, essendo I\A e J\B trascurabili,
si ha:
Z Z
f = f ( (u))||⌃(u)|| du
ZA
= ˜
f (˜ ('(u)))||⌃('( u))|| | det '0 (u)| du
A

21
Z
= ˜ v)|| dv
f (˜ (v))||⌃(
ZB
= f.
˜

Nel caso M = 1, abbiamo una curva : [a, b] ! R3 e, data una funzione scalare
f definita sul supporto di , si ha:
Z Z b
f= f ( (t))|| 0 (t)|| dt .
a

È interessante il caso in cui f è costantemente uguale a 1 : in accordo con l’idea fisica


del moto di una particella lungo un percorso descritto dalla funzione , in questo
caso l’integrale di linea si chiama lunghezza 4 (o misura curvilinea) della curva ,
e si scrive: Z b
◆1 ( ) = || 0 (t)|| dt .
a
Esempio. Sia : [0, b] ! R definita da (t) = (t, t2 , 0). Il suo supporto è un arco di parabola, e
3

la sua lunghezza è data da:


Z bp
◆1 ( ) = 1 + (2t)2 dt
0
Z sinh 1 (2b)
1
= (cosh u)2 du
sinh 1 (0) 2
 sinh 1 (2b)
1 u + sinh u cosh u
=
2 2 0
1 ⇣ p ⌘
1
= sinh (2b) + 2b 1 + 4b2
4
1 ⇣ p ⌘ bp
= ln 2b + 1 + 4b2 + 1 + 4b2 .
4 2

Se M = 2 e N = 3, abbiamo una superficie : [a1 , b1 ] ⇥ [a2 , b2 ] ! R3 e, data


una funzione scalare f definita sul supporto di , si ha:
Z Z b2 Z b1
@ @
f= f ( (u, v)) (u, v) ⇥ (u, v) du dv .
a2 a1 @u @v
4
Naturalmente questa definizione è anche giustificata da considerazioni geometriche, che prefe-
riamo omettere per ragioni di brevità, sul concetto intuitivo che di solito si ha della lunghezza di
un cammino.

22
È interessante il caso in cui f è costantemente uguale a 1 : in questo caso si chiama
area (o misura superficiale) della superficie il seguente integrale:
Z b2 Z b1
@ @
◆2 ( ) = (u, v) ⇥ (u, v) du dv .
a2 a1 @u @v
Nel caso in cui la superficie risulti essere una 2-parametrizzazione di un certo insieme,
questo integrale è il flusso di un campo di vettori che in ogni punto della superficie
coincide con il versore normale. 5
Esempio. Sia : [0, ⇡] ⇥ [0, 2⇡] ! R3 definita da
( , ✓) = (R sin cos ✓, R sin sin ✓, R cos ) .
Il suo supporto è una sfera di raggio R, e la sua area è data da:
Z 2⇡Z ⇡ q
◆2 ( ) = (R2 sin2 cos ✓)2 + (R2 sin2 sin ✓)2 + (R2 sin cos ✓)2 d d✓
0 0
Z 2⇡ Z ⇡
= R2 sin d d✓
0 0

= 4⇡R2 .

In generale, nel caso in cui f è costantemente uguale a 1 abbiamo


Z Z
1 = ||⌃(u)|| du ,
I

il che ci porta alla seguente


Definizione. Si dice misura M superficiale di una M superficie : I ! RN il
seguente integrale:
2 31/2
Z X ⇣ ⌘2
◆M ( ) = 4 0
det (i 1 ,...,iM )
( u) 5 d u .
I 1i1 <...<iM N

Come ragionevolmente ci si aspetta, dall’ultimo teorema dimostrato segue imme-


diatamente che due M superfici equivalenti hanno sempre la stessa misura M su-
perficiale.
Esempio. Le due curve , ˜ : [0, 2⇡] ! R2 definite da
(t) = (cos(t), sin(t)) , ˜ (t) = (cos(2t), sin(2t)) ,

pur avendo lo stesso supporto, non sono equivalenti. Infatti, come facilmente si vede, ◆1 ( ) = 2⇡
mentre ◆1 (˜ ) = 4⇡.
5
Naturalmente anche la definizione di area può essere giustificata da considerazioni geometriche,
anche se la questione risulta molto più delicata che nel caso delle curve.

23
Alla luce di quanto sopra, è possibile dare la seguente
Definizione. Si chiama misura M dimensionale di un insieme M parametriz-
zabile M ⇢ RN la misura M superficiale di una qualunque sua M parametrizza-
zione.
Nei casi M = 1, 2, la misura M dimensionale di M si chiama spesso lunghezza
o area di M, rispettivamente. Si potrà parlare, ad esempio, di lunghezza di una
circonferenza e di area di una sfera.
Se M = N, si può verificare che la misura N dimensionale dell’insieme M
coincide con la misura usuale che abbiamo trattato nel capitolo 2.

24
9 Incollamenti: il bordo orientato di un rettangolo
Supponiamo che 1 : I1 ! RN ,..., n : In ! RN siano delle M superfici. Possiamo
facilmente trovare delle M superfici equivalenti ˜1 : J1 ! RN ,..., ˜n : Jn ! RN ,
con la stessa orientazione, in modo tale che i rettangoli J1 , ..., Jn siano a due a due
non sovrapposti e la loro unione risulti essere un rettangolo I.
Definizione. Chiameremo incollamento delle M superfici 1 , ..., n una funzione
: I ! RN la cui restrizione a J1 , ..., Jn coincide con ˜R1 , ..., ˜n , rispettivamente;
essa è di↵erenziabile quasi ovunque, e possiamo definire ! per mezzo della stessa
formula usata per le M superfici di classe C 1 . Quindi:
Z Z Z
!= ! + ... + !.
1 n

Abbiamo cosı̀ “incollato” le M superfici 1 , ..., n e definito un integrale che non


dipende dalla scelta delle M superfici equivalenti, poiché esse conservano l’orienta-
zione. Nella pratica non sarà mai necessario definire esplicitamente l’incollamento,
ma ci sarà indispensabile la formula per l’integrale.
Supponiamo ora che I sia un rettangolo in RM +1 , con M 1:

I = [a1 , b1 ] ⇥ ... ⇥ [aM +1 , bM +1 ] .

Denotiamo con Ik il rettangolo di RM ottenuto da I sopprimendo la k esima com-


ponente:

Ik = [a1 , b1 ] ⇥ ... ⇥ [ak 1 , bk 1 ] ⇥ [ak+1 , bk+1 ] ⇥ ... ⇥ [aM +1 , bM +1 ] .

Consideriamo, per ogni k, le M superfici ↵k+ , +


k : Ik ! RM +1 definite da

↵k+ (u1 , ..., u


ck , .., uM +1 ) = (u1 , ..., uk 1 , ak , uk+1 , ..., uM +1 ) ,
+
ck , .., uM +1 )
k (u1 , ..., u = (u1 , ..., uk 1 , bk , uk+1 , ..., uM +1 ) ,

dove il simbolo b sta ad indicare la soppressione della variabile sottostante. Con-


sideriamo inoltre delle M superfici ↵k , k : Ik ! RM +1 , equivalenti a ↵k+ e k+ ,
rispettivamente, con orientazione opposta. (Stiamo qui considerando la situazione
in cui N = M + 1.)
Definizione. Chiamiamo bordo orientato del rettangolo I una funzione @I in-
collamento delle seguenti M superfici:
(a) ↵k e k+ se k è dispari;
(b) ↵k+ e k se k è pari.

25
Se ! è una M forma di↵erenziale definita su un sottoinsieme U di RM +1 con-
tenente l’immagine di @I, avremo quindi:
Z M
X +1 Z M
X +1 Z
k k 1
!= ( 1) !+ ( 1) !.
@I k=1 ↵+
k k=1
+
k

Se M = 1, consideriamo il rettangolo [a1 , b1 ] ⇥ [a2 , b2 ]. Allora, ad esempio:

↵1 : [a2 , b2 ] ! R2 , v 7! (a1 , a2 + b2 v)
+ 2
1 : [a2 , b2 ] ! R , v 7! (b1 , v)
↵2+ : [a1 , b1 ] ! R , 2
u 7! (u, a2 )
2
2 : [a1 , b1 ] ! R , u 7! (a1 + b1 u, b2 ) .

Si può visualizzare il bordo orientato @I come incollamento dei lati del rettangolo I
orientati in modo che il perimetro sia percorso in senso antiorario.

β2 −
b2

β1 +
α1 −

a2
α2 +

a1 b1

Se M = 2, abbiamo, ad esempio:

↵1 : [a2 , b2 ] ⇥ [a3 , b3 ] ! R3 , (v, w) 7! (a1 , a2 + b2 v, w)


+ 3
1 : [a2 , b2 ] ⇥ [a3 , b3 ] ! R , (v, w) 7! (b1 , v, w)
↵2+ : [a1 , b1 ] ⇥ [a3 , b3 ] ! R , 3
(u, w) 7! (u, a2 , w)
3
2 : [a1 , b1 ] ⇥ [a3 , b3 ] ! R , (u, w) 7! (u, b2 , a3 + b3 w)
3
↵3 : [a1 , b1 ] ⇥ [a2 , b2 ] ! R , (u, v) 7! (a1 + b1 u, v, a3 )
+ 3
3 : [a1 , b1 ] ⇥ [a2 , b2 ] ! R , (u, v) 7! (u, v, b3 ) .

In questo caso, si può visualizzare il bordo orientato @I come incollamento delle sei
facce del parallelepipedo I, tutte orientate in modo tale che il vettore normale sia
sempre rivolto verso l’esterno.

26
α1 −

β3 +

α2 + β2 −
β1 +

α3 −

10 La formula di Gauss
In questa sezione, I sarà un rettangolo di RN , con N 2 (quindi, rispetto alla
sezione precedente, considereremo il caso N = M + 1). Nel teorema che segue, si
ottiene l’elegante formula di Gauss.
Teorema. Se ! è una (N 1) forma di↵erenziale di classe C 1 definita su un aperto
contenente un rettangolo I di RN , si ha:
Z Z
d! = !.
I @I

Dimostrazione. Possiamo scrivere ! nella forma


N
X
!(x) = dj ^ ... ^ dxN .
Fj (x) dx1 ^ ... ^ dx
j=1

Allora
N X
X N
@Fj dj ^ ... ^ dxN
d!(x) = (x) dxm ^ dx1 ^ ... ^ dx
@xm
j=1 m=1
N
X
1 @Fj
= ( 1)j (x) dx1 ^ ... ^ dxN .
@xj
j=1

Essendo le derivate parziali delle Fj continue, esse sono integrabili sull’intervallo I,


e possiamo usare la formula di riduzione di Fubini:
Z N
X Z
@Fj
d! = ( 1)j 1 (x) dx1 ...dxN
I j=1 I @xj

27
N Z Z !
X bj
@Fj
= ( 1)j 1
(x1 , ..., xN ) dxj dj ...dxN
dx1 ...dx
Ij aj @xj
j=1
N
X Z
j 1
= ( 1) [Fj (x1 , ..., xj 1 , bj , xj+1 , ..., xN )
j=1 Ij

Fj (x1 , ..., xj d
1 , aj , xj+1 , ..., xN )] dx1 ...dxj ...dxN ,
per il teorema fondamentale. D’altra parte,
Z XN Z N
X Z
k
!= ( 1) !+ ( 1)k 1
!.
@I k=1 ↵+
k k=1
+
k

Si ha:
Z N Z
X
!= dj ^ ... ^ dxN
Fj dx1 ^ ... ^ dx
↵+
k j=1 ↵+
k

N Z
X
= (Fj dk ...dxN
↵k+ ) det(↵k+ )0(1,...,ĵ,...,N ) dx1 ...dx
j=1 Ik
Z
= Fk (x1 , ..., xk d
1 , ak , xk+1 , ..., xN ) dx1 ...dxk ...dxN ,
Ik

essendo ⇢
0 se j 6= k ,
det(↵k+ )0(1,...,ĵ,...,N ) =
1 se j = k .
+
Procedendo similmente per k , alla fine si ottiene:
Z N
X Z
k 1
!= ( 1) [Fk (x1 , ..., xk 1 , bk , xk+1 , ..., xN )
@I k=1 Ik

Fk (x1 , ..., xk d
1 , ak , xk+1 , ..., xN )] dx1 ...dxk ...dxN ,
e la dimostrazione è completa.

11 Bordo orientato di una M superficie


In questa sezione, I sarà un rettangolo di RM +1 e : I ! RN una (M +1) superficie.
Definizione. Se 1  M  N 1, chiameremo bordo orientato di la funzione
@ = @I, che risulta essere un incollamento delle seguenti M superfici:
+
(a) ↵k e k se k è dispari;
+
(b) ↵k e k se k è pari.

28
Data una M forma di↵erenziale ! il cui dominio contiene il supporto di @ , avremo
quindi
Z MX+1 Z M
X +1 Z
k k 1
!= ( 1) !+ ( 1) !.
@ k=1 ↵+
k k=1
+
k
R
Nota. È utile estendere la scrittura @ ! nel caso in cui : [a, b] ! RN sia una
curva, con N 1, e ! = f : U ! R una 0-forma di↵erenziale; in questo caso, si
pone: Z
! = f ( (b)) f ( (a)) .
@
Esempi. Come illustrazione, consideriamo come al solito il caso N = 3. Cominciamo con tre
esempi di bordo orientato di superfici.
1. Sia : [r, R] ⇥ [0, 2⇡] ! R3 , con 0  r < R, data da

(u, v) = (u cos v, u sin v, 0) .

Il suo supporto è un cerchio se r = 0, una corona circolare se r > 0. Il bordo orientato @ è dato
dall’incollamento delle seguenti quattro curve:

↵1 (v) = (r cos v, r sin v, 0) ,


+
1 (v) = (R cos v, R sin v, 0) ,
↵2+ (u) = (u, 0, 0) ,
2 (u) = (r + R u, 0, 0) .

La prima curva ha come supporto una circonferenza di raggio r, che degenera nell’origine nel caso
in cui r = 0. La seconda ha come supporto una circonferenza di raggio R. Si noti però che il verso
di percorrenza di queste due circonferenze è opposto. Le ultime due curve sono equivalenti con
orientazioni opposte.

Sia ora dato, per esempio, il campo vettoriale F (x, y, z) = ( y, x, xyez ). Si ha:
Z Z Z
hF |d`i = hF |d`i + hF |d`i
+
@ ↵1 1
Z 2⇡ Z 2⇡
= [ r2 sin2 v r2 cos2 v] dv + [R2 sin2 v + R2 cos2 v] dv
0 0

= 2⇡(R2 r2 ) .

29
2. Consideriamo la superficie : [r, R] ⇥ [0, 2⇡] ! R3 , con 0 < r < R, definita da
✓✓ ✓ ◆ ⇣ v ⌘◆
r+R r+R
(u, v) = + u cos cos v,
2 2 2
✓ ✓ ◆ ⇣ v ⌘◆
r+R r+R
+ u cos sin v,
2 2 2
✓ ◆ ⇣v⌘ ◆
r+R
u sin ,
2 2

il cui supporto è un nastro di Möbius. In questo caso, il bordo orientato è dato dall’incollamento
di:
✓✓ ⇣ v ⌘◆
r+R R r
↵1 (v) = + cos cos v,
2 2 2
✓ ⇣ v ⌘◆
r+R R r
+ cos sin v,
2 2 2
R r ⇣ v ⌘◆
sin ,
2 2
✓✓ ⇣v⌘ ◆
+ r+R R r
1 (v) = + cos cos v,
2 2 2
✓ ⇣ v ⌘◆
r+R R r
+ cos sin v,
2 2 2
⇣ ⌘ ◆
R r v
sin ,
2 2
↵2+ (u) = (u, 0, 0) ,
2 (u) = (u, 0, 0) .

Si noti che in questo caso le ultime due curve sono identiche.


3. Consideriamo la superficie : [0, ⇡] ⇥ [0, 2⇡] ! R3 definita da

( , ✓) = (R sin cos ✓, R sin sin ✓, R cos ) ,

il cui supporto è la sfera di raggio R > 0 centrata nell’origine. In questo caso, il bordo orientato è
dato dall’incollamento di:

↵1 (✓) = (0, 0, R) ,
+
1 (✓) = (0, 0, R) ,

30
↵2+ ( ) = (R sin , 0, R cos ) ,
2 ( ) = (R sin , 0, R cos ) .

Si noti che le prime due curve sono degenerate in un punto, mentre le ultimeR due sono equivalenti
con orientazioni opposte. Quindi, qualsiasi sia il campo vettoriale F, si avrà @ hF |d`i = 0.

Vediamo ora un esempio di bordo orientato di un volume in R3 . Sia : [0, R] ⇥ [0, ⇡] ⇥ [0, 2⇡] !
3
R il volume definito da

(⇢, , ✓) = (⇢ sin cos ✓, ⇢ sin sin ✓, ⇢ cos ) ,

il cui supporto è la palla, centrata nell’origine, di raggio R > 0. Il bordo orientato @ è dato
dall’incollamento delle seguenti sei superfici:

↵1 ( , ✓) = (0, 0, 0) ,
+
1 ( , ✓) = (R sin cos ✓, R sin sin ✓, R cos ) ,
↵2+ (⇢, ✓) = (0, 0, ⇢) ,
2 (⇢, ✓) = (0, 0, ⇢) ,
↵3 (⇢, ) = ((R ⇢) sin , 0, (R ⇢) cos ) ,
+
3 (⇢, ) = (⇢ sin , 0, ⇢ cos ) .

Si noti che la prima superficie è degenerata in un punto (l’origine), la seconda ha come supporto
la sfera intera, la terza e la quarta sono degenerate in due curve mentre le rimanenti due sono
equivalenti con orientazioni opposte. In questo esempio, quindi, dato un campo vettoriale F, si avrà
sempre Z Z
hF |dSi = hF |dSi .
+
@ 1

12 La formula di Stokes - Cartan


Enunciamo la seguente generalizzazione del teorema di Gauss, in cui si ottiene l’im-
portante formula di Stokes - Cartan.
Teorema. Sia 0  M  N 1. Se ! : U ! ⌦M (RN ) è una M forma di↵erenziale
di classe C 1 e : I ! RN una (M + 1) superficie il cui supporto è contenuto in U,
si ha: Z Z
d! = !.
@

Si noti che il caso M = 0, N = 1 e (u) = u è una versione del teorema


fondamentale, anche se qui si richiede che la derivata di ! sia continua.
La dimostrazione generale del teorema di Stokes-Cartan è data nell’appendice 2.
Ci limiteremo qui a considerare alcuni corollari che si ottengono, nel caso N = 3,
quando M assume i valori 0, 1 e 2. È interessante dimostrare direttamente questi
corollari, adattando la dimostrazione generale a questi casi particolari.

31
Il caso M = 0. Consideriamo una 0-forma di↵erenziale f : U ! R e otteniamo il
seguente
Teorema. Sia ! = f : U ! R una funzione scalare di classe C 1 e : [a, b] ! R3
una curva con supporto contenuto in U. Allora:
Z
hgrad f |d`i = f ( (b)) f ( (a)) .

Dimostrazione. Consideriamo la funzione G : [a, b] ! R definita da G(t) =


f ( (t)). Essa è di classe C 1 , e per il teorema fondamentale si ha
Z b
G0 (t) dt = G(b) G(a) .
a

Siccome G0 (t) = hgrad f ( (t))| 0 (t)i, ne segue la formula cercata.


Nota. L’integrale di linea del gradiente di una funzione f non dipende dalla curva
scelta, ma soltanto dal valore della funzione nei due estremi (b) e (a).
Esempio. Siano dati il campo vettoriale
✓ ◆
x y z
F (x, y, z) = , ,
[x2 + y 2 + z 2 ]3/2 [x2 + y 2 + z 2 ]3/2 [x2 + y 2 + z 2 ]3/2

eR la curva : [0, 4⇡] ! R3 definita da (t) = (cos t, sin t, t). Vogliamo calcolare l’integrale di linea
hF |d`i. Osserviamo che F = grad f, con
1
f (x, y, z) = p ,
x2 + y 2 + z 2
e quindi: Z
1
hF |d`i = f ( (4⇡)) f ( (0)) = p 1.
1 + 16⇡ 2

Il caso M = 1. Consideriamo una 1-forma di↵erenziale

!(x) = F1 (x) dx1 + F2 (x) dx2 + F3 (x) dx3

e otteniamo la formula di Stokes-Ampère.


Teorema. Sia F : U ! R3 un campo di vettori di classe C 1 e : [a1 , b1 ]⇥[a2 , b2 ] !
R3 una superficie con supporto contenuto in U. Si ha:
Z Z
hrot F |dSi = hF |d`i .
@

32
A parole. Il flusso del rotore del campo F attraverso la superficie coincide con
l’integrale di linea di F lungo il bordo di .

Dimostrazione. Posto I = [a1 , b1 ] ⇥ [a2 , b2 ], definiamo la seguente 1-forma dif-


ferenziale !˜ : I ! ⌦1 (R2 ) :
* + * +
@ @
!˜ (u, v) = F ( (u, v)) (u, v) du + F ( (u, v)) (u, v) dv .
@u @v

Iniziamo a valutare il suo integrale su ↵1 :


Z Z * b2
+
@
!
˜= F ( (a1 , a2 + b2 v)) (a1 , a2 + b2 v) dv
↵1 a2 @v
Z
= hF |d`i .
↵1

+
Si verificano poi le analoghe uguaglianze per l’integrale su 1 , ↵2+ e 2 , per cui si
ha che Z Z
!
˜= hF |d`i .
@I @

Supponiamo ora che sia di classe C 2. ˜ è di classe C 1 e, con un po’ di conti,


Allora !
si trova:


! (u, v) =
" * + * +#
@ @ @ @
= F ( (u, v)) (u, v) F ( (u, v)) (u, v) du ^ dv
@u @v @v @u
* +
@ @
= rot F ( (u, v)) (u, v) ⇥ (u, v) du ^ dv ,
@u @v

per cui Z Z

!= hrot F |dSi .
I
La formula di Gauss applicata a ! ˜ permette quindi di concludere.
L’ipotesi che sia di classe C 2 può infine essere tolta con un procedimento di
approssimazione: è possibile costruire una successione ( n )n di superfici di classe C 2
che convergono a assieme a tutte le derivate parziali. La formula di Stokes-Ampère
vale quindi per tali superfici e, passando al limite, per il teorema della convergenza
dominata, abbiamo la conclusione.

33
Esempio. Sia F (x, y, z) = ( y, x, 0) eR : [0, 2⇡] ! R3 la curva definita da (t) = (R cos t, R sin t, 0);
vogliamo calcolare l’integrale di linea hF |d`i. Abbiamo già visto come calcolare questo integrale
facendo uso diretto della definizione. Procediamo ora in un altro modo: definiamo la superficie
+
: [0, R] ⇥ [0, 2⇡] ! R3 data da (⇢, ✓) = (⇢ cos ✓, ⇢ sin ✓, 0). Osserviamo che = 1 , per cui si
ha: Z Z Z Z
hF |d`i = hF |d`i = hF |d`i = hrot F |dSi .
+
1 @

Osserviamo che rot F (x, y, z) = (0, 0, 2) e


@ @
(⇢, ✓) ⇥ (⇢, ✓) = (0, 0, ⇢) .
@⇢ @✓
Ne segue che Z Z Z
R 2⇡
hF |d`i = h(0, 0, 2)|(0, 0, ⇢)i d✓ d⇢ = 2⇡R2 .
0 0

Il caso M = 2. Consideriamo una 2-forma di↵erenziale

!(x) = F1 (x) dx2 ^ dx3 + F2 (x) dx3 ^ dx1 + F3 (x) dx1 ^ dx2

e otteniamo la formula di Stokes-Ostrogradski.


Teorema. Sia F : U ! R3 un campo di vettori di classe C 1 e supponiamo che
: I = [a1 , b1 ] ⇥ [a2 , b2 ] ⇥ [a3 , b3 ] ! R3 sia regolare e iniettiva su I con det 0 > 0, e
(I) ⇢ U. Allora: Z Z
div F = hF |dSi .
(I) @

In termini intuitivi. L’integrale della divergenza del campo F sull’insieme


V = (I) coincide con il flusso di F uscente da V.

˜ : I ! ⌦2 (R3 ) :
Dimostrazione. Consideriamo la seguente 2-forma di↵erenziale !
* +
@ @
˜ (u) = F ( (u))
! (u) ⇥ (u) du2 ^ du3 +
@u2 @u3
* +
@ @
+ F ( (u)) (u) ⇥ (u) du3 ^ du1 +
@u3 @u1
* +
@ @
+ F ( (u)) (u) ⇥ (u) du1 ^ du2
@u1 @u2

+
Considerata la superficie 1 , si ha:
Z
!
˜=
+
1

34
Z Z * +
b2 b3
@ @
= F (b1 , u2 , u3 ) (b1 , u2 , u3 ) ⇥ (b1 , u2 , u3 ) du2 du3
a2 a3 @u2 @u3
Z
= hF |dSi .
+
1

Calcolando analogamente gli integrali sulle altre cinque superfici che compongono
@I, si conclude che Z Z
!
˜= hF |dSi .
@I @

Supponiamo ora che sia di classe Allora ! C 2.


˜ è di classe C 1 e, facendo i conti,
con un po’ di pazienza si ha:
" * +
@ @ @
d˜! ( u) = F ( (u)) ( u) ⇥ ( u) +
@u1 @u2 @u3
* +
@ @ @
+ F ( (u)) (u) ⇥ ( u) +
@u2 @u3 @u1
* +#
@ @ @
+ F ( (u)) ( u) ⇥ ( u) du1 ^ du2 ^ du3
@u3 @u1 @u2
0
= div F ( (u)) det (u) du1 ^ du2 ^ du3 .

Quindi, si ha: Z Z
0

!= div F ( (u)) det ( u) d u .
I I

D’altra parte, siccome induce un di↵eomorfismo tra I e (I ) con det 0 > 0, per
il teorema di cambiamento di variabili
Z Z
0
div F ( (u)) det (u) du = div F (x) dx .
I (I)

La formula di Gauss applicata a !


˜ permette quindi di concludere.
L’ipotesi che sia di classe C 2 può infine essere tolta con un procedimento di
approssimazione, come nel teorema precedente.

Esempio. Si voglia calcolare il flusso del campo vettoriale

F (x, y, z) = ([x2 + y 2 + z 2 ]x, [x2 + y 2 + z 2 ]y, [x2 + y 2 + z 2 ]z)

attraverso una superficie sferica parametrizzata da ⌘ : [0, ⇡] ⇥ [0, 2⇡] ! R3 :

⌘( , ✓) = (R sin cos ✓, R sin sin ✓, R cos ) .

35
+
Ci ricordiamo che ⌘ = 1 , dove : I = [0, R] ⇥ [0, ⇡] ⇥ [0, 2⇡] ! R3 è il volume dato da

(⇢, , ✓) = (⇢ sin cos ✓, ⇢ sin sin ✓, ⇢ cos ) .

Abbiamo quindi: Z Z Z
hF |dSi = hF |dSi = div F .
⌘ @ (I)

Essendo div F (x, y, z) = 5(x2 + y 2 + z 2 ), passando a coordinate sferiche si ha:


Z Z 2⇡ Z ⇡ Z R
div F = (5⇢2 )(⇢2 sin ) d⇢ d d✓ = 4⇡R5 .
(I) 0 0 0

13 Risultati analoghi in R2
Supponiamo che U sia un sottoinsieme di R2 e troviamo due interessanti corollari
del teorema di Stokes-Cartan. Analogamente al caso N = 3, si definisce l’integrale
di linea di un campo di vettori F = (F1 , F2 ) lungo una curva : [a, b] ! R2 :
Z Z b
0 0
hF |d`i = [F1 ( (t)) 1 (t) + F2 ( (t)) 2 (t)] dt .
a

Abbiamo il seguente risultato, analogo a quello ottenuto nella sezione precedente nel
caso N = 3.
Teorema. Sia f : U ! R una funzione scalare di classe C 1 e : [a, b] ! R2 una
curva con immagine contenuta in U. Allora:
Z *✓ ◆ +
@f @f
, d` = f ( (b)) f ( (a)) .
@x1 @x2

Prendendo invece M = 2, otteniamo la formula di Gauss-Green.


Teorema. Sia F = (F1 , F2 ) : U ! R2 un campo di vettori di classe C 1 e
supponiamo che la superficie : I = [a1 , b1 ] ⇥ [a2 , b2 ] ! R2 sia regolare e iniettiva
su I con det 0 > 0, e (I) ⇢ U. Allora:
Z ✓ ◆ Z
@F2 @F1
= hF |d`i .
(I) @x1 @x2 @

36
Dimostrazione. Similmente a quanto fatto nella dimostrazione del teorema di
˜ : I ! ⌦1 (R2 ) definita
Stokes-Ampère, consideriamo la forma di↵erenziale ausiliaria !
da * + * +
@ @
!
˜ (u, v) = F ( (u, v)) (u, v) du + F ( (u, v)) (u, v) dv
@u @v
e verifichiamo che Z Z
!
˜= hF |d`i .
@I @
Se è di classe C 2 , allora !
˜ è di classe C 1
e, facendo i conti, si trova
" * +
@ @

! (u, v) = F ( (u, v)) (u, v)
@u @v
* +#
@ @
F ( (u, v)) (u, v) du ^ dv
@v @u
✓ ◆
@F2 @F1
= ( (u, v)) ( (u, v)) det 0 (u, v)du ^ dv .
@x1 @x2
Quindi,
Z Z ✓ ◆
@F2 @F1 0

!= ( (u, v)) ( (u, v)) det (u, v)du dv ,
I I @x1 @x2

e siccome induce un di↵eomorfismo tra I e (I ) con det 0 > 0, per il teorema di


cambiamento di variabili
Z Z ✓ ◆
@F2 @F1

!= .
I (I) @x1 @x2
La formula di Gauss applicata a !˜ permette quindi di concludere.
Analogamente a quanto visto nel caso N = 3, si può ora togliere l’ipotesi che
sia di classe C 2 con un procedimento di approssimazione.
Esempio. Consideriamo la superficie : I = [0, 1] ⇥ [0, 2⇡] ! R2 definita da (⇢, ✓) =
(A⇢ cos ✓, B⇢ sin ✓), il cui supporto è una superficie ellittica avente semiassi di lunghezza A > 0
e B > 0. Si prenda il campo di vettori F (x, y) = ( y, x). Essendo
@F2 @F1
(x, y) (x, y) = 2
@x @y
e (come nel caso del cerchio) Z Z
hF |d`i = hF |d`i ,
+
@ 1
la formula di Gauss-Green ci da:
Z Z 2⇡
2 dx dy = h( B sin ✓, A cos ✓)|( A sin ✓, B cos ✓)i d✓ = 2⇡AB.
(I) 0

Se ne ricava l’area della superficie ellittica: µ( (I)) = ⇡AB .

37
14 Forme di↵erenziali esatte
Ci interessiamo ora al problema di trovare in quali casi una forma di↵erenziale
data possa essere scritta come il di↵erenziale esterno di una forma di↵erenziale da
determinarsi. In questa sezione, supporremo M 1.
Definizione. Una M forma di↵erenziale ! si dice chiusa se d! = 0; si dice esatta
se esiste una (M 1) forma di↵erenziale !
˜ tale che d˜
! = !.
Ogni forma di↵erenziale esatta è chiusa: se ! = d˜
! , allora d! = d(d˜
! ) = 0. Il
viceversa non sempre è vero.
Esempio. La 1-forma di↵erenziale definita su R2 \{(0, 0)} da
y x
!(x, y) = dx + 2 dy
x2 + y 2 x + y2
è chiusa, come facilmente si verifica: ponendo
y x
F1 (x, y) = , F2 (x, y) = ,
x2 + y 2 x2 + y 2
per ogni (x, y) 6= (0, 0), si ha
@F2 @F1
(x, y) = (x, y) .
@x @y
Calcoliamo l’integrale di linea del campo di vettori F = (F1 , F2 ) che determina la forma di↵erenziale
sulla curva : [0, 2⇡] ! R2 definita da (t) = (cos t, sin t) :
Z Z 2⇡
hF |d`i = hF ( (t)| 0 (t) dt
0
Z 2⇡
= h( sin t, cos t)|( sin t, cos t)i dt
0
= 2⇡ .

Supponiamo per assurdo che ! sia esatta, cioè che esista una funzione f : R2 \{(0, 0)} ! R tale che
@f
@x
= F1 e @f
@y
= F2 . In tal caso, essendo (0) = (2⇡), si avrebbe:

Z Z *✓ ◆ +
@f @f
hF |d`i = , d`
@x @y

= f ( (2⇡)) f ( (0)) = 0 ,

in contraddizione con quanto sopra.

La situazione descritta nell’esempio precedente non può verificarsi se, ad esempio,


l’insieme U su cui è definita la forma di↵erenziale è un aperto stellato rispetto ad
un punto x̄, cioè contiene, per ogni suo punto x, tutto il segmento che congiunge x
a x̄. Vale infatti il seguente teorema di Poincaré:

38
Teorema. Sia U un sottoinsieme aperto di RN stellato rispetto ad un punto x̄. Per
1  M  N, una M forma di↵erenziale ! : U ! ⌦M (RN ) di classe C 1 è esatta se
e solo se essa è chiusa. In tal caso, se ! è del tipo
X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N

una (M 1) forma di↵erenziale !


˜ tale che d˜
! = ! è data da

X M
X
˜ ( x) =
! ( 1)s+1 (xis x̄is ) ·
1i1 <...<iM N s=1
✓Z 1 ◆
· t M 1
fi1 ,...,iM (x̄ + t(x d
x̄)) dt dxi1 ^ ... ^ dx is ^ ... ^ dxiM .
0

La dimostrazione generale di questo teorema verrà data nell’appendice 2. Come


nel caso del teorema di Stokes-Cartan, considereremo qui solo alcuni corollari che
si ottengono nel caso N = 3, fornendone anche una dimostrazione diretta. Per
semplificare la scrittura, supporremo senza perdita di generalità x̄ = (0, 0, 0).
Il caso M = 1. Un campo di vettori F = (F1 , F2 , F3 ), di classe C 1 , definito su un
sottoinsieme aperto U di R3 , determina una 1-forma di↵erenziale

!(x) = F1 (x) dx1 + F2 (x) dx2 + F3 (x) dx3 .

Essa è chiusa se e solo se rot F = 0. In questo caso, il campo di vettori si dice


irrotazionale. Diremo invece che il campo di vettori F è conservativo se esiste
una funzione f : U ! R tale che F = grad f. In tal caso f si dice un potenziale
scalare del campo F . 6
Teorema. Se U è stellato rispetto all’origine, si ha che il campo di vettori F :
U ! R3 è conservativo se e solo se esso è irrotazionale, e in tal caso una funzione
f : U ! R tale che F = grad f è data da:
Z 1
f ( x) = hF (tx)|xi dt .
0

Ogni altra funzione f˜ : U ! R tale che F = grad f˜ si ottiene da f aggiungendo una


costante.
6
In meccanica spesso è la funzione f a chiamarsi “potenziale”.

39
Dimostrazione. Poniamo ! ˜ = f : U ! R. Verifichiamo che d˜ ! = !. Usando la
regola di Leibniz, abbiamo:
Z 1
@!
˜ @
( x) = hF (tx)|xi dt
@xj 0 @x j
Z 1 X 3 ✓ ◆ !
@Fi
= (tx)txi + Fj (tx) dt
0 @xj
i=1
Z 1 X 3 ✓ ◆ !
@Fj
= (tx)txi + Fj (tx) dt .
0 @xi
i=1

Definendo (t) = tFj (tx), si ha che


3 ✓
X ◆
0 @Fj
(t) = (tx)txi + Fj (tx) ,
@xi
i=1

e per il teorema fondamentale si ha quindi:


@!
˜
( x) = Fj ( x) ,
@xj
il che dimostra che F = grad f. La seconda parte del teorema segue dal fatto che, se
grad f = grad f˜, allora f f˜ deve essere costante su U.

Esempio. Consideriamo il campo di vettori F (x, y, z) = (2xz + y, x, x2 ) che, come si verifica


facilmente, è irrotazionale. Si trova:
Z 1
f (x, y, z) = ((2t2 x2 z + txy) + txy + t2 x2 z) dt = xy + x2 z .
0

Il caso M = 2. Un campo di vettori F = (F1 , F2 , F3 ), di classe C 1 , definito su un


sottoinsieme aperto U di R3 , determina una 2-forma di↵erenziale

!(x) = F1 (x) dx2 ^ dx3 + F2 (x) dx3 ^ dx1 + F3 (x) dx1 ^ dx2 .

Essa è chiusa se e solo se div F = 0. In questo caso, il campo di vettori si dice


solenoidale. Si dice che F ha un potenziale vettore se esiste un campo di vettori
V = (V1 , V2 , V3 ) tale che F = rot V.
Teorema. Se U è stellato rispetto all’origine, si ha che il campo di vettori F : U !
R3 ha un potenziale vettore se e solo se esso è solenoidale, e in tal caso un campo di
vettori V : U ! R3 tale che F = rot V è dato da:
⇣Z 1
V (x) = t(F2 (tx)x3 F3 (tx)x2 ) dt ,
0

40
Z 1
t(F3 (tx)x1 F1 (tx)x3 ) dt ,
0
Z 1 ⌘
t(F1 (tx)x2 F2 (tx)x1 ) dt ,
0

che scriveremo brevemente


Z 1
V ( x) = t(F (tx) ⇥ x) dt .
0

Ogni altro campo di vettori Ṽ : U ! R3 tale che F = rot Ṽ si ottiene da V


aggiungendo il gradiente di una qualsiasi funzione scalare.

Dimostrazione. Consideriamo la 1-forma di↵erenziale determinata dal campo V :


✓Z 1 ◆
˜ ( x) =
! t(F2 (tx)x3 F3 (tx)x2 ) dt dx1 +
0
✓Z 1 ◆
+ t(F3 (tx)x1 F1 (tx)x3 ) dt dx2 +
0
✓Z 1 ◆
+ t(F1 (tx)x2 F2 (tx)x1 ) dt dx3 .
0

Dobbiamo dimostrare che d˜ ! = !. Per la regola di Leibniz, tenuto conto del fatto
che ! è chiusa, troviamo:
Z 1
@
t(F1 (tx)x2 F2 (tx)x1 ) dt
@x2 0
Z 1
@
t(F3 (tx)x1 F1 (tx)x3 ) dt =
@x3 0
Z 1✓ ✓ ◆ ◆
2 @F1 @F1 @F1
= t (tx)x1 + (tx)x2 + (tx)x3 + 2tF1 (tx) dt
0 @x1 @x2 @x3
= F1 ( x)

(applicando il teorema fondamentale alla funzione (t) = t2 F1 (tx)). Analogamente


si dimostrano le rimanenti due uguaglianze, concludendo la dimostrazione della for-
mula. La seconda parte del teorema segue dal fatto che, se rot V = rot Ṽ , allora,
per il teorema precedente, V Ṽ è un campo di vettori conservativo.

Esempio. Consideriamo il campo di vettori solenoidale F (x, y, z) = (y, z, x). Si ha:


Z 1
1
V (x, y, z) = t(ty, tz, tx) ⇥ (x, y, z) dt = (z 2 xy, x2 yz, y 2 xz)
0 3

41
Il caso M = 3. Una funzione scalare f, di classe C 1 , definita su un sottoinsieme
aperto U di R3 , determina una 3-forma di↵erenziale

!(x) = f (x) dx1 ^ dx2 ^ dx3 .

Essa è sempre chiusa, essendo d! una 4-forma di↵erenziale definita su un sottoin-


sieme di R3 .
Teorema. Se U è stellato rispetto all’origine, la funzione f : U ! R è sempre della
forma f = div W, dove W : U ! R3 è il campo di vettori definito da
✓Z 1 ◆
2
W ( x) = t f (tx) dt x .
0

Ogni altro campo di vettori W̃ : U ! R3 tale che F = div W̃ si ottiene da W


aggiungendo il rotore di un qualsiasi campo di vettori.

Dimostrazione. Usando la regola di Leibniz, si ha:


Z 1 Z 1 Z 1
@ 2 @ 2 @
t f (tx)x1 dt + t f (tx)x2 dt + t2 f (tx)x3 dt
@x1 0 @x2 0 @x3 0
Z 1✓ ✓ ◆ ◆
3 @f @f @f 2
= t (tx) + (tx) + (tx) + 3t f (tx) dt
0 @x1 @x2 @x3
= f ( x) ,

come si vede applicando il teorema fondamentale alla funzione (t) = t3 f (tx). La


seconda parte del teorema segue dal fatto che, se div W = div W̃ , allora, per il
teorema precedente, W W̃ ha un potenziale vettore.

Esempio. Consideriamo la funzione scalare f (x, y, z) = xyz. Si ha:


Z 1
1
W (x, y, z) = t5 xyz dt (x, y, z) = (x2 yz, xy 2 z, xyz 2 ) .
0 6

42
15 La dimostrazione del teorema di Stokes-Cartan
Siano U un aperto di RN , V un aperto 7 di RP e : V ! U una funzione di classe
C1 :
(y) = ( 1 (y), ..., N (y)) ,
con y = (y1 , ..., yP ) 2 V. Data una M forma di↵erenziale ! : U ! ⌦M (RN ),
X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N

resta definita una M forma di↵erenziale T ! : V ! ⌦M (RP ), che chiameremo


trasformata attraverso di !, nel seguente modo:
X
T !(y) = fi1 ,...,iM ( (y))d i1 (y) ^ ... ^ d iM (y) .
1i1 <...<iM N

Si noti che

d i 1 ( y) i M ( y) =
^ ...^ d
0 1 0 1
XP P
X
@ i1 @ iM
=@ (y)dyj A ^ ... ^ @ (y)dyj A
@yj @yj
j=1 j=1
P
X @ i1 @ iM
= ( y) · · · (y) dyj1 ^ ... ^ dyjM
@yj1 @yjM
j1 ,...,jM =1

(attenzione, qui gli indici j1 , ..., jM non sono in ordine crescente). È immediato
verificare che, preso c 2 R, si ha

T (c!) = c T ! ;

se !
˜ è una M̃ forma di↵erenziale definita su U,

T (! ^ !
˜) = T ! ^ T !
˜,

e se M = M̃ ,
T (! + !
˜) = T ! + T !
˜.
Dimostriamo ora le seguenti proprietà.
Proposizione 1. Se :W !V e : V ! U, allora

T (T !) = T !.

7
Nel caso in cui gli insiemi U e V non fossero degli aperti, si veda la nota a pag. 135.

43
Dimostrazione. Per le proprietà di linearità viste sopra, sarà sufficiente considerare
il caso di una forma di↵erenziale del tipo
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM .
Abbiamo:
2 3
P
X @ i1 @ iM 5
T (T !) = 4(fi1 ,...,iM ) ··· d j1 ^ ... ^ d jM .
@yj1 @yjM
j1 ,...,jM =1

D’altra parte,
T ! = (fi1 ,...,iM ) d( )i1 ^ ... ^ d( ) iM ,
ed essendo
P ✓
X ◆
@ ik
d( )ik = d( ik )= d j ,
@yj
j=1

si ha l’uguaglianza.

Proposizione 2. Supponiamo che sia di classe C 2 . Se ! è di classe C 1 , anche


T ! lo è, e si ha:
d(T !) = T (d!) .

Dimostrazione. Anche qui basta considerare il caso ! = fi1 ,...,iM dxi1 ^... ^ dxiM .
Abbiamo:
d(T !) = d(fi1 ,...,iM )^d i1 ^ ... ^ d iM +
+(fi1 ,...,iM ) d(d i1 ^ ... ^ d iM )
= d(fi1 ,...,iM )^d i1^ ... ^ d iM
" N ✓ ◆ #
X @fi ,...,i
1 M
= d m ^d i1 ^ ... ^ d iM .
@xm
m=1

D’altra parte, si ha
N
X @fi1 ,...,iM
d!(x) = (x) dxm ^ dxi1 ^ ... ^ dxiM ,
@xm
m=1

per cui
N ✓
X ◆
@fi 1 ,...,iM
T (d!) = d m ^d i1 ^ ... ^ d iM ,
@xm
m=1
e la formula è dimostrata.

44
Proposizione 3. Se : I ! RN è una M superficie con supporto contenuto in
U, allora Z Z
!= T !.
I

Dimostrazione. Come sopra, basta considerare il caso ! = fi1 ,...,iM dxi1 ^...^dxiM .
Abbiamo:
Z Z M
X @ i1 @ iM
T != fi1 ,...,iM ( (u)) (u)... (u) duj1 ^ ... ^ dujM
I I @uj1 @ujM
j1 ,...,jM =1
Z
0
= fi1 ,...,iM ( (u)) det (i1 ,...,iM ) (u) du
ZI
= !.

Passiamo ora alla dimostrazione del teorema di Stokes - Cartan, di cui riscriv-
iamo l’enunciato.
Teorema. Sia 0  M  N 1. Se ! : U ! ⌦M (RN ) è una M forma di↵erenziale
di classe C 1 e : I ! RN una (M + 1) superficie il cui supporto è contenuto in U,
si ha: Z Z
d! = !.
@

Dimostrazione. Il caso M = 0 segue dal teorema fondamentale applicato alla


funzione ! : [a, b] ! R. Supponiamo ora 1  M  N 1. Essendo
Z Z Z Z
!= T ↵+ ! = T↵+ (T !) = T !,
↵+
k Ik k
Ik k
↵+
k

+
con le analoghe uguaglianze per k si ha:
Z M
X +1 Z M
X +1 Z
k k 1
!= ( 1) !+ ( 1) !
@ k=1 ↵+
k k=1
+
k

M
X +1 Z MX+1 Z
k k 1
= ( 1) T !+ ( 1) T !
k=1 ↵+
k k=1
+
k
Z
= T !.
@I

45
Se è di classe C 2 , si ha che T ! è di classe C 1 e, applicando la formula di Gauss
a T !, si ha Z Z
T ! = d(T !) .
@I I
Ma Z Z Z
d(T !) = T (d!) = d! .
I I
In definitiva, abbiamo visto che
Z Z Z Z
d! = d(T !) = T != !,
I @I @

e il teorema, in questo caso, è dimostrato.


L’ipotesi che : I ! RN sia di classe C 2 può essere tolta con un procedimento
di approssimazione: è possibile costruire una successione ( n )n di M superfici di
classe C 2 che convergono a assieme a tutte le derivate parziali. La formula di
Stokes-Cartan vale quindi per tali superfici, ed è sufficiente passare al limite facendo
uso del teorema della convergenza dominata per concludere.

46
17 La dimostrazione del teorema di Poincaré
Consideriamo l’insieme [0, 1] ⇥ U, e indichiamo i suoi elementi con

(t, x) = (t, x1 , ..., xN ).

Definiamo l’operatore lineare K che trasforma una generica M forma di↵erenziale

↵ : [0, 1] ⇥ U ! ⌦M (RN +1 )

in una (M 1) forma di↵erenziale


N
K(↵) : U ! ⌦M 1 (R )

nel modo seguente:


a) se ↵(t, x) = f (t, x) dt^dxi1 ^...^dxiM 1 (si noti che qui appare il termine dt),
allora ✓Z ◆1
K(↵)(x) = f (t, x) dt dxi1 ^ ... ^ dxiM 1 ;
0

b) se ↵(t, x) = f (t, x) dxi1 ^ ... ^ dxiM (qui non appare il termine dt), allora

K(↵) = 0;

c) in tutti gli altri casi, K è definito per linearità (per gli addendi in una generica
M forma di↵erenziale ↵, il termine dt appare o non appare, e si applicano le due
definizioni precedenti).
Definiamo inoltre le funzioni , ⇠ : U ! [0, 1] ⇥ U nel modo seguente:

(x1 , ..., xN ) = (0, x1 , ..., xN ) , ⇠(x1 , ..., xN ) = (1, x1 , ..., xN ) .

Lemma. Per una M forma di↵erenziale di classe C 1 ↵ : [0, 1] ⇥ U ! ⌦M (RN +1 )


si ha:
d(K(↵)) + K(d↵) = T⇠ ↵ T ↵ .

Dimostrazione. Per la linearità, basterà considerare i due casi in cui la forma


di↵erenziale ↵ sia di uno dei due tipi considerati in a) e b).
a) Se ↵(t, x) = f (t, x) dt ^ dxi1 ^ ... ^ dxiM 1 , per la regola di Leibniz si ha:

N ✓Z
X 1 ◆
@f
d(K(↵))(x) = (t, x) dt dxm ^ dxi1 ^ ... ^ dxiM 1 ;
0 @xm
m=1

51
d’altra parte,
@f
d↵(t, x) = (t, x) dt ^ dt ^ dxi1 ^ ... ^ dxiM 1 +
@t
XN
@f
+ (t, x) dxm ^ dt ^ dxi1 ^ ... ^ dxiM 1
@xm
m=1
XN
@f
= (t, x) dt ^ dxm ^ dxi1 ^ ... ^ dxiM 1 ,
@xm
m=1

e quindi
N ✓Z
X 1 ◆
@f
K(d↵)(x) = (t, x) dt dxm ^ dxi1 ^ ... ^ dxiM 1
0 @xm
m=1
= d(K(↵))(x) .

Inoltre, si ha che T ↵ = T⇠ ↵ = 0, essendo la prima componente di e di ⇠ costante;


quindi, l’uguaglianza in questo caso è dimostrata.
b) Se ↵(t, x) = f (t, x) dxi1 ^ ... ^ dxiM , si ha K(↵) = 0 e quindi d(K(↵)) = 0;
d’altra parte,
@f
d↵(t, x) = (t, x) dt ^ dxi1 ^ ... ^ dxiM +
@t
XN
@f
+ (t, x) dxm ^ dxi1 ^ ... ^ dxiM ,
@xm
m=1

e quindi
✓Z 1 ◆
@f
K(d↵)(x) = (t, x) dt dxi1 ^ ... ^ dxiM
0 @t
= (f (1, x) f (0, x)) dxi1 ^ ... ^ dxiM .

Inoltre, si ha:

T⇠ ↵(x) = f (1, x) d⇠i1 (x) ^ ... ^ d⇠iM (x)


= f (1, x) dxi1 ^ ... ^ dxiM ,

T ↵(x) = f (0, x) d i1 (x) ^ ... ^ d i M ( x)


= f (0, x) dxi1 ^ ... ^ dxiM .

La formula è quindi dimostrata anche in questo caso.

52
Possiamo ora intraprendere la dimostrazione del teorema di Poincaré, di cui
riportiamo l’enunciato.
Teorema. Sia U un sottoinsieme aperto di RN stellato rispetto ad un punto x̄. Per
1  M  N, una M forma di↵erenziale ! : U ! ⌦M (RN ) di classe C 1 è esatta se
e solo se essa è chiusa. In tal caso, se ! è del tipo
X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N

una (M 1) forma di↵erenziale !


˜ tale che d˜
! = ! è data da
X M
X
˜ ( x) =
! ( 1)s+1 (xis x̄is ) ·
1i1 <...<iM N s=1
✓Z 1 ◆
· tM 1
fi1 ,...,iM (x̄ + t(x d
x̄)) dt dxi1 ^ ... ^ dx is ^ ... ^ dxiM .
0

Dimostrazione. Per semplificare la scrittura, possiamo supporre x̄ = (0, 0, ..., 0);


sia : [0, 1] ⇥ U ! U definita da
(t, x1 , ..., xN ) = (tx1 , ..., txN ) .
Consideriamo T !, la trasformata attraverso di !. Essa è la forma di↵erenziale di
grado M definita su [0, 1] ⇥ U come segue:
T !(t, x) =
X
= fi1 ,...,iM (tx)(xi1 dt + t dxi1 ) ^ ... ^ (xiM dt + t dxiM )
1i1 <...<iM N
X
= fi1 ,...,iM (tx)[tM dxi1 ^ ... ^ dxiM +
1i1 <...<iM N
M
X
+t M 1
( 1)s 1 d
xis dt ^ dxi1 ^ ... ^ dx is ^ ... ^ dxiM ] .
s=1

Poniamo !
˜ = K(T !). Resta da dimostrare che d˜
! = !. Essendo ! chiusa, si ha:
K(d(T !)) = K(T (d!)) = K(T (0)) = K(0) = 0 .
Per il lemma precedente, abbiamo che

! = d(K(T !))
= T⇠ (T !) T (T !) K(d(T !))
= T⇠ (T !) T (T !)
=T ⇠! T !.

53
Essendo ⇠ la funzione identità e la funzione nulla, si ha che T ⇠! =! e
T ! = 0, il che completa la dimostrazione.

54
18 Cenni sulle varietà di↵erenziabili
Vogliamo qui mostrare come si può adattare la teoria svolta, e in particolare il
teorema di Stokes-Cartan, alle varietà di↵erenziabili. A di↵erenza del solito, non
dimostreremo per esteso tutti i risultati di questa sezione; il lettore interessato potrà
consultare, ad esempio, il libro di Spivak. Consideriamo un sottoinsieme M di RN .
Definizione. L’insieme M è una varietà di↵erenziabile M dimensionale, con
1  M  N (o brevemente una M varietà) se, preso un punto x in M, esistono
un intorno aperto A di x, un intorno aperto B di 0 in RN e un di↵eomorfismo
' : A ! B tali che '(x) = 0 e
(a) '(A \ M) = {y = (y1 , ..., yN ) 2 B : yM +1 = ... = yN = 0} ,
oppure
(b) '(A \ M) = {y = (y1 , ..., yN ) 2 B : yM +1 = ... = yN = 0 e yM 0} .
Si può vedere che (a) e (b) non possono valere contemporaneamente. I punti x
per i quali sia verificata la (b) costituiscono il bordo di M, insieme che indicheremo
con @M. Se @M è vuoto, si parla di M varietà senza bordo; altrimenti, M si dice
essere una M varietà con bordo.
Innanzitutto vediamo che il bordo di una M varietà, con M 2, è esso stesso
una varietà di↵erenziabile, di dimensione minore.
Teorema. L’insieme @M è una (M 1) varietà senza bordo:

@(@M) = Ø .

Dimostrazione. Preso un punto x in @M, esistono un intorno aperto A di x, un


intorno aperto B di 0 in RN e un di↵eomorfismo ' : A ! B tali che '(x) = 0 e

'(A \ M) = {y = (y1 , ..., yN ) 2 B : yM +1 = ... = yN = 0 e yM 0}.

Ragionando sul fatto che le condizioni (a) e (b) della definizione non possono valere
contemporaneamente per alcun punto di M, si dimostra che deve essere

'(A \ @M) = {y = (y1 , ..., yN ) 2 B : yM = yM +1 = ... = yN = 0} .

Vediamo ora che, data una M varietà M, in corrispondenza ad ogni suo punto
x è possibile trovare una M parametrizzazione locale. Nel seguito supporremo
sempre che sia M 2.

55
Teorema. Per ogni x 2 M, esiste un intorno A0 di x tale che A0 \ M si può
M parametrizzare con una funzione : I ! RN , dove I è un rettangolo di RM del
tipo ⇢
[ ↵, ↵]M se x 62 @M ,
I=
[ ↵, ↵]M 1 ⇥ [0, ↵] se x 2 @M ,
e (0) = x.

Dimostrazione. Consideriamo il di↵eomorfismo ' : A ! B della definizione data


all’inizio e prendiamo un ↵ > 0 tale che il rettangolo B 0 = [ ↵, ↵]N sia contenuto
in B. Ponendo A0 = ' 1 (B 0 ), si ha che A0 è un intorno di x (infatti, l’insieme
B 00 =] ↵, ↵[N è aperto e quindi anche A00 = ' 1 (B 00 ) lo è, e x 2 A00 ⇢ A0 ). Possiamo
allora prendere il rettangolo I come nell’enunciato e definire (u) = ' 1 (u, 0). Si
vede subito che è iniettiva e (I) = A0 \ M. Inoltre, '(1,...,M ) ( (u)) = u per ogni
u 2 I; quindi, '0(1,...,M ) ( (u)) · 0 (u) è la matrice identità, per cui 0 (u) deve avere
rango M, per ogni u 2 I.
Nota. Nella dimostrazione abbiamo visto che M può essere ricoperto da una
famiglia di aperti del tipo A00 , in modo tale che per ognuno di essi c’è una M para-
metrizzazione locale , definita su un aperto contenente I e ivi iniettiva, tale che
A00 \ M ⇢ (I). Restringendo eventualmente gli A00 , questa proprietà continua a
valere prendendo al posto di A00 una palla aperta B(x, ⇢x ). Inoltre, se x è un punto
del bordo @M, la M parametrizzazione è tale che i punti interni di una sola faccia
del rettangolo I vengono mandati su @M.

Vogliamo ora definire un’orientazione per M, che automaticamente ne indurrà


una anche per @M. Dato x 2 M, sia : I ! RN una M parametrizzazione locale
con (0) = x. Siccome 0 (u) ha rango M, per ogni u 2 I, abbiamo che i vettori

@ @
(u) , ... , ( u)
@u1 @uM

costituiscono una base di uno spazio vettoriale di dimensione M che chiameremo


spazio tangente a M nel punto (u) e indicheremo con T (u) M (in particolare,
se u = 0, si ha lo spazio tangente Tx M).
Ora, fissato u 2 I, il punto (u) può appartenere anche alle immagini di al-
tre M parametrizzazioni locali. Ci può essere una ˜ : J ! RN tale che (u) =
˜ (v), per un certo v 2 J. Sappiamo che si può cambiare l’orientazione di ciascuna
di tali ˜ con un semplice cambio di variabile. Possiamo quindi scegliere queste
M parametrizzazioni locali in modo che le basi dello spazio tangente T (u) M =
T ˜ (v) M ad esse associate siano orientate concordemente; questo significa che la
matrice che permette di passare da una base all’altra ha determinante positivo.
Chiameremo coerente una tale scelta.

56
Una scelta coerente delle M parametrizzazioni locali è quindi sempre possibile
localmente, cioè in un intorno del punto x. A noi interessa però poter fare questa
scelta globalmente, per tutte le possibili M parametrizzazioni locali di M. Non
sempre questo è possibile. Ad esempio, si pò vedere che ciò non si può fare per il
nastro di Möbius, che è una 2 varietà.
Nel caso che sia possibile scegliere tutte le M parametrizzazioni locali di M in
modo coerente, diremo che M è orientabile. Da ora in poi supporremo sempre
che M sia orientabile e che tutte le M parametrizzazioni locali siano state scelte
in modo coerente. Diremo in questo caso che M è stata orientata.

Una volta orientata M, vediamo ora come si può definire, a partire da questa,
un’orientazione su @M. Dato x 2 @M, sia : I ! RN una M parametrizzazione
locale con (0) = x; ricordiamo che in questo caso I è il rettangolo [ ↵, ↵]M 1 ⇥
[0, ↵]. Essendo @M una (M 1) varietà, lo spazio vettoriale tangente Tx @M ha
dimensione M 1 ed è un sottospazio di Tx M, che ha dimensione M. Esistono quindi
due versori in Tx M ortogonali a Tx @M. Indicheremo con ⌫(x) quello dei due che si
ottiene come derivata direzionale @@v (0) = d (0)v, per un certo v = (v1 , ..., vM ) con
vM < 0. A questo punto, scegliamo una base [v (1) (x), ..., v (M 1) (x)] in Tx @M tale
che [⌫(x), v (1) (x), ..., v (M 1) (x)] sia una base di Tx M orientata concordemente con
quella già scelta in questo spazio. Procedendo in questo modo per ogni x, si può
vedere che @M risulta orientata, e si dice che a @M è stata assegnata l’orientazione
indotta da quella di M.

Supporremo ora che M, oltre ad essere orientata, sia compatta. Data una
M forma di↵erenziale ! : U ! ⌦M (RN ), con U contenente M, vorremmo definire
cosa si intende per integrale di ! su M.
Nel caso in cui !|M , la restrizione di ! all’insieme M, sia nulla al di fuori
del supporto di una singola M parametrizzazione locale : I ! RN , poniamo
semplicemente Z Z
!= !.
M

In generale, abbiamo visto che M si può ricoprire con degli aperti A00 di RN , che pos-
siamo supporre essere palle aperte, per ognuno dei quali c’è una M parametrizzazione
locale iniettiva : I ! RN con A00 \ M ⇢ (I). Essendo M compatta, esiste un sot-
toricoprimento finito: sia esso dato da A001 , ..., A00n . L’insieme aperto V = A001 [ ... [ A00n
contiene quindi M. Abbiamo bisogno del seguente risultato.
Teorema. Esistono delle funzioni 1 , ..., n : V ! R, di classe C 1 , tali che, per
ogni x e ogni k 2 {1, ..., n}, si ha:
(i) 0  k (x)  1 ,
(ii) x 62 A00k ) k (x) = 0 ,

57
Px 2 M,
e, per
(iii) nk=1 k (x) = 1.

Dimostrazione. Sia A00k = B(xk , ⇢xk ), con k = 1, ..., n. Consideriamo la funzione


f : R ! R definita da
( ⇣ ⌘
exp u21 1 se |u| < 1 ,
f (u) =
0 se |u| 1 ,

e poniamo ✓ ◆
||x xk ||
k ( x) =f .
⇢k
Allora, per ogni x 2 V, si ha che 1 (x) + ... + n ( x) > 0 e possiamo definire

k ( x)
k ( x) =
1 ( x) + ... + n ( x)

Si può allora verificare che valgono le proprietà richieste.


Le funzioni 1 , ..., n si dicono essere una partizione dell’unità. Essendo og-
nuna delle k ·!|M nulla al di fuori del supporto di una singola M parametrizzazione
locale, possiamo definire l’integrale di ! su M in questo modo:
Z n Z
X
!= k ·!.
M k=1 M

Si può dimostrare che tale definizione non dipende né dalla scelta (coerente) delle
singole M parametrizzazioni locali, né dalla particolare partizione dell’unità.

Possiamo finalmente enunciare l’analogo del teorema di Stokes-Cartan.


Teorema. Se ! : U ! ⌦M (RN ) è una M forma di↵erenziale di classe C 1 e M una
(M + 1) varietà compatta orientata contenuta in U, si ha:
Z Z
d! = !
M @M

(purché su @M si consideri l’orientazione indotta).

Dimostrazione. Supponiamo dapprima che ci sia una M parametrizzazione locale


: I ! RN tale che
(I) \ @M = Ø

58
e !|M sia nulla al di fuori di (I). Per l’iniettività di e la continuità di !, si ha
che ! si annulla in tutti i punti del supporto di @ , per cui
Z Z Z
d! = d! = ! = 0.
M @
D’altra parte, siccome ! è nulla su @M,
Z
! = 0.
@M
Quindi, in questo caso l’uguaglianza è verificata.
Supponiamo ora che ci sia una M parametrizzazione locale : I ! RN che
mandi i punti interni di un’unica faccia Ij di I sul bordo di M e che !|M sia nulla
al di fuori di (I). Allora si ha sempre
Z Z Z
d! = d! = !,
M @
e siccome ! è nulla sul supporto di @ tranne che per i punti provenienti da Ij , i
quali appartengono a @M, si ha che
Z Z
!= !.
@ @M
Quindi, anche in questo caso l’uguaglianza è verificata.
Consideriamo ora il caso generale. Con la partizione dell’unità trovata sopra,
ognuna delle k · ! è di uno dei due tipi appena considerati. Essendo
n n
!
X X
d k^! =d k ^ ! = d(1) ^ ! = 0 ,
k=1 k=1
si ha dunque
Z n Z
X
d! = k · d!
M k=1 M
Xn Z n Z
X
= d k ^!+ k · d!
k=1 M k=1 M

Xn Z
= d( k · !)
k=1 M
Xn Z
= k ·!
k=1 @M
Z
= !.
@M

59

Potrebbero piacerti anche