1 Prime definizioni
Le equazioni differenziali sono uno degli strumenti principali utilizzati per
modellizzare i fenomeni della Natura, nel senso più ampio del termine. Le
troviamo in tutte le Scienze, principalmente nella Fisica, ma anche in ambito
economico, biologico, medico, sociale. Esse sono catalogabili in due tipi di-
versi: le equazioni differenziali ordinarie e le equazioni differenziali alle derivate
parziali. In queste note, tratteremo solo delle prime.
Consideriamo un’espressione del tipo
u0 = f (t, u) , (1)
che chiameremo “equazione differenziale in forma canonica”, e iniziamo a spie-
garne il significato. Qui f è una funzione continua definita su un sottoinsieme
aperto Ω di R × RN , a valori in RN .
Definizione 1 Diremo che una funzione u : I → RN è “soluzione di (1) in
I” se:
• I è un intervallo non degenere di R ,
• (t, u(t)) ∈ Ω per ogni t ∈ I ,
• u è derivabile su I ,
• u0 (t) = f (t, u(t)) per ogni t ∈ I .
Ricordiamo che
u(s) − u(t)
u0 (t) = lim ∈ RN
s→t s−t
è il “vettore derivata” di u in t.1 Spesso, pensando ai modelli della mecca-
nica, u(t) si può interpretare come “vettore posizione al tempo t” e u0 (t) come
“vettore velocità al tempo t”. Si chiama “orbita” della soluzione u : I → RN
l’insieme immagine u(I) = {u(t) : t ∈ I}, mentre chiameremo “traiettoria” di
u il suo grafico {(t, u(t)) : t ∈ I}. Lo spazio RN si chiama “spazio delle fasi”.
Siano a = inf I e b = sup I. Se a ∈ I, allora u0 (a) sarà un limite destro. Similmente, se
1
1
Nelle applicazioni ci si trova spesso ad affrontare la ricerca di una soluzione
dell’equazione differenziale che soddisfi una “condizione iniziale” del tipo
u(t0 ) = u0 .
è definito da !
Z b Z b Z b
g(t) dt = g1 (t) dt, . . . , gN (t) dt .
a a a
2
Viceversa, se u è una funzione continua per cui si abbia
Z t
u(t) = u0 + f (s, u(s)) ds ,
t0
d t
Z
0
u (t) = f (s, u(s)) ds = f (t, u(t)) ,
dt t0
per ogni t ∈ I.
Spesso le equazioni differenziali coinvolgono anche derivate di ordine più
elevato. Un tipico esempio è dato dall’equazione di Newton F = ma. In
questo caso, se x(t) denota la posizione di un oggetto di massa m al tempo t,
l’equazione si può solitamente scrivere come
1
x00 = F (t, x, x0 ) .
m
Qui F dipende dal tempo t, dalla posizione x e dalla velocità x0 . Definendo
y = x0 , u = (x, y), e f (t, u) = (y, m1 F (t, x, y)), l’equazione si può scrivere come
x0 = y
y 0 = m1 F (t, x, y) ,
Essa può essere ricondotta alla forma canonica (1), con u = (u1 , u2 , . . . , un ),
ponendo
3
Consideriamo dapprima l’equazione differenziale
u0 = a(t)u + b(t) ,
d h − tt a(s) ds
R i
− tt a(s) ds 0
R
− tt a(s) ds
R
u(t)e 0 =e 0 (u (t) − a(t)u(t)) = e 0 b(t) ;
dt
integrando su [t0 , t],
Rt Z t Rσ
− a(s) ds − a(s) ds
u(t)e t0
− u0 = e t0
b(σ) dσ ,
t0
ha come soluzione
Rt
Z t Rσ
u(t) = e 0 3 ds
e− 0 3 ds 2
σ dσ
0
Z t
=e 3t
e−3σ σ 2 dσ
0
2 1 2
= (e3t − 1) − t2 − t .
27 3 9
Analizziamo ora le “equazioni differenziali a variabili separabili”:
u0 = e(t)g(u) .
u0 (t)
= e(t) , u(t) ∈ J . (2)
g(u(t))
4
Come sopra, studiamo il relativo problema di Cauchy
0
u = e(t)g(u)
u(t0 ) = u0 ,
Supponendo che u([t0 , t]) sia contenuto in J si può integrare (2) su [t0 , t] e, con
un cambio di variabile, si ottiene
Z u(t) Z t
du
= e(s) ds .
u0 g(u) t0
da cui
arctan u(t) = arctan u0 + 1 − cos t ,
ossia
u(t) = tan arctan u0 + 1 − cos t .
Si noti che l’espressione è ben definita se t varia in un intorno di 0, ma potrebbe
non esserlo per ogni t ∈ R.
Come secondo esempio, cerchiamo una soluzione del problema di Cauchy
u0 = 1 + 2t
cos u
u(0) = π .
5
Ora bisogna fare attenzione che ci troviamo con u(t) sull’intervallo contenente
π dove la funzione sin è strettamente monotona, cioè in [ π2 , 3π
2
]. Definendo
w(t) = u(t) − π, avremo che w(t) ∈ [− π2 , π2 ] e
sin w(t) = sin(u(t) − π) = − sin u(t) = −(t + t2 ) ,
per cui w(t) = arcsin(−(t + t2 )) = − arcsin(t + t2 ), e quindi
u(t) = π + w(t) = π − arcsin(t + t2 ) .
con c1 ≤ 0 ≤ c2 .
Per avere anche l’unicità della soluzione, è necessario introdurre delle ipotesi
aggiuntive sulla funzione f .
6
3.2 Esistenza e unicità locale
Definizione 5 Diremo che la funzione f : Ω → RN è localmente lipschitziana
rispetto alla seconda variabile se per ogni (t0 , u0 ) ∈ Ω esiste un intorno U e
una costante LU > 0 tale che
kf (t, v) − f (t, w)k ≤ LU kv − wk ,
per ogni (t, v) e (t, w) in U .
Proposizione 6 La funzione f : Ω → RN è localmente lipschitziana rispetto
alla seconda variabile se e solo se per ogni compatto K ⊆ Ω esiste una costante
LK > 0 tale che
kf (t, v) − f (t, w)k ≤ LK kv − wk ,
per ogni (t, v) e (t, w) in K.
Dimostrazione. Per quanto riguarda la prima implicazione, è sufficiente scegliere
un intorno U compatto, e si ha la tesi. Vediamo quindi la seconda. Per as-
surdo, supponiamo che esista un compatto K ⊆ Ω ed esistano due successioni
(tn , vn )n e (tn , wn )n in K (con la stessa tn ) tali che
kf (tn , vn ) − f (tn , wn )k > nkvn − wn k . (3)
Sia MK := max{kf (t, u)k : u ∈ K}. Per la compattezza di K la successione
(tn , vn )n possiede una sottosuccessione (tnk , vnk )k convergente a un elemento
(t̄, ū) ∈ K. Essendo
1 1
kvnk − wnk k ≤ kf (tnk , vnk ) − f (tnk , wnk )k ≤ 2MK → 0 ,
nk nk
abbiamo che anche limk wnk = ū. Sia allora U un intorno di (t̄, ū) e LU > 0
tale che
kf (t, v) − f (t, w)k ≤ LU kv − wk ,
per ogni (t, v) e (t, w) in U . Per k sufficientemente grande, (tnk , vnk ) e (tnk , wnk )
apparterranno a U e nk ≥ LU , per cui
kf (tnk , vnk ) − f (tnk , wnk )k ≤ LU kvnk − wnk k
≤ nk kvnk − wnk k ,
in contraddizione con (3).
7
Teorema 8 (di Cauchy–Lipschitz) Sia f : Ω → RN localmente lipschitziana
rispetto alla seconda variabile. Allora per ogni (t0 , u0 ) ∈ Ω esiste un r0 > 0 tale
che il problema (P C) ha una ed una sola soluzione u : [t0 − r0 , t0 + r0 ] → RN .
Inoltre, la successione di funzioni (un )n , definita da
Z t
u0 (t) = u0 , un+1 (t) = u0 + f (s, un (s)) ds ,
t0
K := [t0 − r1 , t0 + r1 ] × B̄(u0 , r2 ) ⊆ Ω ,
X = {u ∈ C(I0 , RN ) : ku − u0 k∞ ≤ r2 } .
8
Ponendo α = LK r0 , si ha quindi che α < 1 e
9
Dimostrazione. Sia J = {t ∈ I1 ∩ I2 : u1 (s) = u2 (s) per ogni s ∈ [t0 , t]}. Per
assurdo, sia t1 = sup J < sup I1 ∩I2 , per cui t1 ∈ I1 ∩I2 . Applicando il Teorema
di Cauchy–Lipschitz al problema di Cauchy con condizione iniziale u(t1 ) =
u1 (t1 ), si trova una contraddizione. Si giunge poi ad un’analoga contradizione
anche se inf J > inf I1 ∩ I2 .
10
Se ora u∗ : I ∗ → RN è una soluzione che prolunga u∗ : I∗ → RN , allora
u∗ ∈ S, perciò per costruzione I ∗ ⊆ I∗ . Quindi u∗ non ammette prolungamenti:
è una soluzione massimale.
Siccome Z tn
u(tn ) = u0 + f (s, u(s)) ds ,
t0
e pertanto
Z t
ũ(t) = u0 + f (s, ũ(s)) ds , per ogni t ∈ ]a, b] .
t0
K := [b − r1 , b + r1 ] × B̄(ū, r2 ) ⊆ Ω ,
e sia
M = max{kf (t, u)k : (t, u) ∈ K} .
11
Fissiamo ε ∈ ]0, r2 [ . Esiste un n̄ tale che, se n ≥ n̄, allora
ε ε
b − tn < , ku(tn ) − ūk < .
4M 2
Vogliamo ora dimostrare che
ε
t ∈ [tn̄ , b[ ⇒ ku(t) − u(tn̄ )k < .
2
Per assurdo, supponiamo che l’insieme
n εo
E = t ∈ ]tn̄ , b[ : ku(t) − u(tn̄ )k ≥
2
sia non vuoto, e poniamo τ = inf E. Per la continuità, ku(τ ) − u(tn̄ )k = 2ε , e
quindi τ > tn̄ . Notiamo inoltre che
ε
ξ ∈ [tn̄ , τ [ ⇒ ku(ξ) − u(tn̄ )k < ⇒ (ξ, u(ξ)) ∈ K .
2
Quindi,
12
Teorema 15 Sia f : R × RN → RN localmente lipschitziana rispetto alla
seconda variabile. Se inoltre esiste una funzione continua ` : R → [0, +∞[ per
cui
kf (t, v)k ≤ `(t)(kvk + 1) , (4)
per ogni (t, v) ∈ R × RN , allora la soluzione del problema (P C) si può prolun-
gare in modo univoco a tutto R.
allora
ν(t) ≤ αeβ|t−t0 | , per ogni t ∈ I .
per cui
d
ln φε (t) ≤ β .
dt
Integrando su [t0 , t],
φε (t)
ln ≤ β(t − t0 ) ,
φε (t0 )
da cui
ν(t) ≤ φε (t) ≤ φε (t0 )eβ(t−t0 ) = (α + ε)eβ(t−t0 ) ,
per ogni t ∈ I ∩ [t0 , +∞[ e ogni ε > 0. Passando al limite per ε → 0+ , si
ottiene
ν(t) ≤ αeβ(t−t0 ) , per ogni t ∈ I ∩ [t0 , +∞[ .
Consideriamo ora l’intervallo I∩ ] − ∞, t0 ] . Definiamo l’intervallo J =
{τ ∈ R : τ = 2t0 − t, con t ∈ I} e la funzione w : J → [0, +∞[ definita da
w(τ ) = ν(2t0 − τ ). Se t ∈ I∩ ] − ∞, t0 ], allora τ = 2t0 − t ∈ J ∩ [t0 , +∞[ e
Z t0 Z τ
w(τ ) = ν(2t0 − τ ) ≤ α + β ν(2t0 − s) ds = α + β w(σ) dσ .
2t0 −τ t0
13
Per quanto visto sopra,
per cui
ν(t) ≤ αeβ(t0 −t) , per ogni t ∈ I∩ ] − ∞, t0 ] .
La dimostrazione è cosı̀ completa.
Dimostrazione del Teorema 15. Sia u : ]α, ω[ → RN una soluzione del problema
(P C), definita sul suo intervallo massimale, con α < t0 < ω. Supponiamo per
assurdo che ω ∈ R, e poniamo
t ∈ ]b0 , ω[ ⇒ u(t) ∈
/ B(0, R) .
Per il Lemma di Gronwall, con ν(t) = ku(t)k, abbiamo che, per ogni t ∈ [t0 , ω[ ,
una contraddizione.
14
Teorema 17 Sia f : R × RN → RN localmente lipschitziana rispetto alla
seconda variabile e sia ` : R → [0, +∞[ una funzione continua tale che
u = f˜(t, u)
0
(P C)
g
u(t̃0 ) = ũ0
è definita su tutto R e
Scriviamo
Z t Z t
u(t) = u0 + f (s, u(s)) ds , ũ(t) = ũ0 + f˜(s, ũ(s)) ds .
t0 t̃0
4
Qui kgk∞ = sup{g(t, x) : (t, x) ∈ R × RN }.
15
Allora, per t > t0 ,
Z t Z t̃0
ku(t) − ũ(t)k =
u0 − ũ0 +
˜
(f (s, u(s)) − f (s, ũ(s))) ds + ˜
f (s, ũ(s)) ds
t0 t0
Z t
≤ ku0 − ũ0 k + kf (s, u(s)) − f (s, ũ(s))k ds +
t0
Z t Z t̃0
+ ˜
kf (s, ũ(s)) − f (s, ũ(s))k ds +
˜
kf (s, ũ(s))k ds
t0 t0
Z t
≤ ku0 − ũ0 k + LK ku(s) − ũ(s)k ds + (b − a)kf − f˜k∞ + (M + 1)|t0 − t̃0 | .
t0
u = f˜(t, u)
0
(P
g C)
u(t̃0 ) = ũ0
6 Sistemi lineari
Studiamo un “sistema lineare” del tipo
16
Dalla teoria generale possiamo subito affermare che i problemi di Cauchy
associati all’equazione (6) avranno soluzione unica e globalmente definita.
Necl caso in cui sia b = 0, avremo l’equazione autonoma associata
u0 = A(t)u . (7)
Proposizione 19 Sia ū(t) una soluzione particolare di (6). Allora ogni altra
soluzione u(t) di (6) si ottiene come somma u(t) = ū(t) + v(t), dove v(t) è
una qualsiasi soluzione dell’equazione autonoma associata (7).
17
(i) φ1 , . . . , φp sono linearmente indipendenti;
(ii) esiste t0 ∈ R tale che φ1 (t0 ), . . . , φp (t0 ) sono linearmente indipendenti;
(iii) per ogni t ∈ R si ha che φ1 (t), . . . , φp (t) sono linearmente indipendenti.
Φ0 (t) = (φ01 (t), . . . , φ0N (t)) = (A(t)φ1 (t), . . . , A(t)φN (t)) = A(t)Φ(t) .
per cui u è una soluzione di (7). Viceversa, presa una soluzione u di (7), sia ad
esempio u(t0 ) = u0 . Allora, ponendo c = Φ(t0 )−1 u0 , la funzione w(t) = Φ(t)c
è una soluzione di (7) tale che w(t0 ) = Φ(t0 )Φ(t0 )−1 u0 = u0 e quindi, per
l’unicità delle soluzioni del problema di Cauchy, deve coincidere con u(t).
18
6.2 L’equazione non autonoma
Il seguente teorema di Lagrange illustra il metodo della “variazione delle
costanti”.
ha come soluzione
Z t
−1
u(t) = Φ(t) Φ(t0 ) u0 + Φ(s)−1 b(s) ds .
t0
Allora
Z t Z t
0 −1
c(t) = c(t0 ) + c (s) ds = Φ(t0 ) u0 + Φ(s)−1 b(s) ds ,
t0 t0
da cui la tesi.
Esempio. Vogliamo risolvere il problema di Cauchy
00
x + 4x = 3t ,
(9)
x(0) = 0 , x0 (0) = 1 .
19
Una matrice fondamentale associata al sistema autonomo è
sin(2t) cos(2t)
Φ(t) = .
2 cos(2t) −2 sin(2t)
sin(2t) 21 cos(2t)
−1 1 −2 sin(2t) − cos(2t)
Φ (t) = = .
−2 −2 cos(2t) sin(2t) cos(2t) − 12 sin(2t)
x(t) = sin(2t)c1 (t) + cos(2t)c2 (t) , y(t) = 2 cos(2t)c1 (t) − 2 sin(2t)c2 (t) .
x00 (t) = −4 sin(2t)c1 (t) + 2 cos(2t)c01 (t) − 2 cos(2t)c2 (t) − 2 sin(2t)c02 (t) ,
Risolvendo il sistema
sin(2t)c01 (t) + cos(2t)c02 (t) = 0
troviamo che
c01 (t) = 23 t cos(2t) , c02 (t) = − 23 t sin(2t) ,
20
da cui
Si noti che c’è un procedimento molto più rapido per trovare la soluzione
di (9). Infatti, si vede subito che una soluzione particolare dell’equazione
x00 + 4x = 3t è x̄(t) = 34 t. Allora tutte le soluzioni dell’equazione sono del tipo
Si può quindi scrivere una soluzione del problema (8) nella forma
Rt Z t Rσ
A(s) ds − A(s) ds
u(t) = e t0
u0 + e t0
b(σ) dσ ,
t0
Se A è una matrice N × N , si può in effetti definire la matrice eA in uno di questi due modi:
∞
A
1 n A
X 1 n
e = lim I+ A , e = A ,
n→∞ n n=0
n!
con A0 = I. Il calcolo esplicito della matrice potrebbe però non essere agevole.
21
6.3 Equazioni lineari di ordine N
Consideriamo un’equazione diferenziale lineare di ordine N :
u0 = A(t)u + b(t) ,
u1 = x, u2 = x0 , . . . , uN = x(N −1) ,
e
0 1 0 ··· 0 0
0 0 1 ··· 0
0
A= .. .. .. .. .. ..
, b(t) = .
. . . . . .
0 0 0 ··· 1 0
−a0 (t) −a1 (t) −a2 (t) ··· −aN −1 (t) h(t)
Spesso in questo caso una matrice fondamentale Φ(t) prende il nome di “ma-
trice wronskiana” e si denota con W (t).
22
Quindi, se x1 , . . . , xN : R → R sono soluzioni linearmente indipendenti
dell’equazione autonoma
x(N ) + aN −1 (t)x(N −1) + · · · + a1 (t)x0 + a0 (t)x = 0 .
potremo scrivere la matrice wronskiana
x1 (t) ... xN (t)
x01 (t) . .. x0N (t)
W (t) = .. .. .
. ··· .
(N −1) (N −1)
x1 (t) . . . xN (t)
C i concentreremo sul caso particolare “a coefficienti costanti”
x(N ) + aN −1 x(N −1) + · · · + a1 x0 + a0 x = h(t) . (12)
L’equazione autonoma associata è
x(N ) + aN −1 x(N −1) + · · · + a1 x0 + a0 x = 0 . (13)
Si definisce il “polinomio caratteristico”
p(λ) = λN + aN −1 λN −1 + aN −2 λN −2 + · · · + a1 λ + a0 .
Se p(λ) ha n radici reali distinte λ1 , λ2 , . . . , λN , si vede facilmente che sono
soluzioni linearmente indipendenti di (13) le seguenti:
eλ1 t , eλ2 t , . . . , eλN t .
Se invece λk è una radice reale di molteplicità νk , alla funzione eλk t bisognerà
sostituire
eλk t , t eλk t , . . . , tνk −1 eλk t .
Se p(λ) ha un autovalore complesso λ = α + iβ, con β 6= 0, automaticamente
ha anche l’autovalore complesso coniugato α − iβ. In questo caso, al posto di
eλt bisogna considerare le soluzioni
eαt cos(βt) , eαt sin(βt) .
Quindi, se l’autovalore λ ha molteplicità ν, bisognerà considerare le seguenti:
eαt cos(βt) , t eαt cos(βt) , . . . , tν−1 eαt cos(βt) ,
eαt sin(βt) , t eαt sin(βt) , . . . , tν−1 eαt sin(βt) .
Per quanto riguarda una soluzione particolare dell’equazione (12), si può
utilizzare il metodo della variazione delle costanti (Teorema di Lagrange). In
alternativa, c’è il cosiddetto “metodo per simiglianza”, che può essere applicato
quando h(t) è un polinomio P (t), oppure è del tipo
P (t)eγt , P (t)eγt cos(µt) , P (t)eγt sin(µt) .
Caso 1: h(t) = P (t) è un polinomio di grado m. Allora una soluzione partico-
lare x(t) può essere cercata tra
23
1a. i polinomi Q(t) di grado m se 0 non è radice dell’equazione caratteristica;
1b. i polinomi della forma tν Q(t) con Q(t) polinomio di grado m, se 0 è radice
di molteplicità ν dell’equazione caratteristica.
Caso 2: h(t) = P (t)eγt , con P (t) polinomio di grado m. Allora cerchiamo x(t)
nella forma
2a. Q(t)eγt con Q(t) polinomio di grado m, se γ non è radice dell’equazione
caratteristica;
2b. tν Q(t)eγt , con Q(t) polinomio di grado m, se γ è radice di molteplicità ν
dell’equazione caratteristica.
Caso 3: h(t) = P (t)eγt cos(µt) oppure h(t) = P (t)eγt sin(µt), con P (t) poli-
nomio di grado m. Allora cerchiamo x(t) nella forma
3a. Q(t)eγt (a cos(µt) + b sin(µt)), con Q(t) polinomio di grado m, se γ + iµ
non è radice dell’equazione caratteristica;
3b. tν Q(t)eγt (a cos(µt) + b sin(µt)), con Q(t) polinomio di grado m, se γ + iµ
è radice di molteplicità ν dell’equazione caratteristica.
Se h(t) dovesse essere combinazione lineare di alcune delle formule prece-
denti, si cercherà x(t) come combinazione lineare delle rispettive funzioni qui
sopra evidenziate.
x00 + λx = 0 (15)
2π
sono tutte periodiche di periodo √
λ
:
√ √
x(t) = a cos( λ t) + b sin( λ t) .
vediamo che le orbite nel piano delle fasi sono ellissi di equazione x2 + λy 2 = c,
con c ≥ 0, che circondano l’origine, il quale pertanto è un centro isocrono.
24
Consideriamo ora, sempre per λ > 0, l’equazione (14) e scriviamo il sistema
equivalente 0
x =y
y 0 = −λx + e(t) .
Ponendo u = xy , la soluzione con punto iniziale u(0) = u0 è data da
Z t
−1 0
u(t) = W (t) u0 + W (s) ds ,
0 e(s)
dove W (t) è la matrice wronskiana con W (0) = I :
√ √
cos( λ t) √1λ sin( λ t)
W (t) = .
√ √ √
− λ sin( λ t) cos( λ t)
Scrivendo u0 = xy00 e sviluppando, essendo
√ √
cos( λ s) − √1λ sin( λ s)
W −1 (s) = ,
√ √ √
λ sin( λ s) cos( λ s)
troviamo
√ 1
Z t √
x(t) = cos( λ t) u0 − √ e(s) sin( λ s) ds +
λ 0
1 √ Z t √
+ √ sin( λ t) v0 + e(s) cos( λ s) ds ,
λ 0
√ √ Z t √
y(t) = − sin( λ t) λ u0 − e(s) sin( λ s) ds +
0
√ Z t √
+ cos( λ t) v0 + e(s) cos( λ s) ds .
0
25
Al contrario, se aN 6= 0 o bN 6= 0, tutte le soluzioni di (14) sono illimi-
tate, sia in passato che in futuro. Si vede infatti che, per k ∈ Z,
T 2 bN T aN
x(kT ) = u0 − k , y(kT ) = v0 + k .
4πN 2
II caso. Se λ > 0 è tale che λ 6= ( 2πn
T
)2 , per ogni n ∈ N, poniamo
2
Z T √ 2
Z T √
αλ = e(s) cos( λ s) ds , βλ = e(s) sin( λ s) ds .
T 0 T 0
u0 = f (u) , (16)
26
Diremo che un equilibrio u0 è “asintoticamente stabile” se è stabile ed esiste
un δ 0 > 0 con la seguente proprietà: se per una soluzione u e per un certo
τ ∈ R si ha che ku(τ ) − u0 k < δ 0 , allora
lim u(t) = u0 .
t→+∞
27
Troviamo facilmente gli equilibri: sono i punti del tipo (kπ, 0), con k ∈ Z.
Siccome la funzione seno è 2π-periodica, ci sono due punti di equilibrio ge-
ometricamente distinti, (0, 0) e (π, 0), mentre tutti gli altri si ottengono da
questi per 2π-periodicità. Studiamo la stabilità di questi due punti di equili-
brio. Calcoliamo
0 1 0 1
Jf (0, 0) = , Jf (π, 0) = .
−a −c a −c
di λ2 + cλ + a = 0. Se c2 > 4a,
Gli autovalori di Jf (0, 0) sono le soluzioni √
1
sono entrambi reali e negativi: λ1,2 = 2 (−c ± c2 − 4a) ; se c2 ∈ ]0, 4a[ , sono
1
√
2
complessi coniugati, con parte reale negativa: λ 1,2 = 2 (−c ± i 4a − c ) ; Se
√
c = 0, sono uguali a ±i a, quindi hanno parte reale nulla.
Gli autovalori di Jf (π, 0) sono le soluzioni di λ2 + cλ −√a = 0. Essi sono
entrambi reali, uno positivo e uno negativo: λ1,2 = 12 (−c ± c2 + 4a) .
Possiamo quindi concludere che l’equilibrio (π, 0) non è stabile, mentre
l’equilibrio (0, 0) è stabile se c > 0. Il caso c = 0 va trattato a parte: analizzi-
amo le soluzioni (x(t), y(t)). Le loro orbite si trovano lungo le linee di livello
nel piano delle fasi della “funzione hamiltoniana”
H(x, y) = 12 y 2 − a cos x ,
28
soluzione con punto iniziale x(0) = α, y(0) = 0, si vede che, al variare di α in
]0, π[ , il periodo τ (α) è strettamente crescente, e
2π
lim+ τ (α) = √ , lim τ (α) = +∞ .
α→0 a α→π −
Abbiamo anche la soluzione eteroclina simmetrica (x∗ (t), y∗ (t)), tale che
√
orbita attraversa l’asse verticale al di sopra del valore 2 a
Le soluzioni la cui √
o al di sotto di −2 a non sono periodiche. Esse corrispondono alla situazione
fisica in cui il pendolo continua a ruotare in senso antiorario oppure orario,
rispettivamente.
Nel caso in cui il pendolo venga sollecitato con una forza esterna periodica,
esso può reagire in diversi modi. Il problema, di carattere prettamente nonlin-
eare, è tuttora in fase di studio. Riportiamo il seguente interessante risultato,
ottenuto da J. Mawhin e M. Willem nel 1984.
29
Una prima interpretazione, per quanto imprecisa, ci fa pensare a una crescita
di tipo esponenziale. Uno dei primi modelli di crescita, proposto da Malthus
nel 1798, prevede proprio questo tipo di sviluppo. Esso si basa sulla semplice
ipotesi che il tasso di crescita sia proporzionale alla numerosità della popo-
lazione.7
Indichiamo con u(t) una misura di densità della numerosità della specie u al
tempo t. Per poter trattare più facilmente il problema con i metodi dell’analisi
matematica, si suppone che u(t) vari in modo continuo al variare di t. Questa
ipotesi potrebbe sembrare strana, visto che il numero di individui è sempre un
intero, ma diventa ragionevole se tale numero è molto elevato e i cambiamenti
(nascite, morti o migrazioni) avvengono in modo casuale.
Il modello di Malthus è allora esprimibile con l’equazione differenziale
u0 = αu ,
u(t) = u0 eαt .
30
nota come equazione logistica. Essa si può risolvere esplicitamente:
Ku0 eαt
u(t) = ,
K + u0 (eαt − 1)
e un possibile grafico è rappresentato nella sottostante figura.
31
Uno studio della matrice jacobiana in questo punto ci mostra che gli autovalori
hanno parte reale nulla. Per studiarne la stabilità, dobbiamo pertanto usare
qualche altro stratagemma.
Siccome abbiamo deciso di studiare le soluzioni con x(t) > 0 e y(t) > 0,
definiamo le funzioni u1 (t) = ln x(t), u2 (t) = ln y(t). Abbiamo che
x0 (t)
0
u1 (t) = = α − βy(t) = α − βeu2 (t) ,
x(t)
0
0 y (t)
u2 (t) = = −γ + δx(t) = −γ + δeu1 (t) .
y(t)
Le soluzioni stanno sulle linee di livello di questa funzione, che sono tutte curve
chiuse. Tornando al piano delle fasi iniziale, abbiamo il seguente diagramma.
Questo semplice modello, formulato intorno al 1920, può essere reso più
realistico usando le idee introdotte nello studio di una singola popolazione.
Ad esempio, la crescita alla Malthus delle prede potrebbe essere sostituita con
32
una crescita alla Verhulst, o con funzioni di crescita più sofisticate. Potrebbero
essere introdotti anche un ritardo, costante o di tipo integrale, e perturbazioni
stagionali. Lo stesso vale per i predatori, naturalmente. Questi modelli sono in
fase di studio e alimentano molta ricerca attuale. Si possono trovare soluzioni
periodiche, o quasi periodiche, studiarne la stabilità al variare dei parametri
e delle condizioni iniziali. In alcuni casi si è persino evidenziato il fenomeno
del caos, parola usata in situazioni di estrema instabilità, per cui piccolissime
variazioni iniziali possono portare a un evolversi delle soluzioni del tutto im-
prevedibile.
Risulta molto importante, in questo contesto, il problema della persistenza
di tutte le specie. Le oscillazioni osservate potrebbero infatti portare, nella
realtà, all’estinzione delle prede o dei predatori.
III caso: a12 < 1 e a21 > 1. Non ci sono equilibri nel primo quadrante, la
specie v si estingue, mentre la u si stabilizza verso la sua capacità portante K1 .
33
IV caso: a12 > 1 e a21 < 1. Anche qui non ci sono equilibri nel primo
quadrante, la specie u si estingue, mentre la v si stabilizza verso la sua capacità
portante K2 .
34
Se scriviamo il sistema equivalente
0
x = y,
y 0 = −µx+ + νx− ,
vediamo che le orbite nel piano delle fasi sono curve chiuse che circondano
l’origine, il quale pertanto è un centro isocrono. Ognuna di queste curve è
ottenuta incollando assieme due semi-ellissi, ossia
con c ≥ 0.
Come nel caso lineare abbiamo considerato gli autovalori dell’operatore
differenziale, cosı̀ qui possiamo considerare l’insieme Σ delle coppie (µ, ν) per
cui l’equazione (18) ha soluzioni T -periodiche non nulle. Si vede allora che
Σ contiene, oltre ai due assi cartesiani {µ = 0} e {ν = 0}, una successione
(CN )N ≥1 di curve:
( ! )
π π
CN = (µ, ν) ∈ R2 : µ > 0, ν > 0, N √ + √ =T .
µ ν
x00 + µx = 1 ,
2π T π π
√ < <√ +√ ,
µ n µ ν
T
troviamo in corrispondenza una soluzione T -periodica, di periodo minimo n
.
Di tali n ce ne possono essere molti.
35
Supponiamo ora che sia (µ, ν) ∈ Σ, per cui esiste un N ∈ N tale che
π π T
τ=√ +√ = .
µ ν N
Teorema 30 Se
Φ(θ) 6= 0 , per ogni θ ∈ R ,
allora l’equazione (17) ha almeno una soluzione T -periodica. Inoltre, tutte le
soluzioni sono limitate.
Teorema 31 Se gli zeri della funzione Φ nell’intervallo [0, τ [ sono tutti sem-
plici ed il loro numero è di almeno quattro, allora l’equazione (17) ha almeno
una soluzione T -periodica. D’altra parte, in questo caso, tutte le soluzioni di
grande ampiezza sono illimitate.
36
Inaugurato il 1◦ luglio 1940, il Ponte di Tacoma Narrows divenne subito
famoso per la sua caratteristica di oscillare verticalmente, in presenza di vento
trasversale, con oscillazioni di uno-due metri di ampiezza. Questo comporta-
mento inusuale era dovuto al fatto che il ponte aveva una sezione molto stretta
e di piccolo spessore, per cui risultava molto flessibile rispetto ai ponti costruiti
fino ad allora.
Il mattino del 7 novembre 1940 il ponte stava oscillando, come al solito,
quando improvvisamente le oscillazioni verticali si trasformarono in oscillazioni
trasversali. Queste aumentarono in ampiezza fino a superare l’angolo di 45◦ e,
alle ore 11:10, la struttura cedette precipitando nel mare sottostante. Il breve
documentario su
www.youtube.com/watch?v=KVc7oBKzq9U
mostra la sequenza delle oscillazioni del ponte prima del crollo, e ne attribuisce
la causa al fenomeno della risonanza.
Questo fenomeno è ben noto per i sistemi lineari. Esso entra in gioco
quando la frequenza di un termine forzante periodico risulta uguale alla fre-
quenza delle oscillazioni libere della struttura. Si è allora ipotizzato che la
forza periodica agente sulla struttura fosse provocata dai vortici di von Kar-
man, che si alternano in modo periodico al passare del fluido lungo la struttura.
Un rapido calcolo permette però di vedere che la frequenza delle oscillazioni
del ponte di Tacoma non era strettamente correlata con la velocità del vento,
e quindi con la frequenza dei vortici da esso generati.
D’altra parte, un modello lineare presuppone che la struttura presenti pic-
cole oscillazioni, mentre le oscillazioni del ponte di Tacoma, quel 7 novembre
del 1940, erano evidentemente di grande ampiezza. Inoltre, la struttura stessa
37
di un ponte sospeso è asimmetrica: le funi che lo sostengono agiscono da una
sola parte del ponte, per cui una trazione verso il basso incontra una forza di
richiamo elastica nel verso contrario, mentre un sollevamento del ponte verso
l’alto potrebbe far allentare le funi, per cui non ci sarebbe alcuna forza di
richiamo.
Viene allora spontanea una domanda: esiste una risonanza nonlineare?
Come la si può definire?
Analizziamo un possibile modello di ponte sospeso, per quanto molto sem-
plificato. Si tratta di un oscillatore in verticale, soggetto alla forza di gravità,
sostenuto da una molla, con questa caratteristica: se lo si solleva al di sopra
di un’altezza h, la molla si allenta e non esercita più alcuna forza. Misurando
la posizione u(t) verso il basso, avremo l’equazione differenziale
x00 + F (x) = e(t) ,
dove
µ(x + h) − g se x ≥ −h ,
F (x) =
−g se x ≤ −h .
Osserviamo che, per ragioni di continuità, deve essere µh = g, per cui l’equazione
si può scrivere brevemente come
x00 + µ (x + h)+ − h = e(t) .
(19)
Iniziamo a studiare le oscillazioni libere, quando cioè il termine forzante è nullo.
Prendendo una soluzione con condizioni iniziale x(0) = α > 0 e x0 (0) = 0, si
può vedere che essa è sempre periodica. Abbiamo due casi, a seconda che sia
α minore o maggiore di h. Infatti, se α ≤ h, la soluzione rimane nella zona
lineare, e il suo periodo è
2π
τ (α) = √ .
µ
Se invece α ≥ h, la soluzione esce dalla zona lineare, e si può calcolare che
" r #
2 h α 2
τ (α) = √ arccos − + −1 .
µ α h
Si nota che il periodo τ (α) è una funzione crescente di α, strettamente crescente
se α ≥ h, e
lim τ (α) = +∞ .
α→+∞
Come si può allora ancora parlare di risonanza in questo caso?
Per quanto riguarda le soluzioni periodiche per l’equazione differenziale (19),
avendo osservato che i periodi delle oscillazioni libere tendono a +∞ al crescere
delle ampiezze, si può ipotizzare l’esistenza di soluzioni subarmoniche, ossia
soluzioni kT -periodiche, dove k è un intero positivo sufficientemente grande.
In effetti, vale il seguente risultato, provato da Ding e Zanolin nel 1992.
Teorema 32 Esiste un numero naturale k̄ tale che, per ogni k ≥ k̄, l’equazione
differenziale (19) ha almeno due soluzioni subarmoniche di periodo minimo kT .
38
8.3 Moto in campo gravitazionale
Affrontiamo il problema del moto di un corpo in un campo gravitazionale
Newtoniano, dove la forza è data dalla nota formula
mM
F =G .
d2
In altri termini, se usiamo la notazione x = (x1 , x2 ), l’equazione del moto è8
GM
ẍ(t) = − x.
|x|3
Abbiamo allora
ẋ(t) = (ρ̇(t) cos θ(t) − ρ(t)θ̇(t) sin θ(t), ρ̇(t) sin θ(t) + ρ(t)θ̇(t) cos θ(t)) ,
e quindi
ẍ = (ρ̈ cos θ−2ρ̇θ̇ sin θ−ρθ̈ sin θ−ρθ̇2 cos θ, ρ̈ sin θ+2ρ̇θ̇ cos θ+ρθ̈ cos θ−ρθ̇2 sin θ).
GM
ρ̈ sin θ + 2ρ̇θ̇ cos θ + ρθ̈ cos θ − ρθ̇2 sin θ = − 2 sin θ .
ρ
Moltiplicando la prima equazione per cos θ, la seconda per sin θ e sommando,
otteniamo
GM
ρ̈ − ρθ̇2 = − 2 .
ρ
D’altra parte, moltiplicando la prima equazione per sin θ, la seconda per cos θ
e sottraendo, si ha che
−2ρ̇θ̇ − ρθ̈ = 0 .
A questo punto, notiamo che
d 2
(ρ θ̇) = 2ρρ̇θ̇ + ρ2 θ̈ = ρ(2ρ̇θ̇ + ρθ̈) = 0 ,
dt
39
avremo che θ̇(t) > 0, per ogni t. Sostituendo nella prima equazione, abbiamo
quindi
µ2 GM
ρ̈ − 3 + 2 = 0 ,
ρ ρ
µ
θ̇ = 2 .
ρ
Vogliamo trovare una funzione F : R → ]0, +∞[ tale che
Supponendo che una tale funzione esista, introduciamo anche la funzione ausil-
iaria G(θ) = 1/F(θ) e abbiamo
µ µ
ρ̇(t) = F 0 (θ(t))θ̇(t) = F 0 (θ(t)) 2
= F 0 (θ(t)) = −µG 0 (θ(t)) ,
ρ(t) F(θ(t))2
da cui
GM
G 00 (θ(t)) + G(θ(t)) = .
µ2
Questa è l’equazione di un oscillatore armonico con un termine forzante costante,
di facile soluzione: si ha
GM
G(θ(t)) = + γ cos(θ(t) − θ0 ) ,
µ2
dove γ e θ0 sono costanti da determinarsi a partire dalle condizioni iniziali.
Vista la simmetria del problema, fissiamo per semplicità θ0 = π. Abbiamo
cosı̀ l’equazione
1
ρ(t) = GM .
µ2
+ γ cos θ(t)
Ponendo
µ2 µ2 γ
`= , ε= ,
GM GM
otteniamo
`
ρ(t) = ,
1 − ε cos θ(t)
che è l’equazione di una conica in coordinate polari.
40
d Ricaviamo l’equazione di un’ellisse in coordinate polari, supponendo che uno dei due e
fuochi sia posizionato nell’origine, e l’asse maggiore sia orizzontale.
Com’è noto, se indichiamo con
a la lunghezza del semiasse maggiore,
b la lunghezza del semiasse minore,
c la semi-distanza tra i due fuochi,
l’equazione cartesiana di questa ellisse è
(x − c)2 y2
+ = 1.
a2 b2
21/03/17, 16:20
P = (ρ cos θ, ρ sin θ) ,
21/03/17, 16:15
https://upload.wikimedia.org/wikipedia/commons/9/90/Ellisse.png Pagina 1 di 1
A F1 θ C F2 B
d1 d2
abbiamo che p
ρ+ (ρ cos θ − 2c)2 + (ρ sin θ)2 = 2a ,
da cui, facendo i calcoli,
b2
ρ= .
a − c cos θ
Se denotiamo con
b2
`= il semilato retto,
a
c
ε = l’eccentricità,
a
41
21/03/17, 16:31
si ha l’equazione
`
. ρ=
1 − ε cos θ
In seguito ci sarà utile conoscere la formula dell’area dell’ellisse:
Z ar Z π/2
x2
A=2 b2 1 − 2 dx = 2b a cos2 u du = πab .
−a a −π/2
https://upload.wikimedia.org/wikipedia/commons/d/d5/Ellisse4.png Pagina 1 di 1
Ecco quanto afferma la seconda legge: l’area A(t) cresce linearmente in t, per
cui la sua derivata A0 (t) è costante.
La Terza legge di Keplero fornisce una relazione tra il periodo di rotazione
e il semiasse maggiore dell’orbita ellittica. Sia T il tempo impiegato dal nostro
oggetto per compiere una rotazione attorno alla massa fissa. Abbiamo quindi
(vedi la formula per l’area dell’ellisse) che
1
2
µT = πab .
42
Da ciò, essendo b2 = a` e µ2 = GM `, troviamo la formula
4π 2 3
T2 = a .
GM
È interessante notare che il periodo dipende solo dalla lunghezza del semiasse
maggiore, ed è indipendente dalla lunghezza del semiasse minore.
Le tre leggi sono state trovate da Johannes Kepler studiando il moto dei pi-
aneti attorno al sole. Le prime due furono enunciate nel 1609, la terza nel 1619.
Isaac Newton ne ha poi dato un’interpretazione generale nei suoi Philosophiae
Naturalis Principia Mathematica, pubblicati nel 1687. Una spiegazione origi-
nale delle leggi di Keplero si può trovare qui:
www.youtube.com/watch?v = ge06Znj7hyk
43
Corso di Analisi 3
Parte II: Integrale di Riemann
Appunti delle lezioni tenute dal Prof. A. Fonda
Integrale su un rettangolo
Sia Q un rettangolo di RN , ossia un insieme del tipo
Per semplicità, supporremo N = 2, ma quello che segue può essere fatto anche
nel caso generale.
Sia dunque Q = [a, b]×[c, d]. Consideriamo una suddivisione del rettangolo
Q: si tratta di scegliere un insieme finito di punti
D1 = {x0 , x1 , x2 , . . . , xn } ,
tali che
a = x0 < x1 < x2 < . . . < xn−1 < xn = b ,
e un insieme finito di punti
D2 = {y0 , y1 , y2 , . . . , ym } ,
tali che
c = y0 < y1 < y2 < . . . < ym−1 < ym = d ,
e di definire D = D1 × D2 . Restano cosı̀ individuati i rettangolini
per la cui area useremo la notazione |Qkh | = (xk − xk−1 )(yh − yh−1 ).
1
Definiamo i numeri reali
`0kh = inf{f (x, y) : (x, y) ∈ Qkh } , `00kh = sup{f (x, y) : (x, y) ∈ Qkh } ,
(si ricordi che f è limitata) e le corrispondenti somme
n X
X m n X
X m
0
S (f, D) = `0kh |Qkh | , 00
S (f, D) = `00kh |Qkh | ,
k=1 h=1 k=1 h=1
Inoltre, se D e D
e sono due suddivisioni qualiasi di Q, allora
S 0 (f, D) ≤ S 00 (f, D)
e .
2
Esempio 2. Una funzione non integrabile è f : Q → R definita da
(
1 , se x ∈ Q ,
f (x, y) =
0 , se x ∈ / Q.
Allora anche
σ 0 (f ) = 0 , σ 00 (f ) = |Q| ,
per cui f non è integrabile.
S 00 (f, D) − S 0 (f, D) ≤ ε .
3
Inoltre, se f è integrabile su Q, allora
Z Z
f ≤ |f | .
Q Q
Si ha quindi Z Z Z
f= f (x, y) dx dy .
Q Q2 Q1
1
La funzione g = f (·, y) : Q1 → R è definita da g(x) = f (x, y).
4
Notiamo inoltre che
Avremo quindi
m
X n o
S 00 (G, D2 ) = sup G(y) : y ∈ [yh−1 , yh ] (yh − yh−1 )
h=1
m
X n
nX o
≤ sup Mk (y)(xk − xk−1 ) : y ∈ [yh−1 , yh ] (yh − yh−1 )
h=1 k=1
Xm Xn n o
≤ sup Mk (y) : y ∈ [yh−1 , yh ] (xk − xk−1 )(yh − yh−1 )
h=1 k=1
Xn X m
≤ `00kh |Qkh | = S 00 (f, D) .
k=1 h=1
Analogamente,
m
X n o
0
S (G, D2 ) = inf G(y) : y ∈ [yh−1 , yh ] (yh − yh−1 )
h=1
Xm n
nX o
≥ inf mk (y)(xk − xk−1 ) : y ∈ [yh−1 , yh ] (yh − yh−1 )
h=1 k=1
m X
X n n o
≥ inf mk (y) : y ∈ [yh−1 , yh ] (xk − xk−1 )(yh − yh−1 )
h=1 k=1
n X
X m
≥ `0kh |Qkh | = S 0 (f, D) .
k=1 h=1
si ha che Z d Z
G− f ≤ ε .
c Q
Rd R
Per l’arbitrarietà di ε > 0, ne segue che c
G= Q
f.
Naturalmente, vale anche un enunciato simmetrico.
5
Teorema. Sia f : Q → R integrabile su Q, e supponiamo che per ogni x ∈ Q1 ,
la funzione Rf (x, ·) sia integrabile su Q2 . Allora la funzione G : Q1 → R definita
da G(x) = Q2 f (x, y) dy è integrabile, e vale la formula
Z Z
f= G.
Q Q1
Si ha quindi Z Z Z
f= f (x, y) dy dx .
Q Q1 Q2
Esempio. Sia Q = [1, 2] × [0, 1] e sia f : Q → R definita da
f (x, y) = x−3 exp(x−1 y) .
Allora
Z Z 2 Z 1
−3 −1
f = x exp(x y) dy dx
Q 1 0
Z 2 −2 y=1
= x exp(x−1 y) y=0 dx
Z1 2
= x−2 exp(x−1 ) − 1 dx
1
2 √
= − exp(x−1 ) + x−1 1 = e − e − 12 .
6
Proposizione. Un insieme Ω ha misura nulla se e solo se per ogni ε > 0
esistono un numero finito di rettangoli Q1 , Q2 , . . . , Qn tali che
Ωx = {y ∈ Q2 : (x, y) ∈ Ω} .
P1 Ω = {x ∈ Q1 : Ωx 6= Ø} .
7
Analogamente, definendo per ogni y ∈ Q2 le sezioni
Ωy = {x ∈ Q1 : (x, y) ∈ Ω}
e la proiezione
P2 Ω = {y ∈ Q2 : Ωy 6= Ø} ,
si ha Z Z Z !
f= f (x, y) dx dy .
Ω P2 Ω Ωy
P1 Ω = {(x, y) ∈ R2 : x2 + y 2 ≤ r2 } ,
mentre
h p p i
Ω(x,y) = − r2 − x2 − y2, 2 2 2
r − x − y , per ogni (x, y) ∈ P1 (Ω) .
Quindi, Z p
|Ω| = 2 r2 − x2 − y 2 dx dy .
P1 Ω
8
Usiamo di nuovo la formula
√ di riduzione
√ sull’insieme D = P1 Ω. Abbiamo che
P1 D = [−r, r] e Dx = [− r − x , r − x2 ], per ogni x ∈ [−r, r]. Pertanto,
2 2 2
Z p Z r Z √r2 −x2 p !
|Ω| = 2 r2 − x2 − y 2 dx dy = √
2 r2 − x2 − y 2 dy dx
D −r − r2 −x2
Z r
π 4
= 2(r2 − x2 ) dx = πr3 .
−r 2 3
√
Abbiamo operato la sostituzione u = arcsin(y/ r2 − u2 ) e calcolato
Z π/2
π
cos2 u du = .
−π/2 2
Raggruppiamo
h q le i variabili come ((x, y), z) e proiettiamo sull’asse z, ottenendo
2
P2 Ω = 0, 3 ` . Per ogni z ∈ P2 Ω, la sezione Ωz è un triangolo equilatero di
q
lato `z = ` − 32 z e area
√
1 2√ 3 q 2
|Ωz | = `z 3 = ` − 32 z .
4 4
Pertanto,
Z H Z √2 ` √ r √
3 3 3 2 2 3
|Ω| = |Ωz | dz = `− z dz = `.
0 0 4 2 12
Nota. Dehn ha dimostrato nel 1902, in risposta al Terzo Problema di Hilbert,
che non è possibile tagliare il tetraedro in poliedri più piccoli che, ricombinati
assieme, formino un parallelepipedo.
Più in generale, consideriamo ora un “cono” tridimensionale Ω. Esso è
ottenuto prendendo un insieme S, che supponiamo contenuto in {(x, y, z) :
z = 0} (la “base” di Ω) e un punto v = (0, 0, h), con h > 0 (il “vertice” di Ω).
L’insieme Ω è cosı̀ definito:
9
Quindi il volume del cono Ω è
Z Z h h − z 2 1
|Ω| = |Ωz | dz = |S| dz = |S|h ,
PΩ 0 h 3
ossia “area della base volte altezza diviso tre”.
Cambiamento di variabili
Siano ϕ un diffeomorfismo tra due aperti A e B = ϕ(A) di RN , D un sottoin-
sieme chiuso e limitato di A e f : ϕ(D) → R una funzione continua. Sotto le
opportune ipotesi di integrabilità, si può dimostrare che vale la formula
Z Z
f (x) dx = f (ϕ(u))| det ϕ0 (u)| du .
ϕ(D) D
x
Si dice traslazione, per mezzo di un vettore fissato a = (a1 , a2 ) ∈ R2 , la
trasformazione definita da
ϕ(u, v) = (u + a1 , v + a2 ) .
Si vede immediatamente che ϕ è un diffeomorfismo con det ϕ0 = 1, per cui vale
la formula Z Z
f (x, y) dx dy = f (u + a1 , v + a2 ) du dv .
ϕ(D) D
Le riflessioni. y
x
Una riflessione rispetto a un asse è definita da:
ϕ(u, v) = (−u, v) , oppure ϕ(u, v) = (u, −v) .
10
Qui det ϕ0 = −1, per cui, ad esempio nel primo caso, si ha:
Z Z
f (x, y) dx dy = f (−u, v) du dv .
ϕ(D) D
Le rotazioni. y
x
Una rotazione attorno all’origine di un angolo fissato α è definita da:
Quindi, si ha
Z Z
f (x, y) dx dy = f (u cos α − v sin α , u sin α + v cos α) du dv .
ϕ(D) D
Coordinale polari.
y
ρ
θ
x
Un altro tipo di trasformazione utile è la funzione ψ : [0, +∞[ × [0, 2π[ → R2
data da
ψ(ρ, θ) = (ρ cos θ, ρ sin θ) ,
che definisce le note coordinate polari in R2 . Qui bisogna fare attenzione, perché
non si tratta di un diffeomorfismo. Consideriamo gli insiemi aperti
11
Siccome
lim |E \ Eε | = 0 , lim |ψ −1 (E) \ ψ −1 (Eε )| = 0 ,
ε→0+ ε→0+
E = {(x, y) ∈ R2 : x ≥ 0, y ≥ 0, x2 + y 2 < 9} .
Coordinate cilindriche.
z
y
θ ρ
x
12
Passando a coordinate cilindriche, notiamo che
√
ρ cos θ + ρ sin θ + 2 ≥ 0 ,
per ogni θ ∈ [0, 2π[ e ogni ρ ∈ [0, 1]. Facendo il cambio di variabili e usando il
teorema di riduzione, si ha:
Z Z
2 2
(x + y ) dx dy dz = ρ3 dz dθ dρ
E ξ −1 (E)
√ ! !
Z 1Z Z 2π ρ cos θ+ρ sin θ+ 2
= ρ3 dz dθ dρ
0 0 0
1 2π √
Z Z
3
= ρ (ρ cos θ + ρ sin θ + 2) dθ dρ
0 0
Z √ 1
= 2π ρ3 2 dρ
√0
π 2
= .
2
Coordinate sferiche.
z
φ
ρ y
θ
x
13
Si ha:
Z
µ(E) = 1 dx dy dz
ZE
= ρ sin φ dρ dθ dφ
σ −1 (E)
!
Z 1 Z π/4 Z 2π
= ρ2 sin φ dθ dφ dρ
0 0 0
!
Z 1 Z π/4
= 2π ρ2 sin φ dφ dρ
0 0
√ !Z 1
2
= 2π 1 − ρ dρ
2 0
√ !
2 2π
= 1− .
2 3
Si noti che il valore |Ω| può essere in alcuni casi +∞. Le proprietà dell’integrale
e della misura si estendono facilmente agli insiemi illimitati.
14
Esempio. Sia Ω = {(x, y) ∈ R2 : x2 + y 2 ≥ 1} e sia f : Ω → R definita da
f (x, y) = (x2 + y 2 )−α , con α > 0. Abbiamo
Z Z
1
f = lim dx dy
Ω r→+∞ Ω∩B(0,r) (x + y 2 )α
2
Z 2π Z r
1
= lim 2α
ρ dρ dθ
r→+∞ 0 1 ρ
Z r
= 2π lim ρ1−2α dρ .
r→+∞ 1
15
Integrale di funzioni non limitate
Sia f : Ω → R non necessariamente limitata. Supponiamo dapprima
f (x, y) se x2 + y 2 ≥ n−1/α ,
fn (x, y) =
n se x2 + y 2 ≤ n−1/α .
Quindi
Z Z Z
fn = 1
fn + 1
fn
Ω B 0,n− 2α B(0,1)\B 0,n− 2α
1
Z 2π Z 1 1
− 2α
= n B 0, n + ρ dρ dθ
2α
n− 2α ρ
1
0
Z 1
α−1
= πn α + 2π 1
ρ1−2α dρ .
n− 2α
16
Appendice. Alcune applicazioni nella Fisica
Dato un corpo Ω ⊆ RN , è possibile definire una “densità di massa” µ :
Ω → [0, +∞[. La massa totale del corpo è pertanto
Z
M= µ(x) dx .
Ω
Ω = {(x, y) ∈ R2 : x ≥ 0, y ≥ 0, x2 + 4y 2 ≤ 1} .
17
Concludiamo questa parte introducendo il potenziale gravitazionale di un
corpo tridimensionale Ω con densità di massa µ : Ω → [0, +∞[ . Secondo la
legge di Newton, esso è la funzione U : R3 \ Ω → R definita da
Z
Gµ(x)
U (ξ) = − dx .
Ω kξ − xk
18
Lezioni sulle forme di↵erenziali
Prof. Alessandro Fonda, a.a. 2019/2020
il numero reale 0 1
(1) (M )
v i1 ... vi1
B . .. C
det B
@ .
. ··· . CA.
(1) (M )
viM ... viM
Si noti che se due indici coincidono, si ha l’applicazione nulla. Se due indici ven-
gono scambiati, l’applicazione cambia di segno. Richiamiamo il seguente risultato
algebrico.
N
Proposizione. Se 1 M N, lo spazio ⌦M (RN ) ha dimensione M . Una sua
N
base è data da (dxi1 ,...,iM )1i1 <...<iM N . Se M > N, si ha ⌦M (R ) = {0}.
Dimostrazione. Vediamo che gli dxi1 ,...,iM , con 1 i1 < ... < iM N , sono
linearmente indipendenti: sia
X
↵i1 ,...,iM dxi1 ,...,iM = 0 .
1i1 <...<iM N
1
Fissiamo 1 j1 < ... < jM N e dimostriamo che ↵j1 ,...,jM = 0. Applicando
l’espressione scritta sopra alla M -pla di vettori della base canonica ej1 , ... , ejM ,
abbiamo che
0 1
i1 j1 ... i1 jM
X B C
↵i1 ,...,iM det @ ... ···
..
. A = 0.
1i1 <...<iM N ...
iM j1 iM jM
Di questa somma dobbiamo considerare solo i temini con indici distinti, essendo '
antisimmetrica. Allora la somma per k1 , ..., kM che vanno da 1 a N può essere fatta
prendendo in tutti i modi possibili degli indici 1 i1 < ... < iM N e considerando
tutte le loro permutazioni i (1) , ..., i (M ) , con : {1, ..., M } ! {1, ..., M }. Scriveremo
quindi
N
X (1) (M )
'(ek1 , ..., ekM )vk1 · · · vkM =
k1 ,...,kM =1
X X (1) (M )
= '(ei (1)
, ..., ei (M )
)vi (1)
· · · vi (M )
.
1i1 <...<iM N
Riordinando tutti i termini ei (1) , ..., ei (M ) e tenendo conto del fatto che scambiando
due vettori il valore di ' cambia segno, otteniamo
X X (1) (M )
'(v(1) , . . . , v(M ) ) = '(ei1 , ..., eiM ) " vi (1) · · · vi (M ) ,
1i1 <...<iM N
dove " denota il segno di ogni permutazione : {1, ..., M } ! {1, ..., M }. Per la
2
definizione di determinante, abbiamo quindi
0 1
(1) (M )
vi1 ... vi1
X B . .. C
'(v(1) , . . . , v(M ) ) = '(ei1 , ..., eiM ) det B .
@ . ··· . A ,
C
1i1 <...<iM N (1) (M )
viM ... viM
ossia X
'= '(ei1 , ..., eiM )dxi1 ,...,iM .
1i1 <...<iM N
3
Consideriamo ⌦3 (R3 ), lo spazio delle applicazioni trilineari antisimmetriche def-
inite su R3 ⇥ R3 ⇥ R3 , a valori in R. Indichiamo con dx1,2,3 la seguente applicazione
trilineare antisimmetrica:
00 1 0 0 1 0 00 11 0 1
v1 v1 v1 v1 v10 v100
dx1,2,3 : @@ v2 A , @ v20 A , @ v200 AA 7! det @ v2 v20 v200 A .
v3 v30 v300 v3 v30 v300
Ogni elemento dello spazio vettoriale ⌦3 (R3 ) è multiplo di dx1,2,3 . Si ha che ⌦3 (R3 )
ha dimensione 1. Ricordiamo che
2 Forme di↵erenziali in RN
Definizione. Dato un sottoinsieme aperto U di RN , chiameremo forma differen-
ziale di grado M (o M forma di↵erenziale) una funzione ! : U ! ⌦M (RN ).
Se M 1, considerata la base (dxi1 ,...,iM )1i1 <...<iM N , le componenti della
M forma di↵erenziale ! verranno denotate con fi1 ,...,iM : U ! R. Scriveremo
quindi: X
!(x) = fi1 ,...,iM (x) dxi1 ,...,iM .
1i1 <...<iM N
4
Inoltre, se c 2 R, si definisce c !, il prodotto dello scalare c per la M forma dif-
ferenziale !, nel modo seguente:
X
(c !)(x) = cfi1 ,...,iM (x) dxi1 ,...,iM .
1i1 <...<iM N
Con queste definizioni, l’insieme delle forme di↵erenziali di grado M risulta essere
uno spazio vettoriale.
Vediamo da vicino il caso N = 3. Consideriamo un sottoinsieme U di R3 . Se
indichiamo con !M una M forma di↵erenziale, avremo, nei casi M = 1, 2, 3, le
seguenti possibilità:
Si noti che !1 (x) e !2 (x) sono determinate dai vettori tridimensionali F (x) =
(f1 (x), f2 (x), f3 (x)) e G(x) = (f12 (x), f13 (x), f23 (x)), rispettivamente.
3 Prodotto esterno
Date due forme di↵erenziali ! : U ! ⌦M (RN ), ! ˜ : U ! ⌦M̃ (RN ), di grado M e M̃ ,
rispettivamente, vogliamo definire la forma di↵erenziale ! ^ ! ˜ , di grado M + M̃ , che
si dice prodotto esterno di ! e ! ˜ . Se
X
!(x) = fi1 ,...,iM (x) dxi1 ,...,iM ,
1i1 <...<iM N
X
˜ (x) =
! gj1 ,...,jM̃ (x) dxj1 ,...,jM̃ ,
1j1 <...<jM̃ N
si pone
P
˜ )(x) =
(! ^ ! fi1 ,...,iM (x)gj1 ,...,jM̃ (x) dxi1 ,...,iM ,j1 ,...,jM̃ .
1i1 <...<iM N
1j1 <...<jM̃ N
Di solito si omette il simbolo ^ qualora una delle due è una 0 forma di↵erenziale,
in quanto il prodotto esterno assomiglia, in questo caso, al prodotto per uno scalare.
Si noti che nella sommatoria saranno nulli tutti gli elementi in cui un indice compare
due volte. Vediamo ora alcune proprietà.
5
Proposizione. Se !, ! ˜
˜, ! ˜ , rispetti-
˜ sono tre forme di↵erenziali di grado M, M̃ , M̃
vamente, allora:
˜ ^ ! = ( 1)M M̃ ! ^ !
! ˜,
(! ^ ! ˜˜ = ! ^ (˜
˜) ^ ! ˜˜ ) ;
!^!
se c 2 R, allora
(c !) ^ !
˜ = ! ^ (c !
˜ ) = c(! ^ !
˜) ;
inoltre, nel caso in cui M = M̃ , si ha
˜˜ = (! ^ !
˜) ^ !
(! + ! ˜˜ ) + (˜ ˜˜ ) ,
!^!
˜
˜ ^ (! + !
! ˜˜ ^ !) + (!
˜ ) = (! ˜˜ ^ !
˜) .
La prima uguaglianza si ottiene osservando che, per arrivare dalla sequenza di in-
dici i1 , ..., iM , j1 , ..., jM̃ alla j1 , ..., jM̃ , i1 , ..., iM , bisogna dapprima spostare j1 verso
sinistra operando M scambi, poi fare lo stesso per l’eventuale j2 , e cosı̀ via fino a
jM̃ . In totale, sono quindi necessari M M̃ scambi di indici. Tenuto conto che ad ogni
scambio la forma di↵erenziale cambia di segno, si ha la formula cercata.
La dimostrazione della seconda uguaglianza (proprietà associativa) non presenta
difficoltà di rilievo, come pure le uguaglianze in cui compare la costante c.
Per quanto riguarda la proprietà distributiva, abbiamo:
˜
˜ )(x) =
˜) ^ !
((! + !
P
= (fi1 ,...,iM (x) +
1i1 <...<iM N
1k1 <...<k ˜ N
M̃
6
Se consideriamo il caso particolare delle due forme di↵erenziali costanti
4 Di↵erenziale esterno
Data una M forma di↵erenziale ! di classe C 1 , vogliamo definire la forma di↵eren-
ziale dex !, di grado M + 1, che si dice di↵erenziale esterno di !.
Se ! è una 0 forma di↵erenziale, ! = f : U ! R, il suo di↵erenziale esterno
dex !(x) non sarà altro che il di↵erenziale df (x), applicazione lineare definita in RN ,
a valori in R. Essendo, per ogni v = (v1 , ..., vN ),
@f @f
df (x)v = (x) v1 + ... + ( x) v N
@x1 @xN
si ha:
N
X
@f @f @f
df (x) = (x) dx1 + ... + (x) dxN = (x) dxm .
@x1 @xN @xm
m=1
Nel caso generale, se
X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N
poniamo X
dex !(x) = dfi1 ,...,iM (x) ^ dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N
o, equivalentemente,
X N
X @fi1 ,...,iM
dex !(x) = (x) dxm ^ dxi1 ^ ... ^ dxiM .
@xm
1i1 <...<iM N m=1
Nel seguito, per comodità di scrittura, scriveremo sempre d! al posto di dex !. Ve-
diamo alcune proprietà del di↵erenziale esterno.
7
Proposizione. Se ! e ! ˜ sono due forme di↵erenziali di classe C 1 , di grado M e M̃ ,
rispettivamente, si ha:
d(! ^ ! ˜ + ( 1)M ! ^ d˜
˜ ) = d! ^ ! !;
se M = M̃ e c 2 R, allora
d(! + !
˜ ) = d! + d˜
!,
d(c !) = c d! ;
se ! è di classe C 2, allora
d(d!) = 0 .
˜ )(x) + ( 1)M (! ^ d˜
= (d! ^ ! ! )(x) .
La seconda e la terza uguaglianza seguono facilmente dalla linearità della derivata.
Per quanto riguarda l’ultima uguaglianza, abbiamo:
X N X
X N
@ @fi1 ,...,iM
d(d!)(x) = (x) dxk,m,i1 ,...,iM .
@xk @xm
1i1 <...<iM N k=1 m=1
8
5 Forme di↵erenziali in R3
Nel caso N = 3, se !1 e !
˜ 1 sono due 1-forme di↵erenziali,
!1 (x) = f1 (x) dx1 + f2 (x) dx2 + f3 (x) dx3 ,
˜ 1 (x) = g1 (x) dx1 + g2 (x) dx2 + g3 (x) dx3 ,
!
usando le proprietà distributiva e associativa si ottiene:
!1 ^ !
˜ 1 = (f1 g2 f2 g1 ) dx1,2 + (f1 g3 f3 g1 ) dx1,3 + (f2 g3 f3 g2 ) dx2,3 .
Se invece !1 è una 1-forma di↵erenziale e !2 è una 2-forma di↵erenziale,
!1 (x) = f1 (x)dx1 + f2 (x)dx2 + f3 (x)dx3 ,
!2 (x) = g1,2 (x) dx1,2 + g1,3 (x) dx1,3 + g2,3 (x) dx2,3 ,
si ha:
!1 ^ !2 = (f1 g2,3 f2 g1,3 + f3 g1,2 ) dx1,2,3 .
Se abbiamo una 0-forma di↵erenziale !0 = f : U ! R, allora
@f @f @f
d!0 (x) = (x) dx1 + (x) dx2 + (x) dx3 .
@x1 @x2 @x3
Se abbiamo una 1-forma di↵erenziale
!1 (x) = f1 (x) dx1 + f2 (x) dx2 + f3 (x) dx3 ,
allora
✓ ◆
@f2 @f1
d!1 (x) = ( x) (x) dx1 ^ dx2 +
@x1 @x2
✓ ◆
@f3 @f1
+ ( x) (x) dx1 ^ dx3 +
@x1 @x3
✓ ◆
@f3 @f2
+ ( x) (x) dx2 ^ dx3 .
@x2 @x3
Se abbiamo una 2-forma di↵erenziale
!2 (x) = f1,2 (x) dx1 ^ dx2 + f1,3 (x) dx1 ^ dx3 + f2,3 (x) dx2 ^ dx3 ,
allora ✓ ◆
@f2,3 @f1,3 @f1,2
d!2 (x) = ( x) ( x) + (x) dx1 ^ dx2 ^ dx3 .
@x1 @x2 @x3
A questo punto, osserviamo che una scelta della base per lo spazio vettoriale
⌦2 (R3 ) più adatta alle applicazioni potrebbe essere la seguente:
(dx2,3 , dx3,1 , dx1,2 ) .
Infatti, in questo modo, associando
9
• a ogni funzione scalare f : U ! R
una 0 forma di↵erenziale !0 = f , oppure
una 3 forma di↵erenziale !3 = f dx1,2,3 ;
• a ogni campo di vettori F = (F1 , F2 , F3 ) : U ! R3
una 1 forma di↵erenziale !1 = F1 dx1 + F2 dx2 + F3 dx3 , oppure
una 2 forma di↵erenziale !2 = F1 dx2,3 + F2 dx3,1 + F3 dx1,2 ,
si ha che:
d!0 corrisponde al gradiente di f :
✓ ◆
@f @f @f
grad f = , , ;
@x1 @x2 @x3
d!1 corrisponde al rotore di F :
✓ ◆
@F3 @F2 @F1 @F3 @F2 @F1
rot F = , , ;
@x2 @x3 @x3 @x1 @x1 @x2
d!2 corrisponde alla divergenza di F :
@F1 @F2 @F3
div F = + + .
@x1 @x2 @x3
Allora, presi due campi di vettori F e F̃ , considerate le 1 forme di↵erenziali
associate
!1 = F1 dx1 + F2 dx2 + F3 dx3 , !
˜ 1 = F̃1 dx1 + F̃2 dx2 + F̃3 dx3 ,
si ha che !1 ^ !
˜ 1 corrisponde al prodotto vettoriale di F e F̃ :
F ⇥ F̃ = (F2 F̃3 F3 F̃2 , F3 F̃1 F1 F̃3 , F1 F̃2 F2 F̃1 ) ;
se invece di !
˜ 1 consideriamo la 2 forma di↵erenziale
˜ 2 = F̃1 dx2 ^ dx3 + F̃2 dx3 ^ dx1 + F̃3 dx1 ^ dx2 ,
!
si ha che !1 ^ !
˜ 2 corrisponde al prodotto scalare di F e F̃ :
hF |F̃ i = F1 F̃1 + F2 F̃2 + F3 F̃3 .
Le proprietà del prodotto esterno e del di↵erenziale esterno permettono di di-
mostrare alcune formule in cui appaiono il gradiente, il rotore o la divergenza. Se
f : U ! R, f˜ : U ! R, F : U ! R3 e F̃ : U ! R3 , abbiamo ad esempio le seguenti:
rot(grad f ) = 0 ,
div(rot F ) = 0 ,
grad(f f˜) = f˜(grad f ) + f (grad f˜) ,
rot(f F ) = (grad f ) ⇥ F + f (rot F ) ,
div(f F̃ ) = hgrad f | F̃ i + f (div F̃ ) ,
div(F ⇥ F̃ ) = hrot F | F̃ i hF | rot F̃ i .
10
6 M superfici
Indichiamo con I un rettangolo di RM , dove 1 M N.
Definizione. Chiameremo M superficie in RN una funzione 1 : I ! RN di
classe C 1 . Se M = 1, si dirà anche curva; se M = 2, si dirà semplicemente
superficie. L’insieme (I) è detto supporto della M superficie . Diremo che la
M superficie è regolare se, per ogni u 2 I , la matrice jacobiana 0 (u) ha rango
M.
Consideriamo da vicino il caso N = 3. Una curva in R3 è una funzione :
[a, b] ! R3 , = ( 1 , 2 , 3 ). La curva è regolare se, per ogni t 2 ]a, b[ , il vettore
0 (t) = ( 0 (t), 0 (t), 0 (t)) è non nullo. In tal caso, si definisce il seguente versore
1 2 3
tangente nel punto (t) :
0 (t)
⌧ (t) = .
|| 0 (t)||
σ(b )
τσ(t )
σ(t ) + τσ(t )
σ(a )
σ(t )
{(x, y, z) : x2 + y 2 = R2 , z = 0}
(che viene percorsa due volte). Essendo 0 (t) = ( 2R sin(2t), 2R cos(2t), 0), si tratta di una curva
regolare, e si ha:
⌧ (t) = ( sin(2t), cos(2t), 0) .
1
Le derivate parziali di devono essere continue su tutto I e nei punti di frontiera vanno intese,
se necessario, come derivate destre o sinistre. Equivalentemente, si potrebbe estendere ad una
funzione di classe C 1 definita su un aperto contenente I (a questo riguardo, si veda un articolo di H.
Whitney su “Transactions of the American Mathematical Society”, del 1934). In questa ottica, il
dominio di potrebbe essere un insieme più generale, ad esempio la chiusura di un aperto limitato,
affinché il di↵erenziale risulti ben definito anche nei punti di frontiera. Considerazioni analoghe si
possono fare per quanto riguarda il dominio delle forme di↵erenziali.
11
Una superficie in R3 è una funzione : [a1 , b1 ] ⇥ [a2 , b2 ] ! R3 . La superficie è
regolare se, per ogni (u, v) 2 ]a1 , b1 [ ⇥ ]a2 , b2 [ , i vettori @@u (u, v), @@v (u, v) sono linear-
mente indipendenti. In tal caso, essi individuano un piano, detto piano tangente
alla superficie nel punto (u, v), e si definisce il seguente versore normale:
σ(u ,v ) + νσ(u ,v )
νσ(u ,v )
σ(u , v)
@ @
@u (u, v) ⇥ @v (u, v)
⌫ (u, v) = @ @
.
|| @u (u, v) ⇥ @v (u, v)||
Esempi. 1. La superficie : [0, ⇡] ⇥ [0, ⇡] ! R3 definita da
( , ✓) = (R sin cos ✓, R sin sin ✓, R cos )
ha come supporto la semisfera
{(x, y, z) : x2 + y 2 + z 2 = R2 , y 0} .
Essendo
@
( , ✓) = (R cos cos ✓, R cos sin ✓, R sin ) ,
@
@
( , ✓) = ( R sin sin ✓, R sin cos ✓, 0) ,
@✓
si tratta di una superficie regolare, e si ha:
⌫ ( , ✓) = (sin cos ✓, sin sin ✓, cos ) .
12
2. La superficie : [0, 2⇡] ⇥ [0, 2⇡] ! R3 definita da
p
{(x, y, z) : ( x2 + y 2 R)2 + z 2 = r2 } .
Si può verificare che anche in questo caso si tratta di una superficie regolare.
{(x, y, z) : x2 + y 2 + z 2 R2 } .
0
In questo caso, det (⇢, , ✓) = ⇢2 sin e pertanto si tratta di un volume regolare.
13
trascurabili e, per ogni u 2 A, (u) = ˜ ('(u)). Diremo che e ˜ hanno la stessa
orientazione se det '0 (u) > 0 per ogni u 2 A; diremo che hanno orientazione
opposta se det '0 (u) < 0 per ogni u 2 A.
Esempi. Data una curva : [a, b] ! RN , una curva ad essa equivalente con orientazione opposta
è, ad esempio, ˜ : [a, b] ! RN definita da
˜ (t) = (a + b t) .
Siccome '0 (t) = || 0 (t)|| > 0 per ogni t 2 ]a, b[ , ponendo ◆1 = '(b), si ha che ' : [a, b] ! [0, ◆1 ] è
biietiva e la curva 1 (s) = (' 1 (s)) è equivalente a . Si noti che, per ogni s 2 ]0, ◆1 [ , si ha
0
|| 1 (s)|| = || 0 (' 1
(s))(' 1 0
) (s)||
0 1 1
= (' (s)) 0
' (' 1 (s))
0 1 1
= (' (s)) = 1.
|| 0 (' 1 (s))||
Data una superficie : [a1 , b1 ]⇥[a2 , b2 ] ! R3 , una superficie ad essa equivalente con orientazione
opposta è, ad esempio, ˜ : [a1 , b1 ] ⇥ [a2 , b2 ] ! R3 definita da
˜ (u, v) = (u, a2 + b2 v) ,
oppure da
˜ (u, v) = (a1 + b1 u, v) .
Come vedremo in seguito, non sempre due M superfici aventi lo stesso supporto
sono equivalenti. Introduciamo una classe particolare di M superfici per le quali
questo inconveniente non si verifica.
Definizione. Una M superficie : I ! RN è una M parametrizzazione di un
insieme M se è regolare, iniettiva su I , e (I) = M. Diremo che un sottoinsieme
di RN è M parametrizzabile se esiste una sua M parametrizzazione.
Esempi. La circonferenza M = {(x, y) 2 R2 : x2 + y 2 = 1} è parametrizzabile e : [0, 2⇡] ! R2 ,
definita da (t) = (cos t, sin t), ne è una parametrizzazione.
Una parametrizzazione della sfera M = {(x, y, z) 2 R3 : x2 + y 2 + z 2 = 1} è, ad esempio,
: [0, ⇡] ⇥ [0, 2⇡] ! R3 , definita da
14
Dimostrazione. Sia M il sottoinsieme di RN considerato, e siano : I ! RN e
˜ : J ! RN due sue M parametrizzazioni. Definiamo gli insiemi
1 1
A=I \ (M \ ( (@I) [ ˜ (@J))) , B=J \˜ (M \ ( (@I) [ ˜ (@J))) .
Allora, per ogni u 2 A, essendo (u) 2 M \ ( (@I) [ ˜ (@J)) e ˜ (J) = M, esiste un
v 2 J tale che ˜ (v) = (u). Chiaramente, si ha che ˜ (v) 2 M \ ( (@I) [ ˜ (@J)),
per cui v 2 B. Inoltre, siccome ˜ è iniettiva su J , esiste un unico v in J con tale
proprietà. Possiamo quindi definire ' : A ! B ponendo '(u) = v. Pertanto, per
ogni u 2 A e v 2 B,
'(u) = v , (u) = ˜ (v) .
Questa funzione ' : A ! B è invertibile: un argomento simmetrico può essere usato
per definire la sua inversa ' 1 : B ! A.
Verifichiamo che A è un insieme apetro. Poiché , ˜ sono funzioni continue e @I,
@J sono insiemi compatti, si ha che (@I) [ ˜ (@J) è compatto, e pertanto chiuso.
Allora M \ ( (@I) [ ˜ (@J)) è relativamente aperto in M, e 1 (M \ ( (@I) [ ˜ (@J))
è relativamente aperto in I, per cui la sua intersezione con I è un insieme aperto.
In modo analogo si dimostra che anche B è un insieme aperto.
Prendiamo un v0 2 J , e poniamo x0 = ˜ (v0 ). La matrice jacobiana ˜ 0 (v0 )
ha rango M , e possiamo supporre senza perdita di generalità che le prime M righe
siano linearmente indipendenti. Essendo RN ' RM ⇥ RN M , scriveremo ogni punto
x 2 RN nella forma x = (x1 , x2 ), con x1 2 RM e x2 2 RN M . Inoltre, per non
avere doppi indici in basso, scriveremo x0 = (x01 , x02 ).
Sia : J ⇥ RN M ! RN definita da
(v, z) = ˜ (v) + (0, z) .
Allora 0 (v0 , 0) è invertibile, per cui è un di↵eomorfiismo locale: esistono un
intorno aperto V0 di v0 , un intorno aperto ⌦0 di 0 in RN M , e un intorno aperto
W0 di x0 tali che : V0 ⇥ ⌦0 ! W0 è un di↵eomorfismo. Inoltre, possiamo assumere
1 : W ! V ⇥ ⌦ . Scriveremo (x) = (
che V0 ✓ J . Sia = 0 0 0 1 (x), 2 (x)), con
1 ( x) 2 V 0 e 2 ( x) 2 ⌦ 0 .
15
In modo simmetrico si dimostra che ' 1 : B ! A è di classe C 1 , per cui ' risulta
essere un di↵eomorfismo.
Dimostriamo ora che gli insiemi I \ A e J \ B sono trascurabili. Prendiamo in
considerazione, ad esempio, il secondo:
1
J \˜ ( (U0 \ @I)) ✓ ( 1 )(U0 \ @I) .
16
le funzioni (i1 ,...,iM ) : I ! RM definite da
0 1 0 1
u1 i1 (u1 , ..., uM )
B . C B .. C
(i1 ,...,iM ) : @ .. A 7! @ . A.
uM iM (u1 , ..., uM )
N
Se definiamo, per ogni x 2 U e per ogni u 2 I i vettori M dimensionali
F (x) = (fi1 ,...,iM (x))1i1 <...<iM N ,
⇣ ⌘
0
⌃(u) = det (i 1 ,...,iM )
( u) ,
1i1 <...<iM N
si ha che Z Z
!= hF ( (u))|⌃(u)i du ,
I
N
dove h·|·i indica il prodotto scalare euclideo in R(M ) .
È importante vedere come cambia l’integrale di una forma di↵erenziale ! su due
M superfici equivalenti aventi la stessa orientazione oppure orientazione opposta.
Teorema. Siano : I ! RN e ˜ : J ! RN due M superfici equivalenti. Se hanno
la stessa orientazione, allora Z Z
!= !;
˜
se hanno orientazione opposta, allora
Z Z
!= !.
˜
17
Dimostrazione. Abbiamo una M forma di↵erenziale del tipo
X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM .
1i1 <...<iM N
Sia ' : A ! B, come nella definizione di M superfici equivalenti, tale che = ˜ '.
Per il teorema di cambiamento di variabili nell’integrale, si ha:
Z X Z
!= fi1 ,...,iM (˜ ('(u))) det(˜ ')0(i1 ,...,iM ) (u) du
1i1 <...<iM N A
X Z
0
= fi1 ,...,iM (˜ ('(u))) det ˜(i 1 ,...,iM )
('(u)) det '0 (u) du
1i1 <...<iM N A
X Z
0
=± fi1 ,...,iM (˜ (v)) det ˜(i 1 ,...,iM )
( v ) dv
1i1 <...<iM N B
Z
=± !,
˜
con segno positivo se det '0 > 0, negativo se det '0 < 0.
R R
Nota. In generale, se e ˜ sono equivalenti, non sempre si ha l’uguaglianza | !| = | ˜ !|. Non
è detto infatti che esse abbiano la stessa orientazione od orientazione opposta. Ad esempio, se
consideriamo le due superfici , ˜ : [1, 2] ⇥ [0, 2⇡] ! R3 definite da
(u, v) =
✓✓ ✓ ◆ ◆ ✓ ✓ ◆ ◆ ✓ ◆ ◆
3 3 v 3 3 v 3 v
+ u cos cos v, + u cos sin v, u sin ,
2 2 2 2 2 2 2 2
⇣ ⇡⌘
˜ (u, v) = u, v + ,
2
si può vedere che sono entrambe parametrizzazioni dello stesso insieme (un nastro di Möbius) e
pertanto sono equivalenti (il lettore è invitato ad esplicitare un di↵eomorfismo ' : A ! B con le
proprietà della definizione). D’altra parte, se consideriamo la 2-forma di↵erenziale !(x1 , x2 , x3 ) =
dx12 , determinata dal campo vettoriale costante (0, 0, 1), facendo i conti si ottiene
Z Z p
!=0, != 3 2.
˜
18
Dimostrazione. Facendo uso del teorema del di↵eomorfismo locale, si vede che
induce un di↵eomorfismo tra I e (I ). Essendo trascurabili sia la frontiera di I che
la sua l’immagine attraverso l’applicazione (vedi il lemma a p. 98) tenendo conto
del teorema di cambiamento di variabili, avremo
Z Z
! = f ( (u)) det( 0 (u)) du
ZI
= f ( (u)) det( 0 (u)) du
ZI Z
= f= f.
(I ) (I)
R
R Se è la funzione identità, si ha che (I) = I e al posto di ! si userà scrivere
I !.
Si ha:
Z Z b
0 0 0
!= [F1 ( (t)) 1 (t) + F2 ( (t)) 2 (t) + F3 ( (t)) 3 (t)] dt
a
Z b
= hF ( (t))| 0 (t)i dt .
a
2
In meccanica si usa questo concetto, ad esempio, per definire il lavoro di una particella che
descrive una curva in un campo di forze.
19
Se M = 2, : [a1 , b1 ] ⇥ [a2 , b2 ] ! R3 è una superficie e ! è una 2-forma
di↵erenziale:
!(x) = F1 (x) dx2 ^ dx3 + F2 (x) dx3 ^ dx1 + F3 (x) dx1 ^ dx2 .
Si trova:
2 0@ @ 2 1
Z Z b2 Z b1 @u (u, v) @v (u, v)
2
20
dove
21
Z
= ˜ v)|| dv
f (˜ (v))||⌃(
ZB
= f.
˜
Nel caso M = 1, abbiamo una curva : [a, b] ! R3 e, data una funzione scalare
f definita sul supporto di , si ha:
Z Z b
f= f ( (t))|| 0 (t)|| dt .
a
22
È interessante il caso in cui f è costantemente uguale a 1 : in questo caso si chiama
area (o misura superficiale) della superficie il seguente integrale:
Z b2 Z b1
@ @
◆2 ( ) = (u, v) ⇥ (u, v) du dv .
a2 a1 @u @v
Nel caso in cui la superficie risulti essere una 2-parametrizzazione di un certo insieme,
questo integrale è il flusso di un campo di vettori che in ogni punto della superficie
coincide con il versore normale. 5
Esempio. Sia : [0, ⇡] ⇥ [0, 2⇡] ! R3 definita da
( , ✓) = (R sin cos ✓, R sin sin ✓, R cos ) .
Il suo supporto è una sfera di raggio R, e la sua area è data da:
Z 2⇡Z ⇡ q
◆2 ( ) = (R2 sin2 cos ✓)2 + (R2 sin2 sin ✓)2 + (R2 sin cos ✓)2 d d✓
0 0
Z 2⇡ Z ⇡
= R2 sin d d✓
0 0
= 4⇡R2 .
pur avendo lo stesso supporto, non sono equivalenti. Infatti, come facilmente si vede, ◆1 ( ) = 2⇡
mentre ◆1 (˜ ) = 4⇡.
5
Naturalmente anche la definizione di area può essere giustificata da considerazioni geometriche,
anche se la questione risulta molto più delicata che nel caso delle curve.
23
Alla luce di quanto sopra, è possibile dare la seguente
Definizione. Si chiama misura M dimensionale di un insieme M parametriz-
zabile M ⇢ RN la misura M superficiale di una qualunque sua M parametrizza-
zione.
Nei casi M = 1, 2, la misura M dimensionale di M si chiama spesso lunghezza
o area di M, rispettivamente. Si potrà parlare, ad esempio, di lunghezza di una
circonferenza e di area di una sfera.
Se M = N, si può verificare che la misura N dimensionale dell’insieme M
coincide con la misura usuale che abbiamo trattato nel capitolo 2.
24
9 Incollamenti: il bordo orientato di un rettangolo
Supponiamo che 1 : I1 ! RN ,..., n : In ! RN siano delle M superfici. Possiamo
facilmente trovare delle M superfici equivalenti ˜1 : J1 ! RN ,..., ˜n : Jn ! RN ,
con la stessa orientazione, in modo tale che i rettangoli J1 , ..., Jn siano a due a due
non sovrapposti e la loro unione risulti essere un rettangolo I.
Definizione. Chiameremo incollamento delle M superfici 1 , ..., n una funzione
: I ! RN la cui restrizione a J1 , ..., Jn coincide con ˜R1 , ..., ˜n , rispettivamente;
essa è di↵erenziabile quasi ovunque, e possiamo definire ! per mezzo della stessa
formula usata per le M superfici di classe C 1 . Quindi:
Z Z Z
!= ! + ... + !.
1 n
25
Se ! è una M forma di↵erenziale definita su un sottoinsieme U di RM +1 con-
tenente l’immagine di @I, avremo quindi:
Z M
X +1 Z M
X +1 Z
k k 1
!= ( 1) !+ ( 1) !.
@I k=1 ↵+
k k=1
+
k
↵1 : [a2 , b2 ] ! R2 , v 7! (a1 , a2 + b2 v)
+ 2
1 : [a2 , b2 ] ! R , v 7! (b1 , v)
↵2+ : [a1 , b1 ] ! R , 2
u 7! (u, a2 )
2
2 : [a1 , b1 ] ! R , u 7! (a1 + b1 u, b2 ) .
Si può visualizzare il bordo orientato @I come incollamento dei lati del rettangolo I
orientati in modo che il perimetro sia percorso in senso antiorario.
β2 −
b2
β1 +
α1 −
a2
α2 +
a1 b1
Se M = 2, abbiamo, ad esempio:
In questo caso, si può visualizzare il bordo orientato @I come incollamento delle sei
facce del parallelepipedo I, tutte orientate in modo tale che il vettore normale sia
sempre rivolto verso l’esterno.
26
α1 −
β3 +
α2 + β2 −
β1 +
α3 −
10 La formula di Gauss
In questa sezione, I sarà un rettangolo di RN , con N 2 (quindi, rispetto alla
sezione precedente, considereremo il caso N = M + 1). Nel teorema che segue, si
ottiene l’elegante formula di Gauss.
Teorema. Se ! è una (N 1) forma di↵erenziale di classe C 1 definita su un aperto
contenente un rettangolo I di RN , si ha:
Z Z
d! = !.
I @I
Allora
N X
X N
@Fj dj ^ ... ^ dxN
d!(x) = (x) dxm ^ dx1 ^ ... ^ dx
@xm
j=1 m=1
N
X
1 @Fj
= ( 1)j (x) dx1 ^ ... ^ dxN .
@xj
j=1
27
N Z Z !
X bj
@Fj
= ( 1)j 1
(x1 , ..., xN ) dxj dj ...dxN
dx1 ...dx
Ij aj @xj
j=1
N
X Z
j 1
= ( 1) [Fj (x1 , ..., xj 1 , bj , xj+1 , ..., xN )
j=1 Ij
Fj (x1 , ..., xj d
1 , aj , xj+1 , ..., xN )] dx1 ...dxj ...dxN ,
per il teorema fondamentale. D’altra parte,
Z XN Z N
X Z
k
!= ( 1) !+ ( 1)k 1
!.
@I k=1 ↵+
k k=1
+
k
Si ha:
Z N Z
X
!= dj ^ ... ^ dxN
Fj dx1 ^ ... ^ dx
↵+
k j=1 ↵+
k
N Z
X
= (Fj dk ...dxN
↵k+ ) det(↵k+ )0(1,...,ĵ,...,N ) dx1 ...dx
j=1 Ik
Z
= Fk (x1 , ..., xk d
1 , ak , xk+1 , ..., xN ) dx1 ...dxk ...dxN ,
Ik
essendo ⇢
0 se j 6= k ,
det(↵k+ )0(1,...,ĵ,...,N ) =
1 se j = k .
+
Procedendo similmente per k , alla fine si ottiene:
Z N
X Z
k 1
!= ( 1) [Fk (x1 , ..., xk 1 , bk , xk+1 , ..., xN )
@I k=1 Ik
Fk (x1 , ..., xk d
1 , ak , xk+1 , ..., xN )] dx1 ...dxk ...dxN ,
e la dimostrazione è completa.
28
Data una M forma di↵erenziale ! il cui dominio contiene il supporto di @ , avremo
quindi
Z MX+1 Z M
X +1 Z
k k 1
!= ( 1) !+ ( 1) !.
@ k=1 ↵+
k k=1
+
k
R
Nota. È utile estendere la scrittura @ ! nel caso in cui : [a, b] ! RN sia una
curva, con N 1, e ! = f : U ! R una 0-forma di↵erenziale; in questo caso, si
pone: Z
! = f ( (b)) f ( (a)) .
@
Esempi. Come illustrazione, consideriamo come al solito il caso N = 3. Cominciamo con tre
esempi di bordo orientato di superfici.
1. Sia : [r, R] ⇥ [0, 2⇡] ! R3 , con 0 r < R, data da
Il suo supporto è un cerchio se r = 0, una corona circolare se r > 0. Il bordo orientato @ è dato
dall’incollamento delle seguenti quattro curve:
La prima curva ha come supporto una circonferenza di raggio r, che degenera nell’origine nel caso
in cui r = 0. La seconda ha come supporto una circonferenza di raggio R. Si noti però che il verso
di percorrenza di queste due circonferenze è opposto. Le ultime due curve sono equivalenti con
orientazioni opposte.
Sia ora dato, per esempio, il campo vettoriale F (x, y, z) = ( y, x, xyez ). Si ha:
Z Z Z
hF |d`i = hF |d`i + hF |d`i
+
@ ↵1 1
Z 2⇡ Z 2⇡
= [ r2 sin2 v r2 cos2 v] dv + [R2 sin2 v + R2 cos2 v] dv
0 0
= 2⇡(R2 r2 ) .
29
2. Consideriamo la superficie : [r, R] ⇥ [0, 2⇡] ! R3 , con 0 < r < R, definita da
✓✓ ✓ ◆ ⇣ v ⌘◆
r+R r+R
(u, v) = + u cos cos v,
2 2 2
✓ ✓ ◆ ⇣ v ⌘◆
r+R r+R
+ u cos sin v,
2 2 2
✓ ◆ ⇣v⌘ ◆
r+R
u sin ,
2 2
il cui supporto è un nastro di Möbius. In questo caso, il bordo orientato è dato dall’incollamento
di:
✓✓ ⇣ v ⌘◆
r+R R r
↵1 (v) = + cos cos v,
2 2 2
✓ ⇣ v ⌘◆
r+R R r
+ cos sin v,
2 2 2
R r ⇣ v ⌘◆
sin ,
2 2
✓✓ ⇣v⌘ ◆
+ r+R R r
1 (v) = + cos cos v,
2 2 2
✓ ⇣ v ⌘◆
r+R R r
+ cos sin v,
2 2 2
⇣ ⌘ ◆
R r v
sin ,
2 2
↵2+ (u) = (u, 0, 0) ,
2 (u) = (u, 0, 0) .
il cui supporto è la sfera di raggio R > 0 centrata nell’origine. In questo caso, il bordo orientato è
dato dall’incollamento di:
↵1 (✓) = (0, 0, R) ,
+
1 (✓) = (0, 0, R) ,
30
↵2+ ( ) = (R sin , 0, R cos ) ,
2 ( ) = (R sin , 0, R cos ) .
Si noti che le prime due curve sono degenerate in un punto, mentre le ultimeR due sono equivalenti
con orientazioni opposte. Quindi, qualsiasi sia il campo vettoriale F, si avrà @ hF |d`i = 0.
Vediamo ora un esempio di bordo orientato di un volume in R3 . Sia : [0, R] ⇥ [0, ⇡] ⇥ [0, 2⇡] !
3
R il volume definito da
il cui supporto è la palla, centrata nell’origine, di raggio R > 0. Il bordo orientato @ è dato
dall’incollamento delle seguenti sei superfici:
↵1 ( , ✓) = (0, 0, 0) ,
+
1 ( , ✓) = (R sin cos ✓, R sin sin ✓, R cos ) ,
↵2+ (⇢, ✓) = (0, 0, ⇢) ,
2 (⇢, ✓) = (0, 0, ⇢) ,
↵3 (⇢, ) = ((R ⇢) sin , 0, (R ⇢) cos ) ,
+
3 (⇢, ) = (⇢ sin , 0, ⇢ cos ) .
Si noti che la prima superficie è degenerata in un punto (l’origine), la seconda ha come supporto
la sfera intera, la terza e la quarta sono degenerate in due curve mentre le rimanenti due sono
equivalenti con orientazioni opposte. In questo esempio, quindi, dato un campo vettoriale F, si avrà
sempre Z Z
hF |dSi = hF |dSi .
+
@ 1
31
Il caso M = 0. Consideriamo una 0-forma di↵erenziale f : U ! R e otteniamo il
seguente
Teorema. Sia ! = f : U ! R una funzione scalare di classe C 1 e : [a, b] ! R3
una curva con supporto contenuto in U. Allora:
Z
hgrad f |d`i = f ( (b)) f ( (a)) .
eR la curva : [0, 4⇡] ! R3 definita da (t) = (cos t, sin t, t). Vogliamo calcolare l’integrale di linea
hF |d`i. Osserviamo che F = grad f, con
1
f (x, y, z) = p ,
x2 + y 2 + z 2
e quindi: Z
1
hF |d`i = f ( (4⇡)) f ( (0)) = p 1.
1 + 16⇡ 2
32
A parole. Il flusso del rotore del campo F attraverso la superficie coincide con
l’integrale di linea di F lungo il bordo di .
+
Si verificano poi le analoghe uguaglianze per l’integrale su 1 , ↵2+ e 2 , per cui si
ha che Z Z
!
˜= hF |d`i .
@I @
d˜
! (u, v) =
" * + * +#
@ @ @ @
= F ( (u, v)) (u, v) F ( (u, v)) (u, v) du ^ dv
@u @v @v @u
* +
@ @
= rot F ( (u, v)) (u, v) ⇥ (u, v) du ^ dv ,
@u @v
per cui Z Z
d˜
!= hrot F |dSi .
I
La formula di Gauss applicata a ! ˜ permette quindi di concludere.
L’ipotesi che sia di classe C 2 può infine essere tolta con un procedimento di
approssimazione: è possibile costruire una successione ( n )n di superfici di classe C 2
che convergono a assieme a tutte le derivate parziali. La formula di Stokes-Ampère
vale quindi per tali superfici e, passando al limite, per il teorema della convergenza
dominata, abbiamo la conclusione.
33
Esempio. Sia F (x, y, z) = ( y, x, 0) eR : [0, 2⇡] ! R3 la curva definita da (t) = (R cos t, R sin t, 0);
vogliamo calcolare l’integrale di linea hF |d`i. Abbiamo già visto come calcolare questo integrale
facendo uso diretto della definizione. Procediamo ora in un altro modo: definiamo la superficie
+
: [0, R] ⇥ [0, 2⇡] ! R3 data da (⇢, ✓) = (⇢ cos ✓, ⇢ sin ✓, 0). Osserviamo che = 1 , per cui si
ha: Z Z Z Z
hF |d`i = hF |d`i = hF |d`i = hrot F |dSi .
+
1 @
!(x) = F1 (x) dx2 ^ dx3 + F2 (x) dx3 ^ dx1 + F3 (x) dx1 ^ dx2
˜ : I ! ⌦2 (R3 ) :
Dimostrazione. Consideriamo la seguente 2-forma di↵erenziale !
* +
@ @
˜ (u) = F ( (u))
! (u) ⇥ (u) du2 ^ du3 +
@u2 @u3
* +
@ @
+ F ( (u)) (u) ⇥ (u) du3 ^ du1 +
@u3 @u1
* +
@ @
+ F ( (u)) (u) ⇥ (u) du1 ^ du2
@u1 @u2
+
Considerata la superficie 1 , si ha:
Z
!
˜=
+
1
34
Z Z * +
b2 b3
@ @
= F (b1 , u2 , u3 ) (b1 , u2 , u3 ) ⇥ (b1 , u2 , u3 ) du2 du3
a2 a3 @u2 @u3
Z
= hF |dSi .
+
1
Calcolando analogamente gli integrali sulle altre cinque superfici che compongono
@I, si conclude che Z Z
!
˜= hF |dSi .
@I @
Quindi, si ha: Z Z
0
d˜
!= div F ( (u)) det ( u) d u .
I I
D’altra parte, siccome induce un di↵eomorfismo tra I e (I ) con det 0 > 0, per
il teorema di cambiamento di variabili
Z Z
0
div F ( (u)) det (u) du = div F (x) dx .
I (I)
35
+
Ci ricordiamo che ⌘ = 1 , dove : I = [0, R] ⇥ [0, ⇡] ⇥ [0, 2⇡] ! R3 è il volume dato da
Abbiamo quindi: Z Z Z
hF |dSi = hF |dSi = div F .
⌘ @ (I)
13 Risultati analoghi in R2
Supponiamo che U sia un sottoinsieme di R2 e troviamo due interessanti corollari
del teorema di Stokes-Cartan. Analogamente al caso N = 3, si definisce l’integrale
di linea di un campo di vettori F = (F1 , F2 ) lungo una curva : [a, b] ! R2 :
Z Z b
0 0
hF |d`i = [F1 ( (t)) 1 (t) + F2 ( (t)) 2 (t)] dt .
a
Abbiamo il seguente risultato, analogo a quello ottenuto nella sezione precedente nel
caso N = 3.
Teorema. Sia f : U ! R una funzione scalare di classe C 1 e : [a, b] ! R2 una
curva con immagine contenuta in U. Allora:
Z *✓ ◆ +
@f @f
, d` = f ( (b)) f ( (a)) .
@x1 @x2
36
Dimostrazione. Similmente a quanto fatto nella dimostrazione del teorema di
˜ : I ! ⌦1 (R2 ) definita
Stokes-Ampère, consideriamo la forma di↵erenziale ausiliaria !
da * + * +
@ @
!
˜ (u, v) = F ( (u, v)) (u, v) du + F ( (u, v)) (u, v) dv
@u @v
e verifichiamo che Z Z
!
˜= hF |d`i .
@I @
Se è di classe C 2 , allora !
˜ è di classe C 1
e, facendo i conti, si trova
" * +
@ @
d˜
! (u, v) = F ( (u, v)) (u, v)
@u @v
* +#
@ @
F ( (u, v)) (u, v) du ^ dv
@v @u
✓ ◆
@F2 @F1
= ( (u, v)) ( (u, v)) det 0 (u, v)du ^ dv .
@x1 @x2
Quindi,
Z Z ✓ ◆
@F2 @F1 0
d˜
!= ( (u, v)) ( (u, v)) det (u, v)du dv ,
I I @x1 @x2
37
14 Forme di↵erenziali esatte
Ci interessiamo ora al problema di trovare in quali casi una forma di↵erenziale
data possa essere scritta come il di↵erenziale esterno di una forma di↵erenziale da
determinarsi. In questa sezione, supporremo M 1.
Definizione. Una M forma di↵erenziale ! si dice chiusa se d! = 0; si dice esatta
se esiste una (M 1) forma di↵erenziale !
˜ tale che d˜
! = !.
Ogni forma di↵erenziale esatta è chiusa: se ! = d˜
! , allora d! = d(d˜
! ) = 0. Il
viceversa non sempre è vero.
Esempio. La 1-forma di↵erenziale definita su R2 \{(0, 0)} da
y x
!(x, y) = dx + 2 dy
x2 + y 2 x + y2
è chiusa, come facilmente si verifica: ponendo
y x
F1 (x, y) = , F2 (x, y) = ,
x2 + y 2 x2 + y 2
per ogni (x, y) 6= (0, 0), si ha
@F2 @F1
(x, y) = (x, y) .
@x @y
Calcoliamo l’integrale di linea del campo di vettori F = (F1 , F2 ) che determina la forma di↵erenziale
sulla curva : [0, 2⇡] ! R2 definita da (t) = (cos t, sin t) :
Z Z 2⇡
hF |d`i = hF ( (t)| 0 (t) dt
0
Z 2⇡
= h( sin t, cos t)|( sin t, cos t)i dt
0
= 2⇡ .
Supponiamo per assurdo che ! sia esatta, cioè che esista una funzione f : R2 \{(0, 0)} ! R tale che
@f
@x
= F1 e @f
@y
= F2 . In tal caso, essendo (0) = (2⇡), si avrebbe:
Z Z *✓ ◆ +
@f @f
hF |d`i = , d`
@x @y
= f ( (2⇡)) f ( (0)) = 0 ,
38
Teorema. Sia U un sottoinsieme aperto di RN stellato rispetto ad un punto x̄. Per
1 M N, una M forma di↵erenziale ! : U ! ⌦M (RN ) di classe C 1 è esatta se
e solo se essa è chiusa. In tal caso, se ! è del tipo
X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N
X M
X
˜ ( x) =
! ( 1)s+1 (xis x̄is ) ·
1i1 <...<iM N s=1
✓Z 1 ◆
· t M 1
fi1 ,...,iM (x̄ + t(x d
x̄)) dt dxi1 ^ ... ^ dx is ^ ... ^ dxiM .
0
39
Dimostrazione. Poniamo ! ˜ = f : U ! R. Verifichiamo che d˜ ! = !. Usando la
regola di Leibniz, abbiamo:
Z 1
@!
˜ @
( x) = hF (tx)|xi dt
@xj 0 @x j
Z 1 X 3 ✓ ◆ !
@Fi
= (tx)txi + Fj (tx) dt
0 @xj
i=1
Z 1 X 3 ✓ ◆ !
@Fj
= (tx)txi + Fj (tx) dt .
0 @xi
i=1
!(x) = F1 (x) dx2 ^ dx3 + F2 (x) dx3 ^ dx1 + F3 (x) dx1 ^ dx2 .
40
Z 1
t(F3 (tx)x1 F1 (tx)x3 ) dt ,
0
Z 1 ⌘
t(F1 (tx)x2 F2 (tx)x1 ) dt ,
0
Dobbiamo dimostrare che d˜ ! = !. Per la regola di Leibniz, tenuto conto del fatto
che ! è chiusa, troviamo:
Z 1
@
t(F1 (tx)x2 F2 (tx)x1 ) dt
@x2 0
Z 1
@
t(F3 (tx)x1 F1 (tx)x3 ) dt =
@x3 0
Z 1✓ ✓ ◆ ◆
2 @F1 @F1 @F1
= t (tx)x1 + (tx)x2 + (tx)x3 + 2tF1 (tx) dt
0 @x1 @x2 @x3
= F1 ( x)
41
Il caso M = 3. Una funzione scalare f, di classe C 1 , definita su un sottoinsieme
aperto U di R3 , determina una 3-forma di↵erenziale
42
15 La dimostrazione del teorema di Stokes-Cartan
Siano U un aperto di RN , V un aperto 7 di RP e : V ! U una funzione di classe
C1 :
(y) = ( 1 (y), ..., N (y)) ,
con y = (y1 , ..., yP ) 2 V. Data una M forma di↵erenziale ! : U ! ⌦M (RN ),
X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N
Si noti che
d i 1 ( y) i M ( y) =
^ ...^ d
0 1 0 1
XP P
X
@ i1 @ iM
=@ (y)dyj A ^ ... ^ @ (y)dyj A
@yj @yj
j=1 j=1
P
X @ i1 @ iM
= ( y) · · · (y) dyj1 ^ ... ^ dyjM
@yj1 @yjM
j1 ,...,jM =1
(attenzione, qui gli indici j1 , ..., jM non sono in ordine crescente). È immediato
verificare che, preso c 2 R, si ha
T (c!) = c T ! ;
se !
˜ è una M̃ forma di↵erenziale definita su U,
T (! ^ !
˜) = T ! ^ T !
˜,
e se M = M̃ ,
T (! + !
˜) = T ! + T !
˜.
Dimostriamo ora le seguenti proprietà.
Proposizione 1. Se :W !V e : V ! U, allora
T (T !) = T !.
7
Nel caso in cui gli insiemi U e V non fossero degli aperti, si veda la nota a pag. 135.
43
Dimostrazione. Per le proprietà di linearità viste sopra, sarà sufficiente considerare
il caso di una forma di↵erenziale del tipo
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM .
Abbiamo:
2 3
P
X @ i1 @ iM 5
T (T !) = 4(fi1 ,...,iM ) ··· d j1 ^ ... ^ d jM .
@yj1 @yjM
j1 ,...,jM =1
D’altra parte,
T ! = (fi1 ,...,iM ) d( )i1 ^ ... ^ d( ) iM ,
ed essendo
P ✓
X ◆
@ ik
d( )ik = d( ik )= d j ,
@yj
j=1
si ha l’uguaglianza.
Dimostrazione. Anche qui basta considerare il caso ! = fi1 ,...,iM dxi1 ^... ^ dxiM .
Abbiamo:
d(T !) = d(fi1 ,...,iM )^d i1 ^ ... ^ d iM +
+(fi1 ,...,iM ) d(d i1 ^ ... ^ d iM )
= d(fi1 ,...,iM )^d i1^ ... ^ d iM
" N ✓ ◆ #
X @fi ,...,i
1 M
= d m ^d i1 ^ ... ^ d iM .
@xm
m=1
D’altra parte, si ha
N
X @fi1 ,...,iM
d!(x) = (x) dxm ^ dxi1 ^ ... ^ dxiM ,
@xm
m=1
per cui
N ✓
X ◆
@fi 1 ,...,iM
T (d!) = d m ^d i1 ^ ... ^ d iM ,
@xm
m=1
e la formula è dimostrata.
44
Proposizione 3. Se : I ! RN è una M superficie con supporto contenuto in
U, allora Z Z
!= T !.
I
Dimostrazione. Come sopra, basta considerare il caso ! = fi1 ,...,iM dxi1 ^...^dxiM .
Abbiamo:
Z Z M
X @ i1 @ iM
T != fi1 ,...,iM ( (u)) (u)... (u) duj1 ^ ... ^ dujM
I I @uj1 @ujM
j1 ,...,jM =1
Z
0
= fi1 ,...,iM ( (u)) det (i1 ,...,iM ) (u) du
ZI
= !.
Passiamo ora alla dimostrazione del teorema di Stokes - Cartan, di cui riscriv-
iamo l’enunciato.
Teorema. Sia 0 M N 1. Se ! : U ! ⌦M (RN ) è una M forma di↵erenziale
di classe C 1 e : I ! RN una (M + 1) superficie il cui supporto è contenuto in U,
si ha: Z Z
d! = !.
@
+
con le analoghe uguaglianze per k si ha:
Z M
X +1 Z M
X +1 Z
k k 1
!= ( 1) !+ ( 1) !
@ k=1 ↵+
k k=1
+
k
M
X +1 Z MX+1 Z
k k 1
= ( 1) T !+ ( 1) T !
k=1 ↵+
k k=1
+
k
Z
= T !.
@I
45
Se è di classe C 2 , si ha che T ! è di classe C 1 e, applicando la formula di Gauss
a T !, si ha Z Z
T ! = d(T !) .
@I I
Ma Z Z Z
d(T !) = T (d!) = d! .
I I
In definitiva, abbiamo visto che
Z Z Z Z
d! = d(T !) = T != !,
I @I @
46
17 La dimostrazione del teorema di Poincaré
Consideriamo l’insieme [0, 1] ⇥ U, e indichiamo i suoi elementi con
↵ : [0, 1] ⇥ U ! ⌦M (RN +1 )
b) se ↵(t, x) = f (t, x) dxi1 ^ ... ^ dxiM (qui non appare il termine dt), allora
K(↵) = 0;
c) in tutti gli altri casi, K è definito per linearità (per gli addendi in una generica
M forma di↵erenziale ↵, il termine dt appare o non appare, e si applicano le due
definizioni precedenti).
Definiamo inoltre le funzioni , ⇠ : U ! [0, 1] ⇥ U nel modo seguente:
N ✓Z
X 1 ◆
@f
d(K(↵))(x) = (t, x) dt dxm ^ dxi1 ^ ... ^ dxiM 1 ;
0 @xm
m=1
51
d’altra parte,
@f
d↵(t, x) = (t, x) dt ^ dt ^ dxi1 ^ ... ^ dxiM 1 +
@t
XN
@f
+ (t, x) dxm ^ dt ^ dxi1 ^ ... ^ dxiM 1
@xm
m=1
XN
@f
= (t, x) dt ^ dxm ^ dxi1 ^ ... ^ dxiM 1 ,
@xm
m=1
e quindi
N ✓Z
X 1 ◆
@f
K(d↵)(x) = (t, x) dt dxm ^ dxi1 ^ ... ^ dxiM 1
0 @xm
m=1
= d(K(↵))(x) .
e quindi
✓Z 1 ◆
@f
K(d↵)(x) = (t, x) dt dxi1 ^ ... ^ dxiM
0 @t
= (f (1, x) f (0, x)) dxi1 ^ ... ^ dxiM .
Inoltre, si ha:
52
Possiamo ora intraprendere la dimostrazione del teorema di Poincaré, di cui
riportiamo l’enunciato.
Teorema. Sia U un sottoinsieme aperto di RN stellato rispetto ad un punto x̄. Per
1 M N, una M forma di↵erenziale ! : U ! ⌦M (RN ) di classe C 1 è esatta se
e solo se essa è chiusa. In tal caso, se ! è del tipo
X
!(x) = fi1 ,...,iM (x) dxi1 ^ ... ^ dxiM ,
1i1 <...<iM N
Poniamo !
˜ = K(T !). Resta da dimostrare che d˜
! = !. Essendo ! chiusa, si ha:
K(d(T !)) = K(T (d!)) = K(T (0)) = K(0) = 0 .
Per il lemma precedente, abbiamo che
d˜
! = d(K(T !))
= T⇠ (T !) T (T !) K(d(T !))
= T⇠ (T !) T (T !)
=T ⇠! T !.
53
Essendo ⇠ la funzione identità e la funzione nulla, si ha che T ⇠! =! e
T ! = 0, il che completa la dimostrazione.
54
18 Cenni sulle varietà di↵erenziabili
Vogliamo qui mostrare come si può adattare la teoria svolta, e in particolare il
teorema di Stokes-Cartan, alle varietà di↵erenziabili. A di↵erenza del solito, non
dimostreremo per esteso tutti i risultati di questa sezione; il lettore interessato potrà
consultare, ad esempio, il libro di Spivak. Consideriamo un sottoinsieme M di RN .
Definizione. L’insieme M è una varietà di↵erenziabile M dimensionale, con
1 M N (o brevemente una M varietà) se, preso un punto x in M, esistono
un intorno aperto A di x, un intorno aperto B di 0 in RN e un di↵eomorfismo
' : A ! B tali che '(x) = 0 e
(a) '(A \ M) = {y = (y1 , ..., yN ) 2 B : yM +1 = ... = yN = 0} ,
oppure
(b) '(A \ M) = {y = (y1 , ..., yN ) 2 B : yM +1 = ... = yN = 0 e yM 0} .
Si può vedere che (a) e (b) non possono valere contemporaneamente. I punti x
per i quali sia verificata la (b) costituiscono il bordo di M, insieme che indicheremo
con @M. Se @M è vuoto, si parla di M varietà senza bordo; altrimenti, M si dice
essere una M varietà con bordo.
Innanzitutto vediamo che il bordo di una M varietà, con M 2, è esso stesso
una varietà di↵erenziabile, di dimensione minore.
Teorema. L’insieme @M è una (M 1) varietà senza bordo:
@(@M) = Ø .
Ragionando sul fatto che le condizioni (a) e (b) della definizione non possono valere
contemporaneamente per alcun punto di M, si dimostra che deve essere
Vediamo ora che, data una M varietà M, in corrispondenza ad ogni suo punto
x è possibile trovare una M parametrizzazione locale. Nel seguito supporremo
sempre che sia M 2.
55
Teorema. Per ogni x 2 M, esiste un intorno A0 di x tale che A0 \ M si può
M parametrizzare con una funzione : I ! RN , dove I è un rettangolo di RM del
tipo ⇢
[ ↵, ↵]M se x 62 @M ,
I=
[ ↵, ↵]M 1 ⇥ [0, ↵] se x 2 @M ,
e (0) = x.
56
Una scelta coerente delle M parametrizzazioni locali è quindi sempre possibile
localmente, cioè in un intorno del punto x. A noi interessa però poter fare questa
scelta globalmente, per tutte le possibili M parametrizzazioni locali di M. Non
sempre questo è possibile. Ad esempio, si pò vedere che ciò non si può fare per il
nastro di Möbius, che è una 2 varietà.
Nel caso che sia possibile scegliere tutte le M parametrizzazioni locali di M in
modo coerente, diremo che M è orientabile. Da ora in poi supporremo sempre
che M sia orientabile e che tutte le M parametrizzazioni locali siano state scelte
in modo coerente. Diremo in questo caso che M è stata orientata.
Una volta orientata M, vediamo ora come si può definire, a partire da questa,
un’orientazione su @M. Dato x 2 @M, sia : I ! RN una M parametrizzazione
locale con (0) = x; ricordiamo che in questo caso I è il rettangolo [ ↵, ↵]M 1 ⇥
[0, ↵]. Essendo @M una (M 1) varietà, lo spazio vettoriale tangente Tx @M ha
dimensione M 1 ed è un sottospazio di Tx M, che ha dimensione M. Esistono quindi
due versori in Tx M ortogonali a Tx @M. Indicheremo con ⌫(x) quello dei due che si
ottiene come derivata direzionale @@v (0) = d (0)v, per un certo v = (v1 , ..., vM ) con
vM < 0. A questo punto, scegliamo una base [v (1) (x), ..., v (M 1) (x)] in Tx @M tale
che [⌫(x), v (1) (x), ..., v (M 1) (x)] sia una base di Tx M orientata concordemente con
quella già scelta in questo spazio. Procedendo in questo modo per ogni x, si può
vedere che @M risulta orientata, e si dice che a @M è stata assegnata l’orientazione
indotta da quella di M.
Supporremo ora che M, oltre ad essere orientata, sia compatta. Data una
M forma di↵erenziale ! : U ! ⌦M (RN ), con U contenente M, vorremmo definire
cosa si intende per integrale di ! su M.
Nel caso in cui !|M , la restrizione di ! all’insieme M, sia nulla al di fuori
del supporto di una singola M parametrizzazione locale : I ! RN , poniamo
semplicemente Z Z
!= !.
M
In generale, abbiamo visto che M si può ricoprire con degli aperti A00 di RN , che pos-
siamo supporre essere palle aperte, per ognuno dei quali c’è una M parametrizzazione
locale iniettiva : I ! RN con A00 \ M ⇢ (I). Essendo M compatta, esiste un sot-
toricoprimento finito: sia esso dato da A001 , ..., A00n . L’insieme aperto V = A001 [ ... [ A00n
contiene quindi M. Abbiamo bisogno del seguente risultato.
Teorema. Esistono delle funzioni 1 , ..., n : V ! R, di classe C 1 , tali che, per
ogni x e ogni k 2 {1, ..., n}, si ha:
(i) 0 k (x) 1 ,
(ii) x 62 A00k ) k (x) = 0 ,
57
Px 2 M,
e, per
(iii) nk=1 k (x) = 1.
e poniamo ✓ ◆
||x xk ||
k ( x) =f .
⇢k
Allora, per ogni x 2 V, si ha che 1 (x) + ... + n ( x) > 0 e possiamo definire
k ( x)
k ( x) =
1 ( x) + ... + n ( x)
Si può dimostrare che tale definizione non dipende né dalla scelta (coerente) delle
singole M parametrizzazioni locali, né dalla particolare partizione dell’unità.
58
e !|M sia nulla al di fuori di (I). Per l’iniettività di e la continuità di !, si ha
che ! si annulla in tutti i punti del supporto di @ , per cui
Z Z Z
d! = d! = ! = 0.
M @
D’altra parte, siccome ! è nulla su @M,
Z
! = 0.
@M
Quindi, in questo caso l’uguaglianza è verificata.
Supponiamo ora che ci sia una M parametrizzazione locale : I ! RN che
mandi i punti interni di un’unica faccia Ij di I sul bordo di M e che !|M sia nulla
al di fuori di (I). Allora si ha sempre
Z Z Z
d! = d! = !,
M @
e siccome ! è nulla sul supporto di @ tranne che per i punti provenienti da Ij , i
quali appartengono a @M, si ha che
Z Z
!= !.
@ @M
Quindi, anche in questo caso l’uguaglianza è verificata.
Consideriamo ora il caso generale. Con la partizione dell’unità trovata sopra,
ognuna delle k · ! è di uno dei due tipi appena considerati. Essendo
n n
!
X X
d k^! =d k ^ ! = d(1) ^ ! = 0 ,
k=1 k=1
si ha dunque
Z n Z
X
d! = k · d!
M k=1 M
Xn Z n Z
X
= d k ^!+ k · d!
k=1 M k=1 M
Xn Z
= d( k · !)
k=1 M
Xn Z
= k ·!
k=1 @M
Z
= !.
@M
59