Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Mauro Lo Schiavo
Dipartimento di Scienze di Base e Applicate per l’Ingegneria
Sezione Matematica
Universitá degli Studi di Roma ”La Sapienza“
Via A. Scarpa, 16 00161 Roma
mauro.loschiavo@sbai.uniroma1.it
Vol. 12 - 2013
ISBN-A: 10.978.88905708/58
Licensed under
Attribution-Non-Commercial-No Derivative Works
Published by:
SIMAI - Società Italiana di Matematica Applicata e Industriale
Via dei Taurini, 19 c/o IAC/CNR
00185, ROMA (ITALY)
Prefazione V
Notazione VII
A 379
A.1 Richiami di Analisi Funzionale. ( I ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
A.2 Richiami di Analisi Funzionale. ( II ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
A.3 Richiami di Analisi Funzionale. ( III ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
A.4 Richiami di Geometria Differenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434
A.5 Richiami di Algebra Lineare. ( I ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
A.6 Richiami di Algebra Lineare. ( II ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
A.7 Richiami di Analisi Reale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
A.8 Richiami di Analisi Complessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
A.9 Disuguaglianza generalizzata di Gronwall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481
III
IV INDICE
Prefazione
Queste Note hanno avuto origine dall’esperienza fatta impartendo lezioni di matematica applicata, ed in particolare
il corso di Sistemi Dinamici, presso la facoltà di Ingegneria della “Sapienza” ormai fin dall’A.A. 1987/88.
Un’esperienza che, per il tipo ed il livello degli argomenti trattati, ha costituito una rara fortuna. Rara, perché
è opinione di molti che le attuali discipline scientifiche “standard”, ed in particolare quelle specificatamente rivolte
alla formazione matematica dell’ingegnere, siano ben più che sufficienti; fortuna, perché il dover presentare, e far
gradire, argomenti di matematica avanzata a giovani ben convinti della superiorità del fare rispetto al dire, mi ha
costantemente stimolato a svilupparne l’aspetto concreto a scapito di quello puramente speculativo.
I miei pochi ma fortemente motivati studenti mi hanno fatto chiaramente sentire che il loro interesse e perfino la
loro presenza in aula erano un premio, e che questo era rivolto non già alla materia, certo interessante soprattutto
se nelle mani dei suoi cultori, ma a quello che la materia avrebbe potuto in futuro rendere loro.
In tal modo mi sono trovato costretto ad un particolare impegno per mettere in luce gli aspetti essenziali, e
formativi, che potessero far loro rapidamente acquisire quella sensibilità matematica che non dovrebbe mancare a
chi, dal difficile mondo della matematica applicata vuole acquisire, o vorrà in seguito, i metodi talvolta avanzati
che sono indispensabili a risolvere problemi concreti.
Con questo spirito ho impartito il mio corso per tutti questi anni, anche in risposta alle richieste a me fatte dai
colleghi ingegneri.
Non trovando alcun testo adeguato a tale scopo, ed anche a causa della mia scarsa memoria che mi costringe
a preparare ogni argomento riscrivendolo quasi integralmente, iniziai a suo tempo a riempire pagine e pagine di
fitti appunti che si sono via via arricchiti ed ampliati. Di nuovo i miei studenti, dopo aver vanamente tentato di
interpretare il manoscritto, e disperati del dovere non solo decodificare il linguaggio matematico ma anche il mio
personale, mi convinsero della necessità di “ricopiare in bella” questa raccolta, e di trasformarla in qualcosa che
fosse di facile interpretazione e, possibilmente, di ancor più facile manipolazione.
L’esistenza dell’onnipresente computer, qui usato principalmente come compositore di stampa e per produrre
accettabili grafici, ed il piacere di rimaneggiare con poche battute tutto un argomento, hanno fatto il resto.
Di conseguenza, anno dopo anno, ed alla luce delle considerazioni fatte l’anno prima, mi sono scoperto rima-
neggiare, ampliare e rifinire un qualcosa che da disomogenea raccolta di lezioni è in definitiva diventato uno (spero)
comodo promemoria. Esso si rivolge, oltre che agli allievi del corso di Sistemi Dinamici, anche a chi voglia iniziare
a sopravvivere nella vasta ed intricata foresta delle metodologie proprie della matematica applicata; ed in parti-
colare a quelli che, senza farsi scoraggiare da qualche termine tecnico e “per soli introdotti”, vogliono raggiungere
una visione sintetica di alcuni dei principali argomenti della matematica (deterministica) applicata ai sistemi in
evoluzione.
Non mi è facile, dopo tanto rimaneggiare, rendermi conto dell’effettiva bontà del prodotto: alcuni argomenti
sono rimasti molto simili a quelli originari trovati sui vari libri in circolazione, altri invece sono stati rielaborati più
volte; e non tanto per partito preso, quanto perché a posteriori mi rendevo conto, dall’occhio triste e depresso della
mia platea, che l’approccio adottato, seppur squisito ed ineccepibile dal punto di vista teorico e formale, era stato
in realtà poco assaporato ed ancor meno digerito.
Va detto che a mia volta non mi sono facilmente arreso, e non credo di aver fatto illecite concessioni né al
rigore matematico né allo spessore della presentazione. Inoltre sapendo che, per molti dei miei studenti, alcuni
degli argomenti qui trattati lo sarebbero stati solo in questo corso, per favorirne la lettura ho talvolta indugiato
inserendo brevi e sintetici richiami a vasti e doviziosi aspetti delle corrispondenti teorie, dall’enorme profondità
concettuale ma dall’impossibile inserimento in piani di studio applicativi.
È evidente pertanto che queste note non hanno pretese di completezza o di dettaglio, viceversa cercano in
generale solo di rendere l’idea nel modo più semplice possibile pur rimanendo corretto. Gli argomenti trattati sono
stati solo rielaborati ed opportunamente tradotti, e non è stata mia intenzione apportare sostanziali modifiche
ad una materia già largamente codificata. Essi sono tutti presenti in monografie di ben altra ampiezza alle quali
si rimanda il lettore interessato. Tuttavia, la mole di esse e l’impegno necessario ad una loro anche solo iniziale
lettura, sono generalmente spaventevoli. Per avvicinarsi a queste note, invece, i prerequisiti sono assai modesti: un
buon corso di analisi matematica e le nozioni fondamentali di geometria sono sufficienti ad iniziarne la lettura, e
permettono di procedere con quelle ulteriori idee di analisi funzionale, algebra, e geometria, necessarie nel corso di
esse.
Roma 29 Maggio 2009
V
VI Prefazione
Notazione
Caratteri normali
a, b, c, d, f, . . . costanti reali (o funzioni)
x, y, z, v, w punti su varietà (eventualmente vettori)
ψ, φ, χ, . . . funzioni reali di variabile reale, o funzioni su varietà;
i, j, k, n, ν indici interi
A, B, C, D, J, V, Γ insiemi (senza struttura) di punti o di funzioni
N (x) intorno del punto x
Br (x) sfera di centro x e raggio r
B Cap. a base di intorni
C(R1 , R2 ) insieme delle funzioni continue da R1 in R2
L1 (R1 , R2 ) insieme delle funzioni R1 → R2 con modulo Lebesgue-integrabile
L2 (R1 , R2 ) spazio di Hilbert delle funzioni con modulo quadro integrabile
ΓF 0 := F −1 (F 0 ) insieme di livello F 0 della funzione F
ε costante reale piccola
ϵ vettore (di base)
j(x) funzioni di Bessel
hn (x) polinomi di Hermite
p(x) polinomio
Γ(x) funzione speciale Γ
Φ(t) sistema fondamentale
Ψ(t) sistema delle evoluzioni dei vettori di base
Tx M spazio tangente la M in x
Altri caratteri
∂ operatore di derivata
T Cap. 1,2,3,4,5,6 periodo (durata) di tempo
[D] chiusura dell’insieme D
∂D frontiera dell’insieme D
{x} insieme costituito dal solo elemento x
⟨ a, b ⟩ prodotto scalare fra a e b
π i i-ma proiezione: π i (x) = xi
VII
VIII Notazione
Caratteri calligrafici
A, B, C, D, T , P operatori su varietà; (op. lineari se su spazi vettoriali)
G Cap. 1,2,3,a applicazione di avanzamento
I Cap. 3 applicazione di avanzamento
Caratteri grassetto
a, b, c, e, f , g n-ple di numeri reali: coordinate di vettori
α Cap. 2 n-pla di numeri reali
γ Cap. 2,a n-pla di numeri reali
ϵ Cap. 2,a n-pla di numeri reali
ζ Cap. 2,a n-pla di numeri reali
η Cap. 1,2.a n-pla di numeri reali
θ Cap. 2,5 n-pla di numeri reali
κ Cap. 2 n-pla di numeri reali
ν Cap. 1,2,3,5,a n-pla di numeri reali
Notazione IX
Sistema dinamico := la famiglia delle trasformazioni dello spazio delle fasi in sé che fanno passare da un certo
stato “attuale” ad un altro, “passato” o “futuro”, e che ha come indice il parametro “tempo”. Questo ha valori
reali t ∈ R per sistemi continui ed ha valori interi t ∈ Z per sistemi discreti, ed entrambi sono minori o maggiori
di zero, rispettivamente, per passato e futuro.
Sistema, o processo, deterministico := un sistema per il quale è possibile individuare, ed univocamente, il
passato ed il futuro a partire dal suo stato attuale. Si pretende cioè che il modello matematico che ne regola
l’evoluzione ammetta Esistenza ed Unicità della soluzione uscente da ogni possibile dato iniziale.
Di natura diversa sono, per esempio, i seguenti due processi.
Processo stocastico := una famiglia di funzioni definite sullo spazio delle fasi (con struttura di spazio di misura),
dette variabili casuali, integrabili su comodi insiemi, detti eventi, indiciata dal parametro temporale t. Le
transizioni fra due istanti, cosı̀ come il valore degli integrali, possono essere regolati da convenienti misure di
probabilità (stabilite apriori o dedotte da osservazioni di esperimenti quali, per esempio, il lancio di un dado, la
lunghezza di un messaggio, l’applicazione di una qualche matrice di transizione, etc.). Tuttavia, tali transizioni
possono anche essere deterministiche, e solo le variabili non esserlo.
Processo ereditario := l’intero passato del sistema determina (o influisce) sul suo futuro.
1
2 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici
Processo differenziabile := un sistema deterministico con spazio delle fasi avente la struttura di Varietà dif-
ferenziabile, o “Manifold”: M, (si veda: Appendice A.4), e la cui evoluzione è in esso descritta da funzioni:
g : (t, x0 ) ∈ R &→ g(t, x0 ) ∈ M differenziabili.
Più spesso con questo aggettivo si intende la prima di queste proprietà, e la seconda solo rispetto al dato:
x0 ∈ M.
Verranno ora introdotte, con maggiori dettagli, le proprietà essenziali di un possibile modello per un processo
differenziabile a dimensione finita che sia stazionario, e cioè tale da non contenere un transitorio dipendente dal
particolare istante iniziale.
Si considera innanzi tutto una varietà M come spazio delle fasi, ed un punto x ∈ M che rappresenti lo stato
del sistema in un certo istante t0 .
Come si è detto, l’evoluzione fra t0 e t è modellata da una trasformazione dello spazio delle fasi in sé, detta
onto
Applicazione d’avanzamento o Operatore d’evoluzione Gtt0 : M −→M :=
una mappa univocamente definita su tutto M ed a valori su tutto M, che fa corrispondere a ciascun x ∈ M il suo
evoluto Gtt0 x dopo l’intervallo di tempo [t0 , t].
Affinché una famiglia {Gtt0 }t∈R di tali applicazioni d’avanzamento possa rappresentare una evoluzione del
sistema con le proprietà richieste, è necessario che su tutto M
per il determinismo, sussista la: Gtt01 = Gtt1 Gtt0 , ∀t0 , t1 , t ∈ R;
per la stazionarietà, sussista la: Gtt+τ = G0τ =: G τ , ∀τ, t ∈ R.
Queste proprietà insieme forniscono:
Un buon modello per un sistema differenziabile deterministico stazionario a dimensione finita è allora dato da
un:
Flusso di fase differenziabile := una funzione g : R × M → M definita per ogni t ∈ R ed x ∈ M dalla
g : (t, x) &→ G t x, con le ipotesi che g sia differenziabile ovunque in R × M e che {G t }t∈R sia un gruppo ad un
parametro di trasformazioni dello spazio delle fasi in sé.
Ne segue che G t è, per ogni t, un
Diffeomorfismo := una corrispondenza biunivoca differenziabile con inversa differenziabile.
Per esempio G t x := xt , con x ∈ R e t = 3 , non lo è perché (x1/3 )′ (0) non esiste.
Spazio delle fasi ampliato := lo spazio R × M delle coppie (t, x).
M. Lo Schiavo
1.1. I termini del problema 3
Curva integrale := il Grafico del moto, e cioè la curva nello spazio delle fasi ampliato (R × M) costituita dalla
famiglia di coppie {(t, Gtt0 x0 )}t∈J⊆R .
N.B. 1.1.3 Il determinismo fa sı̀ che due curve integrali non si intersechino, e che ciascuna abbia una e una sola
intersezione con i piani t = cost. ♦
Nel caso in cui M ≡ R è lo spazio delle configurazioni, la curva integrale è il ben noto diagramma orario.
Se, ma non solo se (si veda: §III.1), {G t }t∈R è un gruppo, le curve integrali sono invarianti per traslazioni:
t → t + τ , (si veda: [Arnold I]):
Proposizione 1.1.1 Sia Hτ : (t, x) &→ (t + τ, x) l’operatore di traslazione lungo l’asse dei tempi nello spazio
delle fasi ampliato e {(t, G t x)}t∈R una curva integrale, con G t verificante la proprietà di gruppo: G t+τ = G t G τ .
Allora
{Hτ (t, G t x)}t∈R = {(t + τ, G t x)}t∈R è anch’essa una curva integrale.
Dimostrazione Dato che {G t }t∈R è un gruppo, esiste unico y = G −τ x, e quindi x = G τ y . Inoltre la stessa
t+τ
composizione G = G t G τ assicura l’esistenza di: G t x = G t+τ y . Quindi {(t + τ, G t x)}t∈R ≡ {(σ, G σ y)}σ∈R con
σ := t + τ .
G t+¿y
x
0 t ¿ (t+¿) 0 t ¿ (t+¿)
G ty
y= G -¿x
"
Curva di fase, o Orbita, uscente da x, o Traiettoria per x := l’Immagine del moto, e cioè il sottoinsieme di
M dato da γ := {Gtt0 x}t∈J ⊂ M.
N.B. 1.1.4 Se {G t }t∈R è un gruppo, le curve di fase non si intersecano (perché in caso contrario si potrebbero
sempre trovare due curve integrali che ad esse corrispondono e che si intersecano). ♦
Le seguenti definizioni (si veda anche: [Arnold I]) riassumono le varie possibilità.
Sistema dinamico (deterministico stazionario differenziabile a dimensione finita) := la coppia (M, g) con M una va-
rietà differenziabile e g un flusso differenziabile.
Tuttavia, perfino nei casi di stazionarietà, ci si deve spesso limitare a:
Sistemi dinamici locali := (M, J0 , V0 , g) dove: M è una varietà differenziabile, J0 un intorno dell’origine
in R, V0 ⊆ M un conveniente intorno di un arbitrario punto x0 dello spazio delle fasi M, e g una funzione da
J0 × V0 in M tale che:
(iii) per ogni x ∈ V0 si ha G t+τ x = G t G τ x per quei t, τ ∈ J0 per i quali il secondo membro è definito. Inoltre,
per ogni x ∈ V0 esistono N (x) ⊂ V0 e δ > 0 tali che G t G τ x′ è definito per ogni x′ ∈ N (x) e
|τ |, |t| < δ .
Nel caso non stazionario, il flusso di fase non è più invariante per traslazioni temporali: le curve integrali non è
detto siano più le traslate rigide l’una dell’altra secondo l’asse delle t (e le funzioni φ(t + c, t0 , x0 ) siano soluzioni
della stessa equazione della quale è soluzione la φ(t, t0 , x0 )). Per ogni applicazione d’avanzamento occorre allora
fissare l’esplicita coppia degli istanti di riferimento, e specificare il particolare intorno J × V0 ⊂ R × M del punto
(t0 , x0 ) vicino al quale si studia il sistema.
Un buon modello per l’evoluzione di un sistema deterministico non stazionario, nell’intorno di un punto (t0 , x0 ) ∈
R × M, consiste allora in una
Famiglia locale di applicazioni d’avanzamento su R × M := (M, J, V0 , &
g)
dove: M è una varietà differenziabile, J × V0 ⊆ R × M è un intorno del punto (t0 , x0 ) e g& , che verrà chiamato
Avanzamento locale, una funzione & g : J × J × V0 → R × M tale che, indicando con {t1 } il singleton {t′ ∈ R | t′ =
t1 } , si abbia:
(i) per ciascun (t, t1 ) ∈ J × J l’applicazione G&tt1 : ({t1 } × V0 ) → J × M definita da G&tt1 (t1 , x) := &
g(t, t1 , x) è un
diffeomorfismo da {t1 } × V0 in {t} × M;
(ii) per ciascun (t1 , x) ∈ J × V0 , il Moto uscente da x ∈ M in t1 , e cioè la mappa x !:t∈J ⊆R→x !(t) ∈ M
!(t)) := g&(t, t1 , x), è una funzione differenziabile su J e tale che x
definita nella (t, x !(t1 ) = x;
(iii) sussiste la: G&tt13 (t1 , x) = G&tt23 G&tt12 (t1 , x) se t1 , t2 , t3 ∈ J ed x ∈ V0 sono tali che il secondo membro è definito.
In tal caso, per ciascun (t1 , x) ∈ J × V0 esiste un intorno N (t1 ) × N (x) tale che il secondo membro continua
ad essere definito per ogni x′ ∈ N (x) e t2 , t3 ∈ N (t1 ).
Identificando con un unica M ogni “copia” dello spazio delle fasi, data per ogni t ∈ J da {t} × M, si ha che la
mappa G&tt12 : {t1 } × V0 → {t2 } × M individua la mappa Gtt12 : M → M di cui si è parlato precedentemente, e che
si riduce a G t2 −t1 quando il sistema è stazionario.
M. Lo Schiavo
1.1. I termini del problema 5
Velocità di fase, nel punto x, individuata dal moto := la velocità ẋ che tale elemento rappresentativo possiede
nel punto x ed all’istante t; e cioè il valore della derivata
' '
d '' d ''
ẋ = !
x(t + τ ) = G t+τ x
dτ 'τ =0 dτ 'τ =0 t
essa dipende, come si vede, da x e da t e quindi, per ogni (t, x) ∈ J × V0 , durante una certa evoluzione individuata
da {Gtt0 }t∈J sussiste la
ẋ = v(t, x) , x ∈ M, v ∈ Tx M (1.2)
da interpretarsi come un legame (eventualmente dipendente dal tempo) che durante quella evoluzione sussiste
fra la posizione all’istante t e la velocità che in quello stesso istante compete ad un elemento in quella posizione.
Quando queste si intendano quali valori di funzioni del tempo, la (1.2) può essere interpretata come un’equazione
funzionale avente come incognita la funzione moto, ed infatti in tutti gli istanti t di definizione il moto risulta
verificare l’identità, ' '
d d '' t+τ d ''
!(t) ≡
x G x= G t+τ Gtt0 x0 ≡ v(t, x
!(t)). (1.3)
dt dτ 'τ =0 t dτ 'τ =0 t
In particolare, se la famiglia di trasformazioni forma un gruppo locale, e cioè se il sistema è stazionario, questa
velocità dipende solo dal punto e non dipende esplicitamente dal tempo; si ha infatti
' '
d '' t+τ d ''
G x≡ G τ x = v(x) .
dτ 'τ =0 t dτ 'τ =0
d'
'
N.B. 1.1.5 Per il momento, la funzione v : x &→ v(x) è individuata per componenti: v i (x) = dt t=0
xi (G t x);
e quando nel seguito si vorrà distinguere il caso scalare: dim M = 1 dal caso: dim M > 1 , lo si farà con la (usuale)
notazione: ẋ = v(x) nel primo caso e ẋ = v(x) nel secondo. Come già accennato tuttavia, (si veda: Appendice A.4
ed [Arnold 1]) questa differente notazione avrà anche il compito di distinguere l’equazione sul tangente alla varietà
dalla sua rappresentazione in coordinate. ♦
Con ciò si intende che esso è una funzione x ! : J ∈ R → M, differenziabile, tale che x
!(t0 ) = φ(t0 , t0 , x0 ) = x0 , e
!(t)) è definito per ogni t ∈ J e vi risulta
tale che v(t, x
d
!(t) = v(t, x
x !(t)) ∀t∈J .
dt
Memento 1.1.1 Dominio:= aperto, connesso, non vuoto. Qui, “aperto” nella topologia indotta dalla metrica
euclidea in R1+n .
Sotto queste ipotesi infatti, la famiglia delle soluzioni x ! dell’equazione ẋ = v(t, x) uscenti in t1 dai punti x1
di V0 individua, al variare di (t1 , x1 ) in J × V0 , una funzione φ : J × J × V0 &→ M atta a definire mediante la
(t, φ(t, t1 , x1 )) =: g&(t, t1 , x1 ) un avanzamento locale g& in quanto si vedrà che:
(iii) g&(t3 , t2 , g&(t2 , t1 , x)) = g&(t3 , t1 , x) lı̀ dove tali operazioni sono definite.
Nel seguito, purché ciò non dia adito a dubbi, non solo la x ! ma anche la funzione φ verrà chiamata soluzione
dell’equazione ẋ = v(t, x). Ciò per motivi di brevità, e vuole ricordare non solo che per (t0 , x0 ) fissati in J × M
!(t) := φ(t, t0 , x0 ) = Gtt0 x0 ∈ M verifica su J la (1.2) e la condizione x
! il cui valore in t è x
la x !(t0 ) = x0 ∈ M, ma
anche che al variare di (t0 , x0 ) ∈ J × V0 e per t fissato, il punto x = x !(t) varia in modo (almeno) continuo in M.
Inoltre, come si è già accennato, la notazione con il superscritto “ ! ” verrà abbandonata a meno che essa sia
strettamente indispensabile. Per esempio, quando non vi siano dubbi sul punto (t0 , x0 ), si preferirà indicare la x !(t)
con x(t).
x
v(x)
x0
x t
#
ẍ = k , con k ∈ R (1.4)
La sua soluzione generale si può trovare integrando direttamente due volte l’equazione stessa. Scelti t0 , x0 , ẋ0
arbitrari in R si ha
1
ẋ(t) = k(t − t0 ) + ẋ0 , e x(t) = k(t − t0 )2 + ẋ0 (t − t0 ) + x0 . (1.5)
2
La (1.4) può essere trasformata nella seguente equivalente equazione, con ẋ0 ≡ y0 ∈ R,
) * ) x * ) * ) *) * ) *
ẋ v (x, y) y 0 1 x 0
ẋ ≡ = v(x) ≡ := = + , (1.6)
ẏ v y (x, y) k 0 0 y k
M. Lo Schiavo
1.1. I termini del problema 7
y
y
(2)
y2 vx k
(1) x
y vx1
vx
Tale curva non è la traiettoria in uno spazio fisico, nel quale sia fissato un riferimento (o, ⃗e1 , ⃗e2 , ⃗e3 ), di un
−̈
→
elemento che si muova a partire da velocità iniziale nulla secondo l’equazione op = k⃗e1 ; infatti la parabola di volo,
che in questo caso degenera in una retta, e la parabola sul piano delle fasi sono curve in spazi diversi.
Si noti che con l’aggettivo generale qui sopra ricorda il fatto che le costanti (t0 , x0 , ẋ0 ) si riferiscono ai dati
iniziali del cosiddetto “problema di Cauchy” relativo all’equazione data, e per un flusso devono poter essere scelte
arbitrariamente in R × R2 .
È facile verificare che la soluzione (1.7) della (1.4) non solo è compositiva in modo deterministico:
ma è anche stazionaria:
) * ) *
1 t −1 0
con la quale è possibile esprimere la soluzione (1.7) con Φ(t) = , Φ (s) ≡ Φ(−s), b(s) = , che
0 1 k
.t −1
danno: η(t) = 0 Φ(t)Φ (s) b(s) ds insieme con:
φ(t2 , t1 , φ(t1 , t0 , x0 ))
- t2
−1
= Φ(t2 )Φ (t1 )φ(t1 , t0 , x0 ) + Φ(t2 )Φ−1 (s) b(s) ds
t1
) - t1 * - t2
= Φ(t2 )Φ−1 (t1 ) Φ(t1 )Φ−1 (t0 )x0 Φ(t1 )Φ−1 (s) b(s) ds + Φ(t2 )Φ−1 (s) b(s) ds
t0 t1
- t2
−1
= Φ(t1 )Φ (t0 )x0 + Φ(t2 ) Φ−1 (s) b(s) ds .
t0
#
Note di Sistemi Dinamici
8 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici
) *
y
Si ricordi comunque che il campo non è lineare: v(t, x1 + x2 ) ̸= v(t, x1 ) + v(t, x2 ), ed infatti la soluzione
k
(1) (2) (1) (2)
dell’equazione (1.4) non è somma di soluzioni: φ(t, x0 + x0 ) ̸= φ(t, x0 ) + φ(t, x0 ).
Esempio 1.1.8 Con k ∈ R e t0 , x0 ∈ R arbitrari si consideri l’equazione
Innanzi tutto, l’equazione implica che, comunque siano stati scelti t0 , x0 ∈ R, risulta costante la differenza
Poi, e mediante la costante t̃ assegnata dalla equazione, si vede che la (1.11) assume la forma: ẋ = k(t − t̃) e
quindi ha soluzione:
1 1
x(t) = k(t − t̃)2 − k(t0 − t̃)2 + x0 (1.13)
2 2
o anche, introdotta nella (1.13) la costante (arbitraria) x̃ := −k(t0 − t̃)2 /2 + x0 ,
1
x(t) = k(t − t̃)2 + x̃ . (1.14)
2
La soluzione della (1.11), che dipende in modo essenziale dalle (sole) due costanti (t0 , x0 ) entrambe arbitrarie, è
compositiva ma non stazionaria; infatti dalla (1.13) segue la compositività
) *
1 1 1 1
k(t2 − t̃)2 − k(t1 − t̃)2 + k(t1 − t̃)2 − k(t0 − t̃)2 + x0
2 2 2 2
1 1
= k(t2 − t̃)2 − k(t0 − t̃)2 + x0 ,
2 2
ma anche che la condizione di stazionarietà: φ(t + c, t0 + c, x0 ) = φ(t, t0 , x0 ) non è verificata, in quanto
1 1 1 1
k(t + c − t̃)2 − k(t0 + c − t̃)2 ̸= k (t − t̃)2 − k (t0 − t̃)2
2 2 2 2
visto che (t2 − t20 ) ̸= (t − t̃)2 − (t0 − t̃)2 = (t2 − t20 ) + 2t̃(t0 − t).
In questa equazione le (t∗ , ẋ∗ ) non sono arbitrarie, come invece erano nella prima delle (1.5) trovata durante
il procedimento di risoluzione dell’equazione (1.4), e quella, come tale, non può essere risolta da sola ma solo
come seconda componente della (1.7). In primo luogo ciò comporta, tramite la (1.12), che la ẋ0 non può essere
scelta arbitrariamente, come invece accadeva nel caso della (1.5), in secondo luogo si ha che il valore della ascissa
temporale non è più scelto arbitrariamente in R, ma occorre riferirlo al valore assegnato t∗ , e l’istante in cui la ẋ
si annulla esiste, unico, ed è indipendente dalle scelte arbitrarie dei dati iniziali.
x
x0
x0
e
x
et t0 t
#
Questa equazione si può facilmente ricavare come conseguenza sia della (1.11) che della prima delle (1.5); a tale scopo
è sufficiente riscrivere queste ultime nella forma ẋ = k(t−t̃) che dà la (1.14) dalla quale segue k 2 (t−t̃)2 = 2k(x−x̃).
Tuttavia, anche qualora la costante x̃ venga considerata come una costante arbitraria, la (1.15) non è equivalente
né alla (1.11) né alla (1.4). Infatti
• essa contiene solo una delle due possibili determinazioni della radice quadrata;
M. Lo Schiavo
1.1. I termini del problema 9
• un qualunque valore prescelto per la x̃ permette come soluzione possibile della (1.15) la funzione costante
x(t) = x̃, cosa questa non vera per le altre due citate equazioni;
Ove possibile, la sua soluzione generale si ricava per separazione di variabili (vedi oltre) dalla
√ - x 0√ / 1
dξ
(t − t0 ) 2k = √ = 2 x − x̃ − x0 − x̃ .
x0 ξ − x̃
/ √
Ponendo ẋ0 := 2k(x0 − x̃) e moltiplicandola per k/ 2 questa fornisce (insieme con la (1.15)) la ẋ = ẋ0 /2 +
k(t − t0 ) e cioè la prima delle (1.5), da cui segue senz’altro la seconda:
1
x(t) = x0 + ẋ0 (t − t0 ) + k(t − t0 )2
2
la quale, come si è visto, è compositiva e stazionaria. Tuttavia essa, come soluzione della (1.15), non è unica a
meno di ridursi a considerare solo tempi t per i quali è x(t) > x̃ , e quindi in particolare localmente vicino a dati
per i quali x0 > x̃ . Si osservi d’altra parte che per ricavare la2(1.15) dalla (1.11), e cioè dalla (1.14), occorre derivare
/ / /
la k(t − t̃) = 2k(x − x̃) ovvero “semplificare” la k = k ẋ 2k(x − x̃) proprio per il termine ẋ ≡ 2k(x − x̃) .
Se, invece, la si vuole ricavare direttamente dalla (1.4) occorre moltiplicare quest’ultima per ẋ .
e
x
t
#
Esempio 1.1.10 Nuovamente come conseguenza sia della (1.11) che della prima delle (1.5) e con k, t0 , x0 , ẋ0 ∈ R
si può ricavare la
ẋ − ẋ∗
ẍ = , per fissati t∗ , ẋ∗ ∈ R (1.16)
t − t∗
La sua soluzione generale si trova per separazione di variabili (vedi oltre): dalla ln |ẋ − ẋ∗ | = ln |t − t∗ | + c si
ottiene (localmente)
ẋ0 − ẋ∗
ẋ = ẋ∗ + (t − t∗ ) (1.17)
t0 − t∗
che quindi:
• non assegna necessariamente il valore k alla costante c = (ẋ − ẋ∗ )/(t − t∗ ) che, inoltre, dipende dai dati
iniziali e muta con essi: ciascuna soluzione evolve in modo da lasciare costante il rapporto d := (ẋ0 − ẋ∗ )/(t0 −
t∗ );
• impedisce che il dato t0 possa essere scelto uguale al valore t∗ presente nell’equazione.
t0 t
Tuttavia il campo è lineare rispetto alla variabile ξ& := ξ − ξ∗ , e la d2 /dt2 di ciascuna soluzione è costante. #
Esempio 1.1.11 Con un procedimento analogo al precedente, dalla seconda delle (1.5) si può ricavare la
2(x − x∗ ) 2ẋ∗
ẍ = − , con k, t0 , x0 , ẋ0 , t∗ , ẋ∗ ∈ R . (1.18)
(t − t∗ )2 t − t∗
La soluzione di questa (siano t∗ = x∗ = 0 ) va trovata separando la parte omogenea (che è lineare) da quella
non omogenea (vedi oltre). La prima: ẍ = 2x/t2 è un caso particolare dell’equazione di Eulero e si trasforma,
con la posizione: τ := ln |t| e quindi t∂t = ∂τ e t∂t + t2 ∂tt 2
= ∂τ2 , nella x′′ − x′ − 2x = 0 la cui soluzione è
x(τ ) = c1 e−τ + c2 e2τ . Se ne deduce la soluzione dell’equazione omogenea (per t > 0 ):
) * ) * ) *
xom (t) c 1/t t2
= Φ(t) 1 con Φ(t) := .
ẋom (t) c2 −1/t2 2t
Analogamente a quanto visto nell’Esempio 1.1.7, e secondo quanto si vedrà più in dettaglio nel seguito, una soluzione
particolare della (1.18) è allora data da
- t ) *
0
xp (t) = Φ(t)Φ−1 (τ ) dτ
−2ẋ∗ /τ
- ) *) *) *
1 t 1/t t2 2τ −τ 2 0
= dτ
3 −1/t2 2t 1/τ 2 1/τ −2ẋ∗ /τ
M. Lo Schiavo
1.1. I termini del problema 11
e quindi
- t) *
2ẋ∗ τ t2
xp (t) = − 2 dτ = ẋ∗ t .
3 t τ
La soluzione della (1.18) risulta quindi (indicando semplicemente t, t0 , x, x0 invece di t−t∗ , t0 −t∗ , x−x∗ , x0 −x∗ )
) * ) * ) *
x(t) c1 ẋ∗ t
= Φ(t) + con
ẋ(t) c2 ẋ∗
) * ) * ) *
c1 x − ẋ∗ t0 1 2t0 x0 − t20 (ẋ0 + ẋ∗ )
= Φ−1 (t0 ) 0 = .
c2 ẋ0 − ẋ∗ 3 [x0 + t0 (ẋ0 − 2ẋ∗ )]/t20
È facile rendersi conto che questa soluzione non è certo stazionaria, dato che Φ(t)Φ(τ ) ̸= Φ(t + τ ); essa tuttavia è
compositiva, come si può facilmente controllare. Inoltre, la sua derivata seconda non è detto sia costante salvo che
per quei dati iniziali per i quali la c1 risulta nulla. Anche in tal caso, non è certo detto che la costante sia proprio k ,
salvo che solo per opportuni dati iniziali, infatti c1 = 0 implica x(t) = c2 t2 + ẋ∗ t con t20 c2 = ẋ0 t0 − x0 ≡ x0 − t0 ẋ∗
e quindi la residua arbitrarietà dei dati certo permette c2 ̸= k/2 . #
Nota 1.1.1 Si vede bene, dagli esempi precedenti, che il trasformare un’equazione in un’altra spesso non è una
operazione semplice o gratuita. Per ottenere equazioni equivalenti a quelle dalla quale si è partiti occorre che la
trasformazione sia di tipo particolare (si veda la discussione sulla equivalenza fra campi, nel Cap.3). ◃
Memento 1.1.1 La velocità che compare a secondo membro della (1.2) è quella euleriana: è un campo vettoriale
dipendente esplicitamente dal tempo e dalla posizione. La soluzione t &→ x !(t) := φ(t, t0 , x0 ) ∈ R3 descrive il moto
di un elemento che, avendo attraversato in t0 il punto x0 ∈ R , all’istante t si trova nel punto φ(t, t0 , x0 ) = x
3
sono in ogni istante delle eliche cilindriche. Per vederlo, si scelgano gli assi in modo che sia ω = (0, 0, ω), e siano
z
vΩ la velocità di un punto Ω dello spazio mobile, e vΩ ̸= 0 . L’equazione è
⎛ ⎞ ⎛ x⎞ ⎛ ⎞ ⎛ ⎞
ẋ vΩ −ω(y − yΩ ) −ω(y − yC )
⎝ẏ ⎠ = ⎝vΩ y⎠
+ ⎝ ω(x − xΩ ) ⎠ =: ⎝ ω(x − xC ) ⎠
z z
ż vΩ 0 vΩ
( y
xc : = xΩ − vΩ /ω, x y z z
ove si è posto x Si osserva innanzi tutto che vc = vc = 0 e che vc = vΩ =: µ, e ciò per
yc : = yΩ + vΩ /ω.
(
ξ : = x − xc
qualsiasi zc arbitrario. Poi, introdotte le si vede che l’equazione diviene
η : = y − yc
(
ξ̇ = −ω η
insieme con z(t) = µ (t − t0 ) + zc
η̇ = ω ξ
ovvero
d(x − xc ) d(y − yc ) d(z − zc ) dt dθ
= = = =: .
−ω(y − yc ) ω(x − xc ) µ 1 ω
Pertanto essa può essere trasformata nella
d2 ξ ω
+ξ =0 con θ=(z − zc ) .
dθ2 µ
) * ) *) * ) *
ξ cos θ − sin θ ξ0 xc + ξ0
In definitiva, tramite l’Esempio 1.1.13 si ottiene = , e si osservi che
η sin θ cos θ η0 yc + η0
sono le coordinate dei punti intersezioni delle linee di flusso con il piano (arbitrario ma fissato) z = zc . Le
corrispondenti linee di flusso hanno equazioni parametriche date dalle
x(θ) = xc + ξ0 cos θ − η0 sin θ ω
con θ = θ(z) = (z − zc )
y(θ) = yc + ξ0 sin θ + η0 cos θ µ
In entrambi i casi, invece, le linee di corrente sono curve varie, almeno una delle quali arbitraria. Se il sistema
è stazionario le due famiglie di linee coincidono.
In ogni caso ed in ogni istante esse risultano tangenti fra loro perché tangenti alle velocità.
! dato da x
Risolvere l’equazione significa determinare il moto x !(t) := φ(t, t0 , x0 ), o alternativamente tracciare la
curva integrale, che per un qualunque t0 passa per un (arbitrario) x0 , e che, in x, è inclinata di v(x).
Teorema 1.2.1 (si veda: [Arnold 1]) Sia v : R → R definita su un intervallo V0 := (x1 , x2 ) ⊆ R, e differenziabile
con derivata limitata in V0 . Per ogni (t0 , x0 ) ∈ R × V0 , l’equazione ẋ = v(x) ammette una soluzione t &→ x !(t) :=
φ(t, t0 , x0 ) tale che φ(t0 , t0 , x0 ) = x0 .
Se v(x0 ) = 0 la soluzione è t &→ φ(t, t0 , x0 ) = x0 . Se v(x0 ) ̸= 0 , esiste un intorno N (x0 ) ⊂ V0 nel quale la
soluzione è definita implicitamente dalla
- x
dξ
t − t0 = =: ψ(x) − ψ(x0 ). (2.21)
x0 v(ξ)
M. Lo Schiavo
1.2. Equazioni scalari autonome 13
Dimostrazione (inizio)
Se v(x0 ) = 0, x !(t) := φ(t, t0 , x0 ) = x0 verifica equazione e condizioni iniziali.
Se v(x0 ) ̸= 0 , la funzione 1/v(x) è definita e continua in un conveniente N (x0 ). La sua primitiva ψ(x) esiste,
unica, differenziabile in N (x0 ), ed è ψ ′ (x) = 1/v(x) ̸= 0 . Esiste quindi, su un certo N (t0 , x0 ), la funzione inversa
x=x !(t) := ψ −1 (t − t0 + ψ(x0 )) che vale x0 in t = t0 (ovvero ψ(! x(t)) = t − t0 + ψ(x0 )). Tale funzione ha derivata
'
d 1 '
'
!(t) = d
x ' = v(!x(t)).
dt dx ψ(x)
'
x=x̂(t)
"
In tal modo è stata dimostrata l’unicità locale solo se v(x0 ) ̸= 0 ; e non è stata usata la differenziabilità della v .
In effetti, in tale ipotesi più debole, se v(x0 ) = 0 la soluzione t &→ x !(t) := φ(t, t0 , x0 ) =
. xx0 può non essere unica.
Può accadere infatti che, sebbene sia v(x0 ) = 0 , eppure l’integrale (improprio) t − t0 = x0 dξ/v(ξ) =: ψ(x) − ψ(x0 )
esista finito per x ∈ V0 ; in tal caso le due funzioni x!1 (t) := ψ −1 (t − t0 + ψ(x0 )) ed x !(t) = x0 risultano entrambe
soluzioni del problema (2.20).
√
Esempio 1.2.1 ẋ = 1 − x2 , t0 , x0 ∈ R, con |x0 | ≤ 1 .
Sia (t0 , x0 ) = (t0 , −1). Il problema ha soluzioni per non solo:
t &→ x
!(t) = −1 per ogni t,
ma anche : ⎧
⎪
⎨−1 per t − t0 ≤ 0
t &→ x
!(t) = − cos(t − t0 ) per t − t0 ∈ [0, π]
⎪
⎩
+1 per t − t0 ≥ π ,
x
t0 t
È chiaro d’altra parte che la perdita di unicità della soluzione non dipende dal dato iniziale t0 = x0 = 0 che qui
si è scelto,
. x̄ma solo dal fatto che in un qualche x̄ il campo si annulla in modo tale da rendere convergente l’integrale
t̄ − t0 = x0 dξ/v(ξ) =: ψ(x̄) − ψ(x0 ). In tal caso la ψ −1 (t − t0 + ψ(x0 )) e la funzione costante in x̄ sono soluzioni
dell’equazione ed hanno medesimo valore: x̄ nel medesimo istante: t̄
Esempio 1.2.3 (continuazione dell’Esempio 1.2.2)
1/3
Per t0 ed x0 arbitrari (sia per esempio x0 > 0 ), scelto comunque τ ∈ R tale che τ ≥ x0 , la funzione
⎧7 83
⎪ t−t0
⎪ +τ per t − t0 ≤ −3τ
⎨ 3
1/3
!(t) = 00
x per t − t0 ∈ [−3τ, −3x0 ]
⎪
⎪ 13
⎩ t−t0 + x1/3 per t − t0 ≥ −3x0
1/3
3 0
è soluzione dell’equazione e verifica le condizioni iniziali. Il problema però non è deterministico in quanto esistono
1/3
istanti (ciascuno degli istanti nell’intervallo [t0 − 3τ, t0 − 3x0 ]) nei quali due distinte soluzioni assumono lo stesso
valore x̄ = 0 , e pertanto tale punto evolve in modo non univoco.
x
x0
t0{3¿ t0{3x01/3 t0 t
In modo analogo si riconosce che sono non univoche, per t > 0 , tutte le soluzioni dell’equazione ẋ = x1/3
per le quali x0 = 0 . Esse infatti possono valere x(t) = 0 per t ≤ τ , per un qualsiasi fissato τ > 0 , e x(t) =
3/2
± (2(t − τ )/3) per t > τ . #
Se si confrontano gli esempi 1.2.1 e 1.2.2 con l’esempio 1.1.6 si osserva che, pur avendo tutti in comune il fatto
che i loro campi ammettono un punto x̄ tale che v(x̄) = 0 , tuttavia il campo dell’esempio 1.1 è, in tale punto, del
tutto regolare; viceversa i campi degli esempi 1.2.1 e 1.2.2 non solo si annullano in qualche punto x̄ dell’aperto D
ma, in più, sono in esso non differenziabili. Essi sono critici per quanto riguarda l’unicità.
In particolare non esiste k ∈ R+ tale che
Lemma 1.2.1 Siano x̄ ∈ R ed N (x̄) un intorno di x̄. Siano poi v1 , v2 ∈ C 0 (N (x̄)) e tali che v1 (x̄) = v2 (x̄) =
0 e che v1 (x) < v2 (x), ∀x ∈ N (x̄)\ {0}. Se φ1 e φ2 sono soluzioni rispettivamente di ẋ = v1 (x) per
t ∈ J1 e di ẋ = v2 (x) per t ∈ J2 tali che φ1 (t0 ) = φ2 (t0 ) = x0 ∈ N (x̄) allora risulta:
Ne segue che se v ammette una costante che verifichi la (2.22), ed a maggior ragione se la v è differenziabile con
derivata limitata in N (x̄), allora le curve integrali {(t, φ(t, t0 , x0 ))}t∈J che in t0 passano per (t0 , x0 ), sia x0 > x̄,
rimangono per t < t0 inferiormente limitate dalla curva integrale, passante per lo stesso punto, dell’equazione
ẋ = k(x − x̄). Questa ha soluzione:
ed è quindi strettamente maggiore di x̄ per ogni t > −∞ se tale è stata in t0 , e cioè se, come si è supposto,
x0 > x̄.
M. Lo Schiavo
1.2. Equazioni scalari autonome 15
Á=Á2
x Á=Á1
x0
x
t0 t
Dimostrazione (del Teorema 1.2.1 fine) Si riconosce cosı̀ che se il campo v verifica la (2.22) allora la
soluzione costante x = x̄(t) := φ(t, t0 , x̄) = x̄ rimane separata da qualunque altra soluzione t &→ x(t) := φ(t, t0 , x0 )
che in qualche istante sia stata diversa da x̄ , e quindi consegue che essa rimanga unica.
[La condizione dell’esistenza della costante k, che è la Lip (x̄), è più debole della condizione che il campo sia loc.Lip (N (x̄)) (che
coincide (si veda: [Royden V.4.16]) con l’esistenza q.o. in N (x̄) e limitatezza della |v′ | ); quest’ultima, più agevole, condizione è quella
che verrà richiesta nel caso generale, non autonomo o con dim M > 1 , vedi oltre. Qui si sfrutta il fatto che per un’equazione autonoma
in R la non unicità può avvenire solo in punti fissati, nei quali il campo si annulla]. "
In definitiva, se v(x̄) = 0 l’unicità dipende dalla rapidità con cui v(x) → 0 per x → x̄ . Se v si annulla
abbastanza rapidamente (cioè se |v(x)| ≤ O(|x|)) ciò non accade a φ(t) − x̄; l’unica soluzione per x̄ è la costante,
e ogni altra “non raggiunge in tempo” il valore x̄. La funzione 1/v(x) risulta non integrabile su (x0 , x].
N.B. 1.2.4 Quanto visto non permette di indurre che la soluzione sia definita per ogni t ∈ R, e di conseguenza
che G t , per un arbitrario fissato t, abbia come dominio l’intera retta. È però palese dalla (2.21) la proprietà di
gruppo (locale) della famiglia degli evolutori della (2.20). ♦
N.B. 1.2.5 Se il campo è regolare, e quindi c’è l’unicità, gli equilibri sono vere e proprie barriere che separano il
piano delle fasi ampliato e verso cui le soluzioni tendono asintoticamente per |t| → ∞. Inoltre è chiaro che fra un
equilibrio e l’altro la soluzione è monotona. ♦
x
(n +1)¼
(n {1)¼
#
Diverso è il caso degli asintoti “verticali” (cioè paralleli all’asse x) che sono invece barriere, rispetto all’ascissa
temporale, per la validità della soluzione: la soluzione è locale , senza necessariamente contraddire l’unicità. Essi
provengono da singolarità del campo, o da campi troppo rapidi , e se il campo è autonomo possono dipendere dalle
condizioni iniziali.
Esempio 1.2.7 ẋ = x2 , t0 , x0 ∈ R, x0 ̸= 0 .
) *−1
1 1 1
Risulta t − t0 = − + , x = − t − t0 − , e si hanno due rami distinti, divisi da una singolarità che
x x0 x0
dipende dalle condizioni iniziali : se x0 > 0 la soluzione esiste ed è unica, compositiva e stazionaria, ma solo per
1 1
tempi t < + t0 , se invece x0 < 0 , la soluzione ha tali proprietà solo per t > + t0 .
x0 x0
x00
x0 t{t0
0
1=x00 1=x0 x00 1=x0 1=x0
x0
x2 − 1
Esempio 1.2.8 ẋ = , t0 , x0 ∈ R.
2
- x - x ' '
2 1 1 dξ dξ ' x0 − 1 '
Siccome = − , si ha t − t0 = − '
e quindi posto d := ' ' e
x2 − 1 x−1 x+1 x0 ξ − 1 x0 ξ + 1 x0 + 1 '
chiamati J− ed J+ rispettivamente gli intervalli (−∞, t0 − ln c) ed (t0 − ln c, +∞), si ricava
x−1 1 + c exp(t − t0 )
x0 > +1 ⇒ = +ce(t−t0 ) ⇒ x= , ∀t ∈ J−
x+1 1 − c exp(t − t0 )
x−1 1 + c exp(t − t0 )
x0 < −1 ⇒ = +ce(t−t0 ) ⇒ x= , ∀t ∈ J+
x+1 1 − c exp(t − t0 )
x−1 1 − c exp(t − t0 )
x0 ∈ (−1, 1) ⇒ = −ce(t−t0 ) ⇒ x= , ∀t ∈ R
x+1 1 + c exp(t − t0 )
x0 = +1 ⇒ ⇒ x = +1, ∀t ∈ R
x0 = −1 ⇒ ⇒ x = −1, ∀t ∈ R
1
0.5
-3 -2 -1 1 2 3
-0.5
-1
M. Lo Schiavo
1.3. I teoremi fondamentali 17
e si vede che anche qui, fissato comunque t − t0 , il valore x0 può essere scelto arbitrariamente in R, che anche
questa famiglia di applicazioni di avanzamento verifica la proprietà gruppale, e che è costituita da diffeomorfismi.
In effetti, fissati t e t0 , l’operatore G t−t0 :
È chiaro che il problema non si semplifichi se l’equazione non è scalare, o se non è autonoma: ẋ = v(t, x),
anche con x ∈ R. Già per questa equazione infatti non esistono metodi generali di risoluzione. Anche per essa
la soluzione:
Sussistono tuttavia i seguenti basilari teoremi, tutti “locali” intorno alle assegnate condizioni iniziali: (t0 , x0 ) ∈
! : t ∈ R &→ x = x
R × Rn , e relativi alla più generale equazione differenziale ordinaria nell’incognita funzione x !(t) ∈
Rn
ẋ = v(t, x) , !(t0 ) = x0 ∈ Rn .
x (3.23)
La loro validità locale implica che essi sussistano limitatamente a ciascuna carta anche quando lo spazio delle fasi
è, più in generale, una varietà differenziabile M di dimensione finita n (vedi oltre) sulla quale sia stato scelto un
sistema di coordinate reali. In tutti i seguenti enunciati si indicherà con D un Dominio di uno spazio reale, e cioè
un insieme aperto (nella topologia indotta dalla metrica euclidea), connesso, non vuoto.
Teorema 1.3.1 (Peano) (si veda: [Hale p.14]) Sia D ⊂ R × Rn un dominio in R1+n . Se v ∈ C 0 (D), e (t0 , x0 )
è dato comunque in D , esiste almeno una soluzione della (3.23) passante per x0 nell’istante t0 .
Dimostrazione (cenno) Applicazione del teorema di punto fisso di Schauder su un sottoinsieme convesso compatto di uno
spazio di Banach. Alternativamente [Michel p.46 opp. Coddington teor.1.2] si può usare il metodo di Newton-Eulero ed il teorema di
Ascoli Arzelà.
In ogni caso il problema differenziale dato viene modificato in un equivalente problema integrale:
- t - t
d
! (t) − x0 =
x ! (τ ) dτ =
x ! (τ )) dτ .
v(τ, x (3.24)
t0 dt t0
Per esso si definisce, su un opportuno sottoinsieme dello spazio C 0 (N (t0 ), Rn ) , l’operatore S+ dato dalla
- t
S+ [!
x](t, t0 , x0 ) := x0 + ! (τ )) dτ ,
v(τ, x (3.25)
t0
e, nel primo dei due procedimenti su accennati, si studiano le condizioni per le quali esso risulta ammettere un punto unito: φ, e cioè
un punto tale che S+ [φ] = φ.
Nel secondo dei due procedimenti detti, ci si limita a costruire la famiglia delle
con |tj+1 − tj | ≤ δm ove {δm }m=1,2,... è una successione di numeri reali convenientemente piccoli rispetto alla rapidità di crescita
m
del campo |v| e tali che (δ1 , δ2 , . . . , δm , . . .) −→ 0 . La famiglia delle Spezzate di Eulero è precompatta in quanto equicontinua
∞7 8
uniformemente limitata come sottoinsieme di C [t0 , t0 + a′ ], R : ∥·∥∞ . Esiste pertanto in C almeno un punto di accumulazione di
tali spezzate; esso sarà tale da verificare la (3.24) punto per punto. (Certo sarà soluzione. Se però questa non è unica, non è detto che
queste siano tutte ottenibili in questo modo. Per esempio per la ẋ = |x|1/2 con x0 = 0 , il metodo fornisce solo la soluzione nulla). "
N.B. 1.3.2 Il teorema è locale nel senso che scelto un qualsiasi (t0 , x0 ) ∈ D e fissato comunque un compatto
Γ ⊂ D del quale (t0 , x0 ) è punto interno, si può garantire l’esistenza della soluzione uscente da (t0 , x0 ) solo per
tempi t ∈ J := Ba′ (t0 ) con a′ che dipende: dall’ampiezza del compatto Γ, dalla posizione di (t0 , x0 ) all’interno di
Γ, e da un parametro a(v) ∈ R che a sua volta dipende dalla ) rapidità di crescita
* del campo nell’intorno di (t0 , x);
′ ∆b(Γ) 1−ε
per esempio nel successivo Teorema 1.3.1 è a (v) ≤ min , , con ε > 0 e ∆b := b − b′ che
maxΓ |v| kLip (v)
dipende anch’essa da Γ e dalla posizione di (t0 , x0 ) in Γ. ♦
Nel seguito si continuerà ad indicare con D ⊂ R × Rn l’insieme aperto di regolarità del campo.
Prolungabilità := Fissato (t0 , x0 ) ∈ D , una soluzione φ = φ(t, t0 , x0 ) ∈ Rn dell’equazione (3.23), definita su
[t0 , b] si dice prolungabile (come soluzione, non come funzione) nella φ+ = φ+ (t, t0 , x0 ) ∈ Rn definita su [t0 , b+ ]
quando accade che φ+ è soluzione della equazione sull’intervallo [t0 , b+ ], con b+ > b , e risulta φ+ (t) = φ(t), per
ogni t in [t0 , b]. Analoghe considerazioni valgono naturalmente per l’intervallo di definizione precedente l’istante
iniziale: [a, t0 ].
Quando il procedimento di prolungabilità non è ulteriormente possibile, l’estremo superiore dei b e l’estremo
inferiore degli a, che verranno indicati con m1 , ed m2 rispettivamente, individuano il:
Massimo Intervallo JM ≡ (m1 , m2 ) di esistenza contenente t0 . Esso è senz’altro aperto in quanto, per il teorema
di esistenza, il suo “sup”, (per esempio), non può essere un “max” visto che se lo fosse la soluzione esisterebbe in
tutto un suo intorno (aperto).
Teorema 1.3.1 (di prolungabilità) (si vedano: [Hartman p.13], [Michel II.3.1], [Coddington p.13]) Con le stesse
notazioni del Teorema 1.3.1, sia v ∈ C 0 (D) e limitata in un aperto U ⊂ D , e sia φ : t &→ φ(t, t0 , x0 ) una
soluzione uscente da (t0 , x0 ) ∈ U e definita su un qualche intervallo (a, b) =: J ⊂ JM , con t0 ∈ J , e tale che
J × φ(J) ⊂ U . Allora esistono i limiti: φ(a+ ) e φ(b− ). Inoltre, posto (ad esempio) xb := φ(b− ), se il punto
(b, xb ) appartiene a D (ne è interno) allora φ può essere definita su (a, b], e quindi essere prolungata oltre b.
M. Lo Schiavo
1.3. I teoremi fondamentali 19
Dimostrazione Sia λ := sup(t,x)∈U |v(t, x)| e sia {tn }n∈N una successione monotona: a < tn ↗ b . Vale la
maggiorazione - th
|φ(th ) − φ(tk )| = | v(t, φ(t))dt| ≤ λ|th − tk | .
tk
Pertanto {φ(tn )}n∈N è di Cauchy, e ciò assicura l’esistenza di xb := φ(b− ) in Rn . Poi, se (b, xb ) è in U si
definisce, per ε > 0 e t ∈ [t0 , b + ε),
(
& φ(t, t0 , x0 ) per t ∈ [t0 , b)
φ(t, t0 , x0 ) :=
una soluzione per (b, xb ) per t ∈ [b, b + ε).
.
& = t v(τ, φ(τ
Essa è soluzione su tutto [t0 , b + ε) poiché per costruzione è φ(t) & ))dτ per ogni t ∈ [t0 , b + ε). In più,
t0
& &
la sua continuità implica quella di v(t, φ(t)) e quindi quella della derivata d φ(t)/dt. "
Si indichi con la notazione: |t| + |φ| → ∞ l’eventualità che φ sia definita per |t| comunque grandi, oppure che
il vettore x := φ(t, t0 , x0 ) assuma lunghezza comunque grande.
Corollario 1.3.1 Sia v ∈ C 0 (D) . Allora
t
o è |t| + |φ| → ∞, oppure (t, φ(t, t0 , x0 )) −→∂D . La prima eventualità accade se ∂D = ∅ .
∂JM
Dimostrazione Se non si verifica la prima eventualità, e detto per esempio m2 < ∞ l’estremo destro di JM ,
◦
si supponga che sia (m2 , φ(m− −
2 )) ∈D ≡ D ̸= [D]. Certo esisterebbe un U := N (m2 , φ(m2 )) ⊂ D sul quale il
campo è limitato, contraddicendo la massimalità di m2 . "
Ci si ricorda di tutto ciò affermando che: φ può essere prolungata fino alla frontiera di un qualunque compatto K
che, contenente (t0 , x0 ), sia contenuto in D ; ove:
φ è prolungabile fino ad un insieme F ⊂ R × M := la soluzione φ della (3.23) è definita su [t0 , τ ] e si ha che
(τ, φ(τ, t0 , x0 )) ∈ F .
Per discutere l’unicità delle soluzioni in corrispondenza a ciascun dato iniziale risultano utili le seguenti consi-
derazioni.
Condizioni di Lipschitz := Quando, per ciascun compatto Γ ⊂ D ⊆ R1+n esiste kΓ ∈ R+ tale che |v(t, x) −
v(t, y)| ≤ kΓ |x−y| per ogni (t, x), (t, y) ∈ Γ, allora il campo v si dice localmente Lipschitz su D , o “loc.Lip (D )”,
relativamente a x. v si dice Lipschitz su D , o “uniformemente Lipschitz continua su D ”, (relativamente a x)
se il numero k è unico su tutto D .
N.B. 1.3.3
v ∈ C 1 (D) ⇒ v ∈ loc.Lip (D) relativamente ad x.
v ∈ Lip(D) ⇒ v uniformemente continua rispetto ad x, e per ogni t. ♦
Teorema 1.3.1 (di unicità) (si veda: [Michel Teor. 4.2]] Con le stesse notazioni del Teorema 1.3.1, sia v ∈ C 0 (D).
Se v è anche loc.Lip (D) allora la soluzione φ : t &→ φ(t, t0 , x0 ) ∈ Rn dell’equazione ẋ = v(t, x) uscente da un
(arbitrario) dato iniziale (t0 , x0 ) ∈ D è unica.
"
Più precisamente: se una soluzione t &→ φ(t) := φ(t, t0 , x0 ) è definita su [a, b] ∋ t0 allora la soluzione t &→
φ′ (t) := φ(t, t′0 , x′0 ) uscente da un (t′0 , x′0 ) scelto comunque in un conveniente W ′ := (a, b) × Bη (x′ ) ⊂ D , ove si è
chiamato x′ := φ(t′0 , t0 , x0 ), esiste almeno su (a, b) ed è tale che: dato comunque ε > 0 , esiste δ(ε, a, b; t′ , t′0 , x′0 )
per il quale
|x′0 − x′′0 | + |t′0 − t′′0 | + |t′ − t′′ | < δ implica |φ(t′ , t′0 , x′0 ) − φ(t′′ , t′′0 , x′′0 )| < ε .
x
Á(t )
Á (t )
(t0,x0 )
(t0,x )
8
>
< (t0,x0 )
´1 >:
K
t
a t0 t0 b
Dimostrazione
' Chiamata ancora, per brevità, φ(t) := φ(t, t0 , x0 ), sia η1 > 0 tale che l’insieme compatto K :=
{(t, x) ' t ∈ [a, b], |x − φ(t)| ≤ η1 } sia in D , e si ponga η := η1 exp(−kK (b − a)). Per (t′0 , x′0 ) ∈ (a, b) × Bη (x′ )
il teorema di esistenza assicura che φ′ (t) := φ(t, t′0 , x′0 ) esiste per t prossimo a t′0 e, fintanto che esiste, verifica la
- t
φ(t, t′0 , x′0 ) = x′0 + v(τ, φ(τ, t′0 , x′0 )) dτ .
t′0
e quindi dal Lemma di Gronwall segue che, finché esiste, φ(t, t′0 , x′0 ) verifica la
|φ(t, t′0 , x′0 ) − φ(t, t0 , x0 )| ≤ |x′0 − x′ | exp (kK |t − t′0 |) < η exp (kK (b − a)) = η1 .
Il Teorema di prolungabilità assicura allora che φ(t, t′0 , x′0 ) esiste per ogni t ∈ [a, b].
Per provare la continuità si può usare o il seguente procedimento oppure, vedi oltre, far ricorso al Teorema di
Ascoli-Arzelà.
Primo modo (si veda: [Coddington Teor. I 7.1]).
Si definisca la successione di funzioni:
⎧ ′
⎨ φ0 (t) :=
⎪ φ0 (t, t′0 , x′0 ) := x′0 + φ(t) − x′
- t
(3.26)
⎪ φ′j+1 (t) := φj+1 (t, t′0 , x′0 ) := x′0 +
⎩ v(τ, φ′j (τ )) dτ
t′0
M. Lo Schiavo
1.3. I teoremi fondamentali 21
Per (t′0 , x′0 ) ∈' W ′ si ha |φ′0 (t) − φ(t)| = |x'′0 − x′ |' < η e quindi per t' ∈ (a, b) si ha (t, φ′0 (t)) ∈ K . Inoltre
'. t ' '. t '
|φ′1 (t) − φ′0 (t)| = ' t′ v(τ, φ′0 (τ )) − v(τ, φ(τ ))dτ ' ≤ kK ' t′ φ′0 (τ ) − φ(τ )dτ ' = kK |t′0 − t| |x′0 − x′ | e questo implica
0 0
|φ′1 (t) − φ(t)| ≤ (1 + kK |t′0 − t|)|x′0 − x′ | < exp(kK |t′0 − t|) |x′0 − x′ |, e la (t, φ′ (t)) ∈ K .
Induttivamente si ricava
⎧ j+1 ′
⎪ j+1
⎨ |φ′ (t) − φ′ (t)| ≤ kK |t0 − t| |x′0 − x′ |
j+1 j
(j + 1)! (3.27)
⎪
⎩
|φ′j+1 (t) − φ(t)| < exp(kK |t′0 − t|) |x′0 − x′ | < η1 ,
Secondo modo
È istruttivo qui riportare anche il secondo dei due procedimenti cui si è accennato per la dimostrazione del
teorema di continuità, in quanto esso fa uso del seguente importante
allora esiste una sottosuccessione {φmj }j∈N ed una soluzione φ del problema
ẋ = v(t, x) , φ(t0 , t0 , x0 ) = x0
Se, inoltre, la soluzione φ è unica allora la successione {φm }m∈N ammette φ come limite uniforme.
Dimostrazione Applicazione del Teorema di Ascoli-Arzelà dopo aver mostrato che {φm }m∈N è equicontinua
uniformemente limitata. "
Corollario 1.3.2 (si veda: [Michel Cor. II.5.4]) Con la stessa notazione del Teorema 1.3.1, sia dato il problema
ẋ = v(t, x; ε) , φ(t0 , t0 , x0 ; ε) = x0
con v ∈ C 0 (D × Dε ) ove Dε ⊂ Rℓ aperto, e si 0 supponga che, per (t0 , x01) ∈ D, ε ∈ Dε , esso abbia soluzione unica
φ(t, t0 , x0 ; ε) con intervallo massimale J := m1 (t0 , x0 ; ε), m2 (t0 , x0 ; ε) .
'
Detto W := {(t, t0 , x0 ; ε) ' (t0 , x0 ) ∈ D, ε ∈ Dε , t ∈ J} allora φ è continua su W , m1 (t0 , x0 ; ε) è
semicontinuo superiormente e m2 (t0 , x0 ; ε) semicontinuo inferiormente in (t0 , x0 ; ε) su D × Dε .
Memento 1.3.1
lim inf xj := sup inf xk o anche lim inf f (y) := lim sup f (y) .
j→∞ k∈N j>k y→x ε→0 y∈B (x)
ε
Semicontinua inferiormente su D := una funzione f (x) tale che per ogni y ∈ D sia: f (y) ≤ lim inf x→y f (x);
ovvero quando dato ε esiste Nε (x) tale che per ogni y ∈ Nε (x) si ha f (y) > f (x)−ε ; o anche quando f −1 (α, +∞)
è aperto per ogni α ∈ R.
d
x = ν(τ, x) := v(τ + t0 , x; ε) , ψ(0, 0, x0 ; ε) = x0 .
dτ
m
Sia {(tm , t0,m , x0,m ; εm ) ∈ W }m∈N −→ (t, t0 , x0 ; ε). Il teorema precedente sussiste per la successione dei campi
∞
νm (τ, x) := v(τ + t0,m , x; εm ), ed assicura che
m
φ(τ + t0,m , t0,m , x0,m ; εm ) −→ φ(τ + t0 , t0 , x0 ; ε0 )
∞
uniformemente sui sottoinsiemi compatti di (m1 (t0 , x0 ; ε) − t0 , m2 (t0 , x0 ; ε) − t0 ). In particolare, quindi, si può
scegliere τ + t0,m = tm per ciascun m, e dedurne che la convergenza per tm → t è uniforme in m. In definitiva,
tramite la
|φ(tm , t0,m , x0,m ; εm ) −φ(t, t0 , x0 ; ε0 )| ≤
|φ(tm , t0,m , x0,m ; εm ) − φ(tm , t0 , x0 ; ε0 )| + |φ(tm , t0 , x0 ; ε0 ) − φ(t, t0 , x0 ; ε0 )| ,
m
si conclude che φ(tm , t0,m , x0,m ; εm ) −→ φ(t, t0 , x0 ; ε0 ).
0 ∞ 1
Per la (i) inoltre si ha: lim inf m→∞ m1 (t0,m , x0,m ; εm ), m2 (t0,m , x0,m ; εm ) ⊃ J0 . "
Sussiste infine anche la seguente estensione agli ordini superiori, (si veda il Teorema 1.3.1 per un enunciato
meno forte):
Teorema 1.3.3 (si veda: [Arnold §32.9], opp. [Lefschetz p.40]) Sia v(t, x, ε) ∈ C r≥1 (D×Dε ) con D ⊆ R1+n aper-
to, e Dε ⊆ Rm aperto. Allora la soluzione φ = φ(t, t0 , x0 ; ε), è di classe C r rispetto a (t0 , x0 , ε) ∈ D × Dε , e
C r+1 rispetto a t, nel suo dominio di definizione.
Ne segue che v ∈ C 1 (D) determina una ed una sola soluzione uscente da una qualsiasi coppia (t′0 , x′0 ) ∈
N (t0 , x0 ); tale soluzione è definita in tutto un intorno N (t0 , x0 ) delle condizioni iniziali ed è ivi differenziabile
rispetto a (t, t′0 , x′0 ). Risulta quindi determinata una famiglia locale di applicazioni d’avanzamento in N (t0 , x0 ).
Quanto segue, enunciato in Rn , vale anche in Cn pur di considerare accoppiate le equazioni per le parti ℜe ed
ℑm; e costituisce un parziale riassunto di quanto detto, secondo un’alternativa linea di dimostrazione: Cauchy-
Picard. In questo caso, esistenza ed unicità vengono provate simultaneamente, e sotto la più stretta ipotesi:
v ∈ C 1 (D), (si veda: [Arnold, cap.IV]).
Si consideri dapprima uno spazio metrico (X, d) ed una mappa S : X → X.
S è una contrazione := esiste una costante reale non negativa k , strettamente minore di uno, tale che:
x, y ∈ X ⇒ d(Sx, Sy) ≤ k d(x, y).
Si osservi che per poter parlare di contrazioni è fondamentale il fatto che il dominio di S e l’immagine di S
siano sottoinsiemi di uno stesso spazio metrico.
Una contrazione è un caso particolare di:
& Lipschitz := esiste k > 0 : per ogni x, y ∈ X si ha:
& d)
S : (X, d) → (X,
&
d(Sx, Sy) ≤ k d(x, y) .
Teorema 1.3.4 (delle contrazioni, o C.M.P.) Sia (X, d) uno spazio metrico completo ed S : X −→ X una
contrazione. Esiste, ed è unico, un punto x̄ ∈ X che è punto unito per S , e cioè: S x̄ = x̄ .
n
Esso inoltre è anche tale che preso comunque x0 ∈ X si ha: S n x0 −→ x̄ .
∞
M. Lo Schiavo
1.3. I teoremi fondamentali 23
Dimostrazione
Unicità: Se fosse x′ = Sx′ e simultaneamente x′′ = Sx′′ , con x′ ̸= x′′ , si avrebbe: d(x′ , x′′ ) = d(Sx′ , Sx′′ ) <
d(x′ , x′′ ), e ciò non è lecito.
Esistenza: Sia xn := S n x0 . Risulta: d(xn+1 , xn ) ≤ k n d(x1 , x0 ).
Pertanto, se m > n si ha
d(xm , xn ) ≤ d(xm , xm−1 ) + d(xm−1 , xm−2 ) + · · · + d(xn+1 , xn )
≤ (k m−1 + k m−2 + · · · + k n )d(x1 , x0 )
(1 − k m−n ) kn
= kn d(x1 , x0 ) ≤ d(x1 , x0 ) .
(1 − k) 1−k
Ne segue che la successione {S n x0 }n∈N è di Cauchy, e la completezza dello spazio X assicura l’esistenza in X di
un punto limite x̄ := lim xn . Tale punto è unito per S , infatti dalle definizioni di limite e di operatore contrattivo
segue che: x̄ è punto limite anche della successione {xm }m∈N con m = n + 1 la quale, d’altra parte, ha come limite
anche il punto S x̄ dato che è
d(xm , S x̄) = d(xn+1 , S x̄) = d(Sxn , S x̄) ≤ k d(xn , x̄) .
L’unicità del limite implica necessariamente la S x̄ = x̄ . "
kn
N.B. 1.3.4 Si è anche valutato l’errore: d(x̄, xn ) ≤ d(x1 , x0 ).
1−k
S x
S2 x
3
S x
S 2 x Sx x x S 2 x Sx
♦
(si ricordi che con la notazione [A] si intende la chiusura dell’insieme A) e si supponga che a e b siano scelti in
modo tale che l’insieme (compatto)
; ' <
'
Γ := [Ba (t0 )] × [Bb (x0 )] := (t, x) ∈ R1+n ' t ∈ [Ba (t0 )] , x0 ∈ [Bb (x0 )]
risulti appartenere al dominio D . Siano poi
λ := max |v(t, x)|, kΓ := max ∥∂x v(t, x)∥ ,
(t,x)∈Γ (t,x)∈Γ
N.B. 1.3.5 a e b dipendono dalla posizione di (t0 , x0 ) ∈ D . I valori a′ , b′ sono tali che a′ ≤ a, b′ ≤
b, b′ + λa′ ≤ b . Per l’unicità occorrerà che a′ < 1/kΓ ; b′ è l’ultimo ad essere fissato tale che b′ + λa′ ≤ b . ♦
Qualora esista, la soluzione φ dell’equazione assegnata: ẋ = v(t, x), che esce dal dato (t0 , x), è una funzione
φ : t &→ φ(t, t0 , x) =: x + h(t, x) , h(t0 , x) = 0
che (equivalentemente) risolve il problema integrale
- t
φ(t, t0 , x) = x + v(τ, φ(τ, t0 , x)) dτ =: S+ [φ](t, t0 , x) .
t0
Essa quindi individua una curva integrale (t, φ(t, t0 , x)) =: (t, x + h(t, x)) che non potrà essere esterna a Kx finché
t < a′ , giacché in tutto Γ accade che |v| < λ.
x0+b
¡ Kx0+b¶ ¸
x0+b¶
¡¶
Kx x0 h
Á
x
x0{b¶ Kx0{b¶
x0{b
t0{a t0{a¶ t0 t0+a¶ t0+a
Sia Γ′ := [Ba′ (t0 )] × [Bb′ (x0 )], con b′ fissato come detto ed a′ ancora da specificare, e si definisca lo spazio
funzionale ; <
A(a′ , b′ ) := h ∈ C 0 (Γ′ , Rn ) tali che |h(t, x)| ≤ λ|t − t0 |, , ∀ (t, x) ∈ Γ′
o, equivalentemente, lo spazio A+ (a′ , b′ ) delle funzioni φ ∈ C 0 (Γ′ , Rn ) tali che |φ(t, x)−x| ≤ λ|t−t0 |, ∀ (t, x) ∈
Γ′ . Lo spazio A(a′ , b′ ) contiene certamente la funzione costante h : (t, x) &→ h(t, x) = 0 . Si doti tale insieme
di funzioni della norma: ? ? ' '
? ? ' '
?h1 − h2 ? := max ′ 'h1 (t, x) − h2 (t, x)' .
∞ (t,x)∈Γ
N.B. 1.3.6 Siccome Γ′ è compatto il valore che si ottiene è un massimo, cioè è un numero reale che viene assunto
dalla funzione a secondo membro. In questa norma la convergenza implica l’uniforme convergenza delle funzioni
appartenenti a C(Γ′ , Rn ). Pertanto, se una successione {hn }n=1,2,... di funzioni in A ammette limite in questa
norma, si può dedurre che la funzione limite non solo appartiene a C (Γ′ , Rn ) , ma appartiene addirittura ad A,
giacché la condizione sulla massima crescita della funzione continua a sussistere anche nel limite. Si ha cioè che
(A; ∥·∥∞ ) è un sottoinsieme chiuso, convesso, di uno spazio di Banach ed è pertanto esso stesso uno spazio di
Banach e, come tale, completo rispetto alla norma ∥·∥∞ . Analoghe affermazioni sussistono per lo spazio A+ . ♦
Proposizione 1.3.1 Per a′ sufficientemente piccolo l’operatore S : A → A è una contrazione su (A, ∥·∥∞ ).
il che implica che la funzione S[h] appartiene ad A; (si osservi infatti che x è definitivamente fissato in
Bb′ (x0 ), e che t varia in Ba′ (t0 ); quindi la S[h] verifica tutte le condizioni per la sua appartenenza ad A);
M. Lo Schiavo
1.3. I teoremi fondamentali 25
|v(τ, x + h1 (τ, x)) − v(τ, x + h2 (τ, x))| ≤ kΓ |h1 (τ, x) − h2 (τ, x)|
≤ kΓ ∥h1 − h2 ∥∞ ,
da cui segue
|(S[h1 ] − S[h2 ]) (t, x)| ≤ kΓ |t − t0 | ∥h1 − h2 ∥∞ ≤ kΓ a′ ∥h1 − h2 ∥∞ .
Posto allora kΓ a′ =: k si ottiene
Pertanto, purché sia k < 1, si ha che S è una contrazione su (A, ∥·∥∞ ) . Equivalentemente: S+ è
contrattivo su A+ . "
Scelto x prossimo a x0 , per esempio |x − x0 | < b′ , e se a′ verifica la limitazione kΓ a′ < 1 , ne segue che in A
esiste ed è unico il punto unito di S :
- t
h̄ = S[h̄] ≡ v(τ, x + h̄(τ, x))dτ ,
t0
si riconosce cosı̀ che, per t0 ed x ∈ Bb′ (x0 ) fissati e per t ∈ Ba′ (t0 ), la funzione t &→ φ(t) := φ(t, t0 , x) verifica su
Ba′ (t0 ) l’identità
φ̇(t) = v(t, φ(t)) , con φ(t0 ) = x .
Si noti anche che
φ = S+ [φ] implica che φ = lim φn ,
n→∞
ove si è posto
φ0 (t, t0 , x) := x, e, per n = 0, 1, . . .
- t
n
φn+1 (t, t0 , x) := x + v(τ, φn (τ, t0 , x)) dτ = S+ [φ0 ] .
t0
Lemma 1.3.1 Sia L(Rn ) lo spazio degli operatori lineari reali su Rn , sia T : t &→ T (t) ∈ L(Rn ), con T ∈ C 1 (I ⊆
R), e sia T (t) la matrice che una data base assegna all’operatore T (t). L’equazione
ammette soluzione Ψ(·, t0 , 1I ) : JM ⊃ I → L(Rn ), ed in tal caso esse sono tali che x0 è l’unico vettore in Rn
tale che φ(t, t0 , x0 ) = Ψ(t, t0 , 1I )x0 .
Dimostrazione Indicata brevemente con Ψ = Ψ(t, t0 ) la detta soluzione di (3.29), dato comunque x0 si ha che
Ψ̇(t, t0 )x0 = T (t)Ψ(t, t0 )x0 , e pertanto φ(t, t0 , x0 ) := Ψ(t, t0 )x0 è soluzione di (3.28). D’altra parte, tale x0 è
ovviamente unico data l’unicità della soluzione di (3.28) ed il fatto che Ψ(t0 , t0 ) = 1I .
Per quanto riguarda il viceversa, si dimostrerà (si veda: Cap.II) che la famiglia delle soluzioni di (3.28) è dotata
della proprietà di essere esprimibile, mediante una Ψ & t0 )x0 , con x0
& : JM → L(Rn ), secondo la φ(t, t0 , x0 ) = Ψ(t,
il vettore (arbitrario) che ne individua la condizione iniziale. Pertanto deve necessariamente essere Ψ & = Ψ. "
Nel seguito, all’occorrenza, i ruoli di (3.28) e di (3.29) verranno scambiati senza ulteriori commenti.
Teorema 1.3.1 (di regolarità) Sotto le stesse ipotesi del Teorema 1.3.1, se il campo è differenziabile due volte con
continuità, la soluzione, localmente, è differenziabile con continuità.
Come si è detto, questo enunciato non esprime il migliore risultato ottenibile, (si veda: Arnold §32.6), ma è
relativamente facile da dimostrare.
) *
2 1 ∂v .. .. ∂v
Dimostrazione Se v è in C (D) allora ∂x v è in C (D), ove si è posto: ∂x v =: . · · · . n ; per
∂x1 ∂x
cui, per il Lemma 1.3.1, il sistema
(
ẋ = v(t, x) (t, x(t)) ∈ D
(3.30)
Ẋ = ∂x v(t, x)X X : t &→ X(t) ∈ L(Rn ) ,
è anch’esso un sistema come nel Teorema 1.3.1. Si noti anche che le due equazioni sono accoppiate: la seconda
non va considerata
) * come indipendente dalla prima, bensı̀ come quella relativa alla seconda componente di un unico
x
vettore: . Posto allora φ0 := x e ∂x φ0 ≡ Ψ0 = 1I , si riconosce che il sistema delle iterate successive
X
del problema (3.30)
⎧ - t
⎪
⎪
⎪ φ
⎨ n+1 (t, t 0 , x) := x + v(τ, φn (τ, t0 , x))dτ
t0
- t (3.31)
⎪
⎪
⎪
⎩ Ψn+1 (t, t0 , x) := 1I + ∂x v(τ, t0 , φn (τ, t0 , x))Ψn (τ, t0 , x)dτ ,
t0
individua due successioni delle quali, come è facile riconoscere, la seconda ha gli elementi ordinatamente uguali alle
derivate (rispetto alla variabile x) degli elementi della prima: ∂x φn = Ψn . Per il Teorema 1.3.1, d’altra parte, tali
successioni convergono, simultaneamente ed entrambe uniformemente, la prima verso la soluzione φ = φ(t, t0 , x)
dell’equazione ẋ = v(t, x), come già detto precedentemente, e la seconda verso la soluzione Ψ = Ψ(t, t0 ; x) della
sua corrispondente
Equazione Variazionale := Ẋ = ∂x v(t, φ(t, x))X, X(t0 , t0 ; x) = 1I .
Inoltre, ricordando che la seconda delle (3.31) uguaglia la derivata (rispetto alla variabile x) della prima, si
osserva che Ψ è limite uniforme delle derivate Ψn = ∂x φn . Quindi, il limite φ delle φn è senz’altro derivabile
ed ha come derivata il limite Ψ delle derivate: Ψ(t, t0 , x) ≡ ∂x φ(t, t0 , x). In definitiva:
la derivata ∂x φ di quella funzione φ = φ(t, t0 , x) che vale x all’istante t0 e che come funzione della t è
soluzione dell’equazione ẋ = v(t, x), esiste, è continua, ed è la soluzione uscente dal dato iniziale: Ψ(t0 ) = 1I
dell’equazione Ẋ = ∂x v(t, φ(t, t0 , x))X variazionale della ẋ = v(t, x) nel punto φ = φ(t, t0 , x).
Infine, siccome la convergenza è uniforme su [Ba′ (t0 )] × [Bb′ (x)], la derivata ∂x φ è anche tale che
uniformemente rispetto a t ∈ [Ba′ (t0 )] (questo ultimo fatto, ancora più esplicitamente rimarcato nel Teorema 1.3.2,
è di importanza fondamentale per tutto ciò che riguarda i procedimenti di calcolo approssimato). "
N.B. 1.3.7 Tutto ciò è valido in insiemi limitati. In particolare a′ , se anche può a volte essere arbitrario, deve
comunque essere fissato e finito. ♦
M. Lo Schiavo
1.4. Esempi e casi notevoli 27
N.B. 1.3.8 Si osservi che la seconda delle (3.31) individua la successione delle derivate delle φn e converge verso
la derivata della φ(t, t0 , x) soluzione della ẋ = v(t, x) solo se quest’ultima viene considerata accoppiata con
la Ẋ = ∂x v(t, x)X . In caso contrario, la soluzione di Ẋ = ∂x v(t, x)X potrebbe non coincidere con quella di
Ẋ = ∂x v(t, φ(t, t0 , x))X , e la successione
- t
Ψn+1 (t, t0 , x) = 1I + ∂x v(τ, t0 , φn (τ, t0 , x))Ψn (τ, t0 , x)dτ
t0
M0 V M
(t0;x(t)) (t;x(t))
Get0t
G t0t
'
V0
t0 t
(t0;x0) (t;x0)
Gb t0t
Infatti: posto t − t0 := ψ1 (x) − ψ1 (x0 ) si ha che ne esiste l’inversa x(t) = ψ1−1 (t − t0 + ψ1 (x0 )) in N (y0 , x0 ), e
questa è soluzione di ẋ = v x (x) , x(t0 ) = x0 ; (giacché v x (x0 ) ̸= 0 ). Analogamente esiste unica la y(t) =
−1
ψ2 (t−t0 +ψ2 (y0 )) tale che: ψ2 (y(t)) = t−t0 +ψ2 (y0 ). Pertanto, definita ψ3 (x, x0 , y0 ) := ψ1 (x)−ψ1 (x0 )+ψ2 (y0 ),
la soluzione del problema è data dalla: y(x) := ψ2−1 (ψ3 (x, x0 , y0 )). Essa infatti ha per derivata
'
dy(x) 7 −1 8′ dψ2−1 (η) '' dψ1 (x)
= ψ2 (x) = =
dx dη 'η=ψ3 (x,x0 ,y0 ) dx
@ ' A−1
dψ2 '' 1 v y (y(x))
= ' x
=
dy y=ψ−1 (ψ3 (x,x0 ,y0 )) v (x) v x (x)
2
-1 +1
t
1
Esempio 1.4.2 ẋ = t0 , x0 ∈ R, t0 ̸= 0 .
t
Fissato comunque τ > 0 , non possono esistere soluzioni in J := (−τ, τ ), perché ln |τ | + c è discontinua in zero.
L’equazione ha però soluzioni date da
x0
t
M. Lo Schiavo
1.4. Esempi e casi notevoli 29
x
Esempio 1.4.3 ẋ = t0 , x0 ∈ R, t0 ̸= 0 .
t
Per t > 0 e per t < 0 le soluzioni sono date da x !(t) = c0 t con c0 := x0 /t0 . Tuttavia nessuna di esse passa
per la retta t = 0 che rappresenta la frontiera del dominio D di regolarità del campo. Quindi anche se (t0 , x0 ) e
(t′0 , x′0 ) sono tali da avere lo stesso rapporto, qualora fosse t0 t′0 < 0 le due semirette non fanno parte di una stessa
soluzione, pur facendo parte di una stessa retta.
x
Ciò è per dire che quando v non è regolare, anche se la soluzione “sembra” regolare essa va comunque considerata
come formata dalle varie parti dalle quali risulta composta e che separatamente sono soluzioni della equazione su
diversi domı́ni.
Si noti che il teorema di esistenza non dice che la soluzione è certamente singolare su ∂D , dice solo che non lo
◦
è in D .
Esempio 1.4.4 t2 ẋ + 2tx − 4t3 = 0 , (t0 , x0 ) = (1, 1).
2 4
L’equazione implica t x − t = c, e le condizioni iniziali danno c = 0 . La soluzione pertanto è contenuta in una
funzione regolare su tutto R pur non essendo, la soluzione stessa, definita su tutto R. Infatti essa è comunque
composta da due rami disgiunti su t < 0 e t > 0 . Ciò è immediato se si pensa al fatto che l’equazione data è, in
2
reatà, la ẋ = 4t − x, le cui soluzioni sono riassunte dalla x !(t) = t2 + c/t2 .
t
x
t
Esempio 1.4.5 ẋ = −, t0 , x0 ∈ R, x0 ̸= 0 .
x
L’equazione implica x + t = c = x20 + t20 . La soluzione quindi cessa di esistere per t2 > c. In particolare, se
2 2
c=0, la funzione φ(t, 0, 0) : {0} &→ {0} non è certo differenziabile, (e non è la costante R → {0} ).
x
t
#
∆p ṗ
Ipotesi di lavoro però è che sia p : R → R, ed inoltre = .
p∆t p
Un primo modello si ottiene ponendo n(t)−m(t) ∼ cost = α, con α dipendente dalla quantità di cibo disponibile
per individuo σ . Può essere plausibile supporre α = β(σ − σ0 ), con β una costante positiva e con σ0 la minima
quantità di cibo sufficiente al sostentamento: si ha cioè σ ≤ ≤
>σ0 ⇐⇒ α>0. In tal modo risulta
Con tale schema, (σ indipendente da p), la popolazione p potrebbe crescere in modo indefinito. È chiaro
che generalmente questo non è accettabile; come correzione è necessario assegnare qualche fenomeno sociale, il cui
modello sia σ = σ(p), e che impedisca la crescita indefinita.
A questo scopo si può tenere conto della lotta per il cibo: σ = (& σ − kp) con σ & > σ0 . Risulta allora α =
σ − σ0 ) − βkp =: c(η − p). Questo secondo modello dà luogo alla
β(&
Gli equilibri sono p = 0, e p = η che viene chiamata popolazione endemica. Si noti poi che −cp2 è proporzionale
al numero di incontri, e rappresenta gli attriti sociali. Ci si aspetta anche che per piccole popolazioni tali attriti
siano piccoli, e cioè η ≫ 1 . Per p piccole allora si ha ṗ ≃ cηp da cui si vede che lo zero è instabile in quanto la p
segue l’evoluzione vista sopra. Viceversa, se p > η risulta ) ṗ/p < 0 e di *
conseguenza si ha che η è stabile.
1 1 1/η b/η
Più in dettaglio, mediante la relazione ≡ + si ricava
cp(η − bp) c p η − bp
' ' ' ' ' '
1 'p' 1 ' η − bp) ' ' p(η − p0 ) '
c(t − t0 ) = ' '
ln ' ' − ln ' ' ' , e quindi '
cη(t − t0 ) = ln ' ' .
η p0 η η − bp0 ' p0 (η − p) '
Pertanto, se η − p0 > 0 allora (per continuità) è anche η − p > 0 almeno fino a che p = η ; e ciò non può accadere
in un tempo finito. Analogamente, se: η − p0 < 0 allora η − p < 0 per ogni t ≥ t0 . Risulta infatti esplicitamente:
η
p!(t) = ,
1 + ( pη0 − 1) exp(−cη(t − t0 ))
che implica, dato p0 > 0 , che lim p(t) ↑ η se p0 < η , e lim p(t) ↓ η se p0 > η . Si ha cioè la curva
t→∞ t→∞
logistica:
0
t
N.B. 1.4.7 Attenzione alle forme implicite. Con x : t ∈ R &→ x(t) ∈ R si hanno per esempio:
• ẋ2 + x2 = 0 non ha soluzioni: l’insieme aperto D di definizione del campo è vuoto. Al più si può estendere il
concetto di soluzione (vedi qui sotto) ed accettare l’unica x = x(t) = 0 in corrispondenza dell’unica possibile
scelta delle condizioni iniziali: (t0 , x0 ) ≡ (t0 , 0) ∈ ∂D .
Definizioni desuete:
M. Lo Schiavo
1.4. Esempi e casi notevoli 31
Soluzione generale := Una funzione Φ : (t, t0 ; c) &→ Φ(t, t0 ; c) ∈ Rn , con c := (c1 , . . . , cn ) ∈ Rn , definita
su un aperto J × U ⊆ J × D ⊆ R2+n e tale che ogni possibile soluzione x = φ(t, t0 , x0 ) dell’equazione ẋ = v(t, x),
con x ∈ Rn e (t0 , x0 ) ∈ U , si possa ricavare come caso particolare della Φ per una qualche scelta dei parametri
c1 , c2 , · · · , cn . Lo spazio dei parametri deve pertanto poter essere posto in corrispondenza biunivoca con quello dei
dati iniziali (a t0 fissato).
Soluzione singolare := una soluzione che non è ottenibile dalla soluzione generale per alcun valore reale finito
◦
dei parametri. (Spesso appartiene con la ∂D se il campo è loc.Lip in D ).
Queste possono dar luogo a casi dubbi: ẋ = −2x3/2 , che è Lip in R, dà
1 −1/2
(x−1/2 − x0 ) = −2(t − t0 )
(1 − 3/2)
da cui (
(t + c)−2 se ̸ 0
x0 =
!(t) =
x
0 se x0 = 0
e si noti che la x = 0 non è ottenibile dalla prima per alcun valore reale di c. Se però si pone k := 1/c la funzione
!(t) = k 2 /(1 + kt)2 che è del tutto regolare, ma che non contiene il caso c = 0 .
che si ottiene è : x
Conviene in definitiva riferirsi sempre alla soluzione locale per (t0 , x0 ).
Esempio 1.4.8 L’equazione di Clairaut
ẋ2
x = ẋt − t0 , x0 ∈ R .
2
√ '
In realtà queste sono due equazioni: ẋ = t ± t2 − 2x entrambe con campo loc.Lip in D := {(t, x) 'x < t2 /2 },
1
infatti ivi è finita la ∂x v = ∓(t2 − 2x)− 2 . La frontiera del dominio D è la parabola x = t2 /2 che è soluzione,
singolare.
La funzione x !(t) = x0 + λ(t − t0 ) è soluzione purché λ verifichi la:
B
1
x0 + λ(t − t0 ) = λt − λ2 , e cioè se λ± = t0 ± t20 − 2x0 .
2
A sua volta quest’ultima individua due rette (una per equazione) per ciascun (t0 , x0 ) ̸∈ ∂D ; esse passano per la
∂D nei punti (x± , t± ) tali che
t2± λ2
= x± = x0 + λ± (t± − t0 ) = λ± t± − ±
2 2
che implica (t± − λ± )2 = 0 e quindi t± = λ± . D’altra parte il coefficiente angolare della tangente in t alla
parabola ∂D vale: d(t2 /2)/dt ≡ t, per cui le rette soluzione sono tangenti alla parabola nei punti (x± , t± ).
Come nell’Esempio 1.4.3 però queste soluzioni vanno considerate in modo separato: l’una o l’altra delle due
semirette il cui punto di separazione è quello di tangenza con la frontiera ∂D del dominio di regolarità del campo.
x=t2=2
x
t
(t0;x0)
Nella figura il tratto unito rappresenta le soluzioni per l’equazione con il segno positivo, quello tratteggiato le
soluzioni dell’equazione con il meno. #
Memento 1.4.1 Una funzione f : R2 → R si dice omogenea di grado α ∈ R se, per ogni x > 0 , si ha
(si veda: [Petrovskj p.18]); tutte le curve integrali sono simili, con l’origine come centro di similitudine: y → cy, x →
cx, con c ̸= 0 .
È evidente che questo metodo si applica anche ad equazioni del tipo: y ′ = g(x, y) con g : R2 → R funzione
omogenea di grado zero.
) *
dy ax + by + c
Esempio 1.4.9 =g x0 , y0 ∈ R, dx0 + ey0 ̸= 0 con g : R → R, funzione regolare, e
dx dx + ey + f
con a, .' . . , f '∈ R , tali che |c| |f | ̸= 0.
'a b'
Se '' ' ̸= 0 esiste un unico punto (x̄, ȳ) intersezione delle due rette. Posto x =: ξ + x̄, y =: η + ȳ si ricava
d e'
facilmente ) * ) *
dη aξ + bη dζ a + bζ
=g =⇒ ζ + ξ =g .
dξ dξ + eη dξ d + eζ
' '
'a b'
Se invece ' ' ' = 0 , (pur restando |a| + |b| > 0, e |d| + |e| > 0), esiste σ ∈ R tale che a = σd, b = σe, e si
d e'
ha con z = (ax + by) = σ(dx + ey) :
) *
dy dz z+c
b = − a = bg z+f .
dx dx 1/σ
#
N.B. 1.4.10 Nel seguito di questo paragrafo si assumeranno x, y, z ∈ R; le funzioni v , v , µ, ν : R → R verranno x y 2
tutte considerate appartenenti a C 1 (D) per un conveniente aperto D ⊆ R2 , D ∋ (x0 , y0 ); e si supporrà che in
D entrambi i valori di v x , v y e di µ, ν siano non simultaneamente nulli.
Inoltre, la seguente notazione si intenderà valida con l’intesa di scegliere come variabile dipendente quella per
la quale la condizione iniziale (x0 , y0 ) ∈ R2 rende la corrispondente componente del campo determinata e non
nulla. Per esempio se v x (x0 , y0 ) è in R\{0} allora si intenderanno localmente equivalenti in N (x0 , y0 ) ⊆ R2 le
due espressioni
dy v y (x, y)
= x e v y (x, y) dx = v x (x, y) dy , (4.33)
dx v (x, y)
il che comporta che nell’intorno di punti nei quali è invece v y (x, y) ̸= 0 l’equazione che si pensa di risolvere è la:
dx v x (x, y)
= y e non la prima delle (4.33). Allo stesso modo, se ν : R2 → R, è tale che ν(x0 , y0 ) ̸= 0 , allora si
dy v (x, y)
equivarranno in N (x0 , y0 ) ⊆ R2 le
dy
ν(x, y) + µ(x, y) = 0 e µ(x, y)dx + ν(x, y)dy = 0 . (4.34)
dx
Questa notazione si può generalizzare al caso n ≥ 2 , e cioè con x := (x1 , . . . , xn ) ∈ Rn e con v := (v1 , . . . , vn ) : D ⊆ Rn → Rn ,
v ∈ C 1 (D) . Tuttavia ciò dà luogo a due possibili “estensioni”, diverse l’una dall’altra. Da un lato si può considerare la (4.33) come
un caso particolare di un’espressione del tipo
dx1 dx2 dxn
= = ... = , (4.35)
v1 (x1 , . . . , xn ) v2 (x1 , . . . , xn ) vn (x1 , . . . , xn )
da intendersi equivalente al sistema (per esempio)
dxi vi (x1 , . . . , xn )
= j 1 , i = 1, . . . , j − 1, j + 1, . . . , n
dxj v (x , . . . , xn )
M. Lo Schiavo
1.4. Esempi e casi notevoli 33
Sia γ un Cammino generalmente regolare in Rn dato da x(t) = (x1 (t), .., xn (t)).
“Integrare una funzione scalare f : D9 → R,
' f=
1 n
: f (x , . . . , x ) lungo γ” significa sommare i valori ottenuti su
ciascuno degli archi regolari: γ i := γ(t) t ∈ Ii mediante la
'
- - ti /
f ds ≡ f (x(τ )) |ẋ(τ )|2 dτ ;
γi ti−1
si dice esatta su un dominio D ⊂ R2 quando esiste su D una funzione F : D → R che sia F ∈ C 1 (D) con
@ A @ A
∂x F (x, y) µ(x, y)
∇F (x, y) := = , (x, y) ∈ D .
∂y F (x, y) ν(x, y)
In tal caso, scelto un qualunque cammino semplice e generalmente regolare γ : [t0 , t] → D , la cui rappresentazione
parametrica sia x(τ ) ≡ (x(τ ), y(τ )) con x(t0 ) = p0 ≡ (x0 , y0 ) e x(t) = p ≡ (x, y), si ha:
- - t - t
dF
µdx + νdy := (µẋ + ν ẏ)dτ = dτ = F (x, y) − F (x0 , y0 ) .
γ t0 t0 dτ
Equivalentemente, lungo un qualunque cammino semplice e chiuso γ0 ⊂ D risulta, con T il periodo del ciclo γ 0,
- - t0 +t
µdx + νdy ≡ (µ(x(t))ẋ(t) + ν(x(t))ẏ(t)) dt
γ0 t0
- t0 +t
dF (x(t))
= dt = F (x(t0 + T)) − F (x(t0 )) ≡ 0 .
t0 dt
Le precedenti considerazioni si estendono al caso generale, e cioè per una forma differenziale del tipo (4.37)
con n > 2 ed x ∈ Rn . Anche questa si dice esatta quando esiste una funzione (scalare) F = F (x) ∈ R il cui
differenziale totale uguaglia la forma stessa; e pertanto essa è tale che ∇F (x) = (f1 (x), . . . , fn (x)) . Come si vedrà
più diffusamente nel Cap.III, se n > 2 l’esattezza di una forma implica “solo” che il valore F (t) := F (! x(t)) non
muta lungo ciascuna delle soluzioni x : t &→ x !(t) := (x1 (t), . . . , xn (t)) di una qualsiasi delle equazioni ẋ = v(x)
che hanno campo v(x) che verifica
n
=
∇F (x) · v(x) ≡ fi (x1 , . . . , xn )v i (x1 , . . . , xn ) = 0,
i=1
e cioè quelle con campo v tangente in ogni suo punto a una superficie: F (x) = F0 .
Esempio 1.4.11 (continuazione dell’Esempio 1.4.5) ) *
−y/x
La funzione F (x, y) := x2 + y 2 ha valori costanti non solo lungo le soluzioni del campo , ma anche
) * ) * 1
y yx
lungo quelle dei campi: oppure , etc, (ma solo il secondo dei tre verifica la condizione di Shwartz,
−x −x2
cfr. oltre). #
Viceversa, nel caso n = 2 (ovvero 1 variabile scalare dipendente ed 1 indipendente), sussiste la seguente
Proposizione 1.4.1 Sia D ⊆ R2 aperto, x, y ∈ R, e µ, ν ∈ C 1 (D) a valori reali e non simultaneamente nulli.
* + ν(x, y)dy è esatta, e quindi esiste una funzione F : D → R, F ∈ C (D), tale che su D
1
Se la forma µ(x,) y)dx
µ
si abbia: ∇F = , allora il teorema della funzione implicita permette di risolvere la F (x, y) = c = F (x0 , y0 )
ν
e di ricavare la soluzione (generale) in D dell’equazione µ(x, y)dx + ν(x, y)dy = 0 , e cioè di una (qualsiasi)
) *
x
delle equazioni ẋ = v(x), con x(t) ∈ R , che hanno campo v(x) ortogonale a ∇F (x) nel punto x =
2
, per
y
esempio: dy/dx = v x /v y = −ν/µ, e sempre che sia µ(x, y) ̸= 0 , la x = x(y) tale che F (x(y), y) = F0 := F (x0 , y0 )
è la soluzione di
Dimostrazione Supposto, per esempio, che sia ∂x F (x0 , y0 ) ≡ µ(x0 , y0 ) ̸= 0, la: F (x, y) = F0 = F (x0 , y0 )
definisce implicitamente x = x(y) tale che:
• x(y0 ) = x0 ;
• x = x(y) è soluzione di
dx ν(x, y)
=− (4.38)
dy µ(x, y)
perché x = x(y) è tale che
+ ,
d dx
0= (F (x(y), y)) = µ(x, y) + ν(x, y) . (4.39)
dy dy x=x(y)
M. Lo Schiavo
1.4. Esempi e casi notevoli 35
1 7 8
Dimostrazione L’operatore S[φ] := φ − f ◦1 φ è contrattivo su C 0 ([a, b]), ∥ · ∥∞ . Infatti, siccome è
m2
possibile scrivere 0 1
f ◦1 φ = f ◦1 ψ + ∂x f ◦1 ψ& (φ − ψ)
e quindi
m1
∥S[φ] − S[ψ]∥∞ ≤ k ∥φ − ψ∥∞ con k =1− < 1.
m2
"
Teorema 1.4.2 (del Dini) , (si veda: [Avantaggiati II.2.1]) Siano f, ∂x f ∈ C 0 (D) con D ⊂ R2 aperto, e sia
(x0 , y0 ) ∈ D tale che
f (x0 , y0 ) = 0, ed ∂x f (x0 , y0 ) ̸= 0 .
Allora esistono h, k ∈ R+ ed una sola φ! : [Bh (y0 )] → [Bk (x0 )] tali che
! 0 ) = x0 ,
φ(y e che f ◦1 φ! = 0 su Bk (y0 ).
Dimostrazione Si supponga ∂x f (x0 , y0 ) > 0 . Esistono δ, h, m > 0 tali che [Bh (x0 )] × [Bδ (y0 )] =: Γ ⊂ D , e
che su Γ risulti ∂x f ≥ m > 0 .
Ma allora è f (x0 − h, y0 ) < 0 ed f (x0 + h, y0 ) > 0 , e quindi esiste 0 < k ≤ δ tale che f (x0 − h, y) < 0 ed
f (x0 + h, y) > 0 su Bk (y0 ).
Pertanto per ciascun ȳ ∈ Bk (y0 ) esiste x̄ ∈ Bh (x0 ) tale che f (x̄, ȳ) = 0 , e tale x̄ è unico giacché ∂x f > 0 .
Infine, la continuità della corrispondenza è provata, punto per punto, scegliendo h e k opportunamente piccoli.
"
Prendono il nome di esatte quelle equazioni differenziali che risultano le derivate totali di un’equazione di ordine
d
inferiore. Per esempio, l’equazione di Lighthill: ẍ+tẋ+x = 0 è del tipo dt (ẋ+tx) = 0 . Esse danno luogo, mediante
quadratura, ad un’equazione di ordine più basso, e consistono in un caso particolare di ortogonalità fra il vettore
f (x) := ∇F (x) di una forma esatta ed un vettore ẋ = (ẋ1 , . . . , ẋn ) espressi in funzione di un’unica variabile
dipendente e delle sue derivate di ordine superiore. Nell’esempio della equazione 7 di Lighthill si ha ∇F 8 (t, x) ≡
f (t, x) := (Ft ; Fx ; Fẋ ; . . . ; Fx(n) ) = (x; t; 1) che è ortogonale al vettore 1 ; ẋ ; ẍ ; . . . ; x(n+1) , e quindi
!(t))/dt = 0 .
dF (t, x
N.B. 1.4.12 Se µ(x, y) si annulla in qualche punto in D occorre cambiare il ruolo delle due variabili dipendente ed
indipendente: per la forma vista nell’Esempio 1.4.11: xdx + ydy vanno presi in considerazione quattro domı́ni;
ciò non toglie tuttavia che la funzione F (x, y) = x2 + y 2 sia del tutto regolare. ♦
N.B. 1.4.13 Per definizione, la funzione F è F ∈ C 1 (D), e quindi risulta necessariamente verificata la
In generale non è immediato capire se esista o meno una tale funzione F anche al di fuori del “conveniente
intorno” delle condizioni iniziali. A volte invece può succedere che se ne possa stabilire l’esistenza in modo semplice:
è ciò che accade quando la funzione δ(x, y) := ∂y µ(x, y) − ∂x ν(x, y) si annulla in tutti i punti di un aperto
semplicemente connesso: A.
Memento 1.4.1 Semplicemente connesso := Un aperto A ⊂ R2 si dice semplicemente connesso quando ogni
curva generalmente regolare semplice e chiusa contenuta in A è frontiera, in R2 , di un aperto connesso totalmente
contenuto in A.
Ciò è l’equivalente in dimensione due di quello che in dimensione tre si chiama:
Connessione lineare semplice := Un aperto A ⊂ R3 si dice a connessione lineare semplice quando ogni curva
generalmente regolare semplice e chiusa contenuta in A è frontiera, in R3 , di una superficie S generalmente
regolare totalmente contenuta in A.
Entrambi si possono anche enunciare richiedendo che ogni curva semplice chiusa sia “contraibile” ad un punto
in modo continuo senza uscire dall’insieme A.
Se A è semplicemente connesso, dato comunque un cammino semplice chiuso γ 0 ⊂ A si può assicurare
l’esistenza di un insieme regolare Γ ⊂ A ⊂ R2 che lo ha per frontiera, ove:
Insieme regolare := Un chiuso Γ ⊂ Rn che ammette una decomposizione finita: Γ = ∪ni=1 Γi fatta con Insiemi
normali o semplici {Γ1 , . . . , Γn } rispetto ad un (qualche) piano coordinato, e frontiera costituita da porzioni di
superficie regolari aventi a coppie al più punti (isolati) in comune.
Insieme in R3 normale rispetto al piano (x, y), o: z -semplice := un compatto Γ ⊂ R3 espresso da
⎧ ' ⎫
⎨ ' α(x, y) ≤ z ≤ β(x, y); α, β ∈ C 1 (D ⊂ R2 ), ⎬
'
Γ := (x, y, z) ∈ R3 '' ◦ .
⎩ ' α(x, y) < β(x, y) ⎭
∀(x, y) ∈D, D normale
nelle quali ω = (µ, ν, σ) ∈ C 1 (A, R3 ), n dS = (dy dz, dz dx, dx dy), e τ dλ = (dx, dy, dz). Inoltre, +∂S è una
curva semplice chiusa generalmente regolare, bordo di una superficie S orientata regolare e contenuta in A ⊆ R3 ;
quest’ultima esiste certamente purché A sia a connessione lineare semplice.
M. Lo Schiavo
1.4. Esempi e casi notevoli 37
Pertanto, se rot ω = 0 su un qualche insieme D a connessione lineare semplice, dal Teorema di Stokes segue
.p
che p0 ω · τ ds = F (p) − F(p0 ) qualsiasi sia il percorso semplice generalmente regolare che unisce p0 a p .
Allora necessariamente si ha ω = ∇F . Infatti, facendo passare il percorso per un arbitrario p′ := (x′ , y, z) con
.p
p′ ∈ Γ(p) ⊂ D ed x′ < x, si riconosce che ∂x F (p) = ∂x p0 ω x dx + 0 ≡ ω x ; ed analogamente per le altre derivate
parziali.
è condizione sufficiente (oltre che necessaria) perché si annulli l’integrale di linea della forma lungo una qualsiasi
curva semplice chiusa γ 0 contenuta in A. Quest’ultima condizione equivale all’esistenza della funzione F = F (x)
il cui differenziale totale uguaglia la forma su A. In particolare, in dim = 2 è garantita l’esistenza di F = F (x, y)
tale che (
) *
µ ∇F ∥ ω
∇F = , ovvero , e quindi tale che ∇F · τ dλ = dF .
ν ∇F ⊥ ω
Nota 1.4.1 Sapendo che la forma è esatta, e quindi che la funzione F esiste, per calcolarla è opportuno scegliere
percorsi convenienti; per esempio, per ogni (x0 , y0 ), (x0 , y) ∈ D ⊆ R2 si ha
- x - y
F (x, y) − F (x0 , y0 ) = µ(ξ, y)dξ + ν(x0 , η)dη ;
x0 y0
La derivata parziale rispetto ad y del secondo membro di quest’ultima deve uguagliare ν(x, y). Si risolve rispetto
a dr/dy e si integra in modo indefinito la funzione della sola y cosı̀ ottenuta; infatti
) * ) - x *
∂ dr ∂ ∂
= ν− µ(ξ, y)dξ = ∂x ν − ∂y µ = 0
∂x dy ∂x ∂y
Si ha in tal modo: - + - ,
y x
r(y) = ν(x, η) − ∂η µ(ξ, η)dξ dη.
dr
−x sin y + = −x sin y + y 2 , che implica r(y) = (y 3 + c)/3
dy
xdy − ydx
Esempio 1.4.16 , (x, y) ∈ R2 .
x2 + y 2
La forma è definita in un aperto D := R2 \{(0, 0)} . Tuttavia, anche se verifica la condizione di Schwartz ed esiste
arctan xy di cui essa risulta il differenziale totale:
) ′ * '
d 1 xy − y x2 d 0y 1 d '
'
arctan ξ = ⇒ = arctan ξ '
dξ 1 + ξ2 x2 x2 + y 2 dx x dξ ξ=y/x
c’è il problema che arctan(·) non è regolare, addirittura non è una' funzione, su tutto D . Occorre pertanto “tagliare”
il piano R2 \{(0, 0)} con, per esempio, l’insieme D− := {(x, y) ' y = 0, x < 0} e la forma resta allora esatta nel
complementare R2 \D− che risulta infatti semplicemente connesso. (Per definirvi in modo opportuno la funzione
F è opportuno procedere per quadranti; e tuttavia, per poterla adoperare ai fini della risoluzione di (una delle)
equazioni compatibili con essa, occorre far salve le usuali cautele su quale dei suoi coefficienti possa annullarsi: si
vedano anche i successivi due N.B.). #
Fattore integrante := una funzione ϖ : D → R per la quale si moltiplica la forma differenziale lineare
rendendola cosı̀ esatta. Per esempio, se n = 2 , ϖ è fattore integrante quando
Se µ, ν ∈ C 1 (D), ogni forma µ(x, y)dx + ν(x, y)dy ammette, localmente, un fattore integrante (cosı̀ come ogni
ẋ = v(t, x) con x ∈ Rn ammette n integrali primi dipendenti dal tempo ed indipendenti fra loro, come si vedrà
nel seguito); ma non sono noti metodi generali per trovarlo.
N.B. 1.4.18 Se ϖ è un fattore integrante, e quindi tale che ϖµ = ∂x F , ϖν = ∂y F , e se g : R → R è una
funzione regolare, allora ϖ g ◦ F è un altro fattore integrante, infatti in tal caso la condizione di esattezza diviene
∂y (ϖµ g ◦ F ) = ∂x (ϖν g ◦ F ) e fornisce ϖµ ∂y (g ◦ F ) = ϖν ∂x (g ◦ F ) che è una identità, data l’ipotesi su ϖ . ♦
Qualche idea sul come trovare il fattore integrante. Dovendo essere ∂y (ϖµ) = ∂x (ϖν), si ha:
1
∂y µ − ∂x ν = δ = (ν∂x ϖ − µ∂y ϖ) , (4.43)
ϖ
e allora, con un pò di fortuna, possono darsi i seguenti casi:
• δ/ν funzione solo di x, (oppure δ/µ funzione solo di y), ed allora si può scegliere ϖ funzione solo di x (o
di y ), e dalla (4.43) si ricava
- x ) - y *
δ δ
ln ϖ = + , oppure ln ϖ = − .
ν µ
δ
• funzione solo di x y ; posto allora ϖ = ϖ(x y), e quindi con
yν − xµ
- xy
δ
∂x ϖ = ϖ′ y, ∂y ϖ = ϖ′ x, si ha ln ϖ = + .
yν − xµ
δy 2
• funzione solo di x/y; posto allora ϖ = ϖ (x/y), e quindi con
yν + xµ
- x/y
1 −x δy 2
∂x ϖ = ϖ′ , ∂y ϖ = ϖ′ 2 , si ha ln ϖ = + .
y y yν + xµ
M. Lo Schiavo
1.4. Esempi e casi notevoli 39
−δx2
• funzione solo di y/x; posto allora ϖ = ϖ (y/x) , e quindi con
yν + xµ
- y/x
−y 1 −δx2
∂x ϖ = ϖ ′ , ∂y ϖ = ϖ ′ , si ha ln ϖ = + .
x2 x yν + xµ
N.B. 1.4.21 È chiaro che anche se può sembrare il contrario, l’equazione non muta quando viene moltiplicata
per ϖ , infatti essa rimane definita dal rapporto µ/ν e gli eventuali casi particolari vanno trattati direttamente su
questo rapporto. Per esempio xdy − ydx con ϖ = (x2 + y 2 )−1 dà F (x, y) = arctan xy , mentre con ϖ = x12 dà
1 y y y
x dy − x2 dx e cioè F (x, y) = x . Comunque il luogo di punti che contiene la soluzione è dato da x = cost, ed in
tutti i casi, l’equazione (nella variabile indipendente x) ha soluzioni fuori da x = 0 . ♦
µ
x
Sussistono le: θ = 2α,/ tan θ = 2 tan α/(1 − tan α), e cioè y/x = 2y /(1 − y ′2 ).
2 ′
Se ne ricava l’equazione
omogenea y ′ = (−x ± x2 + y 2 )/y da cui
/ y x
ydy + xdx = ± x2 + y 2 dx o anche / dy + / dx = ±dx ,
2
x +y 2 x + y2
2
0 / 1
che dà d x ± x2 + y 2 = 0 , e dunque la parabola: x2 + y 2 = x2 + c2 + 2cx.
È opportuno osservare che il campo che si è trovato è omogeneo di grado zero. #
(la costante di integrazione si può scegliere nulla perché rappresenta solo un fattore moltiplicativo per tutta
l’equazione). Di conseguenza si ha, per t, t0 ∈ [a, b] , la nota relazione:
.t
+ . - t0 .τ 1 ,
t0
x(t) = e− p(σ)dσ x0 e p(σ)dσ + q(τ )e p(σ)dσ dτ =
t0
) - t * - t ) - t * (4.45)
= x0 exp − p(σ)dσ + q(τ ) exp − p(σ)dσ dτ .
t0 t0 τ
Si noti che il fattore integrante si può ottenere con le tecniche viste prima, infatti in questo caso si ha
µ(x, t) = 1, ν(x, t) = p(t)x − q(t), δ(x, t) = ∂t µ(x, t) − ∂x ν(x, t) ,
e quindi
δ(t, x) ϖ̇(t)
≡ −p(t) che implica = p(t) .
µ(t, x) ϖ(t)
.t
Si noti infine che la funzione Φ(t) := ϖ−1 (t) ≡ exp −( p(τ )dτ ) è soluzione della equazione “omogenea associata”:
ẋ + p(t) x = 0 , e che il prodotto Φ(t)Φ−1 (t0 ) x0 è la soluzione, dell’omogenea associata, che vale x0 in t = t0 .
.t
Allo stesso modo si vede che il secondo addendo della (4.45), e cioé y&(t) := t0 Φ(t)Φ−1 (τ )q(τ ) dτ è soluzione
particolare della (4.44) che vale zero in t = t0 . #
M. Lo Schiavo
1.4. Esempi e casi notevoli 41
N.B. 1.4.26 Vi possono essere più modi alternativi per risolvere una stessa equazione: ad esempio la (x2 + y 2 )dy +
2xydx = 0 è omogenea, è esatta, ed è anche risolubile “a occhio” osservando che equivale a d(x2 y) = −d( 13 y 3 ). ♦
d2 y 1 dλ ρ(λ) /
2
= ρ(λ) = 1 + (y ′ )2 ,
dx τ0 dx τ0
che è risolubile per separazione di variabili. Per il ponte sospeso si ha x &→ ρ(x) = cost, e quindi la prima
′′
di queste due equazioni / dà immediatamente y = cost. Invece, con l’ipotesi λ &→ ρ(λ) = cost e posto
′ 2
y =: η/ , si ricava (1/ 1 + η )dη = kdx, da cui (usare un’ottima tavola di integrali o un computer) segue
ln(η + 1 + η 2 ) = kx. Essendo η(0) = 0 risulta infine η = 12 (ekx − e−kx ), ovvero y(x) = k1 cosh kx. #
p ¸ p0
q0
o x
Con le posizioni:
) * ) * /
−
→ 0 −
→ x(t)
oq(t) = , op(t) = , a = cost, b := |λ̇| = ẋ2 + ẏ 2 = cost,
at y(t)
dy a(t − t0 ) − (y − y0 )
y ′ := = .
dx −x
Ne segue: x y ′ = −a(t − t0 ) + (y − y0 ), e quindi x y ′′ = −a dt/dx .
D’altra parte, detta λ l’ascissa curvilinea decrescente con x, e detti ⃗τ il versore tangente alla curva, ⃗e1 quello
dell’asse delle x, e θ l’angolo che essi formano, si riconosce che sussiste anche la relazione
dx dλ dx −1
= = λ̇ / .
dt dt dλ 1 + (y ′ )2
Pertanto
dη a
/ = dx ,
1+η 2 b
che dà ) *
/ a x
2
ln(η + 1 + η ) = ln
b x0
e cioè I) *a/b ) *−a/b J
dy 1 x x
:= η = − .
dx 2 x0 x0
#
Esempio 1.4.29 Una barca punta verso un faro, con velocità (locale) di modulo v costante, ma subisce una
corrente al traverso di velocità costante: w .
y
µ
v
w
O´ F
x
( −̇
→ ) * ) *
op = v vers ⃗v + w ⃗e2 ẋ −v cos θ
−
→ ⇒ = .
−vers ⃗v = vers op = cos θ⃗e1 + sin θ⃗e2 ẏ −v sin θ + w
Si ottiene l’equazione omogenea:
/
′ w y w x2 + y 2
y = tan θ − = −
v cos θ x v x
′
√
che si risolve ponendo y =: zx e quindi xz = −w 1 + z 2 /v . Ne seguono
/ / 0 x 1−w/v
ln(z + 1 + z 2 ) = ln x−w/v =⇒ z + 1 + z2 = =⇒
)0 1 * ) a *
1 x −w/v 0 x 1+w/v a 0 x 11−w/v 0 x 11+w/v
z= − =⇒ y = − ,
2 a a 2 a a
e cioè
a
7 8
(i) w = v, ⇒ y = 2 1 − x2 /a2 , una parabola che non passa per l’origine;
x
(ii) w > v, ⇒ y −→ ∞, eventualità peggiore della precedente;
0
x
(iii) w < v, ⇒ y −→ 0 , e si ha successo solo in questo caso.
0
#
M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 43
b q
z
Per derivazione si ottiene ∆tmin per x tale che
x c−x sin α1 sin α2
B = / ; e quindi = .
v2 b + (c − x)2
2 v1 v2
v1 a2 + x2
sin α
Si assume allora = cost come legge di minimo tempo.
v
√ ẋ 1
D’altra parte la conservazione dell’energia dà v = 2gz, mentre è sin α = B = / . Si
ẋ2 + ż 2 1 + (z ′ )2
) *
dz 2
ottiene cosı̀: 1 + ( ) z = k, da cui:
dx
- x - z ) *1/2
ζ
dξ = dζ .
0 0 k−ζ
) *1/2
ζ .θ
Posto =: tan φ, ovvero ζ = k sin2 φ, si ha infine x=k 0
(1 − cos 2φ)dφ la cui soluzione è la
k−ζ
cicloide: ⎧
⎪ k
⎨ x = (2θ − sin 2θ)
2
⎪ k
⎩ z = (1 − cos 2θ) .
2
#
lineari, in generale non può essere risolto in forma chiusa ed in termini di funzioni elementari, a meno che sussistano
particolari condizioni sui coefficienti o che sia possibile ricorrere a sviluppi in serie di convenienti funzioni.
È chiaro però che valgono i teoremi generali per i quali, se f, ∂x f, ∂ẋ f sono continue in un aperto D ⊂ R3 ,
allora dato comunque (t0 , x0 , ẋ0 ) ∈ D esiste una ed una sola soluzione: φ : (t, t0 , x0 , ẋ0 ) &→ φ(t, t0 , x0 , ẋ0 ), continua
rispetto alle ultime tre variabili in un conveniente intorno di (t0 , x0 , ẋ0 ), definita e differenziabile almeno in un
conveniente intorno di t0 , e tale che φ(t0 , t0 , x0 , ẋ0 ) = x0 , φ̇(t0 , t0 , x0 , ẋ0 ) = ẋ0 ; essa inoltre risulta prolungabile fino
alla frontiera di un qualunque sottoinsieme di D che sia chiuso e limitato (in norma) e che contenga (t0 , x0 , ẋ0 ).
L’unico altro caso “quasi
. x semplice” è quello in cui l’equazione si riduce a: ẍ = f (x). Questa dà senza troppa
difficoltà la nota: 12 ẋ2 − f (ξ)dξ = cost, che permette un’ampia discussione qualitativa. Ciò non toglie però che
anche in questo caso non è possibile, in generale, fornire la soluzione x = x(t) in forma chiusa; infatti l’integrale
- x - ξ
dξ
/ , con V (ξ) := − f (η)dη ,
2(E − V (ξ))
non è quasi mai esprimibile con funzioni elementari, o comunque con funzioni facilmente invertibili. Il caso
ẍ = f (x) verrà trattato in dettaglio nel Cap.III.
È opportuno invece anticipare qui la discussione delle equazioni lineari in R2 :
ÿ + p(t)ẏ + q(t)y = r(t), p, q, r ∈ C 0 (I); I chiuso ⊂ R , y ∈ R .
A tale scopo, sarà opportuno pensare ai punti di R2 in modo astratto, e cioè non conseguente alla scelta di una
specifica base, e quindi riconoscere ad R2 (o più in generale ad Rn ) la struttura di spazio vettoriale.
Memento 1.5.1 Uno Spazio vettoriale V è un gruppo commutativo che è un modulo su un campo K (con
operazioni “ + ”, “ · ”). Esso cioè è un gruppo commutativo con operazione “ ⊕ ”, distributivo rispetto alle
operazioni “ + ”, “ · ”, e “ ⊕ ”, e che accetta l’unità moltiplicativa del campo. L’operazione “ ⊕ ” viene
perciò generalmente indicata anch’essa con “ + ”.
Una Base e per uno spazio V è un insieme e := {e1 , . . . , en } di vettori linearmente indipendenti e che sia
massimale: ogni x ∈ V può essere espresso (in modo unico) come combinazione lineare degli elementi {ei }i=1,...,n .
In tal caso, lo spazio V si dice n-dimensionale, ed i numeri {xi }i=1,...,n tali che x = xi ei formano la n-pla
x ∈ Rn che la base e fa corrispondere in Rn al vettore x ∈ V.
Scelta in esso una base, uno spazio vettoriale reale (e cioè con campo K ≡ R) resta cosı̀ rappresentato da Rn e
ciò permette di agire su di esso mediante le usuali operazioni per componenti e regole di trasformazione fra n-ple di
numeri reali. In queste note si tratterà regolarmente con spazi vettoriali reali, e solo saltuariamente (per esempio
nel Cap.II e nelle appendici) sarà opportuno considerare V come “parte reale” n-dimensionale di un conveniente
spazio C V ≡ R2n sul campo C dei numeri complessi.
Dati due spazi vettoriali V e V′ sullo stesso campo numerico K si definisce
Operatore lineare T := una funzione T : x ∈ V &→ T [x] ∈ V′ tale che
M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 45
Dimostrazione Dato che il campo è del tutto regolare rispetto ad x ∈ V, la frontiera al dominio D può essere
generata soltanto da eventuali non regolarità rispetto alla variabile indipendente t.
D’altra parte, come si vedrà, il campo v = T x ha lunghezza (indotta da un qualche prodotto scalare su
V) che cresce meno di c|x|, ove c ≡ ∥T ∥ è una conveniente costante reale positiva dipendente dall’intervallo di
regolarità: I dei coefficienti). È pertanto possibile effettuare la stima
' ' ' '
'd '
' |φ(t)|2 ' = ''2⟨ φ(t), φ̇(t) ⟩'' = 2 |⟨ φ(t), T (t)φ(t) ⟩|
' dt '
2
≤ 2 |φ(t)| |T (t)φ(t)| ≤ 2cI |φ(t)| ,
Quest’ultima implica che la soluzione φ : (t, t0 , x0 ) &→ φ(t, t0 , x0 ) non può raggiungere la superficie laterale del
cilindro (ad esempio):
; ' <
'
(τ, x) ∈ R × V ' τ ∈ [t0 , t]; |x| ≤ 2 |x0 | ec(t−t0 ) , ε > 0 .
Se ne conclude che essa arriva fino al disco τ = t, e quindi rimane definita fintanto che lo sono i coefficienti
T (t) ∈ L(V). Pertanto nel seguito si assumerà senz’altro I ⊂ JM ⊆ R. "
Anche se per certi versi il caso delle equazioni lineari è particolarmente semplice, tuttavia anche per esso lo
studio esplicito delle loro soluzioni richiede metodi non banali quali per esempio metodi approssimati, qualitativi,
o addirittura perturbativi. A questo fa eccezione il solo sotto-caso particolare delle equazioni lineari a coefficienti
costanti, per le quali infatti (e solo per esse) esiste un algoritmo generale di risoluzione che verrà esaminato in
seguito.
Quando i coefficienti dipendono esplicitamente dal tempo, si può “solo” dire che le soluzioni sono esprimibili
per mezzo di altre soluzioni, e ne bastano poche.
Siano n ≥ 2 ed ℓ ≥ 0 . Sullo spazio C n≥2 (I) delle funzioni t ∈ I ⊂ R &→ x(t) ∈ R di regolarità n, si consideri
l’operatore
L : C n (I) → C m (I), I chiuso ⊆ R, m = inf{ℓ, n − 2},
) 2 *
d d
L[ · ](t) := + p(t) + q(t) , p, q : I → R, p, q ∈ C ℓ (I).
dt2 dt
L’operatore L è un Operatore lineare sullo spazio (vettoriale) C n≥2 (I), e quindi tale che, identicamente rispetto
a t ∈ I , si ha che
Ne segue che se x1 è tale che L[x1 ] = 0 anche L[c2 x1 ] = 0 , e che se anche x2 è tale che L[x2 ] = 0 allora
L[c x1 + c2 x2 ] = 0 per ogni scelta c1 , c2 ∈ R. (Ovviamente, lo zero a secondo membro sta per la funzione
1
identicamente nulla su I ).
Si supponga ora di conoscere una (particolare e possibilmente comoda) soluzione dell’equazione
sia essa:
y& : J ⊃ I → R, y& ∈ C n (J), y (t0 ), y&˙ (t0 )) = (&
(& y0 , y&˙ 0 ) ∈ R2 ,
(5.47)
y&(t) := φ(t, t0 , y&0 , y&˙ 0 ) e cioè L[&
y ](t) = r(t), per t∈J ⊃I .
Ci si domanda come possano essere espresse le altre soluzioni y : J ⊃ I → R
L[y] − L[&
y ] = L[y − y&] = r − r = 0 ,
e si noti che y, y& sono arbitrarie, e cioè sono arbitrarie le quattro costanti relative ai dati iniziali y0 , ẏ0 , y&0 , y&˙ 0 ∈ R.
Di queste le seconde due sono scelte secondo criteri di convenienza, le prime due sono imposte dal problema concreto
che si deve risolvere.
Si ricava quindi facilmente il seguente criterio.
Nota una soluzione particolare y& : t &→ y&(t) := φ(t, t0 , y&0 , y&˙ 0 ) su J ⊃ I dell’equazione L[y] = r , si conosce
y : t &→ y(t) := φ(t, t0 , y0 , ẏ0 ) soluzione generale della stessa equazione L[y] = r , se e solo se si conosce
x : t &→ x(t) := φom (t, t0 , x0 , ẋ0 ) soluzione ) * )su J ⊃ *
generale I dell’equazione omogenea associata L[x] = 0 , con
x0 y0 − y&0
(x0 , ẋ0 ) arbitrarie, “per esempio” tali che: = , e risulta y(t) = y&(t)+x(t) per ogni t ∈ J ⊃ I .
ẋ0 ẏ0 − y&˙0
Infatti
Sempre per le proprietà di linearità ed unicità delle soluzioni, se x1 , x2 sono certe due funzioni note, soluzioni
particolari ma non nulle della L[x] = 0 , e cioè se si ha
un’arbitraria x : t &→ x(t) := φom (t, t0 , x0 , ẋ0 ) (e cioè con x0 , ẋ0 arbitrari) è esprimibile nella specifica forma la:
x(t) = c1 x1 (t) + c2 x2 (t), se e solo se essa verifica le condizioni iniziali, e cioè se e solo se esistono le costanti
c1 , c2 ∈ R tali che i sei numeri (x0 , ẋ0 , x1 |0 , ẋ1 |0 , x2 |0 , ẋ2 |0 ) , (non banali ma, per il resto, qualsiasi), verificano le
(
x0 = c1 x1 |0 + c2 x2 |0
(5.50)
ẋ0 = c1 ẋ1 |0 + c2 ẋ2 |0 ,
(anche in questo caso gli ultimi quattro dei sei valori detti sono fissati secondo criteri di convenienza, ed i primi
due sono invece quelli che devono verificare le condizioni imposte dal problema); in tal caso infatti, con un
ragionamento analogo a quello visto sopra, si prova che tale x(t) è soluzione della (5.48), e verifica le date condizioni
iniziali (5.50).
Si osserva che, affinché per un’arbitraria scelta del dato (x0 , ẋ0 ) possano esistere unici i coefficienti c1 , c2 è
necessario e sufficiente che: posto ' '
'x1 (t) x2 (t)'
'
W (t) := ' ',
ẋ1 (t) ẋ2 (t)'
si abbia ' '
'x1 |0 x2 |0 ''
' = W (t0 ) ̸= 0 (5.51)
'ẋ1 |0 ẋ2 |0 '
ed allora le due soluzioni x1 ed x2 si dicono linearmente indipendenti.
Dunque, siccome per entrambe le equazioni (5.48),(5.46) la soluzione è unica (per quei t per i quali esiste), si
è provato che per assegnati comunque (y0 , ẏ0 ) ∈ R2 la soluzione della (5.46) uscente da tali condizioni iniziali sarà
certamente ed univocamente esprimibile con:
purché x1 , x2 siano tali da verificare la (5.48) con dati iniziali che verificano la (5.51), ciò implicando l’esisten-
za di c1 , c2 tali da verificare la (5.50), e sempre che y& sia una certa soluzione nota, ma per il resto qualsiasi,
dell’equazione di partenza L[y] = r .
Lo spazio delle fasi V dell’equazione lineare omogenea L[x] = 0 e quello delle sue soluzioni sono spazi vettoriali
isomorfi, [Arnold]; le soluzioni si combinano fra loro linearmente cosı̀ come lo fanno i vettori (x0 , ẋ0 ) ∈ R2 che
ne esprimono le condizioni iniziali; se in t0 c’è una certa dipendenza lineare fra le condizioni iniziali di certe
soluzioni, la stessa dipendenza rimane valida fra i valori assunti all’istante t dai corrispondenti evoluti (x(t), ẋ(t)).
M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 47
Data l’unicità delle funzioni soluzioni in corrispondenza a ciascuna scelta in V delle condizioni iniziali, la stessa
dipendenza lineare sussiste allora fra le funzioni soluzioni.
D’altra parte, sebbene la scelta delle soluzioni di base possa dipendere dal particolare istante iniziale t0 , l’essere
queste linearmente indipendenti non muta al variare di t. Per convincersene, siano x1 , x2 ∈ C n (J ⊃ I) soluzioni
di L[x] = 0 e tali da verificare (5.51). Queste stesse soluzioni possono essere usate per rappresentare la generica
x = x(t) anche qualora per essa si scelga un altro & t0 , e cioè esse stesse continuano ad essere funzioni soluzione
linearmente indipendenti. Basta notare infatti che dalle L[x1 ] = L[x2 ] = 0 segue subito
d
W = (x1 ẍ2 − x2 ẍ1 ) = x1 (−pẋ2 − qx2 ) + x2 (pẋ1 + qx1 )
dt
= −p (x1 ẋ2 − x2 ẋ1 ) = −p W ,
Per cui se W (t0 ) ̸= 0 ed x1 , x2 sono soluzioni di L(x) = 0 allora per ogni t si ha W (t) ̸= 0 : due soluzioni che
in un istante sono linearmente indipendenti lo saranno in ogni altro istante (immediata conseguenza, d’altra parte,
del teorema di unicità).
Ciò implica in particolare che il problema dato: (5.48) ammette almeno ed al più due soluzioni che sono
linearmente indipendenti: per esempio quelle) * che, fissata arbitrariamente
) * la base nello spazio delle fasi V ≡ R2 ,
1 0
nell’istante iniziale valgono: x1 |0 = e1 = , ed x2 |0 = e2 = .
0 1
In definitiva il problema è quello di determinare x1 , x2 , y& .
Nel caso particolare di un operatore del secondo ordine, come quello in esame:
+ 2 ,
d d
L[x](t) ≡ + p(t) + q(t) x(t) ,
dt2 dt
pur non essendo disponibile una formula risolvente generale come quella vista nell’Esempio 1.4.23 per l’equazione
del primo ordine, tuttavia ci si può ricondurre ad essa in casi speciali. Per esempio sussiste il seguente importante
risultato: qualora sia nota una soluzione dell’equazione omogenea associata, la si scelga come una delle due funzioni
di base: x1 , è possibile ricavarne un’altra: x2 con W (t0 ) ̸= 0 . Basta a questo scopo definire la funzione v mediante
la x2 =: vx1 e ricavare:
L[vx1 ] = v̈x1 + 2v̇ ẋ1 + vẍ1 + p(v̇x1 + v ẋ1 ) + qvx1 =
(5.53)
= v̈x1 + (2ẋ1 + px1 ) v̇.
Si introduca la - t) * - t
ẋ1 (τ )
ϖ(t) := exp 2 + p(τ ) dτ ≡ x21 (t) exp p(τ )dτ .
x1 (τ )
d
Si riconosce che la funzione ϖ è un fattore integrante per la (5.53), mediante il quale: L[vx1 ]ϖ/x1 = dt (ϖv̇) .
Risulta pertanto
L[vx1 ] ≡ L[x2 ] = 0 purché sia v̇ ϖ = κ1 = cost .
Segue - - ) - *
t t τ
dσ
v(t) = κ2 + κ1 := κ2 + κ1 x−2
1 (τ ) exp − p(ξ)dξ dτ ,
ϖ(σ)
ed è lecito scegliere κ1 = 1 dato che si tratta di una costante moltiplicativa inessenziale, e κ2 = 0 perché altrimenti
si avrebbe nuovamente l’addendo x1 .
Per la funzione x2 si ottiene in tal modo l’espressione:
- t - t ) - τ *
dτ −2
x2 (t) = x1 (t) = x1 (t) x1 (τ ) exp − p(ξ)dξ dτ ,
ϖ(τ )
e questa in effetti fornisce, per ogni t ∈ J ,
) - t *
W (t) = (x1 v̇x1 + vx1 ẋ1 − vx1 ẋ1 )(t) = exp − p(ξ)dξ ̸= 0 .
Nota 1.5.1 Il procedimento può essere applicato anche ad equazioni non omogenee (si veda: [Tenenbaum p.244]).
Infatti data l’equazione L[y] = r , e nota x1 soluzione dell’equazione omogenea L[x1 ] = 0 , se si impone y := vx1
si ricava la condizione: L[y] = v̈x1 + (2ẋ1 + px1 )v̇ = r che è lineare in v̇ . Lo stesso fattore integrante del caso
omogeneo: - t) * ) - t *
ẋ1 1 ϖr
ϖ(t) := exp 2 +p fornisce : v̇(t) = κ1 + .
x1 ϖ(t) x1
Ne segue che la funzione y definita da
+ - t) - σ * ,
κ1 1 ϖ(τ )r(τ )
y(t) = v(t)x1 (t) = x1 (t) κ2 + + dτ dσ
ϖ(σ) ϖ(σ) x1 (τ )
La cosa è assai utile quando si è in presenza di equazioni che abbiano almeno una soluzione facilmente
riconoscibile:
Esempio 1.5.2 f (t)ẍ + tẋ − x = 0 , t0 , x0 ∈ R .
.t 2
x1 (t) = t è soluzione; quindi ϖ(t) = t2 exp τ f −1 (τ )dτ ; per esempio se f (t) = 1 si ha ϖ(t) = t2 et /2 , e si ricava
. t −2 −τ 2 /2
x2 (t) = t τ e dτ . #
che dà
d2 x τ̈ dx pτ̇ dx q
L[x] −→ + 2 + 2 + 2x
dτ 2 τ̇ dτ τ̇ dτ τ̇
con i coefficienti espressi in funzione di τ . Se allora p, q sono tali che per qualche particolare τ = τ (t), questi
nuovi coefficienti hanno una forma più agevole, allora si è riusciti ad ottenere qualcosa. Per esempio se esiste
una costante c tale che (cq̇ + 2cpq)/(2(cq)3/2 ) = cost allora la sostituzione τ̇ 2 = cq è tale da rendere costanti tutti
i coefficienti, infatti in tal caso si ha (2τ̇ τ̈ + 2pτ̇ 2 )/(2τ̇ 3 ) = cost . #
κ1 1 κ1 1
v̇(t) = 3
+ , ed y(t) = κ2 t − + t ln t.
t 2t 2t 2
In questo caso è anche (q̇ + 2pq)/(2q 2/3 ) = cost e la sostituzione τ = ln t dà la facile equazione: y ′′ − y = e3τ . #
Prima di esaminare qualche metodo per cercare le soluzioni particolari, è qui opportuno introdurre una simbo-
logia più snella anche perché essa risulta valida, come si vedrà, anche per sistemi di equazioni di ordine maggiore al
secondo (si veda §II.3). Inoltre ne sarà discusso l’aspetto geometrico, dopo aver introdotto il concetto di sistemi
equivalenti, e cioè l’aspetto invariante al cambio di coordinate.
Chiamata x1 la variabile x, si introduca l’ulteriore variabile: x2 := ẋ. L’equazione
equivale alla ) 1* ) *
ẋ x2
ẋ = = =: v(t, x) .
ẋ2 f (t, x1 , x2 )
M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 49
Si scelga, nello spazio delle fasi V ≡ R2 , la particolare base e # = (e1 , e2 ) tale che e1 sia il versore relativo alle
coordinate, ed e2 quello relativo alle loro derivate. In tale base la precedente equazione si specializza nella
)d * ) * ) x *
dt x ẋ v (t, x, ẋ)
ẋ = = ≡ = v(t, x).
d
dt ẋ
f (t, x, ẋ) v ẋ (t, x, ẋ)
Queste, per la scelta della base e # , posseggono la particolare proprietà di avere seconda coordinata identicamente
d
uguale alla derivata dt della prima In virtù dei teoremi fondamentali visti in precedenza, per poter determinare
un particolare vettore soluzione x = x(t) occorre assegnare, oltre che l’istante iniziale t0 , anche i valori di tutte le
sue componenti x0 nello stesso istante.
L’operatore di evoluzione Gtt0 è rappresentato in coordinate da un Gtt0 : R2 → R2 che trasforma, a t e t0 fissati,
il punto ) * ) *
x0 x(t, t0 , x0 )
x0 := nel punto x(t) = Gtt0 x0 ≡ .
ẋ0 ẋ(t, t0 , x0 )
Nel caso particolare di equazioni lineari l’operatore di evoluzione ha una forma eccezionalmente semplice, ed
ancora più semplice è quello relativo ad una equazione scalare di ordine n. Infatti, per esempio nel caso n = 2 ,
secondo le considerazioni fatte sopra, la soluzione della (5.48) è espressa mediante le (5.49), e cioè risulta x =
c1 x1 + c2 x2 dove x1 ed x2 sono due arbitrarie funzioni soluzione della (5.48). Scelta la base e # := {e1 , e2 }
come sopra, e cioè con il primo versore nella direzione delle coordinate ed il secondo in quella delle loro derivate,
ed espresse le due prescelte x1 (t) ed x2 (t) in tale base mediante la
Pertanto l’equazione:
) *
d2 d
L[x](t) := + p(t) + q(t) x=0, p, q : I → R, p, q ∈ C ℓ≥0 (I) (5.54)
dt2 dt
o meglio la ⎧ ) *
⎪ x(t)
⎪
⎨ ẋ = T (t)x , x : t &→ x(t) := ∈ R2 , con
ẋ(t)
) * (5.55)
⎪
⎪ 0 1
⎩ T : t &→ T (t) := ∈ L(R2 ), T ∈ C ℓ≥0 (I) ,
−q(t) −p(t)
ha come operatore di evoluzione Gtt0 l’operatore lineare Φ(t)Φ−1 (t0 ) ∈ L(V) che, nella base e# scelta su R2 in
modo che sia x0 = (x0 , ẋ0 ), è rappresentato dalla matrice
) *) *−1
−1 x1 (t) x2 (t) x1 |0 x2 |0
Gtt0 = Φ(t)Φ (t0 ) = =: Φ(t)Φ−1 (t0 ) ∈ L(R2 ).
ẋ1 (t) ẋ2 (t) ẋ1 |0 ẋ2 |0
Il fatto che l’equazione provenga da una del secondo ordine si riscontra nella particolare forma (5.55) della matrice
T ; questa è, invece, del tutto arbitraria nel caso di una generica equazione lineare del primo ordine in R2 , cosı̀
come è del tutto arbitraria la base B nello spazio delle fasi V. Se ne consideri una, fissata, che coincida con la e #
nel particolare caso in esame, e si indichi con T (t) l’operatore cui la base detta assegna matrice T (t). Nello spazio
delle soluzioni dell’equazione ẋ = T (t)x una possibile base naturale e ! := {!
e1 , e!2 } è quella consistente
) * delle) due
*
1 0
soluzioni !ei : t &→ e!i (t), i = 1, 2 , che in t = t0 hanno e -componenti rispettivamente e1 =
#
ed e2 = ,
0 1
che quindi rappresentano le evoluzioni della base e # = {e1 , e2 } di V, ed il cui valore in t è rappresentato dalla
e # -matrice: ⎛ ⎞
..
.
Ψ(t, t0 ) := ⎝e!1 (t) .. e!2 (t)⎠ .
..
Si osservi infine come la matrice Ψ(t, t0 ) sia la migliore rappresentante Gtt0 dell’operatore Gtt0 . Mediante essa,
infatti, si esprimono non solo le e
! -componenti d