Sei sulla pagina 1di 509

Note di Sistemi Dinamici

Mauro Lo Schiavo
Dipartimento di Scienze di Base e Applicate per l’Ingegneria
Sezione Matematica
Universitá degli Studi di Roma ”La Sapienza“
Via A. Scarpa, 16 00161 Roma
mauro.loschiavo@sbai.uniroma1.it

Vol. 12 - 2013
ISBN-A: 10.978.88905708/58

Licensed under
Attribution-Non-Commercial-No Derivative Works
Published by:
SIMAI - Società Italiana di Matematica Applicata e Industriale
Via dei Taurini, 19 c/o IAC/CNR
00185, ROMA (ITALY)

SIMAI e-Lecture Notes


ISSN: 1970-4429

Volume 12, 2013


ISBN-13: 978-88-905708-5-8
ISBN-A: 10.978.88905708/58
Indice

Prefazione V

Notazione VII

1 Equazioni Differenziali Ordinarie


Metodi Analitici 1
1.1 I termini del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Equazioni scalari autonome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 I teoremi fondamentali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4 Esempi e casi notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5 Equazioni lineari scalari del secondo ordine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.6 Ricerca di soluzioni per serie di potenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

2 Sistemi differenziali lineari 75


2.1 Il procedimento di linearizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.2 Sistemi differenziali lineari a coefficienti costanti, in R2 . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.3 Sistemi differenziali lineari a coefficienti costanti, in Rn . . . . . . . . . . . . . . . . . . . . . . . . . . 120
2.4 Sistemi differenziali lineari a coefficienti variabili, in Rn . . . . . . . . . . . . . . . . . . . . . . . . . 125
2.5 La teoria di Floquet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

3 Equazioni Differenziali Ordinarie:


Metodi Qualitativi 147
3.1 Il piano delle fasi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
3.2 Gli integrali primi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
3.3 Il Teorema di Poincaré - Bendixon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
3.4 La discussione sul piano delle fasi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

4 Cenni di stabilità 189


4.1 La stabilità lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
4.2 Il metodo diretto di Liapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

5 Comportamento caotico dei Sistemi 227


5.1 La mappa quadratica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
5.2 Cenni di teoria delle biforcazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
5.3 “Classici” esempi di mappe caotiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
5.4 “Classici” esempi di flussi caotici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288

6 Alcuni Metodi Perturbativi 303


6.1 Gli sviluppi asintotici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
6.2 Metodi di Stiramento delle Coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
6.3 Il pendolo fisico e l’equazione di Duffing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
6.4 Ancora sull’equazione di Duffing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373

A 379
A.1 Richiami di Analisi Funzionale. ( I ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
A.2 Richiami di Analisi Funzionale. ( II ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
A.3 Richiami di Analisi Funzionale. ( III ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
A.4 Richiami di Geometria Differenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434
A.5 Richiami di Algebra Lineare. ( I ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
A.6 Richiami di Algebra Lineare. ( II ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
A.7 Richiami di Analisi Reale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
A.8 Richiami di Analisi Complessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
A.9 Disuguaglianza generalizzata di Gronwall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481

III
IV INDICE
Prefazione
Queste Note hanno avuto origine dall’esperienza fatta impartendo lezioni di matematica applicata, ed in particolare
il corso di Sistemi Dinamici, presso la facoltà di Ingegneria della “Sapienza” ormai fin dall’A.A. 1987/88.
Un’esperienza che, per il tipo ed il livello degli argomenti trattati, ha costituito una rara fortuna. Rara, perché
è opinione di molti che le attuali discipline scientifiche “standard”, ed in particolare quelle specificatamente rivolte
alla formazione matematica dell’ingegnere, siano ben più che sufficienti; fortuna, perché il dover presentare, e far
gradire, argomenti di matematica avanzata a giovani ben convinti della superiorità del fare rispetto al dire, mi ha
costantemente stimolato a svilupparne l’aspetto concreto a scapito di quello puramente speculativo.
I miei pochi ma fortemente motivati studenti mi hanno fatto chiaramente sentire che il loro interesse e perfino la
loro presenza in aula erano un premio, e che questo era rivolto non già alla materia, certo interessante soprattutto
se nelle mani dei suoi cultori, ma a quello che la materia avrebbe potuto in futuro rendere loro.
In tal modo mi sono trovato costretto ad un particolare impegno per mettere in luce gli aspetti essenziali, e
formativi, che potessero far loro rapidamente acquisire quella sensibilità matematica che non dovrebbe mancare a
chi, dal difficile mondo della matematica applicata vuole acquisire, o vorrà in seguito, i metodi talvolta avanzati
che sono indispensabili a risolvere problemi concreti.
Con questo spirito ho impartito il mio corso per tutti questi anni, anche in risposta alle richieste a me fatte dai
colleghi ingegneri.
Non trovando alcun testo adeguato a tale scopo, ed anche a causa della mia scarsa memoria che mi costringe
a preparare ogni argomento riscrivendolo quasi integralmente, iniziai a suo tempo a riempire pagine e pagine di
fitti appunti che si sono via via arricchiti ed ampliati. Di nuovo i miei studenti, dopo aver vanamente tentato di
interpretare il manoscritto, e disperati del dovere non solo decodificare il linguaggio matematico ma anche il mio
personale, mi convinsero della necessità di “ricopiare in bella” questa raccolta, e di trasformarla in qualcosa che
fosse di facile interpretazione e, possibilmente, di ancor più facile manipolazione.
L’esistenza dell’onnipresente computer, qui usato principalmente come compositore di stampa e per produrre
accettabili grafici, ed il piacere di rimaneggiare con poche battute tutto un argomento, hanno fatto il resto.
Di conseguenza, anno dopo anno, ed alla luce delle considerazioni fatte l’anno prima, mi sono scoperto rima-
neggiare, ampliare e rifinire un qualcosa che da disomogenea raccolta di lezioni è in definitiva diventato uno (spero)
comodo promemoria. Esso si rivolge, oltre che agli allievi del corso di Sistemi Dinamici, anche a chi voglia iniziare
a sopravvivere nella vasta ed intricata foresta delle metodologie proprie della matematica applicata; ed in parti-
colare a quelli che, senza farsi scoraggiare da qualche termine tecnico e “per soli introdotti”, vogliono raggiungere
una visione sintetica di alcuni dei principali argomenti della matematica (deterministica) applicata ai sistemi in
evoluzione.
Non mi è facile, dopo tanto rimaneggiare, rendermi conto dell’effettiva bontà del prodotto: alcuni argomenti
sono rimasti molto simili a quelli originari trovati sui vari libri in circolazione, altri invece sono stati rielaborati più
volte; e non tanto per partito preso, quanto perché a posteriori mi rendevo conto, dall’occhio triste e depresso della
mia platea, che l’approccio adottato, seppur squisito ed ineccepibile dal punto di vista teorico e formale, era stato
in realtà poco assaporato ed ancor meno digerito.
Va detto che a mia volta non mi sono facilmente arreso, e non credo di aver fatto illecite concessioni né al
rigore matematico né allo spessore della presentazione. Inoltre sapendo che, per molti dei miei studenti, alcuni
degli argomenti qui trattati lo sarebbero stati solo in questo corso, per favorirne la lettura ho talvolta indugiato
inserendo brevi e sintetici richiami a vasti e doviziosi aspetti delle corrispondenti teorie, dall’enorme profondità
concettuale ma dall’impossibile inserimento in piani di studio applicativi.
È evidente pertanto che queste note non hanno pretese di completezza o di dettaglio, viceversa cercano in
generale solo di rendere l’idea nel modo più semplice possibile pur rimanendo corretto. Gli argomenti trattati sono
stati solo rielaborati ed opportunamente tradotti, e non è stata mia intenzione apportare sostanziali modifiche
ad una materia già largamente codificata. Essi sono tutti presenti in monografie di ben altra ampiezza alle quali
si rimanda il lettore interessato. Tuttavia, la mole di esse e l’impegno necessario ad una loro anche solo iniziale
lettura, sono generalmente spaventevoli. Per avvicinarsi a queste note, invece, i prerequisiti sono assai modesti: un
buon corso di analisi matematica e le nozioni fondamentali di geometria sono sufficienti ad iniziarne la lettura, e
permettono di procedere con quelle ulteriori idee di analisi funzionale, algebra, e geometria, necessarie nel corso di
esse.
Roma 29 Maggio 2009

V
VI Prefazione
Notazione

Caratteri filettati spazi (con strutture); eventualmente spazi vettoriali


A cap. 1,2,5 spazio di funzioni
B cap. 1,2,4,a base di uno spazio
C cap. a spazio complesso
E cap. 3,5,a spazio vettoriale (euclideo)
G cap. 2,a varietà
H cap. 5,a spazio di Hilbert
K cap. 1,a campo numerico
L cap. 1,2,3,4,5,a spazio (vettoriale) di operatori lineari
M cap. 1,2,3,4,5,6 varietà (differenziabile)
P cap. 2,4,5,6 spazio prodotto
T cap. 2,3,5 toro
V cap. 1,2,3,4,5 spazio vettoriale
W cap. 2,4,5 spazio vettoriale o varietà
X cap. 1,3,5,6 spazio di punti o di funzioni
Y cap. 3,5 spazio di punti o di funzioni
N cap. 5 insieme dei numeri interi positivi
R cap. 1,2,3,4,5 insieme dei numeri reali
C cap. 1,2,3,4,5 insieme dei numeri complessi
Q cap. 1,2,3,5 insieme dei numeri razionali
Z cap. 1,2,4,5 insieme dei numeri interi

Caratteri normali
a, b, c, d, f, . . . costanti reali (o funzioni)
x, y, z, v, w punti su varietà (eventualmente vettori)
ψ, φ, χ, . . . funzioni reali di variabile reale, o funzioni su varietà;
i, j, k, n, ν indici interi
A, B, C, D, J, V, Γ insiemi (senza struttura) di punti o di funzioni
N (x) intorno del punto x
Br (x) sfera di centro x e raggio r
B Cap. a base di intorni
C(R1 , R2 ) insieme delle funzioni continue da R1 in R2
L1 (R1 , R2 ) insieme delle funzioni R1 → R2 con modulo Lebesgue-integrabile
L2 (R1 , R2 ) spazio di Hilbert delle funzioni con modulo quadro integrabile
ΓF 0 := F −1 (F 0 ) insieme di livello F 0 della funzione F
ε costante reale piccola
ϵ vettore (di base)
j(x) funzioni di Bessel
hn (x) polinomi di Hermite
p(x) polinomio
Γ(x) funzione speciale Γ
Φ(t) sistema fondamentale
Ψ(t) sistema delle evoluzioni dei vettori di base
Tx M spazio tangente la M in x

Altri caratteri
∂ operatore di derivata
T Cap. 1,2,3,4,5,6 periodo (durata) di tempo
[D] chiusura dell’insieme D
∂D frontiera dell’insieme D
{x} insieme costituito dal solo elemento x
⟨ a, b ⟩ prodotto scalare fra a e b
π i i-ma proiezione: π i (x) = xi

VII
VIII Notazione

Caratteri calligrafici
A, B, C, D, T , P operatori su varietà; (op. lineari se su spazi vettoriali)
G Cap. 1,2,3,a applicazione di avanzamento
I Cap. 3 applicazione di avanzamento

Caratteri maiuscoletto punti di uno spazio (affine o) fisico


a cap. 5
b cap. 5
c cap. 1,2,5
d cap. 5
o cap. 1,2,4,5,a
p cap. 1,2,5,a
q cap. 1
Ω cap. 1,5

Caratteri gotici e corsivo


A Cap. 5 attrattore
B Cap. 2,a forma bilineare
D Cap. 2,4 determinante, o divario
E Cap. 1,3,4,6 funzione energia meccanica
F Cap. 3,4,a funzione di Liapunov, o integrale primo
H Cap. 2,3,4,6 funzione hamiltoniana
G Cap. 5 Omomorfismo
I Cap. 5 Isomorfismo
L Cap. 2,3 funzione lagrangiana
K Cap. 2,4 tensore della metrica
χ Cap. 2,4 tensore della metrica
O Cap. 4 funzione omogenea
Q Cap. 1,4 forma quadratica
T Cap. 2,3,4,a energia cinetica
W Cap. 2,4 funzione wronskiano
V Cap. 1,2,3,6 energia potenziale

Caratteri math grossi


π Cap. 2,4 operatore parte quadratica dell’energia potenziale
ϕ Cap. 1,2,3,4 trasformazione di rettificazione, o di coordinate
g Cap. 5 generatore
s Cap. 5 ricoprimento
τ Cap. 5,a topologia
α Cap. 5 algebra
β Cap. 5 algebra
ℓ Cap. 5 linea
γ Cap. 3,5,a linea, cammino, bordo di superficie
φ Cap. a immagine di una curva
ψ Cap. a immagine di una curva, cammino
ω Cap. 3,4,5 insieme omega-limite

Caratteri grassetto
a, b, c, e, f , g n-ple di numeri reali: coordinate di vettori
α Cap. 2 n-pla di numeri reali
γ Cap. 2,a n-pla di numeri reali
ϵ Cap. 2,a n-pla di numeri reali
ζ Cap. 2,a n-pla di numeri reali
η Cap. 1,2.a n-pla di numeri reali
θ Cap. 2,5 n-pla di numeri reali
κ Cap. 2 n-pla di numeri reali
ν Cap. 1,2,3,5,a n-pla di numeri reali
Notazione IX

ξ Cap. 2,3,5,a n-pla di numeri reali


π Cap. 4 n-pla di numeri reali
σ Cap. 2,4,5 n-pla di simboli
τ Cap. 1,2,a n-pla di numeri reali
φ Cap. 1,2,3,5,a n-pla di numeri reali
χ Cap. 1,2 n-pla di numeri reali
ψ Cap. 1,2,3,5,a n-pla di numeri reali
ω Cap. 1,4,5,a n-pla di numeri reali
ρ Cap. 2,a n-pla di numeri reali
ϱ Cap. 2 n-pla di numeri reali
ϕ Cap. 1,2,3,5 n-pla di numeri reali
ℓ Cap. 3,a n-pla di numeri reali

Caratteri grassetto grossi


A, B, C, D, E n2 -ple di numeri reali: matrici n × n
T Cap. 1,2,.. matrice dell’operatore T
τ Cap. 2,4 altra matrice dell’operatore T
G Cap. 1 matrice dell’applicazione d’avanzamento
I Cap. altra matrice dell’applicazione d’avanzamento
Ω Cap. 2 matrice
Λ Cap. 2 matrice
Ξ Cap. 2,3 matrice
Π Cap. a matrice
Υ Cap. 2 matrice
Φ Cap. 1,2,a matrice di un sistema fondamentale
Ψ Cap. 1,2,5 matrice principale
b Cap. a matrice
c Cap. a matrice
f Cap. a matrice
q Cap. a matrice
a 2,4,a matrice della forma quadratica dell’energia cinetica
A 2,4,a matrice dell’operatore dell’energia cinetica
α Cap. 2 altra matrice dell’operatore dell’energia cinetica
β Cap. 2 altra matrice dell’operatore dell’energia potenziale
κ Cap. 2,4,a matrice della metrica
χ Cap. 2,4,a altra matrice della metrica
Σ Cap. a
ϕ Cap. a
Capitolo 1

Equazioni Differenziali Ordinarie


Metodi Analitici

1.1 I termini del problema


Nel seguito verranno usate le seguenti locuzioni con i significati (forse talvolta riduttivi) vicino espressi:
Sistema := l’oggetto in esame, che si assume caratterizzato mediante un insieme di grandezze che si possono
individuare tramite valori numerici e convenienti unità di misura.
Stato del sistema := una particolare scelta dei valori delle grandezze che descrivono il sistema.
Spazio delle fasi := collezione di tutti i possibili stati.
N.B. 1.1.1 Stato non significa necessariamente posizione o configurazione, e cioè un insieme di coordinate spaziali
o generalizzate, ma piuttosto l’insieme di tutte le variabili dalle quali il sistema risulta totalmente e definitivamente
caratterizzato (cfr. oltre). ♦

Sistema dinamico := la famiglia delle trasformazioni dello spazio delle fasi in sé che fanno passare da un certo
stato “attuale” ad un altro, “passato” o “futuro”, e che ha come indice il parametro “tempo”. Questo ha valori
reali t ∈ R per sistemi continui ed ha valori interi t ∈ Z per sistemi discreti, ed entrambi sono minori o maggiori
di zero, rispettivamente, per passato e futuro.
Sistema, o processo, deterministico := un sistema per il quale è possibile individuare, ed univocamente, il
passato ed il futuro a partire dal suo stato attuale. Si pretende cioè che il modello matematico che ne regola
l’evoluzione ammetta Esistenza ed Unicità della soluzione uscente da ogni possibile dato iniziale.
Di natura diversa sono, per esempio, i seguenti due processi.
Processo stocastico := una famiglia di funzioni definite sullo spazio delle fasi (con struttura di spazio di misura),
dette variabili casuali, integrabili su comodi insiemi, detti eventi, indiciata dal parametro temporale t. Le
transizioni fra due istanti, cosı̀ come il valore degli integrali, possono essere regolati da convenienti misure di
probabilità (stabilite apriori o dedotte da osservazioni di esperimenti quali, per esempio, il lancio di un dado, la
lunghezza di un messaggio, l’applicazione di una qualche matrice di transizione, etc.). Tuttavia, tali transizioni
possono anche essere deterministiche, e solo le variabili non esserlo.
Processo ereditario := l’intero passato del sistema determina (o influisce) sul suo futuro.

Un esempio di sistema deterministico di evidente importanza è quello di un


Sistema meccanico a dimensione finita := lo stato è assegnato mediante la coppia (x, ẋ), x, ẋ ∈ Rn , dove
le x (o anche q ) sono un insieme di coordinate spaziali (o generalizzate) che individuano la configurazione del
sistema; la sola x non lo renderebbe deterministico.
Sistemi evolutivi deterministici nella loro descrizione matematica (anche se possono non esserlo i modelli dei
sistemi fisici che essi interpretano) e di “dimensione infinita” sono per esempio i sistemi continui, i sistemi quantistici,
i sistemi cinetici, etc. Per essi lo spazio delle fasi è un conveniente spazio funzionale, magari discreto.
Nel seguito ci si occuperà solo di sistemi con spazio delle fasi a dimensione finita. In particolare, si tratteranno
principalmente sistemi definiti su spazi (a dimensione finita e) convenientemente regolari: M aventi struttura di
varietà differenziabili, (e cioè localmente Rn , vedi oltre). I punti di questi, rappresentanti i possibili stati del sistema,
verranno indicati con lettere minuscole in caratteri normali; le loro rappresentazioni in un qualche fissato sistema coordinate, e quindi
formate da n -ple ordinate di numeri reali, dalle stesse lettere in caratteri grassetto. Quando invece si vorrà rimarcare il carattere
puntuale dello spazio, in particolare dello spazio fisico tridimensionale, e distinguere (fissata la carta) un certo punto dello spazio dal
vettore di posizione che gli corrisponde, quest’ultimo verrà indicato con il sopra-simbolo di vettore, o anche con la coppia di punti che


ne individuano gli estremi: per esempio op invece di quell’elemento p ∈ M le cui coordinate (fissata la carta) sono assegnate dalla
n -pla p ∈ R delle componenti del vettore di estremi (fissato il riferimento) il punto p e l’origine o .
n

1
2 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Processo differenziabile := un sistema deterministico con spazio delle fasi avente la struttura di Varietà dif-
ferenziabile, o “Manifold”: M, (si veda: Appendice A.4), e la cui evoluzione è in esso descritta da funzioni:
g : (t, x0 ) ∈ R &→ g(t, x0 ) ∈ M differenziabili.
Più spesso con questo aggettivo si intende la prima di queste proprietà, e la seconda solo rispetto al dato:
x0 ∈ M.
Verranno ora introdotte, con maggiori dettagli, le proprietà essenziali di un possibile modello per un processo
differenziabile a dimensione finita che sia stazionario, e cioè tale da non contenere un transitorio dipendente dal
particolare istante iniziale.
Si considera innanzi tutto una varietà M come spazio delle fasi, ed un punto x ∈ M che rappresenti lo stato
del sistema in un certo istante t0 .
Come si è detto, l’evoluzione fra t0 e t è modellata da una trasformazione dello spazio delle fasi in sé, detta
onto
Applicazione d’avanzamento o Operatore d’evoluzione Gtt0 : M −→M :=
una mappa univocamente definita su tutto M ed a valori su tutto M, che fa corrispondere a ciascun x ∈ M il suo
evoluto Gtt0 x dopo l’intervallo di tempo [t0 , t].
Affinché una famiglia {Gtt0 }t∈R di tali applicazioni d’avanzamento possa rappresentare una evoluzione del
sistema con le proprietà richieste, è necessario che su tutto M
per il determinismo, sussista la: Gtt01 = Gtt1 Gtt0 , ∀t0 , t1 , t ∈ R;
per la stazionarietà, sussista la: Gtt+τ = G0τ =: G τ , ∀τ, t ∈ R.
Queste proprietà insieme forniscono:

G t+τ = G t G τ = G τ G t , ∀τ, t ∈ R . (1.1)

Gruppo ad un parametro di evolutori := {G t }t∈R una famiglia di applicazioni d’avanzamento G t : M → M


tali che
G t+τ = G t G τ ∀τ, t ∈ R, G 0 = 1I .
A volte ci si dovrà limitare a
Gruppi locali, ad un parametro := famiglie di trasformazioni che verificano la legge di composizione gruppale
per valori del parametro t solo in convenienti sottoinsiemi (connessi) di R;
o addirittura (vedi oltre) a famiglie di applicazioni d’avanzamento che non verificano la composizione gruppale,
e cioè per le quali Gtt12 ̸= G0t2 −t1 . In tali casi il sistema non è stazionario e la composizione Gtt34 Gtt12 è sicuramente
definita solo se t3 = t2 e se, ovviamente, sono definiti i fattori.
N.B. 1.1.2 In generale, infatti, non è detto che la Gtt34 Gtt12 sia un’ammissibile applicazione d’avanzamento, e cioè che
per una certa evoluzione G esistano t5 , t6 tali che l’assegnato sistema evolva fra t5 e t6 secondo la Gtt56 = Gtt34 Gtt12 .
Ma se t3 = t2 il determinismo assicura che ciò accade, almeno con t5 = t1 e t6 = t4 (e sempre che il secondo
membro sia definito: cioè sempre che esistano Gtt12 e Gtt24 ). Quando il sistema è stazionario, invece, per ogni τ ∈ R
ed arbitrari t, t0 si ha che
Gtt+τ
0 +τ
= Gtt0 o anche Gtt0 −τ = Gtt+τ
0

e l’esistenza dei due fattori G τ e G τ è sufficiente a garantire quella di G t G τ = G t+τ .


Le due proprietà, tuttavia, sono indipendenti fra loro; ad esempio l’evoluzione Gtt0 x0 := x0 t/t0 è deterministica
ma non stazionaria, mentre la Gtt0 x0 := x0 se t ≤ t0 e Gtt0 x0 := x0 (1 + t − t0 ) se t > t0 è stazionaria ma non
deterministica. Per ulteriori esempi si veda oltre. ♦

Un buon modello per un sistema differenziabile deterministico stazionario a dimensione finita è allora dato da
un:
Flusso di fase differenziabile := una funzione g : R × M → M definita per ogni t ∈ R ed x ∈ M dalla
g : (t, x) &→ G t x, con le ipotesi che g sia differenziabile ovunque in R × M e che {G t }t∈R sia un gruppo ad un
parametro di trasformazioni dello spazio delle fasi in sé.
Ne segue che G t è, per ogni t, un
Diffeomorfismo := una corrispondenza biunivoca differenziabile con inversa differenziabile.
Per esempio G t x := xt , con x ∈ R e t = 3 , non lo è perché (x1/3 )′ (0) non esiste.
Spazio delle fasi ampliato := lo spazio R × M delle coppie (t, x).

Moto uscente da x ∈ M in t = 0 := la funzione x ! : t ∈ R → x


!(t) ∈ M definita da x
!(t) = G t x, ove g :
(t, x) &→ G x ∈ M è un flusso di fase differenziabile.
t

M. Lo Schiavo
1.1. I termini del problema 3

Osservazione sulla notazione


• Ci si ricorda della scelta fatta del particolare x ∈ M relativo all’istante t = 0 con la locuzione: moto di
un “elemento” rappresentativo che all’istante t = 0 si trovi nel punto x dello spazio delle fasi M, o più
brevemente con moto di x. È però evidente che questo moto non corrisponde generalmente ad alcun tipo
di moto effettivo di alcun elemento materiale in alcuno spazio fisico.
• Inoltre è generalmente conveniente ricordare che il punto x è quello scelto all’istante t0 indicandolo con la
notazione x0 , ma si badi bene che tale punto è del tutto generale e deve poter essere scelto arbitrariamente
in tutto lo spazio delle fasi M.
• Accade poi spesso che il superscritto: “ ! ” della funzione x ! : J ⊆ R → M scompaia e che si confonda, nella
notazione, il punto x ∈ M con il valore assunto in t dalla funzione x ! e che coincide con il punto x stesso,
scrivendo cioè x = x(t) invece di x = x!(t). Tale notazione, impropria, è comune quando si voglia ricordare
esplicitamente e brevemente gli argomenti di una funzione, ed allora la locuzione “funzione φ(t, t0 , x0 )” può
perfino essere usata al posto di: funzione φ : (t, t0 , x0 ) &→ φ(t, t0 , x0 ) ∈ M.
! contenga, per esempio in qualità di coef-
In particolare ciò avverrà nel seguito quando un’equazione nell’incognita funzione x
ficienti, anche altre funzioni assegnate e generalmente non costanti: quando ciò non leda la chiarezza, queste ultime potranno
essere indicate con il simbolo riservato al loro valore in un punto. Per un sistema su Rn , per esempio, si scriverà
ẋ = c1 (t)x + c2 (t), con (t0 , x0 ) ∈ R × Rn ,
piuttosto che ⎧

⎪ x ! (t) ∈ Rn ;
! : t ∈ J ⊆ R &→ x = x



⎪ !1 : t ∈ I ⊆ R &→ c
c !1 (t),
d ⎨
!=c
x !1 x
!+c
!2 , con c1 (t) : x ∈ Rn &→ c1 (t)x ∈ Rn ;
dt ⎪


⎪ !2 (t) ∈ Rn ;
!2 : t ∈ I ⊆ R &→ c
c



(t0 , x0 ) ∈ R × Rn con x
! (t0 ) = x0 .
Nell’Appendice A.4 vengono poi date una motivazione ed una notazione anche più generali di queste.

Curva integrale := il Grafico del moto, e cioè la curva nello spazio delle fasi ampliato (R × M) costituita dalla
famiglia di coppie {(t, Gtt0 x0 )}t∈J⊆R .
N.B. 1.1.3 Il determinismo fa sı̀ che due curve integrali non si intersechino, e che ciascuna abbia una e una sola
intersezione con i piani t = cost. ♦

Nel caso in cui M ≡ R è lo spazio delle configurazioni, la curva integrale è il ben noto diagramma orario.
Se, ma non solo se (si veda: §III.1), {G t }t∈R è un gruppo, le curve integrali sono invarianti per traslazioni:
t → t + τ , (si veda: [Arnold I]):
Proposizione 1.1.1 Sia Hτ : (t, x) &→ (t + τ, x) l’operatore di traslazione lungo l’asse dei tempi nello spazio
delle fasi ampliato e {(t, G t x)}t∈R una curva integrale, con G t verificante la proprietà di gruppo: G t+τ = G t G τ .
Allora
{Hτ (t, G t x)}t∈R = {(t + τ, G t x)}t∈R è anch’essa una curva integrale.

Dimostrazione Dato che {G t }t∈R è un gruppo, esiste unico y = G −τ x, e quindi x = G τ y . Inoltre la stessa
t+τ
composizione G = G t G τ assicura l’esistenza di: G t x = G t+τ y . Quindi {(t + τ, G t x)}t∈R ≡ {(σ, G σ y)}σ∈R con
σ := t + τ .

G t+¿y

x
0 t ¿ (t+¿) 0 t ¿ (t+¿)
G ty

y= G -¿x

"

Curva di fase, o Orbita, uscente da x, o Traiettoria per x := l’Immagine del moto, e cioè il sottoinsieme di
M dato da γ := {Gtt0 x}t∈J ⊂ M.
N.B. 1.1.4 Se {G t }t∈R è un gruppo, le curve di fase non si intersecano (perché in caso contrario si potrebbero
sempre trovare due curve integrali che ad esse corrispondono e che si intersecano). ♦

Note di Sistemi Dinamici


4 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Le seguenti definizioni (si veda anche: [Arnold I]) riassumono le varie possibilità.
Sistema dinamico (deterministico stazionario differenziabile a dimensione finita) := la coppia (M, g) con M una va-
rietà differenziabile e g un flusso differenziabile.
Tuttavia, perfino nei casi di stazionarietà, ci si deve spesso limitare a:
Sistemi dinamici locali := (M, J0 , V0 , g) dove: M è una varietà differenziabile, J0 un intorno dell’origine
in R, V0 ⊆ M un conveniente intorno di un arbitrario punto x0 dello spazio delle fasi M, e g una funzione da
J0 × V0 in M tale che:

(i) per ciascun fissato t ∈ J0 , l’applicazione d’avanzamento G t : V0 → M definita da x &→ G t x := g(t, x) è un


diffeomorfismo;

! : J0 → M definito dalla t &→ x


(ii) per ciascun x ∈ V0 , il moto x !(t) := g(t, x) è una funzione differenziabile su
!(0) = x;
J0 e tale che x

(iii) per ogni x ∈ V0 si ha G t+τ x = G t G τ x per quei t, τ ∈ J0 per i quali il secondo membro è definito. Inoltre,
per ogni x ∈ V0 esistono N (x) ⊂ V0 e δ > 0 tali che G t G τ x′ è definito per ogni x′ ∈ N (x) e
|τ |, |t| < δ .

Nel caso non stazionario, il flusso di fase non è più invariante per traslazioni temporali: le curve integrali non è
detto siano più le traslate rigide l’una dell’altra secondo l’asse delle t (e le funzioni φ(t + c, t0 , x0 ) siano soluzioni
della stessa equazione della quale è soluzione la φ(t, t0 , x0 )). Per ogni applicazione d’avanzamento occorre allora
fissare l’esplicita coppia degli istanti di riferimento, e specificare il particolare intorno J × V0 ⊂ R × M del punto
(t0 , x0 ) vicino al quale si studia il sistema.
Un buon modello per l’evoluzione di un sistema deterministico non stazionario, nell’intorno di un punto (t0 , x0 ) ∈
R × M, consiste allora in una
Famiglia locale di applicazioni d’avanzamento su R × M := (M, J, V0 , &
g)
dove: M è una varietà differenziabile, J × V0 ⊆ R × M è un intorno del punto (t0 , x0 ) e g& , che verrà chiamato
Avanzamento locale, una funzione & g : J × J × V0 → R × M tale che, indicando con {t1 } il singleton {t′ ∈ R | t′ =
t1 } , si abbia:

(i) per ciascun (t, t1 ) ∈ J × J l’applicazione G&tt1 : ({t1 } × V0 ) → J × M definita da G&tt1 (t1 , x) := &
g(t, t1 , x) è un
diffeomorfismo da {t1 } × V0 in {t} × M;

(ii) per ciascun (t1 , x) ∈ J × V0 , il Moto uscente da x ∈ M in t1 , e cioè la mappa x !:t∈J ⊆R→x !(t) ∈ M
!(t)) := g&(t, t1 , x), è una funzione differenziabile su J e tale che x
definita nella (t, x !(t1 ) = x;

(iii) sussiste la: G&tt13 (t1 , x) = G&tt23 G&tt12 (t1 , x) se t1 , t2 , t3 ∈ J ed x ∈ V0 sono tali che il secondo membro è definito.
In tal caso, per ciascun (t1 , x) ∈ J × V0 esiste un intorno N (t1 ) × N (x) tale che il secondo membro continua
ad essere definito per ogni x′ ∈ N (x) e t2 , t3 ∈ N (t1 ).

Identificando con un unica M ogni “copia” dello spazio delle fasi, data per ogni t ∈ J da {t} × M, si ha che la
mappa G&tt12 : {t1 } × V0 → {t2 } × M individua la mappa Gtt12 : M → M di cui si è parlato precedentemente, e che
si riduce a G t2 −t1 quando il sistema è stazionario.

Tale identificazione permette anche di introdurre la


Componente spaziale dell’Avanzamento locale := la funzione φ : J × J × V0 &→ M definita dalla (t, φ(t, t1 , x))
:= g&(t, t1 , x). La sua restrizione a t e t1 fissati arbitrari in J è un diffeomorfismo Gtt1 da V0 in M, e la sua
restrizione a (t1 , x) fissati arbitrari in J × M è il moto x ! : J → M uscente da x in t1 e quindi definito da
!(t) := φ(t, t1 , x) ≡ Gtt1 x con x
t &→ x !(t1 ) = φ(t1 , t1 , x) = x, ed analoga proprietà per il suo valore a (t, x) fissati.
Posizione di equilibrio := punto unito di una famiglia di applicazioni di avanzamento, ovvero un punto che sia
esso stesso una traiettoria.
Qualora la varietà sia ad un numero infinito di dimensioni tale punto viene spesso chiamato “soluzione stazionaria”,
da non confondere però con un sistema stazionario.
Dato un moto x! : J ⊆ R → M definito, come si è detto, da x !(t) = Gtt0 x0
!(t) := φ(t, t0 , x0 ), ed indicata con x = x
la posizione occupata all’istante t dall’elemento rappresentativo che per t = t0 occupava il punto x0 , si definisce

M. Lo Schiavo
1.1. I termini del problema 5

Velocità di fase, nel punto x, individuata dal moto := la velocità ẋ che tale elemento rappresentativo possiede
nel punto x ed all’istante t; e cioè il valore della derivata
' '
d '' d ''
ẋ = !
x(t + τ ) = G t+τ x
dτ 'τ =0 dτ 'τ =0 t

essa dipende, come si vede, da x e da t e quindi, per ogni (t, x) ∈ J × V0 , durante una certa evoluzione individuata
da {Gtt0 }t∈J sussiste la
ẋ = v(t, x) , x ∈ M, v ∈ Tx M (1.2)
da interpretarsi come un legame (eventualmente dipendente dal tempo) che durante quella evoluzione sussiste
fra la posizione all’istante t e la velocità che in quello stesso istante compete ad un elemento in quella posizione.
Quando queste si intendano quali valori di funzioni del tempo, la (1.2) può essere interpretata come un’equazione
funzionale avente come incognita la funzione moto, ed infatti in tutti gli istanti t di definizione il moto risulta
verificare l’identità, ' '
d d '' t+τ d ''
!(t) ≡
x G x= G t+τ Gtt0 x0 ≡ v(t, x
!(t)). (1.3)
dt dτ 'τ =0 t dτ 'τ =0 t
In particolare, se la famiglia di trasformazioni forma un gruppo locale, e cioè se il sistema è stazionario, questa
velocità dipende solo dal punto e non dipende esplicitamente dal tempo; si ha infatti
' '
d '' t+τ d ''
G x≡ G τ x = v(x) .
dτ 'τ =0 t dτ 'τ =0

d'
'
N.B. 1.1.5 Per il momento, la funzione v : x &→ v(x) è individuata per componenti: v i (x) = dt t=0
xi (G t x);
e quando nel seguito si vorrà distinguere il caso scalare: dim M = 1 dal caso: dim M > 1 , lo si farà con la (usuale)
notazione: ẋ = v(x) nel primo caso e ẋ = v(x) nel secondo. Come già accennato tuttavia, (si veda: Appendice A.4
ed [Arnold 1]) questa differente notazione avrà anche il compito di distinguere l’equazione sul tangente alla varietà
dalla sua rappresentazione in coordinate. ♦

Si riassume tutto ciò nel seguente modo:

La terna (J, V0 , G) individua una famiglia di applicazioni d’avanzamento


{Gtt0 }t∈J , e questa definisce su J × V0 ⊆ R × M un campo vettoriale
v = v(t, x) ∈ Tx M. Il moto x !(·, t0 , x0 ) : J → M, definito dalla

!(t)) := (t, φ(t, t0 , x0 )) := (t, Gtt0 x0 ),


(t, x

è (una) soluzione dell’equazione differenziale associata al campo (o de-


finita dal campo):
ẋ = v(t, x) .

Con ciò si intende che esso è una funzione x ! : J ∈ R → M, differenziabile, tale che x
!(t0 ) = φ(t0 , t0 , x0 ) = x0 , e
!(t)) è definito per ogni t ∈ J e vi risulta
tale che v(t, x
d
!(t) = v(t, x
x !(t)) ∀t∈J .
dt

Osservazione fondamentale nello studio dei sistemi dinamici:


sotto certe condizioni è vero il viceversa: certi campi vettoriali sono tali da ammettere ed individuare una famiglia
{G t }t∈R che è un gruppo ad un parametro.
Più in generale:
se il campo v = v(t, x) è differenziabile in un aperto D ⊆ R × M si può mostrare (si veda: §I.3) che esiste una
famiglia locale di applicazioni d’avanzamento, e quindi un avanzamento locale &g relativo ad un conveniente intorno
J × V0 ⊆ D di un arbitrario punto (t0 , x0 ) interno al dominio D di regolarità del campo.

Memento 1.1.1 Dominio:= aperto, connesso, non vuoto. Qui, “aperto” nella topologia indotta dalla metrica
euclidea in R1+n .

Note di Sistemi Dinamici


6 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Sotto queste ipotesi infatti, la famiglia delle soluzioni x ! dell’equazione ẋ = v(t, x) uscenti in t1 dai punti x1
di V0 individua, al variare di (t1 , x1 ) in J × V0 , una funzione φ : J × J × V0 &→ M atta a definire mediante la
(t, φ(t, t1 , x1 )) =: g&(t, t1 , x1 ) un avanzamento locale g& in quanto si vedrà che:

(i) G&tt1 (t1 , ·) := φ(t, t1 , ·) è un diffeomorfismo da {t1 } × V0 in {t} × M;

(ii) per costruzione, il flusso & !(·) tale che


g(·, t1 , x1 ) è compatibile con un moto x
(
ṫ =1
t &→ x
!(t) è soluzione di e verifica: g&(t1 , t1 , x1 ) = x
!(t1 ) = x1 ;
ẋ =v(t, x),

(iii) g&(t3 , t2 , g&(t2 , t1 , x)) = g&(t3 , t1 , x) lı̀ dove tali operazioni sono definite.

Nel seguito, purché ciò non dia adito a dubbi, non solo la x ! ma anche la funzione φ verrà chiamata soluzione
dell’equazione ẋ = v(t, x). Ciò per motivi di brevità, e vuole ricordare non solo che per (t0 , x0 ) fissati in J × M
!(t) := φ(t, t0 , x0 ) = Gtt0 x0 ∈ M verifica su J la (1.2) e la condizione x
! il cui valore in t è x
la x !(t0 ) = x0 ∈ M, ma
anche che al variare di (t0 , x0 ) ∈ J × V0 e per t fissato, il punto x = x !(t) varia in modo (almeno) continuo in M.
Inoltre, come si è già accennato, la notazione con il superscritto “ ! ” verrà abbandonata a meno che essa sia
strettamente indispensabile. Per esempio, quando non vi siano dubbi sul punto (t0 , x0 ), si preferirà indicare la x !(t)
con x(t).

Esempio 1.1.6 ẋ = kx, k, t0 , x0 ∈ R ⇒ x(t) = ek(t−t0 ) x0 .

x
v(x)

x0

x t
#

Esempio 1.1.7 Si consideri l’equazione

ẍ = k , con k ∈ R (1.4)

La sua soluzione generale si può trovare integrando direttamente due volte l’equazione stessa. Scelti t0 , x0 , ẋ0
arbitrari in R si ha
1
ẋ(t) = k(t − t0 ) + ẋ0 , e x(t) = k(t − t0 )2 + ẋ0 (t − t0 ) + x0 . (1.5)
2
La (1.4) può essere trasformata nella seguente equivalente equazione, con ẋ0 ≡ y0 ∈ R,
) * ) x * ) * ) *) * ) *
ẋ v (x, y) y 0 1 x 0
ẋ ≡ = v(x) ≡ := = + , (1.6)
ẏ v y (x, y) k 0 0 y k

che mostra chiaramente la non linearità della (1.4).


Per brevità si ponga τ := (t − t0 ); la (particolare) funzione η(τ ) := kτ 2 /2 non dipende dai dati iniziali
(x0 , y0 ), si annulla con la sua derivata in τ = 0 , ed ha derivata seconda pari a k . La soluzione della (1.6),
equivalente alla (1.4), è esprimibile come segue
) * ) *) * ) 2 * ) 2 *
x(τ ) 1 τ x0 kτ /2 kτ /2 + τ y0 + x0
= + = . (1.7)
y(τ ) 0 1 y0 kτ kτ + y0

La curva di fase che in t0 = 0 passa, per esempio, per (0, 0) è il luogo


) * ) 2 *
x(t) kt /2 1 2
= e cioè x= y . (1.8)
y(t) kt 2k

M. Lo Schiavo
1.1. I termini del problema 7

y
y
(2)
y2 vx k
(1) x
y vx1
vx

Tale curva non è la traiettoria in uno spazio fisico, nel quale sia fissato un riferimento (o, ⃗e1 , ⃗e2 , ⃗e3 ), di un
−̈

elemento che si muova a partire da velocità iniziale nulla secondo l’equazione op = k⃗e1 ; infatti la parabola di volo,
che in questo caso degenera in una retta, e la parabola sul piano delle fasi sono curve in spazi diversi.
Si noti che con l’aggettivo generale qui sopra ricorda il fatto che le costanti (t0 , x0 , ẋ0 ) si riferiscono ai dati
iniziali del cosiddetto “problema di Cauchy” relativo all’equazione data, e per un flusso devono poter essere scelte
arbitrariamente in R × R2 .
È facile verificare che la soluzione (1.7) della (1.4) non solo è compositiva in modo deterministico:

φ(t2 , t0 ; x0 ) = φ(t2 , t1 ; φ(t1 , t0 , x0 )) , ∀({t0 , t1 , t2 }, x) ∈ D (1.9)

ma è anche stazionaria:

φ(t1 , t0 ; x0 ) ≡ φ(t1 − t0 , 0; x0 ) . ({t0 , t1 , t2 }, x) ∈ D (1.10)


) *
1 t
Infatti, indicata con Φ(t) la matrice: Φ(t) := e riconosciuto che sussistono l’identità:
0 1
) *) * ) *
1 t 1 τ 1 t+τ
Φ(t) Φ(τ ) = = = Φ(t + τ )
0 1 0 1 0 1

insieme con l’identità


) *) 2 * ) 2 * ) *
1 t kτ /2 kt /2 k(t + τ )2 /2
Φ(t)η(τ ) + η(t) = + = = η(t + τ ),
0 1 kτ kt k(t + τ )

si prova direttamente che il flusso Φ(t) x + η(t) è compositivo e stazionario:


) * ) *) * ) *
x(t) 1 t − t0 x0 k(t − t0 )2 /2
= +
y(t) 0 1 y0 k(t − t0 )
) * +) *) * ) *, ) *
1 t − t1 1 t1 − t0 x0 k(t1 − t0 )2 /2 k(t − t1 )2 /2
= + + .
0 1 0 1 y0 k(t1 − t0 ) k(t − t1 )

Alternativamente, la validità della (1.9) è facilmente provata se ci si serve della


- t
−1
φ(t, t0 , x0 ) ≡ Φ(t)Φ (t0 )x0 + Φ(t)Φ−1 (s) b(s) ds
t0

) * ) *
1 t −1 0
con la quale è possibile esprimere la soluzione (1.7) con Φ(t) = , Φ (s) ≡ Φ(−s), b(s) = , che
0 1 k
.t −1
danno: η(t) = 0 Φ(t)Φ (s) b(s) ds insieme con:

φ(t2 , t1 , φ(t1 , t0 , x0 ))
- t2
−1
= Φ(t2 )Φ (t1 )φ(t1 , t0 , x0 ) + Φ(t2 )Φ−1 (s) b(s) ds
t1
) - t1 * - t2
= Φ(t2 )Φ−1 (t1 ) Φ(t1 )Φ−1 (t0 )x0 Φ(t1 )Φ−1 (s) b(s) ds + Φ(t2 )Φ−1 (s) b(s) ds
t0 t1
- t2
−1
= Φ(t1 )Φ (t0 )x0 + Φ(t2 ) Φ−1 (s) b(s) ds .
t0

#
Note di Sistemi Dinamici
8 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

) *
y
Si ricordi comunque che il campo non è lineare: v(t, x1 + x2 ) ̸= v(t, x1 ) + v(t, x2 ), ed infatti la soluzione
k
(1) (2) (1) (2)
dell’equazione (1.4) non è somma di soluzioni: φ(t, x0 + x0 ) ̸= φ(t, x0 ) + φ(t, x0 ).
Esempio 1.1.8 Con k ∈ R e t0 , x0 ∈ R arbitrari si consideri l’equazione

ẋ = k(t − t∗ ) + ẋ∗ , per dati t∗ , ẋ∗ ∈ R . (1.11)

Innanzi tutto, l’equazione implica che, comunque siano stati scelti t0 , x0 ∈ R, risulta costante la differenza

ẋ − k t = ẋ∗ − k t∗ =: −k t̃ = ẋ0 − k t0 . (1.12)

Poi, e mediante la costante t̃ assegnata dalla equazione, si vede che la (1.11) assume la forma: ẋ = k(t − t̃) e
quindi ha soluzione:
1 1
x(t) = k(t − t̃)2 − k(t0 − t̃)2 + x0 (1.13)
2 2
o anche, introdotta nella (1.13) la costante (arbitraria) x̃ := −k(t0 − t̃)2 /2 + x0 ,
1
x(t) = k(t − t̃)2 + x̃ . (1.14)
2
La soluzione della (1.11), che dipende in modo essenziale dalle (sole) due costanti (t0 , x0 ) entrambe arbitrarie, è
compositiva ma non stazionaria; infatti dalla (1.13) segue la compositività
) *
1 1 1 1
k(t2 − t̃)2 − k(t1 − t̃)2 + k(t1 − t̃)2 − k(t0 − t̃)2 + x0
2 2 2 2
1 1
= k(t2 − t̃)2 − k(t0 − t̃)2 + x0 ,
2 2
ma anche che la condizione di stazionarietà: φ(t + c, t0 + c, x0 ) = φ(t, t0 , x0 ) non è verificata, in quanto
1 1 1 1
k(t + c − t̃)2 − k(t0 + c − t̃)2 ̸= k (t − t̃)2 − k (t0 − t̃)2
2 2 2 2
visto che (t2 − t20 ) ̸= (t − t̃)2 − (t0 − t̃)2 = (t2 − t20 ) + 2t̃(t0 − t).
In questa equazione le (t∗ , ẋ∗ ) non sono arbitrarie, come invece erano nella prima delle (1.5) trovata durante
il procedimento di risoluzione dell’equazione (1.4), e quella, come tale, non può essere risolta da sola ma solo
come seconda componente della (1.7). In primo luogo ciò comporta, tramite la (1.12), che la ẋ0 non può essere
scelta arbitrariamente, come invece accadeva nel caso della (1.5), in secondo luogo si ha che il valore della ascissa
temporale non è più scelto arbitrariamente in R, ma occorre riferirlo al valore assegnato t∗ , e l’istante in cui la ẋ
si annulla esiste, unico, ed è indipendente dalle scelte arbitrarie dei dati iniziali.

x
x0
x0

e
x

et t0 t
#

Esempio 1.1.9 Con k, t0 , x0 ∈ R si consideri l’equazione


/
ẋ = 2k(x − x̃) , per un dato x̃ ∈ R+ . (1.15)

Questa equazione si può facilmente ricavare come conseguenza sia della (1.11) che della prima delle (1.5); a tale scopo
è sufficiente riscrivere queste ultime nella forma ẋ = k(t−t̃) che dà la (1.14) dalla quale segue k 2 (t−t̃)2 = 2k(x−x̃).
Tuttavia, anche qualora la costante x̃ venga considerata come una costante arbitraria, la (1.15) non è equivalente
né alla (1.11) né alla (1.4). Infatti

• essa contiene solo una delle due possibili determinazioni della radice quadrata;

M. Lo Schiavo
1.1. I termini del problema 9

• un qualunque valore prescelto per la x̃ permette come soluzione possibile della (1.15) la funzione costante
x(t) = x̃, cosa questa non vera per le altre due citate equazioni;

• non ammette soluzione unica.

• la x0 non è più del tutto arbitraria in R.

Ove possibile, la sua soluzione generale si ricava per separazione di variabili (vedi oltre) dalla

√ - x 0√ / 1

(t − t0 ) 2k = √ = 2 x − x̃ − x0 − x̃ .
x0 ξ − x̃
/ √
Ponendo ẋ0 := 2k(x0 − x̃) e moltiplicandola per k/ 2 questa fornisce (insieme con la (1.15)) la ẋ = ẋ0 /2 +
k(t − t0 ) e cioè la prima delle (1.5), da cui segue senz’altro la seconda:

1
x(t) = x0 + ẋ0 (t − t0 ) + k(t − t0 )2
2

la quale, come si è visto, è compositiva e stazionaria. Tuttavia essa, come soluzione della (1.15), non è unica a
meno di ridursi a considerare solo tempi t per i quali è x(t) > x̃ , e quindi in particolare localmente vicino a dati
per i quali x0 > x̃ . Si osservi d’altra parte che per ricavare la2(1.15) dalla (1.11), e cioè dalla (1.14), occorre derivare
/ / /
la k(t − t̃) = 2k(x − x̃) ovvero “semplificare” la k = k ẋ 2k(x − x̃) proprio per il termine ẋ ≡ 2k(x − x̃) .
Se, invece, la si vuole ricavare direttamente dalla (1.4) occorre moltiplicare quest’ultima per ẋ .

e
x

t
#

Esempio 1.1.10 Nuovamente come conseguenza sia della (1.11) che della prima delle (1.5) e con k, t0 , x0 , ẋ0 ∈ R
si può ricavare la
ẋ − ẋ∗
ẍ = , per fissati t∗ , ẋ∗ ∈ R (1.16)
t − t∗

La sua soluzione generale si trova per separazione di variabili (vedi oltre): dalla ln |ẋ − ẋ∗ | = ln |t − t∗ | + c si
ottiene (localmente)
ẋ0 − ẋ∗
ẋ = ẋ∗ + (t − t∗ ) (1.17)
t0 − t∗

che quindi:

• è compositiva ma non è stazionaria;

• non assegna necessariamente il valore k alla costante c = (ẋ − ẋ∗ )/(t − t∗ ) che, inoltre, dipende dai dati
iniziali e muta con essi: ciascuna soluzione evolve in modo da lasciare costante il rapporto d := (ẋ0 − ẋ∗ )/(t0 −
t∗ );

• impedisce che il dato t0 possa essere scelto uguale al valore t∗ presente nell’equazione.

Note di Sistemi Dinamici


10 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

t0 t

Infatti la (1.16), riscritta nella variabile ξ := ẋ , permette le seguenti valutazioni


ξ0 − ξ∗
ξ(t0 + t, t0 , ξ0 ) = Gtt00 +t ξ0 = ξ∗ + (t0 + t − t∗ ) =: η0
t0 − t∗
η0 − ξ∗
ξ(t0 + τ, t0 , η0 ) = Gtt00 +τ η0 = ξ∗ + (t0 + τ − t∗ ) =: η&
t0 − t∗
ξ0 − ξ∗
= ξ∗ + (t0 + t − t∗ )(t0 + τ − t∗ )
(t0 − t∗ )2
ξ0 − ξ∗
ξ(t0 + t + τ, t0 , ξ0 ) = Gtt00 +t+τ ξ0 = ξ∗ + (t0 + τ + t − t∗ ) =: η
t0 − t∗
ed il fatto che risulti
ξ0 − ξ∗
η& − η = (t − τ ) ̸= 0
(t0 − t∗ )2
mostra la non stazionarietà della soluzione. Essa è invece compositiva; si ha infatti:
η0 − ξ∗
Gtt00+t
+t+τ
η0 = ξ∗ + (t0 + t + τ − t∗ )
t0 + t − t∗
ξ0 − ξ∗ t0 + t − t∗
= ξ∗ + (t0 + t + τ − t∗ ) = Gtt00 +t+τ ξ0 .
t0 + t − t∗ t0 − t∗
Si osservi che fissare a priori una soluzione, e cioè fissare un (solo) dato iniziale implica il non distinguere la (1.16) dalla (1.4) (si veda
l’Esempio 1.6.2 più oltre); infatti, posto per definizione k := ξ0 − ξ∗ /(t0 − t∗ ) , le stesse relazioni qui sopra (ancora con ξ := ẋ )
sarebbero state:
Gtt00 +t ξ0 = ξ∗ + k (t0 + t − t∗ ) =: η0 ≡ ξ0 + k t
Gtt11 +τ η0 = ξ∗ + k (t1 + τ − t∗ ) =: η& ≡ η0 + k τ
Gtt00 +t+τ ξ0 = ξ∗ + k (t0 + t + τ − t∗ ) = η0 + k τ

Tuttavia il campo è lineare rispetto alla variabile ξ& := ξ − ξ∗ , e la d2 /dt2 di ciascuna soluzione è costante. #

Esempio 1.1.11 Con un procedimento analogo al precedente, dalla seconda delle (1.5) si può ricavare la

2(x − x∗ ) 2ẋ∗
ẍ = − , con k, t0 , x0 , ẋ0 , t∗ , ẋ∗ ∈ R . (1.18)
(t − t∗ )2 t − t∗

La soluzione di questa (siano t∗ = x∗ = 0 ) va trovata separando la parte omogenea (che è lineare) da quella
non omogenea (vedi oltre). La prima: ẍ = 2x/t2 è un caso particolare dell’equazione di Eulero e si trasforma,
con la posizione: τ := ln |t| e quindi t∂t = ∂τ e t∂t + t2 ∂tt 2
= ∂τ2 , nella x′′ − x′ − 2x = 0 la cui soluzione è
x(τ ) = c1 e−τ + c2 e2τ . Se ne deduce la soluzione dell’equazione omogenea (per t > 0 ):
) * ) * ) *
xom (t) c 1/t t2
= Φ(t) 1 con Φ(t) := .
ẋom (t) c2 −1/t2 2t

Analogamente a quanto visto nell’Esempio 1.1.7, e secondo quanto si vedrà più in dettaglio nel seguito, una soluzione
particolare della (1.18) è allora data da
- t ) *
0
xp (t) = Φ(t)Φ−1 (τ ) dτ
−2ẋ∗ /τ
- ) *) *) *
1 t 1/t t2 2τ −τ 2 0
= dτ
3 −1/t2 2t 1/τ 2 1/τ −2ẋ∗ /τ

M. Lo Schiavo
1.1. I termini del problema 11

e quindi
- t) *
2ẋ∗ τ t2
xp (t) = − 2 dτ = ẋ∗ t .
3 t τ
La soluzione della (1.18) risulta quindi (indicando semplicemente t, t0 , x, x0 invece di t−t∗ , t0 −t∗ , x−x∗ , x0 −x∗ )
) * ) * ) *
x(t) c1 ẋ∗ t
= Φ(t) + con
ẋ(t) c2 ẋ∗
) * ) * ) *
c1 x − ẋ∗ t0 1 2t0 x0 − t20 (ẋ0 + ẋ∗ )
= Φ−1 (t0 ) 0 = .
c2 ẋ0 − ẋ∗ 3 [x0 + t0 (ẋ0 − 2ẋ∗ )]/t20

È facile rendersi conto che questa soluzione non è certo stazionaria, dato che Φ(t)Φ(τ ) ̸= Φ(t + τ ); essa tuttavia è
compositiva, come si può facilmente controllare. Inoltre, la sua derivata seconda non è detto sia costante salvo che
per quei dati iniziali per i quali la c1 risulta nulla. Anche in tal caso, non è certo detto che la costante sia proprio k ,
salvo che solo per opportuni dati iniziali, infatti c1 = 0 implica x(t) = c2 t2 + ẋ∗ t con t20 c2 = ẋ0 t0 − x0 ≡ x0 − t0 ẋ∗
e quindi la residua arbitrarietà dei dati certo permette c2 ̸= k/2 . #

Nota 1.1.1 Si vede bene, dagli esempi precedenti, che il trasformare un’equazione in un’altra spesso non è una
operazione semplice o gratuita. Per ottenere equazioni equivalenti a quelle dalla quale si è partiti occorre che la
trasformazione sia di tipo particolare (si veda la discussione sulla equivalenza fra campi, nel Cap.3). ◃

Esempio 1.1.13 L’oscillatore armonico lineare con t0 , x0 , y0 , ω ∈ R:


) * ) x * ) *
ẋ v (x, y) y
ẋ ≡ = v(x) ≡ := .
ẏ v y (x, y) −ω 2 x

Si ponga τ := (t − t0 ). Una soluzione è data da


) * ) * ) *) *
x(τ ) x0 cos ωτ + yω0 sin ωτ cos ωτ + ω1 sin ωτ x0
τ &→ = = ,
y(τ ) −ωx0 sin ωτ + y0 cos ωτ −ω sin ωτ + cos ωτ y0
) * ) *) * ) *
ẋ 0 1 x 1
infatti dalla = si ricava (si veda: Cap. II) ϵ(iω) = e quindi
ẏ −ω 2 0 y iω
) * ) *) *) *) *
x(τ ) 1 0 cos ωτ − sin ωτ 1 0 x0
τ &→ = .
y(τ ) 0 −ω sin ωτ cos ωτ 0 −1/ω y0

Memento 1.1.1 La velocità che compare a secondo membro della (1.2) è quella euleriana: è un campo vettoriale
dipendente esplicitamente dal tempo e dalla posizione. La soluzione t &→ x !(t) := φ(t, t0 , x0 ) ∈ R3 descrive il moto
di un elemento che, avendo attraversato in t0 il punto x0 ∈ R , all’istante t si trova nel punto φ(t, t0 , x0 ) = x
3

con velocità v(t, x). x0 sono le coordinate identificative, secondo Lagrange.


Le Linee di flusso, o “stream lines” o “linee di campo” sono definite, istante per istante, come le linee che
all’istante t passando per un punto x, hanno in x tangente parallela a v(t, x). Si supponga per esempio x :=
(x1 , x2 , x3 ) ∈ R3 ; la loro rappresentazione, in forma cartesiana e relativa all’istante t, si trova risolvendo le
equazioni (vedi oltre):

dx1 dx2 dx3


= = , x1 , x2 , x3 ∈ R , (1.19)
v 1 (t, x1 , x2 , x3 ) v 2 (t, x1 , x2 , x3 ) v 3 (t, x1 , x2 , x3 )

e quindi risultano ∞2 distinte; si noti che t rimane come parametro fissato.


Le “linee di corrente”, o “traiettorie”, o “path lines”, sono le linee descritte dagli elementi durante il loro moto.
Esse pertanto sono individuate ciascuna da uno dei punti del sistema e, nel caso di un moto in R3 , sono ∞3 : tanti
quanti sono gli x10 , x20 , x30 . La loro rappresentazione cartesiana si trova eliminando t dalla loro rappresentazione
parametrica: la soluzione: x = x !(t) := φ(t, t0 , x0 ) dell’equazione ẋ = v(t, x).
Per esempio in un moto rigido traslatorio arbitrario le linee di flusso sono in ogni istante rette parallele fra loro
e le linee di corrente sono curve sovrapponibili. Allo stesso modo, in un moto rigido qualunque le linee di flusso

Note di Sistemi Dinamici


12 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

sono in ogni istante delle eliche cilindriche. Per vederlo, si scelgano gli assi in modo che sia ω = (0, 0, ω), e siano
z
vΩ la velocità di un punto Ω dello spazio mobile, e vΩ ̸= 0 . L’equazione è
⎛ ⎞ ⎛ x⎞ ⎛ ⎞ ⎛ ⎞
ẋ vΩ −ω(y − yΩ ) −ω(y − yC )
⎝ẏ ⎠ = ⎝vΩ y⎠
+ ⎝ ω(x − xΩ ) ⎠ =: ⎝ ω(x − xC ) ⎠
z z
ż vΩ 0 vΩ
( y
xc : = xΩ − vΩ /ω, x y z z
ove si è posto x Si osserva innanzi tutto che vc = vc = 0 e che vc = vΩ =: µ, e ciò per
yc : = yΩ + vΩ /ω.
(
ξ : = x − xc
qualsiasi zc arbitrario. Poi, introdotte le si vede che l’equazione diviene
η : = y − yc
(
ξ̇ = −ω η
insieme con z(t) = µ (t − t0 ) + zc
η̇ = ω ξ
ovvero
d(x − xc ) d(y − yc ) d(z − zc ) dt dθ
= = = =: .
−ω(y − yc ) ω(x − xc ) µ 1 ω
Pertanto essa può essere trasformata nella
d2 ξ ω
+ξ =0 con θ=(z − zc ) .
dθ2 µ
) * ) *) * ) *
ξ cos θ − sin θ ξ0 xc + ξ0
In definitiva, tramite l’Esempio 1.1.13 si ottiene = , e si osservi che
η sin θ cos θ η0 yc + η0
sono le coordinate dei punti intersezioni delle linee di flusso con il piano (arbitrario ma fissato) z = zc . Le
corrispondenti linee di flusso hanno equazioni parametriche date dalle
x(θ) = xc + ξ0 cos θ − η0 sin θ ω
con θ = θ(z) = (z − zc )
y(θ) = yc + ξ0 sin θ + η0 cos θ µ

In entrambi i casi, invece, le linee di corrente sono curve varie, almeno una delle quali arbitraria. Se il sistema
è stazionario le due famiglie di linee coincidono.
In ogni caso ed in ogni istante esse risultano tangenti fra loro perché tangenti alle velocità.

È facile verificare che gli operatori di evoluzione di)tutti *


e tre gli Esempi)1.1.6,*1.1.7, 1.1.13 verificano le proprietà
1 t t2 /2
di gruppo. Per esempio nel caso 1.1.7, posto Φ(t) := e η(t) = −k , si nota che Φ(t)Φ(τ ) = Φ(t+τ )
0 1 t
e che Φ(t)η(τ ) + η(t) = η(t + τ ), e quindi che G t x := Φ(t)x + η(t) verifica la proprietà.

1.2 Equazioni scalari autonome


Una campo si dice autonomo quando non dipende esplicitamente dalla variabile indipendente. In dimensione uno
si ha allora il seguente problema

ẋ = v(x) , x0 ∈ R, v ∈ C r≥0 (D ⊂ R) . (2.20)

! dato da x
Risolvere l’equazione significa determinare il moto x !(t) := φ(t, t0 , x0 ), o alternativamente tracciare la
curva integrale, che per un qualunque t0 passa per un (arbitrario) x0 , e che, in x, è inclinata di v(x).

Teorema 1.2.1 (si veda: [Arnold 1]) Sia v : R → R definita su un intervallo V0 := (x1 , x2 ) ⊆ R, e differenziabile
con derivata limitata in V0 . Per ogni (t0 , x0 ) ∈ R × V0 , l’equazione ẋ = v(x) ammette una soluzione t &→ x !(t) :=
φ(t, t0 , x0 ) tale che φ(t0 , t0 , x0 ) = x0 .
Se v(x0 ) = 0 la soluzione è t &→ φ(t, t0 , x0 ) = x0 . Se v(x0 ) ̸= 0 , esiste un intorno N (x0 ) ⊂ V0 nel quale la
soluzione è definita implicitamente dalla
- x

t − t0 = =: ψ(x) − ψ(x0 ). (2.21)
x0 v(ξ)

Due soluzioni uguali in t0 , rimangono tali in tutto un intorno N (t0 ).

M. Lo Schiavo
1.2. Equazioni scalari autonome 13

Dimostrazione (inizio)
Se v(x0 ) = 0, x !(t) := φ(t, t0 , x0 ) = x0 verifica equazione e condizioni iniziali.
Se v(x0 ) ̸= 0 , la funzione 1/v(x) è definita e continua in un conveniente N (x0 ). La sua primitiva ψ(x) esiste,
unica, differenziabile in N (x0 ), ed è ψ ′ (x) = 1/v(x) ̸= 0 . Esiste quindi, su un certo N (t0 , x0 ), la funzione inversa
x=x !(t) := ψ −1 (t − t0 + ψ(x0 )) che vale x0 in t = t0 (ovvero ψ(! x(t)) = t − t0 + ψ(x0 )). Tale funzione ha derivata
'
d 1 '
'
!(t) = d
x ' = v(!x(t)).
dt dx ψ(x)
'
x=x̂(t)

"

In tal modo è stata dimostrata l’unicità locale solo se v(x0 ) ̸= 0 ; e non è stata usata la differenziabilità della v .
In effetti, in tale ipotesi più debole, se v(x0 ) = 0 la soluzione t &→ x !(t) := φ(t, t0 , x0 ) =
. xx0 può non essere unica.
Può accadere infatti che, sebbene sia v(x0 ) = 0 , eppure l’integrale (improprio) t − t0 = x0 dξ/v(ξ) =: ψ(x) − ψ(x0 )
esista finito per x ∈ V0 ; in tal caso le due funzioni x!1 (t) := ψ −1 (t − t0 + ψ(x0 )) ed x !(t) = x0 risultano entrambe
soluzioni del problema (2.20).

Esempio 1.2.1 ẋ = 1 − x2 , t0 , x0 ∈ R, con |x0 | ≤ 1 .
Sia (t0 , x0 ) = (t0 , −1). Il problema ha soluzioni per non solo:

t &→ x
!(t) = −1 per ogni t,

ma anche : ⎧

⎨−1 per t − t0 ≤ 0
t &→ x
!(t) = − cos(t − t0 ) per t − t0 ∈ [0, π]


+1 per t − t0 ≥ π ,
x

t0 t

ed anche, per un qualunque t1 > t0 ,




⎨−1 per t − t1 ≤ 0
!(t) = − cos(t − t1 ) per
x t − t1 ∈ [0, π]


+1 per t − t1 ≥ π .

Esempio 1.2.2 ẋ = x2/3 , t0 , x0 ∈ R , t0 = x0 = 0 .


Il problema ha soluzione non solo t &→ x !2 (t) = 0 ma anche molte altre, per esempio, scelti arbitrariamente due
istanti t1 e t2 tali che t1 ≤ t0 ≤ t2 , è soluzione la
⎧7 8
t−t1 3

⎨ 3 per t ≤ t1 ≤ t0
!(t) = 0
x per t1 ≤ t ≤ t2

⎩7 t−t2 83
3 per t0 ≤ t2 ≤ t

e cioè diverse funzioni per diverse scelte degli istanti t1 , t2 ∈ R. #

È chiaro d’altra parte che la perdita di unicità della soluzione non dipende dal dato iniziale t0 = x0 = 0 che qui
si è scelto,
. x̄ma solo dal fatto che in un qualche x̄ il campo si annulla in modo tale da rendere convergente l’integrale
t̄ − t0 = x0 dξ/v(ξ) =: ψ(x̄) − ψ(x0 ). In tal caso la ψ −1 (t − t0 + ψ(x0 )) e la funzione costante in x̄ sono soluzioni
dell’equazione ed hanno medesimo valore: x̄ nel medesimo istante: t̄
Esempio 1.2.3 (continuazione dell’Esempio 1.2.2)

Note di Sistemi Dinamici


14 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

1/3
Per t0 ed x0 arbitrari (sia per esempio x0 > 0 ), scelto comunque τ ∈ R tale che τ ≥ x0 , la funzione
⎧7 83
⎪ t−t0
⎪ +τ per t − t0 ≤ −3τ
⎨ 3
1/3
!(t) = 00
x per t − t0 ∈ [−3τ, −3x0 ]

⎪ 13
⎩ t−t0 + x1/3 per t − t0 ≥ −3x0
1/3
3 0

è soluzione dell’equazione e verifica le condizioni iniziali. Il problema però non è deterministico in quanto esistono
1/3
istanti (ciascuno degli istanti nell’intervallo [t0 − 3τ, t0 − 3x0 ]) nei quali due distinte soluzioni assumono lo stesso
valore x̄ = 0 , e pertanto tale punto evolve in modo non univoco.
x

x0

t0{3¿ t0{3x01/3 t0 t

In modo analogo si riconosce che sono non univoche, per t > 0 , tutte le soluzioni dell’equazione ẋ = x1/3
per le quali x0 = 0 . Esse infatti possono valere x(t) = 0 per t ≤ τ , per un qualsiasi fissato τ > 0 , e x(t) =
3/2
± (2(t − τ )/3) per t > τ . #

Se si confrontano gli esempi 1.2.1 e 1.2.2 con l’esempio 1.1.6 si osserva che, pur avendo tutti in comune il fatto
che i loro campi ammettono un punto x̄ tale che v(x̄) = 0 , tuttavia il campo dell’esempio 1.1 è, in tale punto, del
tutto regolare; viceversa i campi degli esempi 1.2.1 e 1.2.2 non solo si annullano in qualche punto x̄ dell’aperto D
ma, in più, sono in esso non differenziabili. Essi sono critici per quanto riguarda l’unicità.
In particolare non esiste k ∈ R+ tale che

|v(x) − v(x̄)| ≡ |v(x)| ≤ k |x − x̄| , ∀x ∈ N (x̄) . (2.22)

Lemma 1.2.1 Siano x̄ ∈ R ed N (x̄) un intorno di x̄. Siano poi v1 , v2 ∈ C 0 (N (x̄)) e tali che v1 (x̄) = v2 (x̄) =
0 e che v1 (x) < v2 (x), ∀x ∈ N (x̄)\ {0}. Se φ1 e φ2 sono soluzioni rispettivamente di ẋ = v1 (x) per
t ∈ J1 e di ẋ = v2 (x) per t ∈ J2 tali che φ1 (t0 ) = φ2 (t0 ) = x0 ∈ N (x̄) allora risulta:

φ1 (t) ≤ φ2 (t) per t ∈ [t0 , +∞) ∩ J1 ∩ J2 ,


φ1 (t) ≥ φ2 (t) per t ∈ (−∞, t0 ] ∩ J1 ∩ J2 ,

almeno fintanto che φ1 (t) e φ2 (t) sono in N (x̄).

Dimostrazione Si dimostrerà la seconda delle due; l’altra è del tutto


9 analoga.
' Per ipotesi v1 (x0 ) < v2 (x0:
) e
quindi, in un intorno sinistro di t0 , si ha φ1 (t) > φ2 (t). Sia τ := inf t′ ' per t ∈ (t′ , t0 ] si ha φ1 (t) ≥ φ2 (t) .
La continuità delle φ implica che, se τ ∈ J := J1 ∩ J2 , allora φ1 (τ ) = φ2 (τ ). L’ipotesi sui campi implica allora che
φ̇1 (τ ) < φ̇2 (τ ), e pertanto anche in un intorno sinistro di τ deve essere φ1 (t) > φ2 (t), il che contraddice l’assunto
che τ sia un estremo inferiore in J . "

Ne segue che se v ammette una costante che verifichi la (2.22), ed a maggior ragione se la v è differenziabile con
derivata limitata in N (x̄), allora le curve integrali {(t, φ(t, t0 , x0 ))}t∈J che in t0 passano per (t0 , x0 ), sia x0 > x̄,
rimangono per t < t0 inferiormente limitate dalla curva integrale, passante per lo stesso punto, dell’equazione
ẋ = k(x − x̄). Questa ha soluzione:

t &→ φ̄(t, t0 , x0 ) = x̄ + ek(t−t0 ) (x0 − x̄)

ed è quindi strettamente maggiore di x̄ per ogni t > −∞ se tale è stata in t0 , e cioè se, come si è supposto,
x0 > x̄.

M. Lo Schiavo
1.2. Equazioni scalari autonome 15

Á=Á2
x Á=Á1
x0

x
t0 t

Dimostrazione (del Teorema 1.2.1 fine) Si riconosce cosı̀ che se il campo v verifica la (2.22) allora la
soluzione costante x = x̄(t) := φ(t, t0 , x̄) = x̄ rimane separata da qualunque altra soluzione t &→ x(t) := φ(t, t0 , x0 )
che in qualche istante sia stata diversa da x̄ , e quindi consegue che essa rimanga unica.
[La condizione dell’esistenza della costante k, che è la Lip (x̄), è più debole della condizione che il campo sia loc.Lip (N (x̄)) (che
coincide (si veda: [Royden V.4.16]) con l’esistenza q.o. in N (x̄) e limitatezza della |v′ | ); quest’ultima, più agevole, condizione è quella
che verrà richiesta nel caso generale, non autonomo o con dim M > 1 , vedi oltre. Qui si sfrutta il fatto che per un’equazione autonoma
in R la non unicità può avvenire solo in punti fissati, nei quali il campo si annulla]. "

In definitiva, se v(x̄) = 0 l’unicità dipende dalla rapidità con cui v(x) → 0 per x → x̄ . Se v si annulla
abbastanza rapidamente (cioè se |v(x)| ≤ O(|x|)) ciò non accade a φ(t) − x̄; l’unica soluzione per x̄ è la costante,
e ogni altra “non raggiunge in tempo” il valore x̄. La funzione 1/v(x) risulta non integrabile su (x0 , x].

N.B. 1.2.4 Quanto visto non permette di indurre che la soluzione sia definita per ogni t ∈ R, e di conseguenza
che G t , per un arbitrario fissato t, abbia come dominio l’intera retta. È però palese dalla (2.21) la proprietà di
gruppo (locale) della famiglia degli evolutori della (2.20). ♦

N.B. 1.2.5 Se il campo è regolare, e quindi c’è l’unicità, gli equilibri sono vere e proprie barriere che separano il
piano delle fasi ampliato e verso cui le soluzioni tendono asintoticamente per |t| → ∞. Inoltre è chiaro che fra un
equilibrio e l’altro la soluzione è monotona. ♦

Esempio 1.2.6 ẋ = sin x, t0 , x0 ∈ R.

Si ponga τ := tan x2 . Se x0 ̸= 0 , si ha che


0x1 1 0 x1 dτ 1 + τ2 dx
d =
tan 1 + tan2 dx ⇒ = dx = ,
2 2 2 τ 2τ sin x
' 0 x 1' ' 0 x 1'
' ' ' 0 ' t−t0
il che fornisce 'tan ' = 'tan ' e . Il fatto che la funzione sin x si annulli solo nei punti xe = nπ ,
2 2
con n ∈ N, e che né lei né la tan(x/2) cambino segno all’interno degli intervalli (nπ, (n + 1)π), permette di
stabilire l’inversione per fasce:
(
nπ se x0 = nπ
!(t) =
x
2 arctan[e(t−t0 ) tan(x0 /2)] ∈ (nπ, (n + 1)π) se x0 ∈ (nπ, (n + 1)π).

x
(n +1)¼

(n {1)¼
#

Note di Sistemi Dinamici


16 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Diverso è il caso degli asintoti “verticali” (cioè paralleli all’asse x) che sono invece barriere, rispetto all’ascissa
temporale, per la validità della soluzione: la soluzione è locale , senza necessariamente contraddire l’unicità. Essi
provengono da singolarità del campo, o da campi troppo rapidi , e se il campo è autonomo possono dipendere dalle
condizioni iniziali.

Esempio 1.2.7 ẋ = x2 , t0 , x0 ∈ R, x0 ̸= 0 .
) *−1
1 1 1
Risulta t − t0 = − + , x = − t − t0 − , e si hanno due rami distinti, divisi da una singolarità che
x x0 x0
dipende dalle condizioni iniziali : se x0 > 0 la soluzione esiste ed è unica, compositiva e stazionaria, ma solo per
1 1
tempi t < + t0 , se invece x0 < 0 , la soluzione ha tali proprietà solo per t > + t0 .
x0 x0

x00

x0 t{t0
0
1=x00 1=x0 x00 1=x0 1=x0
x0

x2 − 1
Esempio 1.2.8 ẋ = , t0 , x0 ∈ R.
2
- x - x ' '
2 1 1 dξ dξ ' x0 − 1 '
Siccome = − , si ha t − t0 = − '
e quindi posto d := ' ' e
x2 − 1 x−1 x+1 x0 ξ − 1 x0 ξ + 1 x0 + 1 '
chiamati J− ed J+ rispettivamente gli intervalli (−∞, t0 − ln c) ed (t0 − ln c, +∞), si ricava

x−1 1 + c exp(t − t0 )
x0 > +1 ⇒ = +ce(t−t0 ) ⇒ x= , ∀t ∈ J−
x+1 1 − c exp(t − t0 )
x−1 1 + c exp(t − t0 )
x0 < −1 ⇒ = +ce(t−t0 ) ⇒ x= , ∀t ∈ J+
x+1 1 − c exp(t − t0 )
x−1 1 − c exp(t − t0 )
x0 ∈ (−1, 1) ⇒ = −ce(t−t0 ) ⇒ x= , ∀t ∈ R
x+1 1 + c exp(t − t0 )
x0 = +1 ⇒ ⇒ x = +1, ∀t ∈ R
x0 = −1 ⇒ ⇒ x = −1, ∀t ∈ R

1
0.5

-3 -2 -1 1 2 3
-0.5
-1

M. Lo Schiavo
1.3. I teoremi fondamentali 17

1.3 I teoremi fondamentali


È opportuno innanzi tutto premettere una breve discussione dei principali risultati ottenuti nel precedente para-
grafo.
L’equazione lineare ẋ = kx, x !(t0 ) = x0 ∈ R individua come si è visto la soluzione t &→ φ(t, t0 , x0 ) = ek(t−t0 ) x0 .
Questo fatto lo si può anche interpretare come la capacità di determinare per ogni fissato valore del parametro (t−t0 )
un operatore: ek(t−t0 ) , che agendo linearmente su x0 ne fornisce la posizione attuale. Tale operatore è l’operatore
di moltiplicazione per il numero ek(t−t0 ) . Si può allora porre: G t−t0 x0 := ek(t−t0 ) x0 , e la definizione è ben data
visto che, come è noto, la funzione esponenziale si compone verificando le proprietà di gruppo rispetto al parametro
t : et+τ = et eτ , ∀t, τ ∈ R. D’altra parte quello che è stato definito è il più generale gruppo ad un parametro di
trasformazioni lineari su R. Infatti uno qualunque di tali gruppi determina univocamente il flusso di una equazione
del tipo ẋ = kx in quanto la velocità di fase non può che essere anch’essa lineare sulle x, e cioè, visto che x ∈ R,
proprio del tipo kx. Pertanto il moto deve necessariamente essere soluzione di questa equazione, ed il teorema
di unicità della soluzione assicura che φ(t, t0 , x0 ) = ek(t−t0 ) x0 ; il gruppo di partenza non può quindi che essere il
gruppo moltiplicativo G t ≡ ekt .
Nell’esempio 1.2.6 si è trovato, per l’operatore G t−t0 la forma
(
t−t0 2 arctan[tan(x0 /2) exp(t − t0 )] se x0 ̸= nπ
G x0 =
x0 se x0 = nπ ,

e si vede che anche qui, fissato comunque t − t0 , il valore x0 può essere scelto arbitrariamente in R, che anche
questa famiglia di applicazioni di avanzamento verifica la proprietà gruppale, e che è costituita da diffeomorfismi.
In effetti, fissati t e t0 , l’operatore G t−t0 :

(i) è differenziabile rispetto ad x0 ;


(ii) è invertibile rispetto al tempo, dato che x1 = 2 arctan[tan(x0 /2) exp(t1 − t0 )] equivale, in un fissato intervallo
di invertibilità della tangente, alla e−t1 tan x1 /2 = e−t0 tan x0 /2 che è simmetrica nello scambio (t0 , x0 ) ↔
(t1 , x1 );
(iii) verifica la proprietà gruppale: posto x1 = G (t1 −t0 ) x0 e x2 = G (t2 −t1 ) x1 risulta: x2 = G (t2 −t0 ) x0 in quanto
verifica le
x2 x1 x0
e−t2 tan = e−t1 tan = e−t0 tan .
2 2 2
D’altra parte non è detto che ogni equazione del tipo ẋ = v(x) individui un gruppo ad un parametro. Nell’esem-
1 1
pio 1.2.7, per x0 ̸= 0 si è trovata l’evoluzione G (t−t0 ) x0 := −(t − t0 − x10 )−1 che dà t + = t0 + , e quindi verifica
x x0
(i),(ii),(iii) qui sopra, ma qualunque sia t c’è certamente almeno un x0 , in questo caso dato da (t − t0 )−1 , sul quale
G t−t0 non è definito, e pertanto non può essere un diffeomorfismo da R in sé. Questo esempio individua un sistema
dinamico locale (J, V0 , g), (si veda: §.1) per il quale (se x0 > 0 ) è: J = (−∞, t0 + x01+χ ), V0 = (0, x0 + χ), per
ogni (fissato) χ > 0.
Nel caso in cui |v(x)| < a|x| + b , v ∈ C 0 , a > 0, b ≥ 0, x ∈ R, è invece possibile ripetere il ragionamento
fatto precedentemente e ricavare l’esistenza, per ogni t ∈ R della soluzione; (le curve integrali non possono avere
asintoti paralleli all’asse x in quanto restano limitate dall’alto dagli esponenziali).
N.B. 1.3.1 Tutto quanto detto vale all’interno di aperti nei quali v è continua. ♦

È chiaro che il problema non si semplifichi se l’equazione non è scalare, o se non è autonoma: ẋ = v(t, x),
anche con x ∈ R. Già per questa equazione infatti non esistono metodi generali di risoluzione. Anche per essa
la soluzione:

(i) può non essere unica;


(ii) può non esistere per ogni t ∈ R;
(iii) può non dipendere in modo regolare dal dato (t0 , x0 ).

Sussistono tuttavia i seguenti basilari teoremi, tutti “locali” intorno alle assegnate condizioni iniziali: (t0 , x0 ) ∈
! : t ∈ R &→ x = x
R × Rn , e relativi alla più generale equazione differenziale ordinaria nell’incognita funzione x !(t) ∈
Rn

ẋ = v(t, x) , !(t0 ) = x0 ∈ Rn .
x (3.23)

Note di Sistemi Dinamici


18 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

La loro validità locale implica che essi sussistano limitatamente a ciascuna carta anche quando lo spazio delle fasi
è, più in generale, una varietà differenziabile M di dimensione finita n (vedi oltre) sulla quale sia stato scelto un
sistema di coordinate reali. In tutti i seguenti enunciati si indicherà con D un Dominio di uno spazio reale, e cioè
un insieme aperto (nella topologia indotta dalla metrica euclidea), connesso, non vuoto.

Teorema 1.3.1 (Peano) (si veda: [Hale p.14]) Sia D ⊂ R × Rn un dominio in R1+n . Se v ∈ C 0 (D), e (t0 , x0 )
è dato comunque in D , esiste almeno una soluzione della (3.23) passante per x0 nell’istante t0 .

Dimostrazione (cenno) Applicazione del teorema di punto fisso di Schauder su un sottoinsieme convesso compatto di uno
spazio di Banach. Alternativamente [Michel p.46 opp. Coddington teor.1.2] si può usare il metodo di Newton-Eulero ed il teorema di
Ascoli Arzelà.
In ogni caso il problema differenziale dato viene modificato in un equivalente problema integrale:
- t - t
d
! (t) − x0 =
x ! (τ ) dτ =
x ! (τ )) dτ .
v(τ, x (3.24)
t0 dt t0

Per esso si definisce, su un opportuno sottoinsieme dello spazio C 0 (N (t0 ), Rn ) , l’operatore S+ dato dalla
- t
S+ [!
x](t, t0 , x0 ) := x0 + ! (τ )) dτ ,
v(τ, x (3.25)
t0

e, nel primo dei due procedimenti su accennati, si studiano le condizioni per le quali esso risulta ammettere un punto unito: φ, e cioè
un punto tale che S+ [φ] = φ.
Nel secondo dei due procedimenti detti, ci si limita a costruire la famiglia delle

SpezzatediEulero : ψm (t) = ψm (tj ) + v(tj , ψm (tj )) (t − tj ) , per tj ≤ t ≤ tj+1 ,

con |tj+1 − tj | ≤ δm ove {δm }m=1,2,... è una successione di numeri reali convenientemente piccoli rispetto alla rapidità di crescita
m
del campo |v| e tali che (δ1 , δ2 , . . . , δm , . . .) −→ 0 . La famiglia delle Spezzate di Eulero è precompatta in quanto equicontinua
∞7 8
uniformemente limitata come sottoinsieme di C [t0 , t0 + a′ ], R : ∥·∥∞ . Esiste pertanto in C almeno un punto di accumulazione di
tali spezzate; esso sarà tale da verificare la (3.24) punto per punto. (Certo sarà soluzione. Se però questa non è unica, non è detto che
queste siano tutte ottenibili in questo modo. Per esempio per la ẋ = |x|1/2 con x0 = 0 , il metodo fornisce solo la soluzione nulla). "

N.B. 1.3.2 Il teorema è locale nel senso che scelto un qualsiasi (t0 , x0 ) ∈ D e fissato comunque un compatto
Γ ⊂ D del quale (t0 , x0 ) è punto interno, si può garantire l’esistenza della soluzione uscente da (t0 , x0 ) solo per
tempi t ∈ J := Ba′ (t0 ) con a′ che dipende: dall’ampiezza del compatto Γ, dalla posizione di (t0 , x0 ) all’interno di
Γ, e da un parametro a(v) ∈ R che a sua volta dipende dalla ) rapidità di crescita
* del campo nell’intorno di (t0 , x);
′ ∆b(Γ) 1−ε
per esempio nel successivo Teorema 1.3.1 è a (v) ≤ min , , con ε > 0 e ∆b := b − b′ che
maxΓ |v| kLip (v)
dipende anch’essa da Γ e dalla posizione di (t0 , x0 ) in Γ. ♦

Nel seguito si continuerà ad indicare con D ⊂ R × Rn l’insieme aperto di regolarità del campo.
Prolungabilità := Fissato (t0 , x0 ) ∈ D , una soluzione φ = φ(t, t0 , x0 ) ∈ Rn dell’equazione (3.23), definita su
[t0 , b] si dice prolungabile (come soluzione, non come funzione) nella φ+ = φ+ (t, t0 , x0 ) ∈ Rn definita su [t0 , b+ ]
quando accade che φ+ è soluzione della equazione sull’intervallo [t0 , b+ ], con b+ > b , e risulta φ+ (t) = φ(t), per
ogni t in [t0 , b]. Analoghe considerazioni valgono naturalmente per l’intervallo di definizione precedente l’istante
iniziale: [a, t0 ].
Quando il procedimento di prolungabilità non è ulteriormente possibile, l’estremo superiore dei b e l’estremo
inferiore degli a, che verranno indicati con m1 , ed m2 rispettivamente, individuano il:
Massimo Intervallo JM ≡ (m1 , m2 ) di esistenza contenente t0 . Esso è senz’altro aperto in quanto, per il teorema
di esistenza, il suo “sup”, (per esempio), non può essere un “max” visto che se lo fosse la soluzione esisterebbe in
tutto un suo intorno (aperto).

Teorema 1.3.1 (di prolungabilità) (si vedano: [Hartman p.13], [Michel II.3.1], [Coddington p.13]) Con le stesse
notazioni del Teorema 1.3.1, sia v ∈ C 0 (D) e limitata in un aperto U ⊂ D , e sia φ : t &→ φ(t, t0 , x0 ) una
soluzione uscente da (t0 , x0 ) ∈ U e definita su un qualche intervallo (a, b) =: J ⊂ JM , con t0 ∈ J , e tale che
J × φ(J) ⊂ U . Allora esistono i limiti: φ(a+ ) e φ(b− ). Inoltre, posto (ad esempio) xb := φ(b− ), se il punto
(b, xb ) appartiene a D (ne è interno) allora φ può essere definita su (a, b], e quindi essere prolungata oltre b.

Ovviamente lo stesso vale per a.

M. Lo Schiavo
1.3. I teoremi fondamentali 19

Dimostrazione Sia λ := sup(t,x)∈U |v(t, x)| e sia {tn }n∈N una successione monotona: a < tn ↗ b . Vale la
maggiorazione - th
|φ(th ) − φ(tk )| = | v(t, φ(t))dt| ≤ λ|th − tk | .
tk
Pertanto {φ(tn )}n∈N è di Cauchy, e ciò assicura l’esistenza di xb := φ(b− ) in Rn . Poi, se (b, xb ) è in U si
definisce, per ε > 0 e t ∈ [t0 , b + ε),
(
& φ(t, t0 , x0 ) per t ∈ [t0 , b)
φ(t, t0 , x0 ) :=
una soluzione per (b, xb ) per t ∈ [b, b + ε).
.
& = t v(τ, φ(τ
Essa è soluzione su tutto [t0 , b + ε) poiché per costruzione è φ(t) & ))dτ per ogni t ∈ [t0 , b + ε). In più,
t0
& &
la sua continuità implica quella di v(t, φ(t)) e quindi quella della derivata d φ(t)/dt. "

Si indichi con la notazione: |t| + |φ| → ∞ l’eventualità che φ sia definita per |t| comunque grandi, oppure che
il vettore x := φ(t, t0 , x0 ) assuma lunghezza comunque grande.
Corollario 1.3.1 Sia v ∈ C 0 (D) . Allora
t
o è |t| + |φ| → ∞, oppure (t, φ(t, t0 , x0 )) −→∂D . La prima eventualità accade se ∂D = ∅ .
∂JM

Dimostrazione Se non si verifica la prima eventualità, e detto per esempio m2 < ∞ l’estremo destro di JM ,

si supponga che sia (m2 , φ(m− −
2 )) ∈D ≡ D ̸= [D]. Certo esisterebbe un U := N (m2 , φ(m2 )) ⊂ D sul quale il
campo è limitato, contraddicendo la massimalità di m2 . "

Ci si ricorda di tutto ciò affermando che: φ può essere prolungata fino alla frontiera di un qualunque compatto K
che, contenente (t0 , x0 ), sia contenuto in D ; ove:
φ è prolungabile fino ad un insieme F ⊂ R × M := la soluzione φ della (3.23) è definita su [t0 , τ ] e si ha che
(τ, φ(τ, t0 , x0 )) ∈ F .
Per discutere l’unicità delle soluzioni in corrispondenza a ciascun dato iniziale risultano utili le seguenti consi-
derazioni.
Condizioni di Lipschitz := Quando, per ciascun compatto Γ ⊂ D ⊆ R1+n esiste kΓ ∈ R+ tale che |v(t, x) −
v(t, y)| ≤ kΓ |x−y| per ogni (t, x), (t, y) ∈ Γ, allora il campo v si dice localmente Lipschitz su D , o “loc.Lip (D )”,
relativamente a x. v si dice Lipschitz su D , o “uniformemente Lipschitz continua su D ”, (relativamente a x)
se il numero k è unico su tutto D .
N.B. 1.3.3
v ∈ C 1 (D) ⇒ v ∈ loc.Lip (D) relativamente ad x.
v ∈ Lip(D) ⇒ v uniformemente continua rispetto ad x, e per ogni t. ♦

Lemma 1.3.1 (di Gronwall) (si veda anche l’Appendice A.9)


Siano f : [a, b] ∈ R, f ∈ C 0 ([a, b]), α ∈ R, |χ| ∈ L1 ([a, b]), con [a, b] ⊂ R. Allora, per t ∈ [a, b]
.t .t
|f (t)| ≤ |α| + a |f (s)χ(s)|ds implica |f (t)| ≤ |α| exp a |χ(s)|ds ;
.b .b
|f (t)| ≤ |α| + t |f (s)χ(s)|ds implica |f (t)| ≤ |α| exp t |χ(s)|ds .
.t
Dimostrazione Sia h(t) := |α| + a |f (τ )χ(τ )|dτ , per t ∈ [a, b].
Per ipotesi è: |f (t)| ≤ h(t) 0e quindi1 ḣ = |f χ| ≤ |χ|h. Ne segue che ḣ − |χ|h ≤ 0, che0implica 1la
.t 7 .a 8 .t
decrescenza della funzione h(t) exp − |χ| . Quindi per t ∈ [a, b] si ha |α| exp − |χ| ≥ h(t) exp − |χ| ,
che dà .t
|f (t)| ≤ h(t) ≤ |α| exp a |χ(τ )|dτ .
La seconda disuguaglianza si dimostra in modo analogo osservando che, nel secondo caso, è ḣ = −|f χ| ≥ −|χ|h.
"

Teorema 1.3.1 (di unicità) (si veda: [Michel Teor. 4.2]] Con le stesse notazioni del Teorema 1.3.1, sia v ∈ C 0 (D).
Se v è anche loc.Lip (D) allora la soluzione φ : t &→ φ(t, t0 , x0 ) ∈ Rn dell’equazione ẋ = v(t, x) uscente da un
(arbitrario) dato iniziale (t0 , x0 ) ∈ D è unica.

Note di Sistemi Dinamici


20 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Dimostrazione Per assurdo, si applica il Lemma di Gronwall alla differenza


'- t ' - t
' '
'
|φ1 (t) − φ2 (t)| ≤ ' v(τ, φ1 (τ )) − v(τ, φ2 (τ )) dτ '' ≤ kΓ |φ1 (τ ) − φ2 (τ )| dτ .
t0 t0

"

Corollario 1.3.1 (di continuità)

In tali ipotesi, φ è continua rispetto a (t, t0 , x0 ) su (a, b) × (a, b) × N (x0 ).

Più precisamente: se una soluzione t &→ φ(t) := φ(t, t0 , x0 ) è definita su [a, b] ∋ t0 allora la soluzione t &→
φ′ (t) := φ(t, t′0 , x′0 ) uscente da un (t′0 , x′0 ) scelto comunque in un conveniente W ′ := (a, b) × Bη (x′ ) ⊂ D , ove si è
chiamato x′ := φ(t′0 , t0 , x0 ), esiste almeno su (a, b) ed è tale che: dato comunque ε > 0 , esiste δ(ε, a, b; t′ , t′0 , x′0 )
per il quale

|x′0 − x′′0 | + |t′0 − t′′0 | + |t′ − t′′ | < δ implica |φ(t′ , t′0 , x′0 ) − φ(t′′ , t′′0 , x′′0 )| < ε .

x
Á(t )
Á (t )
(t0,x0 )
(t0,x )
8
>
< (t0,x0 )
´1 >:
K
t
a t0 t0 b

Dimostrazione
' Chiamata ancora, per brevità, φ(t) := φ(t, t0 , x0 ), sia η1 > 0 tale che l’insieme compatto K :=
{(t, x) ' t ∈ [a, b], |x − φ(t)| ≤ η1 } sia in D , e si ponga η := η1 exp(−kK (b − a)). Per (t′0 , x′0 ) ∈ (a, b) × Bη (x′ )
il teorema di esistenza assicura che φ′ (t) := φ(t, t′0 , x′0 ) esiste per t prossimo a t′0 e, fintanto che esiste, verifica la
- t
φ(t, t′0 , x′0 ) = x′0 + v(τ, φ(τ, t′0 , x′0 )) dτ .
t′0

Ma è anche, per t ∈ [a, b],


- t

φ(t, t0 , x0 ) = x + v(τ, φ(τ, t0 , x0 )) dτ ,
t′0

e quindi dal Lemma di Gronwall segue che, finché esiste, φ(t, t′0 , x′0 ) verifica la

|φ(t, t′0 , x′0 ) − φ(t, t0 , x0 )| ≤ |x′0 − x′ | exp (kK |t − t′0 |) < η exp (kK (b − a)) = η1 .

Il Teorema di prolungabilità assicura allora che φ(t, t′0 , x′0 ) esiste per ogni t ∈ [a, b].
Per provare la continuità si può usare o il seguente procedimento oppure, vedi oltre, far ricorso al Teorema di
Ascoli-Arzelà.
Primo modo (si veda: [Coddington Teor. I 7.1]).
Si definisca la successione di funzioni:
⎧ ′
⎨ φ0 (t) :=
⎪ φ0 (t, t′0 , x′0 ) := x′0 + φ(t) − x′
- t
(3.26)
⎪ φ′j+1 (t) := φj+1 (t, t′0 , x′0 ) := x′0 +
⎩ v(τ, φ′j (τ )) dτ
t′0

tutte evidentemente continue sull’insieme W := (a, b) × W ′ .

M. Lo Schiavo
1.3. I teoremi fondamentali 21

Per (t′0 , x′0 ) ∈' W ′ si ha |φ′0 (t) − φ(t)| = |x'′0 − x′ |' < η e quindi per t' ∈ (a, b) si ha (t, φ′0 (t)) ∈ K . Inoltre
'. t ' '. t '
|φ′1 (t) − φ′0 (t)| = ' t′ v(τ, φ′0 (τ )) − v(τ, φ(τ ))dτ ' ≤ kK ' t′ φ′0 (τ ) − φ(τ )dτ ' = kK |t′0 − t| |x′0 − x′ | e questo implica
0 0
|φ′1 (t) − φ(t)| ≤ (1 + kK |t′0 − t|)|x′0 − x′ | < exp(kK |t′0 − t|) |x′0 − x′ |, e la (t, φ′ (t)) ∈ K .
Induttivamente si ricava
⎧ j+1 ′
⎪ j+1
⎨ |φ′ (t) − φ′ (t)| ≤ kK |t0 − t| |x′0 − x′ |
j+1 j
(j + 1)! (3.27)


|φ′j+1 (t) − φ(t)| < exp(kK |t′0 − t|) |x′0 − x′ | < η1 ,

che dà (t, φ′j (t)) ∈ K, per ogni j = 0, 1, . . . .


La prima delle (3.27) e la compattezza di [a, b] assicurano che la successione delle {φ′j (t)} converge; la seconda
.t
delle (3.26) implica che lo fa verso la funzione φ′ (t) ≡ φ(t, t′0 , x′0 ) = x′0 + t′ v(s, φ′ (s))ds; la limitatezza di W
0
garantisce che la convergenza è uniforme cosa che, come è ben noto, conserva la continuità di (t, t′0 , x′0 ) &→ φ(t, t′0 , x′0 )
su W anche nel limite. "

Secondo modo
È istruttivo qui riportare anche il secondo dei due procedimenti cui si è accennato per la dimostrazione del
teorema di continuità, in quanto esso fa uso del seguente importante

Teorema 1.3.2 (si veda: [Michel Teor. II.5.2])


m
Con la stessa notazione del Teorema 1.3.1, siano v ∈ C 0 (D), {x0,m }m∈N −→ x0 , {vm }m∈N ⊂ C 0 (D), e sia

m
{vm }m∈N −→ v uniformemente sui sottoinsiemi compatti di D .

Se {φm }m∈N è una successione di soluzioni, con intervalli massimali Jm , dei problemi:
ẋ = vm (t, x) , φm (t0 , t0 , x0,m ) = x0,m , m = 1, 2, . . .

allora esiste una sottosuccessione {φmj }j∈N ed una soluzione φ del problema

ẋ = v(t, x) , φ(t0 , t0 , x0 ) = x0

avente intervallo massimale J0 ∋ t0 tali che


(i) lim inf j→∞ Jmj ⊃ J0 ;
j
(ii) φmj −→ φ uniformemente sui sottoinsiemi compatti di J0 .

Se, inoltre, la soluzione φ è unica allora la successione {φm }m∈N ammette φ come limite uniforme.

Dimostrazione Applicazione del Teorema di Ascoli-Arzelà dopo aver mostrato che {φm }m∈N è equicontinua
uniformemente limitata. "

Corollario 1.3.2 (si veda: [Michel Cor. II.5.4]) Con la stessa notazione del Teorema 1.3.1, sia dato il problema

ẋ = v(t, x; ε) , φ(t0 , t0 , x0 ; ε) = x0

con v ∈ C 0 (D × Dε ) ove Dε ⊂ Rℓ aperto, e si 0 supponga che, per (t0 , x01) ∈ D, ε ∈ Dε , esso abbia soluzione unica
φ(t, t0 , x0 ; ε) con intervallo massimale J := m1 (t0 , x0 ; ε), m2 (t0 , x0 ; ε) .
'
Detto W := {(t, t0 , x0 ; ε) ' (t0 , x0 ) ∈ D, ε ∈ Dε , t ∈ J} allora φ è continua su W , m1 (t0 , x0 ; ε) è
semicontinuo superiormente e m2 (t0 , x0 ; ε) semicontinuo inferiormente in (t0 , x0 ; ε) su D × Dε .
Memento 1.3.1

lim inf xj := sup inf xk o anche lim inf f (y) := lim sup f (y) .
j→∞ k∈N j>k y→x ε→0 y∈B (x)
ε

Semicontinua inferiormente su D := una funzione f (x) tale che per ogni y ∈ D sia: f (y) ≤ lim inf x→y f (x);
ovvero quando dato ε esiste Nε (x) tale che per ogni y ∈ Nε (x) si ha f (y) > f (x)−ε ; o anche quando f −1 (α, +∞)
è aperto per ogni α ∈ R.

Note di Sistemi Dinamici


22 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Dimostrazione (del Corollario)


Posto ψ(τ, 0, x0 ; ε) := φ(τ + t0 , t0 , x0 ; ε), la ψ risolve il problema

d
x = ν(τ, x) := v(τ + t0 , x; ε) , ψ(0, 0, x0 ; ε) = x0 .

m
Sia {(tm , t0,m , x0,m ; εm ) ∈ W }m∈N −→ (t, t0 , x0 ; ε). Il teorema precedente sussiste per la successione dei campi

νm (τ, x) := v(τ + t0,m , x; εm ), ed assicura che
m
φ(τ + t0,m , t0,m , x0,m ; εm ) −→ φ(τ + t0 , t0 , x0 ; ε0 )

uniformemente sui sottoinsiemi compatti di (m1 (t0 , x0 ; ε) − t0 , m2 (t0 , x0 ; ε) − t0 ). In particolare, quindi, si può
scegliere τ + t0,m = tm per ciascun m, e dedurne che la convergenza per tm → t è uniforme in m. In definitiva,
tramite la
|φ(tm , t0,m , x0,m ; εm ) −φ(t, t0 , x0 ; ε0 )| ≤
|φ(tm , t0,m , x0,m ; εm ) − φ(tm , t0 , x0 ; ε0 )| + |φ(tm , t0 , x0 ; ε0 ) − φ(t, t0 , x0 ; ε0 )| ,
m
si conclude che φ(tm , t0,m , x0,m ; εm ) −→ φ(t, t0 , x0 ; ε0 ).
0 ∞ 1
Per la (i) inoltre si ha: lim inf m→∞ m1 (t0,m , x0,m ; εm ), m2 (t0,m , x0,m ; εm ) ⊃ J0 . "

Sussiste infine anche la seguente estensione agli ordini superiori, (si veda il Teorema 1.3.1 per un enunciato
meno forte):

Teorema 1.3.3 (si veda: [Arnold §32.9], opp. [Lefschetz p.40]) Sia v(t, x, ε) ∈ C r≥1 (D×Dε ) con D ⊆ R1+n aper-
to, e Dε ⊆ Rm aperto. Allora la soluzione φ = φ(t, t0 , x0 ; ε), è di classe C r rispetto a (t0 , x0 , ε) ∈ D × Dε , e
C r+1 rispetto a t, nel suo dominio di definizione.

Ne segue che v ∈ C 1 (D) determina una ed una sola soluzione uscente da una qualsiasi coppia (t′0 , x′0 ) ∈
N (t0 , x0 ); tale soluzione è definita in tutto un intorno N (t0 , x0 ) delle condizioni iniziali ed è ivi differenziabile
rispetto a (t, t′0 , x′0 ). Risulta quindi determinata una famiglia locale di applicazioni d’avanzamento in N (t0 , x0 ).

Quanto segue, enunciato in Rn , vale anche in Cn pur di considerare accoppiate le equazioni per le parti ℜe ed
ℑm; e costituisce un parziale riassunto di quanto detto, secondo un’alternativa linea di dimostrazione: Cauchy-
Picard. In questo caso, esistenza ed unicità vengono provate simultaneamente, e sotto la più stretta ipotesi:
v ∈ C 1 (D), (si veda: [Arnold, cap.IV]).
Si consideri dapprima uno spazio metrico (X, d) ed una mappa S : X → X.
S è una contrazione := esiste una costante reale non negativa k , strettamente minore di uno, tale che:
x, y ∈ X ⇒ d(Sx, Sy) ≤ k d(x, y).
Si osservi che per poter parlare di contrazioni è fondamentale il fatto che il dominio di S e l’immagine di S
siano sottoinsiemi di uno stesso spazio metrico.
Una contrazione è un caso particolare di:
& Lipschitz := esiste k > 0 : per ogni x, y ∈ X si ha:
& d)
S : (X, d) → (X,

&
d(Sx, Sy) ≤ k d(x, y) .

Quest’ultima implica l’uniforme continuità di S su (X, d).


Per le applicazioni contrattive sussiste il fondamentale :

Teorema 1.3.4 (delle contrazioni, o C.M.P.) Sia (X, d) uno spazio metrico completo ed S : X −→ X una
contrazione. Esiste, ed è unico, un punto x̄ ∈ X che è punto unito per S , e cioè: S x̄ = x̄ .
n
Esso inoltre è anche tale che preso comunque x0 ∈ X si ha: S n x0 −→ x̄ .

M. Lo Schiavo
1.3. I teoremi fondamentali 23

Dimostrazione
Unicità: Se fosse x′ = Sx′ e simultaneamente x′′ = Sx′′ , con x′ ̸= x′′ , si avrebbe: d(x′ , x′′ ) = d(Sx′ , Sx′′ ) <
d(x′ , x′′ ), e ciò non è lecito.
Esistenza: Sia xn := S n x0 . Risulta: d(xn+1 , xn ) ≤ k n d(x1 , x0 ).
Pertanto, se m > n si ha
d(xm , xn ) ≤ d(xm , xm−1 ) + d(xm−1 , xm−2 ) + · · · + d(xn+1 , xn )
≤ (k m−1 + k m−2 + · · · + k n )d(x1 , x0 )
(1 − k m−n ) kn
= kn d(x1 , x0 ) ≤ d(x1 , x0 ) .
(1 − k) 1−k
Ne segue che la successione {S n x0 }n∈N è di Cauchy, e la completezza dello spazio X assicura l’esistenza in X di
un punto limite x̄ := lim xn . Tale punto è unito per S , infatti dalle definizioni di limite e di operatore contrattivo
segue che: x̄ è punto limite anche della successione {xm }m∈N con m = n + 1 la quale, d’altra parte, ha come limite
anche il punto S x̄ dato che è
d(xm , S x̄) = d(xn+1 , S x̄) = d(Sxn , S x̄) ≤ k d(xn , x̄) .
L’unicità del limite implica necessariamente la S x̄ = x̄ . "

kn
N.B. 1.3.4 Si è anche valutato l’errore: d(x̄, xn ) ≤ d(x1 , x0 ).
1−k

S x
S2 x
3
S x

S 2 x Sx x x S 2 x Sx

Teorema 1.3.1 (Cauchy-Picard) Sia D ⊆ R × Rn aperto; sia (t0 , x0 ) ∈ D , e sia v : D → Rn . Se il campo


v è differenziabile con continuità in D , per ogni x sufficientemente prossimo ad x0 la soluzione dell’equazione
ẋ = v(t, x) uscente da (t0 , x) esiste almeno in un intorno delle condizioni iniziali (t0 , x) unica e regolare rispetto
alle condizioni iniziali stesse.

Dimostrazione Con a e b in ∈ R, si introducano gli insiemi


; ' <
'
:= t ∈ R ' t0 − a ≤ t ≤ t0 + a ,
( >
' 0= n 11/2
'
[Bb (x0 )] := x ∈ Rn ' |x − x0 | := (xi − xi0 )2 < b ,
i=1

(si ricordi che con la notazione [A] si intende la chiusura dell’insieme A) e si supponga che a e b siano scelti in
modo tale che l’insieme (compatto)
; ' <
'
Γ := [Ba (t0 )] × [Bb (x0 )] := (t, x) ∈ R1+n ' t ∈ [Ba (t0 )] , x0 ∈ [Bb (x0 )]
risulti appartenere al dominio D . Siano poi
λ := max |v(t, x)|, kΓ := max ∥∂x v(t, x)∥ ,
(t,x)∈Γ (t,x)∈Γ

e si noti che λ e kΓ dipendono da Γ ma non direttamente da (t, x). Infine, chiamato


; ' <
'
Kx := (t, y) ' t ∈ [Ba′ (t0 )], y ∈ [Bλ|t−t0 | (x)]

il cono di apertura 2λ e centro x, sia b′ tale che, opportunamente fissato a′ ≤ a, si abbia:


Γ ⊃ Kx per ciascun x ∈ [Bb′ (x0 )].

N.B. 1.3.5 a e b dipendono dalla posizione di (t0 , x0 ) ∈ D . I valori a′ , b′ sono tali che a′ ≤ a, b′ ≤
b, b′ + λa′ ≤ b . Per l’unicità occorrerà che a′ < 1/kΓ ; b′ è l’ultimo ad essere fissato tale che b′ + λa′ ≤ b . ♦

Note di Sistemi Dinamici


24 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Qualora esista, la soluzione φ dell’equazione assegnata: ẋ = v(t, x), che esce dal dato (t0 , x), è una funzione
φ : t &→ φ(t, t0 , x) =: x + h(t, x) , h(t0 , x) = 0
che (equivalentemente) risolve il problema integrale
- t
φ(t, t0 , x) = x + v(τ, φ(τ, t0 , x)) dτ =: S+ [φ](t, t0 , x) .
t0

Essa quindi individua una curva integrale (t, φ(t, t0 , x)) =: (t, x + h(t, x)) che non potrà essere esterna a Kx finché
t < a′ , giacché in tutto Γ accade che |v| < λ.
x0+b
¡ Kx0+b¶ ¸
x0+b¶
¡¶

Kx x0 h
Á
x

x0{b¶ Kx0{b¶
x0{b
t0{a t0{a¶ t0 t0+a¶ t0+a
Sia Γ′ := [Ba′ (t0 )] × [Bb′ (x0 )], con b′ fissato come detto ed a′ ancora da specificare, e si definisca lo spazio
funzionale ; <
A(a′ , b′ ) := h ∈ C 0 (Γ′ , Rn ) tali che |h(t, x)| ≤ λ|t − t0 |, , ∀ (t, x) ∈ Γ′

o, equivalentemente, lo spazio A+ (a′ , b′ ) delle funzioni φ ∈ C 0 (Γ′ , Rn ) tali che |φ(t, x)−x| ≤ λ|t−t0 |, ∀ (t, x) ∈
Γ′ . Lo spazio A(a′ , b′ ) contiene certamente la funzione costante h : (t, x) &→ h(t, x) = 0 . Si doti tale insieme
di funzioni della norma: ? ? ' '
? ? ' '
?h1 − h2 ? := max ′ 'h1 (t, x) − h2 (t, x)' .
∞ (t,x)∈Γ

N.B. 1.3.6 Siccome Γ′ è compatto il valore che si ottiene è un massimo, cioè è un numero reale che viene assunto
dalla funzione a secondo membro. In questa norma la convergenza implica l’uniforme convergenza delle funzioni
appartenenti a C(Γ′ , Rn ). Pertanto, se una successione {hn }n=1,2,... di funzioni in A ammette limite in questa
norma, si può dedurre che la funzione limite non solo appartiene a C (Γ′ , Rn ) , ma appartiene addirittura ad A,
giacché la condizione sulla massima crescita della funzione continua a sussistere anche nel limite. Si ha cioè che
(A; ∥·∥∞ ) è un sottoinsieme chiuso, convesso, di uno spazio di Banach ed è pertanto esso stesso uno spazio di
Banach e, come tale, completo rispetto alla norma ∥·∥∞ . Analoghe affermazioni sussistono per lo spazio A+ . ♦

Si definisca ora su (A; ∥·∥∞ ) l’operatore S : h &→ S[h] mediante la:


- t
S[h](t, x) := v(τ, x + h(τ, x))dτ ,
t0
.t
o, su A+ , l’equivalente operatore S+ [φ](t, x) := x + t0 v(τ, φ(τ, x))dτ .

Proposizione 1.3.1 Per a′ sufficientemente piccolo l’operatore S : A → A è una contrazione su (A, ∥·∥∞ ).

Dimostrazione (della Proposizione)


(i) Siano τ ∈ Ba′ (t0 ) ed x ∈ Bb′ (x0 ). Dalla definizione di A segue che se h ∈ A allora (τ, x + h(τ, x)) ∈ Kx ⊂
Γ ⊂ D . Quindi S[h] è definita in quanto è definito v(τ, x + h(τ, x));
(ii) dalle proprietà degli integrali segue che S[h] ∈ C 0 (Kx ), ed inoltre S manda A in sé; infatti
' ' ''- t '
'
' ' '
'S[h](t, x)' ≤ ' |v(τ, x + h(τ, x))|dτ '' ≤ λ|t − t0 | ,
t0

il che implica che la funzione S[h] appartiene ad A; (si osservi infatti che x è definitivamente fissato in
Bb′ (x0 ), e che t varia in Ba′ (t0 ); quindi la S[h] verifica tutte le condizioni per la sua appartenenza ad A);

M. Lo Schiavo
1.3. I teoremi fondamentali 25

(iii) S può essere reso contrattivo su (A, ∥·∥∞ ). Infatti


- t0 1
(S[h1 ] − S[h2 ])(t, x) = v(τ, x + h1 (τ, x)) − v(τ, x + h2 (τ, x)) dτ ;
t0

e siccome v ∈ C 1 (D) ⊂ Lip (Γ) risulta

|v(τ, x + h1 (τ, x)) − v(τ, x + h2 (τ, x))| ≤ kΓ |h1 (τ, x) − h2 (τ, x)|
≤ kΓ ∥h1 − h2 ∥∞ ,

da cui segue
|(S[h1 ] − S[h2 ]) (t, x)| ≤ kΓ |t − t0 | ∥h1 − h2 ∥∞ ≤ kΓ a′ ∥h1 − h2 ∥∞ .
Posto allora kΓ a′ =: k si ottiene

∥S[h1 ] − S[h2 ]∥∞ ≤ k ∥h1 − h2 ∥∞ .

Pertanto, purché sia k < 1, si ha che S è una contrazione su (A, ∥·∥∞ ) . Equivalentemente: S+ è
contrattivo su A+ . "

Scelto x prossimo a x0 , per esempio |x − x0 | < b′ , e se a′ verifica la limitazione kΓ a′ < 1 , ne segue che in A
esiste ed è unico il punto unito di S :
- t
h̄ = S[h̄] ≡ v(τ, x + h̄(τ, x))dτ ,
t0

ed anzi risulta x + h̄(t, x) ∈ Kx per ogni t ∈ Ba′ (t0 ).


Ponendo - t
φ(t, t0 , x) := x + h̄(t, x) = x + v(τ, φ(τ, t0 , x))dτ ≡ S+ [φ](t, t0 , x)
t0

si riconosce cosı̀ che, per t0 ed x ∈ Bb′ (x0 ) fissati e per t ∈ Ba′ (t0 ), la funzione t &→ φ(t) := φ(t, t0 , x) verifica su
Ba′ (t0 ) l’identità
φ̇(t) = v(t, φ(t)) , con φ(t0 ) = x .
Si noti anche che
φ = S+ [φ] implica che φ = lim φn ,
n→∞

ove si è posto
φ0 (t, t0 , x) := x, e, per n = 0, 1, . . .
- t
n
φn+1 (t, t0 , x) := x + v(τ, φn (τ, t0 , x)) dτ = S+ [φ0 ] .
t0

Infine, la funzione φ(·, t0 , ·) è uniformemente continua su Γ′ , giacché h̄ è in A. "

Per provare la regolarità della soluzione è conveniente premettere il seguente:

Lemma 1.3.1 Sia L(Rn ) lo spazio degli operatori lineari reali su Rn , sia T : t &→ T (t) ∈ L(Rn ), con T ∈ C 1 (I ⊆
R), e sia T (t) la matrice che una data base assegna all’operatore T (t). L’equazione

ẋ = T (t)x, x(t0 ) = x0 ∈ Rn (3.28)

ammette soluzione φ(·, t0 , x0 ) : JM ⊃ I → Rn se e solo se

Ẋ = T (t)X, X(t0 ) = X0 = 1I ∈ L(Rn ) (3.29)

ammette soluzione Ψ(·, t0 , 1I ) : JM ⊃ I → L(Rn ), ed in tal caso esse sono tali che x0 è l’unico vettore in Rn
tale che φ(t, t0 , x0 ) = Ψ(t, t0 , 1I )x0 .

Note di Sistemi Dinamici


26 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Dimostrazione Indicata brevemente con Ψ = Ψ(t, t0 ) la detta soluzione di (3.29), dato comunque x0 si ha che
Ψ̇(t, t0 )x0 = T (t)Ψ(t, t0 )x0 , e pertanto φ(t, t0 , x0 ) := Ψ(t, t0 )x0 è soluzione di (3.28). D’altra parte, tale x0 è
ovviamente unico data l’unicità della soluzione di (3.28) ed il fatto che Ψ(t0 , t0 ) = 1I .
Per quanto riguarda il viceversa, si dimostrerà (si veda: Cap.II) che la famiglia delle soluzioni di (3.28) è dotata
della proprietà di essere esprimibile, mediante una Ψ & t0 )x0 , con x0
& : JM → L(Rn ), secondo la φ(t, t0 , x0 ) = Ψ(t,
il vettore (arbitrario) che ne individua la condizione iniziale. Pertanto deve necessariamente essere Ψ & = Ψ. "

Nel seguito, all’occorrenza, i ruoli di (3.28) e di (3.29) verranno scambiati senza ulteriori commenti.

Teorema 1.3.1 (di regolarità) Sotto le stesse ipotesi del Teorema 1.3.1, se il campo è differenziabile due volte con
continuità, la soluzione, localmente, è differenziabile con continuità.

Come si è detto, questo enunciato non esprime il migliore risultato ottenibile, (si veda: Arnold §32.6), ma è
relativamente facile da dimostrare.
) *
2 1 ∂v .. .. ∂v
Dimostrazione Se v è in C (D) allora ∂x v è in C (D), ove si è posto: ∂x v =: . · · · . n ; per
∂x1 ∂x
cui, per il Lemma 1.3.1, il sistema
(
ẋ = v(t, x) (t, x(t)) ∈ D
(3.30)
Ẋ = ∂x v(t, x)X X : t &→ X(t) ∈ L(Rn ) ,

è anch’esso un sistema come nel Teorema 1.3.1. Si noti anche che le due equazioni sono accoppiate: la seconda
non va considerata
) * come indipendente dalla prima, bensı̀ come quella relativa alla seconda componente di un unico
x
vettore: . Posto allora φ0 := x e ∂x φ0 ≡ Ψ0 = 1I , si riconosce che il sistema delle iterate successive
X
del problema (3.30)
⎧ - t


⎪ φ
⎨ n+1 (t, t 0 , x) := x + v(τ, φn (τ, t0 , x))dτ
t0
- t (3.31)



⎩ Ψn+1 (t, t0 , x) := 1I + ∂x v(τ, t0 , φn (τ, t0 , x))Ψn (τ, t0 , x)dτ ,
t0

individua due successioni delle quali, come è facile riconoscere, la seconda ha gli elementi ordinatamente uguali alle
derivate (rispetto alla variabile x) degli elementi della prima: ∂x φn = Ψn . Per il Teorema 1.3.1, d’altra parte, tali
successioni convergono, simultaneamente ed entrambe uniformemente, la prima verso la soluzione φ = φ(t, t0 , x)
dell’equazione ẋ = v(t, x), come già detto precedentemente, e la seconda verso la soluzione Ψ = Ψ(t, t0 ; x) della
sua corrispondente
Equazione Variazionale := Ẋ = ∂x v(t, φ(t, x))X, X(t0 , t0 ; x) = 1I .
Inoltre, ricordando che la seconda delle (3.31) uguaglia la derivata (rispetto alla variabile x) della prima, si
osserva che Ψ è limite uniforme delle derivate Ψn = ∂x φn . Quindi, il limite φ delle φn è senz’altro derivabile
ed ha come derivata il limite Ψ delle derivate: Ψ(t, t0 , x) ≡ ∂x φ(t, t0 , x). In definitiva:
la derivata ∂x φ di quella funzione φ = φ(t, t0 , x) che vale x all’istante t0 e che come funzione della t è
soluzione dell’equazione ẋ = v(t, x), esiste, è continua, ed è la soluzione uscente dal dato iniziale: Ψ(t0 ) = 1I
dell’equazione Ẋ = ∂x v(t, φ(t, t0 , x))X variazionale della ẋ = v(t, x) nel punto φ = φ(t, t0 , x).
Infine, siccome la convergenza è uniforme su [Ba′ (t0 )] × [Bb′ (x)], la derivata ∂x φ è anche tale che

|φ(t, t0 , x + χ) − φ(t, t0 , x) − ∂x φ(t, t0 , x)χ|


lim =0
|χ|→0 |χ|

uniformemente rispetto a t ∈ [Ba′ (t0 )] (questo ultimo fatto, ancora più esplicitamente rimarcato nel Teorema 1.3.2,
è di importanza fondamentale per tutto ciò che riguarda i procedimenti di calcolo approssimato). "

N.B. 1.3.7 Tutto ciò è valido in insiemi limitati. In particolare a′ , se anche può a volte essere arbitrario, deve
comunque essere fissato e finito. ♦

M. Lo Schiavo
1.4. Esempi e casi notevoli 27

N.B. 1.3.8 Si osservi che la seconda delle (3.31) individua la successione delle derivate delle φn e converge verso
la derivata della φ(t, t0 , x) soluzione della ẋ = v(t, x) solo se quest’ultima viene considerata accoppiata con
la Ẋ = ∂x v(t, x)X . In caso contrario, la soluzione di Ẋ = ∂x v(t, x)X potrebbe non coincidere con quella di
Ẋ = ∂x v(t, φ(t, t0 , x))X , e la successione
- t
Ψn+1 (t, t0 , x) = 1I + ∂x v(τ, t0 , φn (τ, t0 , x))Ψn (τ, t0 , x)dτ
t0

essere diversa dalla - t


Ψn+1 (t, t0 , x) = 1I + ∂x v(τ, t0 , x)Ψn (τ, t0 , x)dτ.
t0

Dal precedente Teorema segue che la trasformazione (Gtt0 rappresentata da) Gtt0 : x0 &→ φ(t, t0 , x0 ) per
ogni fissato t prossimo a t0 risulta essere un diffeomorfismo locale in un conveniente intorno V0 contenente x0 e
contenuto in D cosı̀ come l’operatore G&tt1 definito secondo la G & t (t1 , x1 ) := (t, Gt x1 ) è un diffeomorfismo definito
t1 t1
su {t1 } × V0 ed a valori in D .
Si può inoltre mostrare (si veda: Cap.II) che sotto le stesse ipotesi esiste un diffeomorfismo di rettificazione
ϕ
) *J ×V0 → D , a t0 fissato,
: ) rappresentato
* da ϕ(t, x̄) := (t, φ(t, t0 , x̄)) la cui derivata trasforma il campo standard
0 v
nel campo assegnato e risulta G&tt0 ≡ ϕ ◦ G!tt0 ◦ ϕ −1 ove G!tt0 è l’evoluzione banale: G!tt0 (t0 , x) = (t, x).
1 1
N.B. 1.3.9 G&tt0 trasforma {t0 } × V0 in {t} × V ; ϕ trasforma (t, x0 ) in (t, x), e cioè J × V0 in J × V , a t
fissato; infine, Gtt0 trasforma x0 in x. ♦

M0 V M
(t0;x(t)) (t;x(t))
Get0t
G t0t
'
V0
t0 t
(t0;x0) (t;x0)
Gb t0t

1.4 Esempi e casi notevoli


Come si è detto, se il campo non è autonomo il problema della determinazione delle soluzioni dell’equazione
ẋ = v(t, x) anche con x ∈ R si complica in modo generalmente non risolubile.
Vi sono però alcuni casi particolari di speciale interesse. Sia D , anche in questo paragrafo, un dominio (un
aperto, connesso, non vuoto) di uno spazio reale.

Primo caso notevole Separazione delle variabili.


v x (x)
v(t, x) = , v x , v t ∈ C 1 (D), D dominio ⊆ R1+1 , (t0 , x0 ) ∈ D .
v t (t)
Essendo entrambe scalari, le due variabili x e t sono del tutto simmetriche, ed allora spesso si usano solo
variabili “spaziali”: x, y ∈ R ottenendo
dy v y (y) dx dy
= x , o addirittura : = ;
dx v (x) v x (x) v y (y)
si osservi tuttavia che in quest’ultima espressione vi è un certo abuso di notazione (vedi oltre).
Si supponga che siano non nulli entrambi i valori v x (x0 ), v y (y0 ). Esisterà allora N (y0 , x0 ) ⊂ D nel quale ciò
continua a sussistere. In N (y0 , x0 ) la soluzione y = y(x), tale che y0 = y(x0 ), esiste unica implicitamente definita
da: - x - y
dξ dη
ψ1 (x) − ψ1 (x0 ) := x
= y
= ψ2 (y) − ψ2 (y0 ).
x0 v (ξ) y0 v (η)

Note di Sistemi Dinamici


28 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Infatti: posto t − t0 := ψ1 (x) − ψ1 (x0 ) si ha che ne esiste l’inversa x(t) = ψ1−1 (t − t0 + ψ1 (x0 )) in N (y0 , x0 ), e
questa è soluzione di ẋ = v x (x) , x(t0 ) = x0 ; (giacché v x (x0 ) ̸= 0 ). Analogamente esiste unica la y(t) =
−1
ψ2 (t−t0 +ψ2 (y0 )) tale che: ψ2 (y(t)) = t−t0 +ψ2 (y0 ). Pertanto, definita ψ3 (x, x0 , y0 ) := ψ1 (x)−ψ1 (x0 )+ψ2 (y0 ),
la soluzione del problema è data dalla: y(x) := ψ2−1 (ψ3 (x, x0 , y0 )). Essa infatti ha per derivata
'
dy(x) 7 −1 8′ dψ2−1 (η) '' dψ1 (x)
= ψ2 (x) = =
dx dη 'η=ψ3 (x,x0 ,y0 ) dx
@ ' A−1
dψ2 '' 1 v y (y(x))
= ' x
=
dy y=ψ−1 (ψ3 (x,x0 ,y0 )) v (x) v x (x)
2

ed inoltre è evidente che y(x0 ) = ψ2−1 (ψ2 (y0 )) = y0 .


Sia per esempio y la variabile dipendente. Se in D la v x (x) ̸= 0 e la .v y (y) si annulla per qualche ȳ, allora si

può perdere l’unicità, a dipendere dalla convergenza o meno dell’integrale y0 vydη(η) . L’unicità si perde se vi possono
essere diverse curve integrali tangenti alla soluzione, certamente accettabile, y(x) = ȳ . Se l’integrale diverge, il
procedimento su esposto porta ad un assurdo, e l’unica soluzione accettabile è la costante (Esempi 1.2.7 e 1.2.8).
Se invece l’integrale converge, è possibile determinare infinite soluzioni, (Esempi 1.2.1 e 1.2.2), compatibili con
arbitrarie condizioni iniziali e che “biforcano” dalla y(x) = ȳ, raccordandosi con questa nei punti di tangenza lungo
la retta y = ȳ. Viceversa, se è la sola v x (x) ad annullarsi in qualche punto x̄ allora è l’esistenza in grande che
viene a mancare, e la soluzione resta definita solo in intervalli che dipendono dalle condizioni iniziali.
2 1 1
Esempio 1.4.1 ẋ = ≡ − , t0 , x0 ∈ R, t0 ̸= ±1 ,
−1t2 t−1 t+1
(si veda anche: Esempio 1.2.8). La famiglia delle soluzioni è contenuta nell’espressione
' '
't − 1'
'
!(t) = ln '
x ' + cost .
t + 1'

-1 +1
t

1
Esempio 1.4.2 ẋ = t0 , x0 ∈ R, t0 ̸= 0 .
t
Fissato comunque τ > 0 , non possono esistere soluzioni in J := (−τ, τ ), perché ln |τ | + c è discontinua in zero.
L’equazione ha però soluzioni date da

t &→ φ(t, t0 , x0 ) = ln(−t) − ln(−t0 ) + x0 per t ∈ (−τ, 0), se t0 < 0


t &→ φ(t, t0 , x0 ) = ln(+t) − ln(+t0 ) + x0 per t ∈ (0, +τ ), se t0 > 0 .

x0
t

M. Lo Schiavo
1.4. Esempi e casi notevoli 29

x
Esempio 1.4.3 ẋ = t0 , x0 ∈ R, t0 ̸= 0 .
t
Per t > 0 e per t < 0 le soluzioni sono date da x !(t) = c0 t con c0 := x0 /t0 . Tuttavia nessuna di esse passa
per la retta t = 0 che rappresenta la frontiera del dominio D di regolarità del campo. Quindi anche se (t0 , x0 ) e
(t′0 , x′0 ) sono tali da avere lo stesso rapporto, qualora fosse t0 t′0 < 0 le due semirette non fanno parte di una stessa
soluzione, pur facendo parte di una stessa retta.
x

Ciò è per dire che quando v non è regolare, anche se la soluzione “sembra” regolare essa va comunque considerata
come formata dalle varie parti dalle quali risulta composta e che separatamente sono soluzioni della equazione su
diversi domı́ni.
Si noti che il teorema di esistenza non dice che la soluzione è certamente singolare su ∂D , dice solo che non lo

è in D .
Esempio 1.4.4 t2 ẋ + 2tx − 4t3 = 0 , (t0 , x0 ) = (1, 1).
2 4
L’equazione implica t x − t = c, e le condizioni iniziali danno c = 0 . La soluzione pertanto è contenuta in una
funzione regolare su tutto R pur non essendo, la soluzione stessa, definita su tutto R. Infatti essa è comunque
composta da due rami disgiunti su t < 0 e t > 0 . Ciò è immediato se si pensa al fatto che l’equazione data è, in
2
reatà, la ẋ = 4t − x, le cui soluzioni sono riassunte dalla x !(t) = t2 + c/t2 .
t
x

t
Esempio 1.4.5 ẋ = −, t0 , x0 ∈ R, x0 ̸= 0 .
x
L’equazione implica x + t = c = x20 + t20 . La soluzione quindi cessa di esistere per t2 > c. In particolare, se
2 2

c=0, la funzione φ(t, 0, 0) : {0} &→ {0} non è certo differenziabile, (e non è la costante R → {0} ).
x

t
#

Esempio 1.4.6 Il modello ecologico unidimensionale. p : t ∈ R &→ p(t) ∈ R+ .


Siano n(t) il numero di nuovi nati, su un campione di n̄ individui, nell’intervallo di tempo [t − τ, t]; m(t) il
numero di morti nello stesso intervallo di tempo e sullo stesso campione; p(t) il numero di individui vivi all’istante
t. La frequenza di crescita all’istante t, media nell’intervallo ∆t, è data per definizione da
∆p 1
:= (n(t) − m(t)) · .
p∆t n̄τ

Note di Sistemi Dinamici


30 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

∆p ṗ
Ipotesi di lavoro però è che sia p : R → R, ed inoltre = .
p∆t p
Un primo modello si ottiene ponendo n(t)−m(t) ∼ cost = α, con α dipendente dalla quantità di cibo disponibile
per individuo σ . Può essere plausibile supporre α = β(σ − σ0 ), con β una costante positiva e con σ0 la minima
quantità di cibo sufficiente al sostentamento: si ha cioè σ ≤ ≤
>σ0 ⇐⇒ α>0. In tal modo risulta

p!(t) = p0 exp(α(t − t0 )).

Con tale schema, (σ indipendente da p), la popolazione p potrebbe crescere in modo indefinito. È chiaro
che generalmente questo non è accettabile; come correzione è necessario assegnare qualche fenomeno sociale, il cui
modello sia σ = σ(p), e che impedisca la crescita indefinita.
A questo scopo si può tenere conto della lotta per il cibo: σ = (& σ − kp) con σ & > σ0 . Risulta allora α =
σ − σ0 ) − βkp =: c(η − p). Questo secondo modello dà luogo alla
β(&

equazione Logistica : ṗ = c(η − p)p , c, η > 0 . (4.32)

Gli equilibri sono p = 0, e p = η che viene chiamata popolazione endemica. Si noti poi che −cp2 è proporzionale
al numero di incontri, e rappresenta gli attriti sociali. Ci si aspetta anche che per piccole popolazioni tali attriti
siano piccoli, e cioè η ≫ 1 . Per p piccole allora si ha ṗ ≃ cηp da cui si vede che lo zero è instabile in quanto la p
segue l’evoluzione vista sopra. Viceversa, se p > η risulta ) ṗ/p < 0 e di *
conseguenza si ha che η è stabile.
1 1 1/η b/η
Più in dettaglio, mediante la relazione ≡ + si ricava
cp(η − bp) c p η − bp
' ' ' ' ' '
1 'p' 1 ' η − bp) ' ' p(η − p0 ) '
c(t − t0 ) = ' '
ln ' ' − ln ' ' ' , e quindi '
cη(t − t0 ) = ln ' ' .
η p0 η η − bp0 ' p0 (η − p) '

Pertanto, se η − p0 > 0 allora (per continuità) è anche η − p > 0 almeno fino a che p = η ; e ciò non può accadere
in un tempo finito. Analogamente, se: η − p0 < 0 allora η − p < 0 per ogni t ≥ t0 . Risulta infatti esplicitamente:
η
p!(t) = ,
1 + ( pη0 − 1) exp(−cη(t − t0 ))

che implica, dato p0 > 0 , che lim p(t) ↑ η se p0 < η , e lim p(t) ↓ η se p0 > η . Si ha cioè la curva
t→∞ t→∞
logistica:

0
t

N.B. 1.4.7 Attenzione alle forme implicite. Con x : t ∈ R &→ x(t) ∈ R si hanno per esempio:

• ẋ2 + x2 = 0 non ha soluzioni: l’insieme aperto D di definizione del campo è vuoto. Al più si può estendere il
concetto di soluzione (vedi qui sotto) ed accettare l’unica x = x(t) = 0 in corrispondenza dell’unica possibile
scelta delle condizioni iniziali: (t0 , x0 ) ≡ (t0 , 0) ∈ ∂D .

• |ẋ| + 1 = 0 non ha soluzioni ;

• (ẋ − x)(ẋ − 2x) = 0 non è una equazione ma sono due.

Definizioni desuete:

M. Lo Schiavo
1.4. Esempi e casi notevoli 31

Soluzione generale := Una funzione Φ : (t, t0 ; c) &→ Φ(t, t0 ; c) ∈ Rn , con c := (c1 , . . . , cn ) ∈ Rn , definita
su un aperto J × U ⊆ J × D ⊆ R2+n e tale che ogni possibile soluzione x = φ(t, t0 , x0 ) dell’equazione ẋ = v(t, x),
con x ∈ Rn e (t0 , x0 ) ∈ U , si possa ricavare come caso particolare della Φ per una qualche scelta dei parametri
c1 , c2 , · · · , cn . Lo spazio dei parametri deve pertanto poter essere posto in corrispondenza biunivoca con quello dei
dati iniziali (a t0 fissato).
Soluzione singolare := una soluzione che non è ottenibile dalla soluzione generale per alcun valore reale finito

dei parametri. (Spesso appartiene con la ∂D se il campo è loc.Lip in D ).
Queste possono dar luogo a casi dubbi: ẋ = −2x3/2 , che è Lip in R, dà
1 −1/2
(x−1/2 − x0 ) = −2(t − t0 )
(1 − 3/2)

da cui (
(t + c)−2 se ̸ 0
x0 =
!(t) =
x
0 se x0 = 0

e si noti che la x = 0 non è ottenibile dalla prima per alcun valore reale di c. Se però si pone k := 1/c la funzione
!(t) = k 2 /(1 + kt)2 che è del tutto regolare, ma che non contiene il caso c = 0 .
che si ottiene è : x
Conviene in definitiva riferirsi sempre alla soluzione locale per (t0 , x0 ).
Esempio 1.4.8 L’equazione di Clairaut

ẋ2
x = ẋt − t0 , x0 ∈ R .
2
√ '
In realtà queste sono due equazioni: ẋ = t ± t2 − 2x entrambe con campo loc.Lip in D := {(t, x) 'x < t2 /2 },
1
infatti ivi è finita la ∂x v = ∓(t2 − 2x)− 2 . La frontiera del dominio D è la parabola x = t2 /2 che è soluzione,
singolare.
La funzione x !(t) = x0 + λ(t − t0 ) è soluzione purché λ verifichi la:
B
1
x0 + λ(t − t0 ) = λt − λ2 , e cioè se λ± = t0 ± t20 − 2x0 .
2
A sua volta quest’ultima individua due rette (una per equazione) per ciascun (t0 , x0 ) ̸∈ ∂D ; esse passano per la
∂D nei punti (x± , t± ) tali che

t2± λ2
= x± = x0 + λ± (t± − t0 ) = λ± t± − ±
2 2
che implica (t± − λ± )2 = 0 e quindi t± = λ± . D’altra parte il coefficiente angolare della tangente in t alla
parabola ∂D vale: d(t2 /2)/dt ≡ t, per cui le rette soluzione sono tangenti alla parabola nei punti (x± , t± ).
Come nell’Esempio 1.4.3 però queste soluzioni vanno considerate in modo separato: l’una o l’altra delle due
semirette il cui punto di separazione è quello di tangenza con la frontiera ∂D del dominio di regolarità del campo.

x=t2=2
x

t
(t0;x0)

Nella figura il tratto unito rappresenta le soluzioni per l’equazione con il segno positivo, quello tratteggiato le
soluzioni dell’equazione con il meno. #

Memento 1.4.1 Una funzione f : R2 → R si dice omogenea di grado α ∈ R se, per ogni x > 0 , si ha

f (xy, xz) = xα f (y, z), identicamente per y, z ∈ R .

Note di Sistemi Dinamici


32 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Secondo caso notevole Equazioni omogenee di grado zero.


Siano x0 , y0 ∈ R, D ⊂ R2 aperto, con x0 ̸= 0 e v(x0 , y0 ), e siano v x , v y : R2 → R, v x , v y ∈ C 1 (D), due
funzioni omogenee dello stesso grado. (Ridefinendo x → −x se x0 < 0 ), la sostituzione y(x) =: x z(x) trasforma
l’equazione
dy v y (x, y)
= x , (x0 , y0 ) ∈ D nella :
dx v (x, y)
dz v y (1, z)
z+x = x , (x0 , z0 ) ∈ D, z0 := y0 /x0
dx v (1, z)
che si risolve implicitamente con la
- ) *−1 '
x z
v y (1, ζ) '
'
ln = −ζ dζ ' ,
x0 z0 v x (1, ζ) '
z=y/x

(si veda: [Petrovskj p.18]); tutte le curve integrali sono simili, con l’origine come centro di similitudine: y → cy, x →
cx, con c ̸= 0 .
È evidente che questo metodo si applica anche ad equazioni del tipo: y ′ = g(x, y) con g : R2 → R funzione
omogenea di grado zero.
) *
dy ax + by + c
Esempio 1.4.9 =g x0 , y0 ∈ R, dx0 + ey0 ̸= 0 con g : R → R, funzione regolare, e
dx dx + ey + f
con a, .' . . , f '∈ R , tali che |c| |f | ̸= 0.
'a b'
Se '' ' ̸= 0 esiste un unico punto (x̄, ȳ) intersezione delle due rette. Posto x =: ξ + x̄, y =: η + ȳ si ricava
d e'
facilmente ) * ) *
dη aξ + bη dζ a + bζ
=g =⇒ ζ + ξ =g .
dξ dξ + eη dξ d + eζ
' '
'a b'
Se invece ' ' ' = 0 , (pur restando |a| + |b| > 0, e |d| + |e| > 0), esiste σ ∈ R tale che a = σd, b = σe, e si
d e'
ha con z = (ax + by) = σ(dx + ey) :
) *
dy dz z+c
b = − a = bg z+f .
dx dx 1/σ
#
N.B. 1.4.10 Nel seguito di questo paragrafo si assumeranno x, y, z ∈ R; le funzioni v , v , µ, ν : R → R verranno x y 2

tutte considerate appartenenti a C 1 (D) per un conveniente aperto D ⊆ R2 , D ∋ (x0 , y0 ); e si supporrà che in
D entrambi i valori di v x , v y e di µ, ν siano non simultaneamente nulli.
Inoltre, la seguente notazione si intenderà valida con l’intesa di scegliere come variabile dipendente quella per
la quale la condizione iniziale (x0 , y0 ) ∈ R2 rende la corrispondente componente del campo determinata e non
nulla. Per esempio se v x (x0 , y0 ) è in R\{0} allora si intenderanno localmente equivalenti in N (x0 , y0 ) ⊆ R2 le
due espressioni
dy v y (x, y)
= x e v y (x, y) dx = v x (x, y) dy , (4.33)
dx v (x, y)
il che comporta che nell’intorno di punti nei quali è invece v y (x, y) ̸= 0 l’equazione che si pensa di risolvere è la:
dx v x (x, y)
= y e non la prima delle (4.33). Allo stesso modo, se ν : R2 → R, è tale che ν(x0 , y0 ) ̸= 0 , allora si
dy v (x, y)
equivarranno in N (x0 , y0 ) ⊆ R2 le
dy
ν(x, y) + µ(x, y) = 0 e µ(x, y)dx + ν(x, y)dy = 0 . (4.34)
dx
Questa notazione si può generalizzare al caso n ≥ 2 , e cioè con x := (x1 , . . . , xn ) ∈ Rn e con v := (v1 , . . . , vn ) : D ⊆ Rn → Rn ,
v ∈ C 1 (D) . Tuttavia ciò dà luogo a due possibili “estensioni”, diverse l’una dall’altra. Da un lato si può considerare la (4.33) come
un caso particolare di un’espressione del tipo
dx1 dx2 dxn
= = ... = , (4.35)
v1 (x1 , . . . , xn ) v2 (x1 , . . . , xn ) vn (x1 , . . . , xn )
da intendersi equivalente al sistema (per esempio)
dxi vi (x1 , . . . , xn )
= j 1 , i = 1, . . . , j − 1, j + 1, . . . , n
dxj v (x , . . . , xn )

M. Lo Schiavo
1.4. Esempi e casi notevoli 33

se nell’intorno di un punto x0 := (x10 , . . . , xn j


0 ) nel quale è v (x0 ) ̸= 0 (si veda: Cap.II). In particolare

dx1 dx2 dxn dt


= = ... = = (4.36)
v1 (t, x1 , . . . , xn ) v2 (t, x1 , . . . , xn ) vn (t, x1 , . . . , xn ) 1
può essere ritenuta equivalente per esempio al sistema
d i
x = vi (t, x1 , . . . , xn ) , i = 1, . . . , n .
dt
Dall’altro, la (4.33) può essere vista come caso particolare della sola espressione:
f1 (x1 , . . . , xn )dx1 + f2 (x1 , . . . , xn )dx2 + · · · + fn (x1 , . . . , xn )dxn = 0 , (4.37)
la quale però, per n > 2 , in generale non equivale ad alcuna equazione differenziale ordinaria risolubile in modo indipendente. Essa
infatti stabilisce “solo” un vincolo di ortogonalità, nel punto x = (x1 , . . . , xn ) , fra il vettore f(x) ∈ Rn ed uno dei vettori v(x) ∈ Rn
che possono comparire nella (4.35), e cioè un qualsiasi vettore di campo di un sistema del tipo ẋ = v(x) . ♦

Terzo caso notevole Equazioni differenziali esatte


(si vedano: [Ghizzetti II p.221] o anche: [Apostol III.7.19])

Memento 1.4.1 Si ricordino dapprima le seguenti definizioni.


Cammino semplice := Un cammino γ := {γ(τ )}τ ∈[t0 ,t] individuato da una funzione γ : τ ∈ [t0 , t] → x :=
x(τ ) ∈ D ⊂ R2 , γ ∈ C([t0 , t]) tale che dati comunque τ1 , τ2 ∈ [t0 , t], τ1 ̸= τ2 , si ha γ(τ1 ) ̸= γ(τ2 ).
Cammino generalmente regolare := Un cammino γ : [t0 , t] → D ⊂ R2 , γ ∈ C 0 ([t0 , t]) che ammette t0 <
t1 < t2 < . . . < tn := t tali che su ciascun Ii := (ti−1 , ti ) si ha γ ∈ C 1 (Ii ), con ∥γ̇∥ := (ẋ2 + ẏ 2 )1/2 > 0 ,
i = 1, 2, . . . , n .

Sia γ un Cammino generalmente regolare in Rn dato da x(t) = (x1 (t), .., xn (t)).
“Integrare una funzione scalare f : D9 → R,
' f=
1 n
: f (x , . . . , x ) lungo γ” significa sommare i valori ottenuti su
ciascuno degli archi regolari: γ i := γ(t) t ∈ Ii mediante la
'
- - ti /
f ds ≡ f (x(τ )) |ẋ(τ )|2 dτ ;
γi ti−1

e si osserva che il risultato è indipendente C dalla particolare parametrizzazione dell’arco γ i .


i=1 gk (x , . . . , x ) dx lungo γ i significa calcolare l’integrale
n 1 n k
“Integrare una forma differenziale lineare
@ n A
=- = D1 / - t=n
i
gk ẋ (τ ) |ẋ|2 dτ = gk (x1 (τ ), . . . , xn (τ )) ẋk (τ ) dτ .
i=1 γi k=1 t0 k=1

Forma esatta := Una forma differenziale del tipo:

µ(x, y)dx + ν(x, y)dy, con µ, ν : R2 → R, x, y ∈ R ,

si dice esatta su un dominio D ⊂ R2 quando esiste su D una funzione F : D → R che sia F ∈ C 1 (D) con
@ A @ A
∂x F (x, y) µ(x, y)
∇F (x, y) := = , (x, y) ∈ D .
∂y F (x, y) ν(x, y)

In tal caso, scelto un qualunque cammino semplice e generalmente regolare γ : [t0 , t] → D , la cui rappresentazione
parametrica sia x(τ ) ≡ (x(τ ), y(τ )) con x(t0 ) = p0 ≡ (x0 , y0 ) e x(t) = p ≡ (x, y), si ha:
- - t - t
dF
µdx + νdy := (µẋ + ν ẏ)dτ = dτ = F (x, y) − F (x0 , y0 ) .
γ t0 t0 dτ

Equivalentemente, lungo un qualunque cammino semplice e chiuso γ0 ⊂ D risulta, con T il periodo del ciclo γ 0,
- - t0 +t
µdx + νdy ≡ (µ(x(t))ẋ(t) + ν(x(t))ẏ(t)) dt
γ0 t0
- t0 +t
dF (x(t))
= dt = F (x(t0 + T)) − F (x(t0 )) ≡ 0 .
t0 dt

Note di Sistemi Dinamici


34 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Le precedenti considerazioni si estendono al caso generale, e cioè per una forma differenziale del tipo (4.37)
con n > 2 ed x ∈ Rn . Anche questa si dice esatta quando esiste una funzione (scalare) F = F (x) ∈ R il cui
differenziale totale uguaglia la forma stessa; e pertanto essa è tale che ∇F (x) = (f1 (x), . . . , fn (x)) . Come si vedrà
più diffusamente nel Cap.III, se n > 2 l’esattezza di una forma implica “solo” che il valore F (t) := F (! x(t)) non
muta lungo ciascuna delle soluzioni x : t &→ x !(t) := (x1 (t), . . . , xn (t)) di una qualsiasi delle equazioni ẋ = v(x)
che hanno campo v(x) che verifica
n
=
∇F (x) · v(x) ≡ fi (x1 , . . . , xn )v i (x1 , . . . , xn ) = 0,
i=1

e cioè quelle con campo v tangente in ogni suo punto a una superficie: F (x) = F0 .
Esempio 1.4.11 (continuazione dell’Esempio 1.4.5) ) *
−y/x
La funzione F (x, y) := x2 + y 2 ha valori costanti non solo lungo le soluzioni del campo , ma anche
) * ) * 1
y yx
lungo quelle dei campi: oppure , etc, (ma solo il secondo dei tre verifica la condizione di Shwartz,
−x −x2
cfr. oltre). #

Viceversa, nel caso n = 2 (ovvero 1 variabile scalare dipendente ed 1 indipendente), sussiste la seguente

Proposizione 1.4.1 Sia D ⊆ R2 aperto, x, y ∈ R, e µ, ν ∈ C 1 (D) a valori reali e non simultaneamente nulli.
* + ν(x, y)dy è esatta, e quindi esiste una funzione F : D → R, F ∈ C (D), tale che su D
1
Se la forma µ(x,) y)dx
µ
si abbia: ∇F = , allora il teorema della funzione implicita permette di risolvere la F (x, y) = c = F (x0 , y0 )
ν
e di ricavare la soluzione (generale) in D dell’equazione µ(x, y)dx + ν(x, y)dy = 0 , e cioè di una (qualsiasi)
) *
x
delle equazioni ẋ = v(x), con x(t) ∈ R , che hanno campo v(x) ortogonale a ∇F (x) nel punto x =
2
, per
y
esempio: dy/dx = v x /v y = −ν/µ, e sempre che sia µ(x, y) ̸= 0 , la x = x(y) tale che F (x(y), y) = F0 := F (x0 , y0 )
è la soluzione di

Dimostrazione Supposto, per esempio, che sia ∂x F (x0 , y0 ) ≡ µ(x0 , y0 ) ̸= 0, la: F (x, y) = F0 = F (x0 , y0 )
definisce implicitamente x = x(y) tale che:

• F (x(y), y) = F0 per ogni y in un conveniente intorno di y0 ;

• x(y0 ) = x0 ;

• x = x(y) è soluzione di
dx ν(x, y)
=− (4.38)
dy µ(x, y)
perché x = x(y) è tale che
+ ,
d dx
0= (F (x(y), y)) = µ(x, y) + ν(x, y) . (4.39)
dy dy x=x(y)

Si osservi che la (4.38) è equivalente al sistema



⎨ x′ = − ν(x, y) ,
µ(x, y) (4.40)
⎩ ′
y =1,

ed è quindi della forma: ) *


µ
ẋ = v(x), con x ∈ R2 , e con v ⊥ ∇F = .
ν
In effetti anche qui, come nel caso generale, ogni soluzione della (4.38) è tale da giacere su una delle superfici
F (x, y) = cost. Infatti lungo le soluzioni della (4.38), ed in forza della (4.39), si riconosce che la funzione F
conserva il valore F (x0 , y0 ) che essa assume nel punto iniziale. Come si vedrà in seguito, la funzione F è un
integrale primo del sistema (4.40).

M. Lo Schiavo
1.4. Esempi e casi notevoli 35

Memento 1.4.1 Sussistono i seguenti risultati classici.

Teorema 1.4.1 (della funzione implicita) , (si veda: [Apostol III.3.29])


Sia f : (x, y) ∈ D → f (x, y) ∈ R, con D := R × [a, b] ⊂ R2 , tale che ∂x f esista su D e verifichi 0 < m1 ≤
∂x f ≤ m2 per certe due costanti m1 , m2 ∈ R.
Se per ogni φ ∈ C 0 ([a, b]) anche la f ◦1 φ ∈ C 0 ([a, b]), ove (f ◦1 φ)(y) := f (φ(y), y), allora esiste ed è unica la
φ! ∈ C 0 ([a, b]) tale che f ◦1 φ! = 0 per ogni y ∈ [a, b].

1 7 8
Dimostrazione L’operatore S[φ] := φ − f ◦1 φ è contrattivo su C 0 ([a, b]), ∥ · ∥∞ . Infatti, siccome è
m2
possibile scrivere 0 1
f ◦1 φ = f ◦1 ψ + ∂x f ◦1 ψ& (φ − ψ)

per un’opportuna ψ& tale che ψ(y)


& ∈ [φ(y), ψ(y)], allora si ha che
' ' ' ' ' ) *'
' ' ' ' ' '
'S[φ] − S[ψ]' = 'φ − ψ − 1 (f ◦1 φ − f ◦1 ψ)' = '(φ − ψ) 1 − 1 ∂x f ◦1 ψ& '
' ' ' m2 ' ' m2 '
) *
m1
≤ 1− |φ − ψ|
m2

e quindi
m1
∥S[φ] − S[ψ]∥∞ ≤ k ∥φ − ψ∥∞ con k =1− < 1.
m2
"

Per cui, se f (x0 , y0 ) = 0 , l’unicità di φ! ed il fatto che ∂x f ̸= 0 assicurano che x0 = φ(y


! 0 ). Infatti la
f (·, y) è nulla in φ(y0 ) e monotona in N (x0 ).
Alternativamente, con ipotesi leggermente meno restrittive ed una dimostrazione meno snella, si ha il seguente

Teorema 1.4.2 (del Dini) , (si veda: [Avantaggiati II.2.1]) Siano f, ∂x f ∈ C 0 (D) con D ⊂ R2 aperto, e sia
(x0 , y0 ) ∈ D tale che
f (x0 , y0 ) = 0, ed ∂x f (x0 , y0 ) ̸= 0 .

Allora esistono h, k ∈ R+ ed una sola φ! : [Bh (y0 )] → [Bk (x0 )] tali che

! 0 ) = x0 ,
φ(y e che f ◦1 φ! = 0 su Bk (y0 ).

Dimostrazione Si supponga ∂x f (x0 , y0 ) > 0 . Esistono δ, h, m > 0 tali che [Bh (x0 )] × [Bδ (y0 )] =: Γ ⊂ D , e
che su Γ risulti ∂x f ≥ m > 0 .
Ma allora è f (x0 − h, y0 ) < 0 ed f (x0 + h, y0 ) > 0 , e quindi esiste 0 < k ≤ δ tale che f (x0 − h, y) < 0 ed
f (x0 + h, y) > 0 su Bk (y0 ).
Pertanto per ciascun ȳ ∈ Bk (y0 ) esiste x̄ ∈ Bh (x0 ) tale che f (x̄, ȳ) = 0 , e tale x̄ è unico giacché ∂x f > 0 .
Infine, la continuità della corrispondenza è provata, punto per punto, scegliendo h e k opportunamente piccoli.
"

Prendono il nome di esatte quelle equazioni differenziali che risultano le derivate totali di un’equazione di ordine
d
inferiore. Per esempio, l’equazione di Lighthill: ẍ+tẋ+x = 0 è del tipo dt (ẋ+tx) = 0 . Esse danno luogo, mediante
quadratura, ad un’equazione di ordine più basso, e consistono in un caso particolare di ortogonalità fra il vettore
f (x) := ∇F (x) di una forma esatta ed un vettore ẋ = (ẋ1 , . . . , ẋn ) espressi in funzione di un’unica variabile
dipendente e delle sue derivate di ordine superiore. Nell’esempio della equazione 7 di Lighthill si ha ∇F 8 (t, x) ≡
f (t, x) := (Ft ; Fx ; Fẋ ; . . . ; Fx(n) ) = (x; t; 1) che è ortogonale al vettore 1 ; ẋ ; ẍ ; . . . ; x(n+1) , e quindi
!(t))/dt = 0 .
dF (t, x
N.B. 1.4.12 Se µ(x, y) si annulla in qualche punto in D occorre cambiare il ruolo delle due variabili dipendente ed
indipendente: per la forma vista nell’Esempio 1.4.11: xdx + ydy vanno presi in considerazione quattro domı́ni;
ciò non toglie tuttavia che la funzione F (x, y) = x2 + y 2 sia del tutto regolare. ♦

Note di Sistemi Dinamici


36 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

N.B. 1.4.13 Per definizione, la funzione F è F ∈ C 1 (D), e quindi risulta necessariamente verificata la

Condizione di Schwartz δ(x, y) := ∂y µ(x, y) − ∂x ν(x, y) = 0, x, y ∈ D .

e cioè la forma è chiusa in tutto il dominio di regolarità D della funzione F .


L’opposto della funzione δ può essere interpretato sia (in dim = 2 ) come la divergenza del vettore: w :=
(ν, −µ), sia (in dim = 3 ) come la terza componente di un vettore ω tale che ω x = µ ed ω y = ν . ♦

In generale non è immediato capire se esista o meno una tale funzione F anche al di fuori del “conveniente
intorno” delle condizioni iniziali. A volte invece può succedere che se ne possa stabilire l’esistenza in modo semplice:
è ciò che accade quando la funzione δ(x, y) := ∂y µ(x, y) − ∂x ν(x, y) si annulla in tutti i punti di un aperto
semplicemente connesso: A.

Memento 1.4.1 Semplicemente connesso := Un aperto A ⊂ R2 si dice semplicemente connesso quando ogni
curva generalmente regolare semplice e chiusa contenuta in A è frontiera, in R2 , di un aperto connesso totalmente
contenuto in A.
Ciò è l’equivalente in dimensione due di quello che in dimensione tre si chiama:
Connessione lineare semplice := Un aperto A ⊂ R3 si dice a connessione lineare semplice quando ogni curva
generalmente regolare semplice e chiusa contenuta in A è frontiera, in R3 , di una superficie S generalmente
regolare totalmente contenuta in A.
Entrambi si possono anche enunciare richiedendo che ogni curva semplice chiusa sia “contraibile” ad un punto
in modo continuo senza uscire dall’insieme A.
Se A è semplicemente connesso, dato comunque un cammino semplice chiuso γ 0 ⊂ A si può assicurare
l’esistenza di un insieme regolare Γ ⊂ A ⊂ R2 che lo ha per frontiera, ove:
Insieme regolare := Un chiuso Γ ⊂ Rn che ammette una decomposizione finita: Γ = ∪ni=1 Γi fatta con Insiemi
normali o semplici {Γ1 , . . . , Γn } rispetto ad un (qualche) piano coordinato, e frontiera costituita da porzioni di
superficie regolari aventi a coppie al più punti (isolati) in comune.
Insieme in R3 normale rispetto al piano (x, y), o: z -semplice := un compatto Γ ⊂ R3 espresso da
⎧ ' ⎫
⎨ ' α(x, y) ≤ z ≤ β(x, y); α, β ∈ C 1 (D ⊂ R2 ), ⎬
'
Γ := (x, y, z) ∈ R3 '' ◦ .
⎩ ' α(x, y) < β(x, y) ⎭
∀(x, y) ∈D, D normale

Se A ⊂ R2 è semplicemente connesso sussistono le formule di Green secondo le quali, se µ, ν ∈ C 0 (A) e se γ 0


è semplice chiusa e bordo di Γ ⊂ A, si ha che:
- - -
(∂x ν(x, y) − ∂y µ(x, y)) dx dy = − δ(x, y)dx dy = µ(x, y)dx + ν(x, y)dy . (4.41)
Γ Γ γ0
) * ) *
ν +dy
Con la notazione v ∥ w := ed n dλ = la (4.41) si può anche leggere come la restrizione ad R2
−µ −dx
del teorema della divergenza (o di Gauss):
- H
div w dΓ = w · n dλ con Γ ⊂ R2 regolare, ∂Γ semplice e liscia, n uscente.
Γ ∂Γ

Solo per memoria si ricorsi che, in dimensione tre, sussistono le formule


- H
div w dV = w · n dσ con V ⊂ R3 regolare, ∂V orientata, n uscente,
V ∂V

da paragonare con quelle del teorema di Stokes:


- H
rot ω · n dS = ω · τ dλ , ω, n, τ ∈ C 1 (A, R3 ) . (4.42)
+S +∂S

nelle quali ω = (µ, ν, σ) ∈ C 1 (A, R3 ), n dS = (dy dz, dz dx, dx dy), e τ dλ = (dx, dy, dz). Inoltre, +∂S è una
curva semplice chiusa generalmente regolare, bordo di una superficie S orientata regolare e contenuta in A ⊆ R3 ;
quest’ultima esiste certamente purché A sia a connessione lineare semplice.

M. Lo Schiavo
1.4. Esempi e casi notevoli 37

Pertanto, se rot ω = 0 su un qualche insieme D a connessione lineare semplice, dal Teorema di Stokes segue
.p
che p0 ω · τ ds = F (p) − F(p0 ) qualsiasi sia il percorso semplice generalmente regolare che unisce p0 a p .
Allora necessariamente si ha ω = ∇F . Infatti, facendo passare il percorso per un arbitrario p′ := (x′ , y, z) con
.p
p′ ∈ Γ(p) ⊂ D ed x′ < x, si riconosce che ∂x F (p) = ∂x p0 ω x dx + 0 ≡ ω x ; ed analogamente per le altre derivate
parziali.

In definitiva, e con δ(x, y) := ∂y µ(x, y) − ∂x ν(x, y) = −div w = rotz ω , si ha che:

• in dim = 2 : la condizione div w = 0 in tutti i punti di un aperto semplicemente connesso A

• in dim = 3 : la condizione rot ω = 0 in tutti i punti di un dominio a connessione lineare semplice)

è condizione sufficiente (oltre che necessaria) perché si annulli l’integrale di linea della forma lungo una qualsiasi
curva semplice chiusa γ 0 contenuta in A. Quest’ultima condizione equivale all’esistenza della funzione F = F (x)
il cui differenziale totale uguaglia la forma su A. In particolare, in dim = 2 è garantita l’esistenza di F = F (x, y)
tale che (
) *
µ ∇F ∥ ω
∇F = , ovvero , e quindi tale che ∇F · τ dλ = dF .
ν ∇F ⊥ ω

Riassumendo (in dim = 2 ):


(
⇐ ∂y µ = ∂x ν, µ, ν ∈ C 1 in A semplicemente connesso
∃F ∈ C 1 (D) 1
⇒ ∂y µ = ∂x ν, µ, ν ∈ C in D aperto connesso.

Nota 1.4.1 Sapendo che la forma è esatta, e quindi che la funzione F esiste, per calcolarla è opportuno scegliere
percorsi convenienti; per esempio, per ogni (x0 , y0 ), (x0 , y) ∈ D ⊆ R2 si ha
- x - y
F (x, y) − F (x0 , y0 ) = µ(ξ, y)dξ + ν(x0 , η)dη ;
x0 y0

oppure altre analoghe espressioni, quali per esempio la:


- x - y
F (x, y) − F (x0 , y0 ) = µ(ξ, y0 )dξ + ν(x, η)dη .
x0 y0

Altre volte è invece conveniente agire come segue:


- x
∂x F (x, y) = µ(x, y) =⇒ F (x, y) = µ(ξ, y)dξ + r(y).

La derivata parziale rispetto ad y del secondo membro di quest’ultima deve uguagliare ν(x, y). Si risolve rispetto
a dr/dy e si integra in modo indefinito la funzione della sola y cosı̀ ottenuta; infatti
) * ) - x *
∂ dr ∂ ∂
= ν− µ(ξ, y)dξ = ∂x ν − ∂y µ = 0
∂x dy ∂x ∂y

Si ha in tal modo: - + - ,
y x
r(y) = ν(x, η) − ∂η µ(ξ, η)dξ dη.

Esempio 1.4.15 cos y dx − (x sin y − y 2 ) dy = 0 , (x, y) ∈ R2 .


Si ha ∂x ν = ∂y µ = − sin y. Pertanto F (x, y) = x cos y + r(y), e quindi

dr
−x sin y + = −x sin y + y 2 , che implica r(y) = (y 3 + c)/3
dy

da cui x(t) = (c − y 3 /3)/ cos y + c.


#

Note di Sistemi Dinamici


38 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

xdy − ydx
Esempio 1.4.16 , (x, y) ∈ R2 .
x2 + y 2
La forma è definita in un aperto D := R2 \{(0, 0)} . Tuttavia, anche se verifica la condizione di Schwartz ed esiste
arctan xy di cui essa risulta il differenziale totale:
) ′ * '
d 1 xy − y x2 d 0y 1 d '
'
arctan ξ = ⇒ = arctan ξ '
dξ 1 + ξ2 x2 x2 + y 2 dx x dξ ξ=y/x

c’è il problema che arctan(·) non è regolare, addirittura non è una' funzione, su tutto D . Occorre pertanto “tagliare”
il piano R2 \{(0, 0)} con, per esempio, l’insieme D− := {(x, y) ' y = 0, x < 0} e la forma resta allora esatta nel
complementare R2 \D− che risulta infatti semplicemente connesso. (Per definirvi in modo opportuno la funzione
F è opportuno procedere per quadranti; e tuttavia, per poterla adoperare ai fini della risoluzione di (una delle)
equazioni compatibili con essa, occorre far salve le usuali cautele su quale dei suoi coefficienti possa annullarsi: si
vedano anche i successivi due N.B.). #

Fattore integrante := una funzione ϖ : D → R per la quale si moltiplica la forma differenziale lineare
rendendola cosı̀ esatta. Per esempio, se n = 2 , ϖ è fattore integrante quando

ϖ (µ dx + ν dy) è tale che ∂y (ϖµ) = ∂x (ϖν) .

Esempio 1.4.17 (y 2 + y)dx − xdy , (x, y) ∈ R2 .


) *
1
La forma non è esatta; tuttavia, moltiplicandola per il fattore ϖ(x, y) := 1/y 2 si ha 1+ dx −
) * ) * ) * y
x 1 1 1
dy che è esatta e dà, per esempio, F (x, y) − F (x0 , y0 ) = (x − x0 ) 1 + +x − da cui segue
y2 y0 y y0
x
y= .
c−x
Naturalmente la soluzione y = 0 va considerata a parte. L’idea è che ϖ non deve introdurre nuove singolarità.#

Se µ, ν ∈ C 1 (D), ogni forma µ(x, y)dx + ν(x, y)dy ammette, localmente, un fattore integrante (cosı̀ come ogni
ẋ = v(t, x) con x ∈ Rn ammette n integrali primi dipendenti dal tempo ed indipendenti fra loro, come si vedrà
nel seguito); ma non sono noti metodi generali per trovarlo.
N.B. 1.4.18 Se ϖ è un fattore integrante, e quindi tale che ϖµ = ∂x F , ϖν = ∂y F , e se g : R → R è una
funzione regolare, allora ϖ g ◦ F è un altro fattore integrante, infatti in tal caso la condizione di esattezza diviene
∂y (ϖµ g ◦ F ) = ∂x (ϖν g ◦ F ) e fornisce ϖµ ∂y (g ◦ F ) = ϖν ∂x (g ◦ F ) che è una identità, data l’ipotesi su ϖ . ♦

Qualche idea sul come trovare il fattore integrante. Dovendo essere ∂y (ϖµ) = ∂x (ϖν), si ha:
1
∂y µ − ∂x ν = δ = (ν∂x ϖ − µ∂y ϖ) , (4.43)
ϖ
e allora, con un pò di fortuna, possono darsi i seguenti casi:

• δ/ν funzione solo di x, (oppure δ/µ funzione solo di y), ed allora si può scegliere ϖ funzione solo di x (o
di y ), e dalla (4.43) si ricava
- x ) - y *
δ δ
ln ϖ = + , oppure ln ϖ = − .
ν µ

δ
• funzione solo di x y ; posto allora ϖ = ϖ(x y), e quindi con
yν − xµ
- xy
δ
∂x ϖ = ϖ′ y, ∂y ϖ = ϖ′ x, si ha ln ϖ = + .
yν − xµ

δy 2
• funzione solo di x/y; posto allora ϖ = ϖ (x/y), e quindi con
yν + xµ
- x/y
1 −x δy 2
∂x ϖ = ϖ′ , ∂y ϖ = ϖ′ 2 , si ha ln ϖ = + .
y y yν + xµ

M. Lo Schiavo
1.4. Esempi e casi notevoli 39

−δx2
• funzione solo di y/x; posto allora ϖ = ϖ (y/x) , e quindi con
yν + xµ
- y/x
−y 1 −δx2
∂x ϖ = ϖ ′ , ∂y ϖ = ϖ ′ , si ha ln ϖ = + .
x2 x yν + xµ

Esempio 1.4.19 (continuazione dell’esempio 1.4.17)


Dalla δ = (2y + 1) + 1 segue
)- *
δ 2(y + 1) 2 2 1
= = che implica ϖ = exp − = .
µ y(y + 1) y y y2

Esempio 1.4.20 ẋ = −x/(t2 x − t) , t0 , x0 ∈ R .


δ ∂t µ − ∂x ν
Posto µ(x, t) := t2 x − t e ν(x, t) := x, l’equazione diviene µẋ + ν = 0 ; per cui si ha = =
µ µ
(2tx − 2) 2
= ⇒ ϖ = t−2 . Si ricava l’equazione (x−1/t)dx+(x/t2 )dt = 0 che fornisce ((x2 /2)−(x/t)) = cost.
t(tx − 1) t
Questa seconda equazione si può anche ricondurre alla: ẋ = (x/t) − x2 che verrà risolta in altro modo (si veda:
Esempio 1.4.24). #

N.B. 1.4.21 È chiaro che anche se può sembrare il contrario, l’equazione non muta quando viene moltiplicata
per ϖ , infatti essa rimane definita dal rapporto µ/ν e gli eventuali casi particolari vanno trattati direttamente su
questo rapporto. Per esempio xdy − ydx con ϖ = (x2 + y 2 )−1 dà F (x, y) = arctan xy , mentre con ϖ = x12 dà
1 y y y
x dy − x2 dx e cioè F (x, y) = x . Comunque il luogo di punti che contiene la soluzione è dato da x = cost, ed in
tutti i casi, l’equazione (nella variabile indipendente x) ha soluzioni fuori da x = 0 . ♦

Esempio 1.4.22 Specchio con proiezione all’infinito; x0 , y0 ∈ R .


y
®

µ
x
Sussistono le: θ = 2α,/ tan θ = 2 tan α/(1 − tan α), e cioè y/x = 2y /(1 − y ′2 ).
2 ′
Se ne ricava l’equazione
omogenea y ′ = (−x ± x2 + y 2 )/y da cui
/ y x
ydy + xdx = ± x2 + y 2 dx o anche / dy + / dx = ±dx ,
2
x +y 2 x + y2
2

0 / 1
che dà d x ± x2 + y 2 = 0 , e dunque la parabola: x2 + y 2 = x2 + c2 + 2cx.
È opportuno osservare che il campo che si è trovato è omogeneo di grado zero. #

Esempio 1.4.23 L’equazione lineare in R1 .

ẋ + p(t)x = q(t), con p, q ∈ C 0 (I), I ⊂ R chiuso, x0 ∈ R . (4.44)


.t
Il fattore integrante è ϖ(t) = exp( p(τ )dτ ) e con esso si ha
) - t * - t
d
x(t) exp p(τ )dτ = q(t) exp p(τ )dτ,
dt

Note di Sistemi Dinamici


40 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

(la costante di integrazione si può scegliere nulla perché rappresenta solo un fattore moltiplicativo per tutta
l’equazione). Di conseguenza si ha, per t, t0 ∈ [a, b] , la nota relazione:
.t
+ . - t0 .τ 1 ,
t0
x(t) = e− p(σ)dσ x0 e p(σ)dσ + q(τ )e p(σ)dσ dτ =
t0
) - t * - t ) - t * (4.45)
= x0 exp − p(σ)dσ + q(τ ) exp − p(σ)dσ dτ .
t0 t0 τ

Si noti che il fattore integrante si può ottenere con le tecniche viste prima, infatti in questo caso si ha
µ(x, t) = 1, ν(x, t) = p(t)x − q(t), δ(x, t) = ∂t µ(x, t) − ∂x ν(x, t) ,
e quindi
δ(t, x) ϖ̇(t)
≡ −p(t) che implica = p(t) .
µ(t, x) ϖ(t)
.t
Si noti infine che la funzione Φ(t) := ϖ−1 (t) ≡ exp −( p(τ )dτ ) è soluzione della equazione “omogenea associata”:
ẋ + p(t) x = 0 , e che il prodotto Φ(t)Φ−1 (t0 ) x0 è la soluzione, dell’omogenea associata, che vale x0 in t = t0 .
.t
Allo stesso modo si vede che il secondo addendo della (4.45), e cioé y&(t) := t0 Φ(t)Φ−1 (τ )q(τ ) dτ è soluzione
particolare della (4.44) che vale zero in t = t0 . #

Esempio 1.4.24 L’equazione di Bernoulli; t0 , x0 ∈ R .


ẋ + p(t)x = q(t)xα , con p, q ∈ C 0 (I), I ⊂ R chiuso, α ∈ N\{0, 1}.
Si moltiplichino ambo i membri dell’equazione per (−α + 1)x−α . Si ottiene
d −α+1
(x ) + (−α + 1)p(t)x−α+1 = (−α + 1)q(t),
dt
che è lineare e che quindi si può risolvere come visto nell’esercizio precedente. Ad esempio ẋ+tx = t/x3 implica
d 4 4
dt x + 4tx = 4t che dà - t
2t2 4 2 2
e x = 4te2t dt + e2t0 x4 (t0 ) =
t0
2 2 2
= (e2t − e2t0 ) + e2t0 x40 dalla quale segue
4 −2t2
x = 1 + ce .
d −1
Un altro caso è l’equazione vista nell’Esempio 1.4.20: ẋ = (x/t) − x2 che dà dt (x ) + x−1 /t = 1 da cui
ottenere: + ,−1
1 t0
x(t) = t (t2 − t20 ) + .
2 x0
#
Esempio 1.4.25 L’equazione di Riccati; t0 , x0 ∈ R .
ẋ + p(t)x = q(t)x2 + r(t), con p, q, r ∈ C 0 (I), I ⊂ R chiuso .
L’equazione non ha metodi generali di risoluzione. Se però si conosce una soluzione x1 allora, ponendo x =:
x1 + (1/ξ) si ricava la soluzione generale. Sostituendo, infatti, si ottiene l’equazione lineare:
ξ˙ + [2qx1 − p](t)ξ = −q(t) .
Un caso particolare di questa equazione è quelli in cui p(t) = 0, q(t) = cost =: b . Si ha allora la:
2
Equazione speciale di Riccati: ẋ + bx = r(t)
che si trasforma ponendo bx =: u̇/u, ed ottenendo di conseguenza
ü u̇2 ü
bẋ = − = − b2 x2 , dalla quale segue ü = br(t)u .
u u2 u
Anche quest’ultima si può risolvere quando se ne conosca una soluzione (cfr oltre); tuttavia, è comunque possibile
discuterla in modo qualitativo.

M. Lo Schiavo
1.4. Esempi e casi notevoli 41

N.B. 1.4.26 Vi possono essere più modi alternativi per risolvere una stessa equazione: ad esempio la (x2 + y 2 )dy +
2xydx = 0 è omogenea, è esatta, ed è anche risolubile “a occhio” osservando che equivale a d(x2 y) = −d( 13 y 3 ). ♦

Esempio 1.4.27 Catenaria; x0 , y0 ∈ R .


y ¿
p µ
o
¿0
0
x
Le ipotesi sono: la tensione
/ τ è tangente, la densità funzione della ascissa curvilinea λ la quale, come è noto, è

definita da: dλ/dx = 1 + y ′ 2 . Si ha τ cos θ = τ0 , τ sin θ = peso di arc(op) =: 0 ρ(σ)dσ .
-
dy 1 λ
Segue = tan θ = ρ(σ)dσ , da cui l’equazione
dx τ0 0

d2 y 1 dλ ρ(λ) /
2
= ρ(λ) = 1 + (y ′ )2 ,
dx τ0 dx τ0

che è risolubile per separazione di variabili. Per il ponte sospeso si ha x &→ ρ(x) = cost, e quindi la prima
′′
di queste due equazioni / dà immediatamente y = cost. Invece, con l’ipotesi λ &→ ρ(λ) = cost e posto
′ 2
y =: η/ , si ricava (1/ 1 + η )dη = kdx, da cui (usare un’ottima tavola di integrali o un computer) segue
ln(η + 1 + η 2 ) = kx. Essendo η(0) = 0 risulta infine η = 12 (ekx − e−kx ), ovvero y(x) = k1 cosh kx. #

Esempio 1.4.28 Curve di inseguimento x0 , y0 ∈ R.


y
q
µ

p ¸ p0
q0
o x
Con le posizioni:
) * ) * /

→ 0 −
→ x(t)
oq(t) = , op(t) = , a = cost, b := |λ̇| = ẋ2 + ẏ 2 = cost,
at y(t)

si considera il problema di moto (in figura è a t0 = y0 )

dy a(t − t0 ) − (y − y0 )
y ′ := = .
dx −x
Ne segue: x y ′ = −a(t − t0 ) + (y − y0 ), e quindi x y ′′ = −a dt/dx .
D’altra parte, detta λ l’ascissa curvilinea decrescente con x, e detti ⃗τ il versore tangente alla curva, ⃗e1 quello
dell’asse delle x, e θ l’angolo che essi formano, si riconosce che sussiste anche la relazione

dx dλ dx −1
= = λ̇ / .
dt dt dλ 1 + (y ′ )2

Sostituendo quest’ultima nella precedente si ricava l’equazione a variabili separabili


/ /
x y ′′ = a 1 + y ′2 /λ̇ = a 1 + (y ′ )2 /b .

Pertanto
dη a
/ = dx ,
1+η 2 b

Note di Sistemi Dinamici


42 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

che dà ) *
/ a x
2
ln(η + 1 + η ) = ln
b x0
e cioè I) *a/b ) *−a/b J
dy 1 x x
:= η = − .
dx 2 x0 x0
#
Esempio 1.4.29 Una barca punta verso un faro, con velocità (locale) di modulo v costante, ma subisce una
corrente al traverso di velocità costante: w .
y
µ

v
w
O´ F
x
( −̇
→ ) * ) *
op = v vers ⃗v + w ⃗e2 ẋ −v cos θ

→ ⇒ = .
−vers ⃗v = vers op = cos θ⃗e1 + sin θ⃗e2 ẏ −v sin θ + w
Si ottiene l’equazione omogenea:
/
′ w y w x2 + y 2
y = tan θ − = −
v cos θ x v x


che si risolve ponendo y =: zx e quindi xz = −w 1 + z 2 /v . Ne seguono
/ / 0 x 1−w/v
ln(z + 1 + z 2 ) = ln x−w/v =⇒ z + 1 + z2 = =⇒
)0 1 * ) a *
1 x −w/v 0 x 1+w/v a 0 x 11−w/v 0 x 11+w/v
z= − =⇒ y = − ,
2 a a 2 a a
e cioè
a
7 8
(i) w = v, ⇒ y = 2 1 − x2 /a2 , una parabola che non passa per l’origine;
x
(ii) w > v, ⇒ y −→ ∞, eventualità peggiore della precedente;
0
x
(iii) w < v, ⇒ y −→ 0 , e si ha successo solo in questo caso.
0
#

Esempio 1.4.30 Riduzione di ordine. Siano ancora t0 , x0 , y0 ∈ R .


Si possono ridurre ad equazioni del primo ordine e senza aumentare la dimensione dello spazio della variabile
dipendente, le seguenti equazioni:
(i) f (ẍ, ẋ, t) = 0 mediante l’ovvia posizione y := ẋ .
(ii) f (ẍ, ẋ, x) = 0 mediante la sostituzione: t ↔ x come variabile indipendente. Ne seguono, con ẋ = y , le:
d d
ẍ = ẋ ẋ = y y , e si ottiene la
dx dx ) *
dy
f y , y, x = 0.
dx
dx
L’esplicita dipendenza da t si ricava poi risolvendo la dt = y(x).
È da notare che in tal modo si introduce una singolarità (d’altra parte questa non è la solita riduzione di
ordine), tuttavia ciò accade lı̀ dove la sostituzione t ↔ x non è lecita.
(iii) Procedimenti simili a quello del punto (ii) possono però risultare vincenti. Si consideri, per esempio, la
ẍ+f (x)ẋ2 +p(x) = 0 . Addirittura con y = 12 ẋ2 essa fornisce: ẋ y ′ = ẋ ẍ e questa dà: y ′ +2f (x)y+p(x) =
0.
#

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 43

Esempio 1.4.31 Brachistocrona. x0 , z0 ∈ R .


Si consideri un elemento pesante vincolato senza attrito ad una linea semplice; questa sia contenuta in un piano
verticale e congiunga due punti fissi: p e q del piano. Si chiede quale sia la forma da attribuire alla linea affinché
essa venga percorsa, in caduta, nel minimo tempo.
Supponendo una spezzata descritta con velocità costanti v1 e v2 , si ha che
B B
2
a2 + x2 b2 + (c − x)
∆t = +
v1 v2
ove a, b, c sono definite in figura
p x c
®1 x
a

b q
z
Per derivazione si ottiene ∆tmin per x tale che
x c−x sin α1 sin α2
B = / ; e quindi = .
v2 b + (c − x)2
2 v1 v2
v1 a2 + x2

sin α
Si assume allora = cost come legge di minimo tempo.
v
√ ẋ 1
D’altra parte la conservazione dell’energia dà v = 2gz, mentre è sin α = B = / . Si
ẋ2 + ż 2 1 + (z ′ )2
) *
dz 2
ottiene cosı̀: 1 + ( ) z = k, da cui:
dx
- x - z ) *1/2
ζ
dξ = dζ .
0 0 k−ζ
) *1/2
ζ .θ
Posto =: tan φ, ovvero ζ = k sin2 φ, si ha infine x=k 0
(1 − cos 2φ)dφ la cui soluzione è la
k−ζ
cicloide: ⎧
⎪ k
⎨ x = (2θ − sin 2θ)
2
⎪ k
⎩ z = (1 − cos 2θ) .
2
#

1.5 Equazioni lineari scalari del secondo ordine


In questo paragrafo, invece della (pesante seppur corretta) notazione x !(t) ∈ Rn per indicare i valori x = x
!(t) della
funzione moto x ! : J → R definita da: x
n ! : t &→ x
!(t) := φ(t, t0 , x0 ), si userà quella imprecisa, ma sensibilmente
più snella, x = x(t). Con x quindi si indicherà (salvo esplicito contrario avviso) non solo un qualche vettore in
Rn , ma anche la funzione x : I → R il cui valore in t è x = x(t) ∈ Rn . Rimangono ovviamente in Rn i valori
iniziali x0 = x(t0 ).
Pur essendo riconducibili ad equazioni del primo ordine in R2 , alcune tecniche delle equazioni scalari del secondo
ordine sono di per sé interessanti, e vale la pena considerarle separatamente dal caso più generale di Rn . D’altra
parte, la bassa dimensionalità favorisce la notazione, per cui sarà conveniente usare le equazioni del secondo ordine
proprio come modello per introdurre il procedimento di passaggio da sistemi di ordine superiore a sistemi del primo
ordine in spazi ad un numero maggiore di dimensioni.
Cosı̀ come accade per l’equazione ẋ = v(t, x) seppure solo per x(t) ∈ R, anche per la ẍ = f (t, x, ẋ) con
x(t) ∈ R non esistono metodi generali di risoluzione analitica. Perfino il caso più semplice, quello delle equazioni

Note di Sistemi Dinamici


44 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

lineari, in generale non può essere risolto in forma chiusa ed in termini di funzioni elementari, a meno che sussistano
particolari condizioni sui coefficienti o che sia possibile ricorrere a sviluppi in serie di convenienti funzioni.
È chiaro però che valgono i teoremi generali per i quali, se f, ∂x f, ∂ẋ f sono continue in un aperto D ⊂ R3 ,
allora dato comunque (t0 , x0 , ẋ0 ) ∈ D esiste una ed una sola soluzione: φ : (t, t0 , x0 , ẋ0 ) &→ φ(t, t0 , x0 , ẋ0 ), continua
rispetto alle ultime tre variabili in un conveniente intorno di (t0 , x0 , ẋ0 ), definita e differenziabile almeno in un
conveniente intorno di t0 , e tale che φ(t0 , t0 , x0 , ẋ0 ) = x0 , φ̇(t0 , t0 , x0 , ẋ0 ) = ẋ0 ; essa inoltre risulta prolungabile fino
alla frontiera di un qualunque sottoinsieme di D che sia chiuso e limitato (in norma) e che contenga (t0 , x0 , ẋ0 ).
L’unico altro caso “quasi
. x semplice” è quello in cui l’equazione si riduce a: ẍ = f (x). Questa dà senza troppa
difficoltà la nota: 12 ẋ2 − f (ξ)dξ = cost, che permette un’ampia discussione qualitativa. Ciò non toglie però che
anche in questo caso non è possibile, in generale, fornire la soluzione x = x(t) in forma chiusa; infatti l’integrale
- x - ξ

/ , con V (ξ) := − f (η)dη ,
2(E − V (ξ))
non è quasi mai esprimibile con funzioni elementari, o comunque con funzioni facilmente invertibili. Il caso
ẍ = f (x) verrà trattato in dettaglio nel Cap.III.
È opportuno invece anticipare qui la discussione delle equazioni lineari in R2 :
ÿ + p(t)ẏ + q(t)y = r(t), p, q, r ∈ C 0 (I); I chiuso ⊂ R , y ∈ R .
A tale scopo, sarà opportuno pensare ai punti di R2 in modo astratto, e cioè non conseguente alla scelta di una
specifica base, e quindi riconoscere ad R2 (o più in generale ad Rn ) la struttura di spazio vettoriale.
Memento 1.5.1 Uno Spazio vettoriale V è un gruppo commutativo che è un modulo su un campo K (con
operazioni “ + ”, “ · ”). Esso cioè è un gruppo commutativo con operazione “ ⊕ ”, distributivo rispetto alle
operazioni “ + ”, “ · ”, e “ ⊕ ”, e che accetta l’unità moltiplicativa del campo. L’operazione “ ⊕ ” viene
perciò generalmente indicata anch’essa con “ + ”.
Una Base e per uno spazio V è un insieme e := {e1 , . . . , en } di vettori linearmente indipendenti e che sia
massimale: ogni x ∈ V può essere espresso (in modo unico) come combinazione lineare degli elementi {ei }i=1,...,n .
In tal caso, lo spazio V si dice n-dimensionale, ed i numeri {xi }i=1,...,n tali che x = xi ei formano la n-pla
x ∈ Rn che la base e fa corrispondere in Rn al vettore x ∈ V.
Scelta in esso una base, uno spazio vettoriale reale (e cioè con campo K ≡ R) resta cosı̀ rappresentato da Rn e
ciò permette di agire su di esso mediante le usuali operazioni per componenti e regole di trasformazione fra n-ple di
numeri reali. In queste note si tratterà regolarmente con spazi vettoriali reali, e solo saltuariamente (per esempio
nel Cap.II e nelle appendici) sarà opportuno considerare V come “parte reale” n-dimensionale di un conveniente
spazio C V ≡ R2n sul campo C dei numeri complessi.
Dati due spazi vettoriali V e V′ sullo stesso campo numerico K si definisce
Operatore lineare T := una funzione T : x ∈ V &→ T [x] ∈ V′ tale che

c1 , c2 ∈ K, x1 , x2 ∈ V, implicano T [c2 x1 + c2 x2 ] = c1 T [x1 ] + c2 T [x2 ] .


Sia K ≡ R. La scelta delle basi e := {e1 , . . . , en } , e ′ := {e′1 , . . . , e′m } assegna a ciascun operatore lineare T
da V ≡ Rn in V′ ≡ Rm una matrice T reale m × n, che muterà, al cambio di base, nella τ secondo le note
regole di trasformazione:
( (
ϵh = Peh ≡ pih ei xh = phi ξ i
Se allora e T = p ′ τ p −1 .
ϵh = P eh ≡ pih ei
′ ′ ′ ′ ′
(xh )′ = p′hi (ξ i )′
Fissate le basi, fra le matrici che corrispondono ad altrettanti operatori si opera con le usuali regole del prodotto
righe per colonne.
Lo spazio degli operatori lineari su V viene indicato con L(V), o con L(V, V′ ) se è opportuno specificare anche
lo spazio V′ nel quale essi assumono valori.
All’occorrenza, lo spazio V viene dotato di un prodotto scalare: ⟨ ·, · ⟩ : V2 → R+ ∪ {0} mediante il quale
1/2
stabilire la lunghezza di un vettore: |x| := ⟨ x, x ⟩ .
Un primo risultato importante relativo alle equazioni lineari è il seguente.
Proposizione 1.5.1 La soluzione massimale dell’equazione lineare omogenea (non autonoma)
ẋ = T (t) x , (t0 , x0 ) ∈ R × V ≡ Rn , T : I → L(V), I chiuso ⊂ R ,
esiste almeno su tutto l’intervallo I di continuità dei coefficienti T ∈ C 0 (I).

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 45

Dimostrazione Dato che il campo è del tutto regolare rispetto ad x ∈ V, la frontiera al dominio D può essere
generata soltanto da eventuali non regolarità rispetto alla variabile indipendente t.
D’altra parte, come si vedrà, il campo v = T x ha lunghezza (indotta da un qualche prodotto scalare su
V) che cresce meno di c|x|, ove c ≡ ∥T ∥ è una conveniente costante reale positiva dipendente dall’intervallo di
regolarità: I dei coefficienti). È pertanto possibile effettuare la stima
' ' ' '
'd '
' |φ(t)|2 ' = ''2⟨ φ(t), φ̇(t) ⟩'' = 2 |⟨ φ(t), T (t)φ(t) ⟩|
' dt '
2
≤ 2 |φ(t)| |T (t)φ(t)| ≤ 2cI |φ(t)| ,

che fornisce, per ogni t ∈ I , la disuguaglianza


' '
' |φ(t)|2 '
'ln '
' |φ0 |2 ' ≤ 2cI |t − t0 | .

Quest’ultima implica che la soluzione φ : (t, t0 , x0 ) &→ φ(t, t0 , x0 ) non può raggiungere la superficie laterale del
cilindro (ad esempio):
; ' <
'
(τ, x) ∈ R × V ' τ ∈ [t0 , t]; |x| ≤ 2 |x0 | ec(t−t0 ) , ε > 0 .

Se ne conclude che essa arriva fino al disco τ = t, e quindi rimane definita fintanto che lo sono i coefficienti
T (t) ∈ L(V). Pertanto nel seguito si assumerà senz’altro I ⊂ JM ⊆ R. "

Anche se per certi versi il caso delle equazioni lineari è particolarmente semplice, tuttavia anche per esso lo
studio esplicito delle loro soluzioni richiede metodi non banali quali per esempio metodi approssimati, qualitativi,
o addirittura perturbativi. A questo fa eccezione il solo sotto-caso particolare delle equazioni lineari a coefficienti
costanti, per le quali infatti (e solo per esse) esiste un algoritmo generale di risoluzione che verrà esaminato in
seguito.
Quando i coefficienti dipendono esplicitamente dal tempo, si può “solo” dire che le soluzioni sono esprimibili
per mezzo di altre soluzioni, e ne bastano poche.
Siano n ≥ 2 ed ℓ ≥ 0 . Sullo spazio C n≥2 (I) delle funzioni t ∈ I ⊂ R &→ x(t) ∈ R di regolarità n, si consideri
l’operatore
L : C n (I) → C m (I), I chiuso ⊆ R, m = inf{ℓ, n − 2},
) 2 *
d d
L[ · ](t) := + p(t) + q(t) , p, q : I → R, p, q ∈ C ℓ (I).
dt2 dt
L’operatore L è un Operatore lineare sullo spazio (vettoriale) C n≥2 (I), e quindi tale che, identicamente rispetto
a t ∈ I , si ha che

c1 , c2 ∈ R, x1 , x2 ∈ C n (I) implicano L[c1 x1 + c2 x2 ] = c1 L[x1 ] + c2 L[x2 ] .

Ne segue che se x1 è tale che L[x1 ] = 0 anche L[c2 x1 ] = 0 , e che se anche x2 è tale che L[x2 ] = 0 allora
L[c x1 + c2 x2 ] = 0 per ogni scelta c1 , c2 ∈ R. (Ovviamente, lo zero a secondo membro sta per la funzione
1

identicamente nulla su I ).
Si supponga ora di conoscere una (particolare e possibilmente comoda) soluzione dell’equazione

L[y](t) = ÿ + p(t)ẏ + q(t)y = r(t) ; (5.46)

sia essa:
y& : J ⊃ I → R, y& ∈ C n (J), y (t0 ), y&˙ (t0 )) = (&
(& y0 , y&˙ 0 ) ∈ R2 ,
(5.47)
y&(t) := φ(t, t0 , y&0 , y&˙ 0 ) e cioè L[&
y ](t) = r(t), per t∈J ⊃I .
Ci si domanda come possano essere espresse le altre soluzioni y : J ⊃ I → R

y : t &→ y(t) := φ(t, t0 , y0 , ẏ0 ) tali che L[y] = r .

Per la linearità di L, non potrà che essere

L[y] − L[&
y ] = L[y − y&] = r − r = 0 ,

Note di Sistemi Dinamici


46 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

da cui segue la condizione necessaria: y = x + y&, ove x è soluzione di:

L[x] = 0 ovvero ẍ + p(t)ẋ + q(t)x = 0, p, q ∈ C ℓ≥0 (I), (5.48)

e si noti che y, y& sono arbitrarie, e cioè sono arbitrarie le quattro costanti relative ai dati iniziali y0 , ẏ0 , y&0 , y&˙ 0 ∈ R.
Di queste le seconde due sono scelte secondo criteri di convenienza, le prime due sono imposte dal problema concreto
che si deve risolvere.
Si ricava quindi facilmente il seguente criterio.
Nota una soluzione particolare y& : t &→ y&(t) := φ(t, t0 , y&0 , y&˙ 0 ) su J ⊃ I dell’equazione L[y] = r , si conosce
y : t &→ y(t) := φ(t, t0 , y0 , ẏ0 ) soluzione generale della stessa equazione L[y] = r , se e solo se si conosce
x : t &→ x(t) := φom (t, t0 , x0 , ẋ0 ) soluzione ) * )su J ⊃ *
generale I dell’equazione omogenea associata L[x] = 0 , con
x0 y0 − y&0
(x0 , ẋ0 ) arbitrarie, “per esempio” tali che: = , e risulta y(t) = y&(t)+x(t) per ogni t ∈ J ⊃ I .
ẋ0 ẏ0 − y&˙0
Infatti

(i) essa è soluzione dato che L[y] = L[&


y ] + L[x] = r ;
(ii) verifica le condizioni iniziali dato che y(t0 ) = y&(t0 ) + x(t0 ) = y&0 + y0 − y&0 = y0 ;
(iii) è la sola soluzione che esca da queste condizioni iniziali dato che di tali soluzioni ce n’è solo una.

Sempre per le proprietà di linearità ed unicità delle soluzioni, se x1 , x2 sono certe due funzioni note, soluzioni
particolari ma non nulle della L[x] = 0 , e cioè se si ha

x1 : t &→ x1 (t) := φom (t, t0 , x1 |0 , ẋ1 |0 ),


(5.49)
x2 : t &→ x2 (t) := φom (t, t0 , x2 |0 , ẋ2 |0 ) ,

un’arbitraria x : t &→ x(t) := φom (t, t0 , x0 , ẋ0 ) (e cioè con x0 , ẋ0 arbitrari) è esprimibile nella specifica forma la:
x(t) = c1 x1 (t) + c2 x2 (t), se e solo se essa verifica le condizioni iniziali, e cioè se e solo se esistono le costanti
c1 , c2 ∈ R tali che i sei numeri (x0 , ẋ0 , x1 |0 , ẋ1 |0 , x2 |0 , ẋ2 |0 ) , (non banali ma, per il resto, qualsiasi), verificano le
(
x0 = c1 x1 |0 + c2 x2 |0
(5.50)
ẋ0 = c1 ẋ1 |0 + c2 ẋ2 |0 ,

(anche in questo caso gli ultimi quattro dei sei valori detti sono fissati secondo criteri di convenienza, ed i primi
due sono invece quelli che devono verificare le condizioni imposte dal problema); in tal caso infatti, con un
ragionamento analogo a quello visto sopra, si prova che tale x(t) è soluzione della (5.48), e verifica le date condizioni
iniziali (5.50).
Si osserva che, affinché per un’arbitraria scelta del dato (x0 , ẋ0 ) possano esistere unici i coefficienti c1 , c2 è
necessario e sufficiente che: posto ' '
'x1 (t) x2 (t)'
'
W (t) := ' ',
ẋ1 (t) ẋ2 (t)'
si abbia ' '
'x1 |0 x2 |0 ''
' = W (t0 ) ̸= 0 (5.51)
'ẋ1 |0 ẋ2 |0 '
ed allora le due soluzioni x1 ed x2 si dicono linearmente indipendenti.
Dunque, siccome per entrambe le equazioni (5.48),(5.46) la soluzione è unica (per quei t per i quali esiste), si
è provato che per assegnati comunque (y0 , ẏ0 ) ∈ R2 la soluzione della (5.46) uscente da tali condizioni iniziali sarà
certamente ed univocamente esprimibile con:

y : t &→ y(t) = c1 x1 (t) + c2 x2 (t) + y&(t), t∈J ⊃I ,

purché x1 , x2 siano tali da verificare la (5.48) con dati iniziali che verificano la (5.51), ciò implicando l’esisten-
za di c1 , c2 tali da verificare la (5.50), e sempre che y& sia una certa soluzione nota, ma per il resto qualsiasi,
dell’equazione di partenza L[y] = r .
Lo spazio delle fasi V dell’equazione lineare omogenea L[x] = 0 e quello delle sue soluzioni sono spazi vettoriali
isomorfi, [Arnold]; le soluzioni si combinano fra loro linearmente cosı̀ come lo fanno i vettori (x0 , ẋ0 ) ∈ R2 che
ne esprimono le condizioni iniziali; se in t0 c’è una certa dipendenza lineare fra le condizioni iniziali di certe
soluzioni, la stessa dipendenza rimane valida fra i valori assunti all’istante t dai corrispondenti evoluti (x(t), ẋ(t)).

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 47

Data l’unicità delle funzioni soluzioni in corrispondenza a ciascuna scelta in V delle condizioni iniziali, la stessa
dipendenza lineare sussiste allora fra le funzioni soluzioni.
D’altra parte, sebbene la scelta delle soluzioni di base possa dipendere dal particolare istante iniziale t0 , l’essere
queste linearmente indipendenti non muta al variare di t. Per convincersene, siano x1 , x2 ∈ C n (J ⊃ I) soluzioni
di L[x] = 0 e tali da verificare (5.51). Queste stesse soluzioni possono essere usate per rappresentare la generica
x = x(t) anche qualora per essa si scelga un altro & t0 , e cioè esse stesse continuano ad essere funzioni soluzione
linearmente indipendenti. Basta notare infatti che dalle L[x1 ] = L[x2 ] = 0 segue subito
d
W = (x1 ẍ2 − x2 ẍ1 ) = x1 (−pẋ2 − qx2 ) + x2 (pẋ1 + qx1 )
dt
= −p (x1 ẋ2 − x2 ẋ1 ) = −p W ,

e questa si risolve nella )- *


t
W (t) = W (t0 ) exp −p(τ )dτ . (5.52)
t0

Per cui se W (t0 ) ̸= 0 ed x1 , x2 sono soluzioni di L(x) = 0 allora per ogni t si ha W (t) ̸= 0 : due soluzioni che
in un istante sono linearmente indipendenti lo saranno in ogni altro istante (immediata conseguenza, d’altra parte,
del teorema di unicità).
Ciò implica in particolare che il problema dato: (5.48) ammette almeno ed al più due soluzioni che sono
linearmente indipendenti: per esempio quelle) * che, fissata arbitrariamente
) * la base nello spazio delle fasi V ≡ R2 ,
1 0
nell’istante iniziale valgono: x1 |0 = e1 = , ed x2 |0 = e2 = .
0 1
In definitiva il problema è quello di determinare x1 , x2 , y& .
Nel caso particolare di un operatore del secondo ordine, come quello in esame:
+ 2 ,
d d
L[x](t) ≡ + p(t) + q(t) x(t) ,
dt2 dt
pur non essendo disponibile una formula risolvente generale come quella vista nell’Esempio 1.4.23 per l’equazione
del primo ordine, tuttavia ci si può ricondurre ad essa in casi speciali. Per esempio sussiste il seguente importante
risultato: qualora sia nota una soluzione dell’equazione omogenea associata, la si scelga come una delle due funzioni
di base: x1 , è possibile ricavarne un’altra: x2 con W (t0 ) ̸= 0 . Basta a questo scopo definire la funzione v mediante
la x2 =: vx1 e ricavare:
L[vx1 ] = v̈x1 + 2v̇ ẋ1 + vẍ1 + p(v̇x1 + v ẋ1 ) + qvx1 =
(5.53)
= v̈x1 + (2ẋ1 + px1 ) v̇.
Si introduca la - t) * - t
ẋ1 (τ )
ϖ(t) := exp 2 + p(τ ) dτ ≡ x21 (t) exp p(τ )dτ .
x1 (τ )
d
Si riconosce che la funzione ϖ è un fattore integrante per la (5.53), mediante il quale: L[vx1 ]ϖ/x1 = dt (ϖv̇) .
Risulta pertanto
L[vx1 ] ≡ L[x2 ] = 0 purché sia v̇ ϖ = κ1 = cost .
Segue - - ) - *
t t τ

v(t) = κ2 + κ1 := κ2 + κ1 x−2
1 (τ ) exp − p(ξ)dξ dτ ,
ϖ(σ)
ed è lecito scegliere κ1 = 1 dato che si tratta di una costante moltiplicativa inessenziale, e κ2 = 0 perché altrimenti
si avrebbe nuovamente l’addendo x1 .
Per la funzione x2 si ottiene in tal modo l’espressione:
- t - t ) - τ *
dτ −2
x2 (t) = x1 (t) = x1 (t) x1 (τ ) exp − p(ξ)dξ dτ ,
ϖ(τ )
e questa in effetti fornisce, per ogni t ∈ J ,
) - t *
W (t) = (x1 v̇x1 + vx1 ẋ1 − vx1 ẋ1 )(t) = exp − p(ξ)dξ ̸= 0 .

Nota 1.5.1 Il procedimento può essere applicato anche ad equazioni non omogenee (si veda: [Tenenbaum p.244]).
Infatti data l’equazione L[y] = r , e nota x1 soluzione dell’equazione omogenea L[x1 ] = 0 , se si impone y := vx1

Note di Sistemi Dinamici


48 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

si ricava la condizione: L[y] = v̈x1 + (2ẋ1 + px1 )v̇ = r che è lineare in v̇ . Lo stesso fattore integrante del caso
omogeneo: - t) * ) - t *
ẋ1 1 ϖr
ϖ(t) := exp 2 +p fornisce : v̇(t) = κ1 + .
x1 ϖ(t) x1
Ne segue che la funzione y definita da
+ - t) - σ * ,
κ1 1 ϖ(τ )r(τ )
y(t) = v(t)x1 (t) = x1 (t) κ2 + + dτ dσ
ϖ(σ) ϖ(σ) x1 (τ )

è la soluzione generale dell’equazione (5.46), (provare per credere!). ◃

La cosa è assai utile quando si è in presenza di equazioni che abbiano almeno una soluzione facilmente
riconoscibile:
Esempio 1.5.2 f (t)ẍ + tẋ − x = 0 , t0 , x0 ∈ R .
.t 2
x1 (t) = t è soluzione; quindi ϖ(t) = t2 exp τ f −1 (τ )dτ ; per esempio se f (t) = 1 si ha ϖ(t) = t2 et /2 , e si ricava
. t −2 −τ 2 /2
x2 (t) = t τ e dτ . #

Esempio 1.5.3 ẍ − f (t)ẋ + (f (t) − 1)x0= 0 , t0 , x0 ∈ 1R .


.t
t
x1 (t) = e è soluzione; quindi ϖ(t) = exp 2t − f (τ )dτ . #

Altri casi fortunati si possono cercare procedendo per tentativi:


Esempio 1.5.4 ẍ + p(t)ẋ + q(t)x = 0 , t0 , x0 ∈ R , p, q ∈ C 0 (I) .
Si può provare a trasformare l’equazione mediante la trasformazione

τ = τ (t), ∂t = τ̇ ∂τ , ∂t2 = τ̈ ∂τ + τ̇ 2 ∂τ2 ,

che dà
d2 x τ̈ dx pτ̇ dx q
L[x] −→ + 2 + 2 + 2x
dτ 2 τ̇ dτ τ̇ dτ τ̇
con i coefficienti espressi in funzione di τ . Se allora p, q sono tali che per qualche particolare τ = τ (t), questi
nuovi coefficienti hanno una forma più agevole, allora si è riusciti ad ottenere qualcosa. Per esempio se esiste
una costante c tale che (cq̇ + 2cpq)/(2(cq)3/2 ) = cost allora la sostituzione τ̇ 2 = cq è tale da rendere costanti tutti
i coefficienti, infatti in tal caso si ha (2τ̇ τ̈ + 2pτ̇ 2 )/(2τ̇ 3 ) = cost . #

Esempio 1.5.5 L’equazione di Eulero

t2 ÿ + tẏ − y = r , t0 , y0 , ẏ0 ∈ R, t > 0, r ∈ C(R+ ) .


0. 1
t
È facile vedere che x1 (t) = t è soluzione dell’equazione omogenea associata; quindi ϖ(t) = t2 exp τ −1 dτ = t3 .
.t
Dunque, dalla ϖ v̇ = K1 + r ϖ/x, ad esempio per r(t) = t, si ricavano

κ1 1 κ1 1
v̇(t) = 3
+ , ed y(t) = κ2 t − + t ln t.
t 2t 2t 2
In questo caso è anche (q̇ + 2pq)/(2q 2/3 ) = cost e la sostituzione τ = ln t dà la facile equazione: y ′′ − y = e3τ . #

Prima di esaminare qualche metodo per cercare le soluzioni particolari, è qui opportuno introdurre una simbo-
logia più snella anche perché essa risulta valida, come si vedrà, anche per sistemi di equazioni di ordine maggiore al
secondo (si veda §II.3). Inoltre ne sarà discusso l’aspetto geometrico, dopo aver introdotto il concetto di sistemi
equivalenti, e cioè l’aspetto invariante al cambio di coordinate.
Chiamata x1 la variabile x, si introduca l’ulteriore variabile: x2 := ẋ. L’equazione

ẍ = f (t, x, ẋ), t0 , x0 , ẋ0 ∈ R ,

equivale alla ) 1* ) *
ẋ x2
ẋ = = =: v(t, x) .
ẋ2 f (t, x1 , x2 )

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 49

Si scelga, nello spazio delle fasi V ≡ R2 , la particolare base e # = (e1 , e2 ) tale che e1 sia il versore relativo alle
coordinate, ed e2 quello relativo alle loro derivate. In tale base la precedente equazione si specializza nella
)d * ) * ) x *
dt x ẋ v (t, x, ẋ)
ẋ = = ≡ = v(t, x).
d
dt ẋ
f (t, x, ẋ) v ẋ (t, x, ẋ)

Di questa equazione si cercano le soluzioni


) 1 * ) *
2 1 x (t) x(t)
x ∈ C (J) × C (J) con x(t) ≡ ≡ ∈ R2 .
x2 (t) ẋ(t)

Queste, per la scelta della base e # , posseggono la particolare proprietà di avere seconda coordinata identicamente
d
uguale alla derivata dt della prima In virtù dei teoremi fondamentali visti in precedenza, per poter determinare
un particolare vettore soluzione x = x(t) occorre assegnare, oltre che l’istante iniziale t0 , anche i valori di tutte le
sue componenti x0 nello stesso istante.
L’operatore di evoluzione Gtt0 è rappresentato in coordinate da un Gtt0 : R2 → R2 che trasforma, a t e t0 fissati,
il punto ) * ) *
x0 x(t, t0 , x0 )
x0 := nel punto x(t) = Gtt0 x0 ≡ .
ẋ0 ẋ(t, t0 , x0 )
Nel caso particolare di equazioni lineari l’operatore di evoluzione ha una forma eccezionalmente semplice, ed
ancora più semplice è quello relativo ad una equazione scalare di ordine n. Infatti, per esempio nel caso n = 2 ,
secondo le considerazioni fatte sopra, la soluzione della (5.48) è espressa mediante le (5.49), e cioè risulta x =
c1 x1 + c2 x2 dove x1 ed x2 sono due arbitrarie funzioni soluzione della (5.48). Scelta la base e # := {e1 , e2 }
come sopra, e cioè con il primo versore nella direzione delle coordinate ed il secondo in quella delle loro derivate,
ed espresse le due prescelte x1 (t) ed x2 (t) in tale base mediante la

xi (t) = xi (t) e1 + ẋi (t) e2 , i = 1, 2

la x = x(t) resta espressa dalla


0 1 0 1
x = x(t) = c1 x1 (t) e1 + ẋ1 (t) e2 + c2 x2 (t) e1 + ẋ2 (t) e2

e cioè, nella base detta, dalle


) * ) * ) 1* ) *
x(t) x1 (t) x2 (t) c .
= , o anche x(t) = x1 (t) .. x2 (t) c .
ẋ(t) ẋ1 (t) ẋ2 (t) c2
) 1*
c
Per la (5.50), il vettore c := 2 si ricava dalla
c
) 1* ) *−1 ) * ) *−1
c x1 |0 x2 |0 x0 ..
= , ovvero c = x 1 |0 . x 2 |0 x0 .
c2 ẋ1 |0 ẋ2 |0 ẋ0

Pertanto l’equazione:
) *
d2 d
L[x](t) := + p(t) + q(t) x=0, p, q : I → R, p, q ∈ C ℓ≥0 (I) (5.54)
dt2 dt
o meglio la ⎧ ) *
⎪ x(t)

⎨ ẋ = T (t)x , x : t &→ x(t) := ∈ R2 , con
ẋ(t)
) * (5.55)

⎪ 0 1
⎩ T : t &→ T (t) := ∈ L(R2 ), T ∈ C ℓ≥0 (I) ,
−q(t) −p(t)
ha come operatore di evoluzione Gtt0 l’operatore lineare Φ(t)Φ−1 (t0 ) ∈ L(V) che, nella base e# scelta su R2 in
modo che sia x0 = (x0 , ẋ0 ), è rappresentato dalla matrice
) *) *−1
−1 x1 (t) x2 (t) x1 |0 x2 |0
Gtt0 = Φ(t)Φ (t0 ) = =: Φ(t)Φ−1 (t0 ) ∈ L(R2 ).
ẋ1 (t) ẋ2 (t) ẋ1 |0 ẋ2 |0

Il fatto che l’equazione provenga da una del secondo ordine si riscontra nella particolare forma (5.55) della matrice
T ; questa è, invece, del tutto arbitraria nel caso di una generica equazione lineare del primo ordine in R2 , cosı̀

Note di Sistemi Dinamici


50 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

come è del tutto arbitraria la base B nello spazio delle fasi V. Se ne consideri una, fissata, che coincida con la e #
nel particolare caso in esame, e si indichi con T (t) l’operatore cui la base detta assegna matrice T (t). Nello spazio
delle soluzioni dell’equazione ẋ = T (t)x una possibile base naturale e ! := {!
e1 , e!2 } è quella consistente
) * delle) due
*
1 0
soluzioni !ei : t &→ e!i (t), i = 1, 2 , che in t = t0 hanno e -componenti rispettivamente e1 =
#
ed e2 = ,
0 1
che quindi rappresentano le evoluzioni della base e # = {e1 , e2 } di V, ed il cui valore in t è rappresentato dalla
e # -matrice: ⎛ ⎞
..
.
Ψ(t, t0 ) := ⎝e!1 (t) .. e!2 (t)⎠ .
..

Rispetto alla base e! si ha x = x0 ! e1 + ẋ0 e!2 , che mostra esplicitamente


' l’isomorfismo
' detto. In particolare,
anche per le due (arbitrarie) soluzioni scelte sopra si hanno le xi (t) = xi '0 ! e1 (t) + ẋi '0 e!2 (t), i = 1, 2 , e quindi
la x(t) = c1 x1 (t) + c2 x2 (t), conferma la relazione sulle e # -componenti al tempo t0
) * ) * ) * ) * ) 1* ) 1*
x0 1 x1 |0 2 x2 |0 x1 |0 x2 |0 c c
=c +c = = Φ(t0 ) .
ẋ0 ẋ1 |0 ẋ2 |0 ẋ1 |0 ẋ2 |0 c2 c2

Si osservi infine come la matrice Ψ(t, t0 ) sia la migliore rappresentante Gtt0 dell’operatore Gtt0 . Mediante essa,
infatti, si esprimono non solo le e
! -componenti d