Sei sulla pagina 1di 509

Note di Sistemi Dinamici

Mauro Lo Schiavo
Dipartimento di Scienze di Base e Applicate per l’Ingegneria
Sezione Matematica
Universitá degli Studi di Roma ”La Sapienza“
Via A. Scarpa, 16 00161 Roma
mauro.loschiavo@sbai.uniroma1.it

Vol. 12 - 2013
ISBN-A: 10.978.88905708/58

Licensed under
Attribution-Non-Commercial-No Derivative Works
Published by:
SIMAI - Società Italiana di Matematica Applicata e Industriale
Via dei Taurini, 19 c/o IAC/CNR
00185, ROMA (ITALY)

SIMAI e-Lecture Notes


ISSN: 1970-4429

Volume 12, 2013


ISBN-13: 978-88-905708-5-8
ISBN-A: 10.978.88905708/58
Indice

Prefazione V

Notazione VII

1 Equazioni Differenziali Ordinarie


Metodi Analitici 1
1.1 I termini del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Equazioni scalari autonome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 I teoremi fondamentali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4 Esempi e casi notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5 Equazioni lineari scalari del secondo ordine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.6 Ricerca di soluzioni per serie di potenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

2 Sistemi differenziali lineari 75


2.1 Il procedimento di linearizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.2 Sistemi differenziali lineari a coefficienti costanti, in R2 . . . . . . . . . . . . . . . . . . . . . . . . . 92
2.3 Sistemi differenziali lineari a coefficienti costanti, in Rn . . . . . . . . . . . . . . . . . . . . . . . . . . 120
2.4 Sistemi differenziali lineari a coefficienti variabili, in Rn . . . . . . . . . . . . . . . . . . . . . . . . . 125
2.5 La teoria di Floquet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

3 Equazioni Differenziali Ordinarie:


Metodi Qualitativi 147
3.1 Il piano delle fasi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
3.2 Gli integrali primi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
3.3 Il Teorema di Poincaré - Bendixon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
3.4 La discussione sul piano delle fasi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

4 Cenni di stabilità 189


4.1 La stabilità lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
4.2 Il metodo diretto di Liapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208

5 Comportamento caotico dei Sistemi 227


5.1 La mappa quadratica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
5.2 Cenni di teoria delle biforcazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
5.3 “Classici” esempi di mappe caotiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
5.4 “Classici” esempi di flussi caotici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288

6 Alcuni Metodi Perturbativi 303


6.1 Gli sviluppi asintotici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
6.2 Metodi di Stiramento delle Coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
6.3 Il pendolo fisico e l’equazione di Duffing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
6.4 Ancora sull’equazione di Duffing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373

A 379
A.1 Richiami di Analisi Funzionale. ( I ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
A.2 Richiami di Analisi Funzionale. ( II ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
A.3 Richiami di Analisi Funzionale. ( III ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
A.4 Richiami di Geometria Differenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434
A.5 Richiami di Algebra Lineare. ( I ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443
A.6 Richiami di Algebra Lineare. ( II ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
A.7 Richiami di Analisi Reale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
A.8 Richiami di Analisi Complessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
A.9 Disuguaglianza generalizzata di Gronwall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 481

III
IV INDICE
Prefazione
Queste Note hanno avuto origine dall’esperienza fatta impartendo lezioni di matematica applicata, ed in particolare
il corso di Sistemi Dinamici, presso la facoltà di Ingegneria della “Sapienza” ormai fin dall’A.A. 1987/88.
Un’esperienza che, per il tipo ed il livello degli argomenti trattati, ha costituito una rara fortuna. Rara, perché
è opinione di molti che le attuali discipline scientifiche “standard”, ed in particolare quelle specificatamente rivolte
alla formazione matematica dell’ingegnere, siano ben più che sufficienti; fortuna, perché il dover presentare, e far
gradire, argomenti di matematica avanzata a giovani ben convinti della superiorità del fare rispetto al dire, mi ha
costantemente stimolato a svilupparne l’aspetto concreto a scapito di quello puramente speculativo.
I miei pochi ma fortemente motivati studenti mi hanno fatto chiaramente sentire che il loro interesse e perfino la
loro presenza in aula erano un premio, e che questo era rivolto non già alla materia, certo interessante soprattutto
se nelle mani dei suoi cultori, ma a quello che la materia avrebbe potuto in futuro rendere loro.
In tal modo mi sono trovato costretto ad un particolare impegno per mettere in luce gli aspetti essenziali, e
formativi, che potessero far loro rapidamente acquisire quella sensibilità matematica che non dovrebbe mancare a
chi, dal difficile mondo della matematica applicata vuole acquisire, o vorrà in seguito, i metodi talvolta avanzati
che sono indispensabili a risolvere problemi concreti.
Con questo spirito ho impartito il mio corso per tutti questi anni, anche in risposta alle richieste a me fatte dai
colleghi ingegneri.
Non trovando alcun testo adeguato a tale scopo, ed anche a causa della mia scarsa memoria che mi costringe
a preparare ogni argomento riscrivendolo quasi integralmente, iniziai a suo tempo a riempire pagine e pagine di
fitti appunti che si sono via via arricchiti ed ampliati. Di nuovo i miei studenti, dopo aver vanamente tentato di
interpretare il manoscritto, e disperati del dovere non solo decodificare il linguaggio matematico ma anche il mio
personale, mi convinsero della necessità di “ricopiare in bella” questa raccolta, e di trasformarla in qualcosa che
fosse di facile interpretazione e, possibilmente, di ancor più facile manipolazione.
L’esistenza dell’onnipresente computer, qui usato principalmente come compositore di stampa e per produrre
accettabili grafici, ed il piacere di rimaneggiare con poche battute tutto un argomento, hanno fatto il resto.
Di conseguenza, anno dopo anno, ed alla luce delle considerazioni fatte l’anno prima, mi sono scoperto rima-
neggiare, ampliare e rifinire un qualcosa che da disomogenea raccolta di lezioni è in definitiva diventato uno (spero)
comodo promemoria. Esso si rivolge, oltre che agli allievi del corso di Sistemi Dinamici, anche a chi voglia iniziare
a sopravvivere nella vasta ed intricata foresta delle metodologie proprie della matematica applicata; ed in parti-
colare a quelli che, senza farsi scoraggiare da qualche termine tecnico e “per soli introdotti”, vogliono raggiungere
una visione sintetica di alcuni dei principali argomenti della matematica (deterministica) applicata ai sistemi in
evoluzione.
Non mi è facile, dopo tanto rimaneggiare, rendermi conto dell’effettiva bontà del prodotto: alcuni argomenti
sono rimasti molto simili a quelli originari trovati sui vari libri in circolazione, altri invece sono stati rielaborati più
volte; e non tanto per partito preso, quanto perché a posteriori mi rendevo conto, dall’occhio triste e depresso della
mia platea, che l’approccio adottato, seppur squisito ed ineccepibile dal punto di vista teorico e formale, era stato
in realtà poco assaporato ed ancor meno digerito.
Va detto che a mia volta non mi sono facilmente arreso, e non credo di aver fatto illecite concessioni né al
rigore matematico né allo spessore della presentazione. Inoltre sapendo che, per molti dei miei studenti, alcuni
degli argomenti qui trattati lo sarebbero stati solo in questo corso, per favorirne la lettura ho talvolta indugiato
inserendo brevi e sintetici richiami a vasti e doviziosi aspetti delle corrispondenti teorie, dall’enorme profondità
concettuale ma dall’impossibile inserimento in piani di studio applicativi.
È evidente pertanto che queste note non hanno pretese di completezza o di dettaglio, viceversa cercano in
generale solo di rendere l’idea nel modo più semplice possibile pur rimanendo corretto. Gli argomenti trattati sono
stati solo rielaborati ed opportunamente tradotti, e non è stata mia intenzione apportare sostanziali modifiche
ad una materia già largamente codificata. Essi sono tutti presenti in monografie di ben altra ampiezza alle quali
si rimanda il lettore interessato. Tuttavia, la mole di esse e l’impegno necessario ad una loro anche solo iniziale
lettura, sono generalmente spaventevoli. Per avvicinarsi a queste note, invece, i prerequisiti sono assai modesti: un
buon corso di analisi matematica e le nozioni fondamentali di geometria sono sufficienti ad iniziarne la lettura, e
permettono di procedere con quelle ulteriori idee di analisi funzionale, algebra, e geometria, necessarie nel corso di
esse.
Roma 29 Maggio 2009

V
VI Prefazione
Notazione

Caratteri filettati spazi (con strutture); eventualmente spazi vettoriali


A cap. 1,2,5 spazio di funzioni
B cap. 1,2,4,a base di uno spazio
C cap. a spazio complesso
E cap. 3,5,a spazio vettoriale (euclideo)
G cap. 2,a varietà
H cap. 5,a spazio di Hilbert
K cap. 1,a campo numerico
L cap. 1,2,3,4,5,a spazio (vettoriale) di operatori lineari
M cap. 1,2,3,4,5,6 varietà (differenziabile)
P cap. 2,4,5,6 spazio prodotto
T cap. 2,3,5 toro
V cap. 1,2,3,4,5 spazio vettoriale
W cap. 2,4,5 spazio vettoriale o varietà
X cap. 1,3,5,6 spazio di punti o di funzioni
Y cap. 3,5 spazio di punti o di funzioni
N cap. 5 insieme dei numeri interi positivi
R cap. 1,2,3,4,5 insieme dei numeri reali
C cap. 1,2,3,4,5 insieme dei numeri complessi
Q cap. 1,2,3,5 insieme dei numeri razionali
Z cap. 1,2,4,5 insieme dei numeri interi

Caratteri normali
a, b, c, d, f, . . . costanti reali (o funzioni)
x, y, z, v, w punti su varietà (eventualmente vettori)
ψ, φ, χ, . . . funzioni reali di variabile reale, o funzioni su varietà;
i, j, k, n, ν indici interi
A, B, C, D, J, V, Γ insiemi (senza struttura) di punti o di funzioni
N (x) intorno del punto x
Br (x) sfera di centro x e raggio r
B Cap. a base di intorni
C(R1 , R2 ) insieme delle funzioni continue da R1 in R2
L1 (R1 , R2 ) insieme delle funzioni R1 → R2 con modulo Lebesgue-integrabile
L2 (R1 , R2 ) spazio di Hilbert delle funzioni con modulo quadro integrabile
ΓF 0 := F −1 (F 0 ) insieme di livello F 0 della funzione F
ε costante reale piccola
ϵ vettore (di base)
j(x) funzioni di Bessel
hn (x) polinomi di Hermite
p(x) polinomio
Γ(x) funzione speciale Γ
Φ(t) sistema fondamentale
Ψ(t) sistema delle evoluzioni dei vettori di base
Tx M spazio tangente la M in x

Altri caratteri
∂ operatore di derivata
T Cap. 1,2,3,4,5,6 periodo (durata) di tempo
[D] chiusura dell’insieme D
∂D frontiera dell’insieme D
{x} insieme costituito dal solo elemento x
⟨ a, b ⟩ prodotto scalare fra a e b
π i i-ma proiezione: π i (x) = xi

VII
VIII Notazione

Caratteri calligrafici
A, B, C, D, T , P operatori su varietà; (op. lineari se su spazi vettoriali)
G Cap. 1,2,3,a applicazione di avanzamento
I Cap. 3 applicazione di avanzamento

Caratteri maiuscoletto punti di uno spazio (affine o) fisico


a cap. 5
b cap. 5
c cap. 1,2,5
d cap. 5
o cap. 1,2,4,5,a
p cap. 1,2,5,a
q cap. 1
Ω cap. 1,5

Caratteri gotici e corsivo


A Cap. 5 attrattore
B Cap. 2,a forma bilineare
D Cap. 2,4 determinante, o divario
E Cap. 1,3,4,6 funzione energia meccanica
F Cap. 3,4,a funzione di Liapunov, o integrale primo
H Cap. 2,3,4,6 funzione hamiltoniana
G Cap. 5 Omomorfismo
I Cap. 5 Isomorfismo
L Cap. 2,3 funzione lagrangiana
K Cap. 2,4 tensore della metrica
χ Cap. 2,4 tensore della metrica
O Cap. 4 funzione omogenea
Q Cap. 1,4 forma quadratica
T Cap. 2,3,4,a energia cinetica
W Cap. 2,4 funzione wronskiano
V Cap. 1,2,3,6 energia potenziale

Caratteri math grossi


π Cap. 2,4 operatore parte quadratica dell’energia potenziale
ϕ Cap. 1,2,3,4 trasformazione di rettificazione, o di coordinate
g Cap. 5 generatore
s Cap. 5 ricoprimento
τ Cap. 5,a topologia
α Cap. 5 algebra
β Cap. 5 algebra
ℓ Cap. 5 linea
γ Cap. 3,5,a linea, cammino, bordo di superficie
φ Cap. a immagine di una curva
ψ Cap. a immagine di una curva, cammino
ω Cap. 3,4,5 insieme omega-limite

Caratteri grassetto
a, b, c, e, f , g n-ple di numeri reali: coordinate di vettori
α Cap. 2 n-pla di numeri reali
γ Cap. 2,a n-pla di numeri reali
ϵ Cap. 2,a n-pla di numeri reali
ζ Cap. 2,a n-pla di numeri reali
η Cap. 1,2.a n-pla di numeri reali
θ Cap. 2,5 n-pla di numeri reali
κ Cap. 2 n-pla di numeri reali
ν Cap. 1,2,3,5,a n-pla di numeri reali
Notazione IX

ξ Cap. 2,3,5,a n-pla di numeri reali


π Cap. 4 n-pla di numeri reali
σ Cap. 2,4,5 n-pla di simboli
τ Cap. 1,2,a n-pla di numeri reali
φ Cap. 1,2,3,5,a n-pla di numeri reali
χ Cap. 1,2 n-pla di numeri reali
ψ Cap. 1,2,3,5,a n-pla di numeri reali
ω Cap. 1,4,5,a n-pla di numeri reali
ρ Cap. 2,a n-pla di numeri reali
ϱ Cap. 2 n-pla di numeri reali
ϕ Cap. 1,2,3,5 n-pla di numeri reali
ℓ Cap. 3,a n-pla di numeri reali

Caratteri grassetto grossi


A, B, C, D, E n2 -ple di numeri reali: matrici n × n
T Cap. 1,2,.. matrice dell’operatore T
τ Cap. 2,4 altra matrice dell’operatore T
G Cap. 1 matrice dell’applicazione d’avanzamento
I Cap. altra matrice dell’applicazione d’avanzamento
Ω Cap. 2 matrice
Λ Cap. 2 matrice
Ξ Cap. 2,3 matrice
Π Cap. a matrice
Υ Cap. 2 matrice
Φ Cap. 1,2,a matrice di un sistema fondamentale
Ψ Cap. 1,2,5 matrice principale
b Cap. a matrice
c Cap. a matrice
f Cap. a matrice
q Cap. a matrice
a 2,4,a matrice della forma quadratica dell’energia cinetica
A 2,4,a matrice dell’operatore dell’energia cinetica
α Cap. 2 altra matrice dell’operatore dell’energia cinetica
β Cap. 2 altra matrice dell’operatore dell’energia potenziale
κ Cap. 2,4,a matrice della metrica
χ Cap. 2,4,a altra matrice della metrica
Σ Cap. a
ϕ Cap. a
Capitolo 1

Equazioni Differenziali Ordinarie


Metodi Analitici

1.1 I termini del problema


Nel seguito verranno usate le seguenti locuzioni con i significati (forse talvolta riduttivi) vicino espressi:
Sistema := l’oggetto in esame, che si assume caratterizzato mediante un insieme di grandezze che si possono
individuare tramite valori numerici e convenienti unità di misura.
Stato del sistema := una particolare scelta dei valori delle grandezze che descrivono il sistema.
Spazio delle fasi := collezione di tutti i possibili stati.
N.B. 1.1.1 Stato non significa necessariamente posizione o configurazione, e cioè un insieme di coordinate spaziali
o generalizzate, ma piuttosto l’insieme di tutte le variabili dalle quali il sistema risulta totalmente e definitivamente
caratterizzato (cfr. oltre). ♦

Sistema dinamico := la famiglia delle trasformazioni dello spazio delle fasi in sé che fanno passare da un certo
stato “attuale” ad un altro, “passato” o “futuro”, e che ha come indice il parametro “tempo”. Questo ha valori
reali t ∈ R per sistemi continui ed ha valori interi t ∈ Z per sistemi discreti, ed entrambi sono minori o maggiori
di zero, rispettivamente, per passato e futuro.
Sistema, o processo, deterministico := un sistema per il quale è possibile individuare, ed univocamente, il
passato ed il futuro a partire dal suo stato attuale. Si pretende cioè che il modello matematico che ne regola
l’evoluzione ammetta Esistenza ed Unicità della soluzione uscente da ogni possibile dato iniziale.
Di natura diversa sono, per esempio, i seguenti due processi.
Processo stocastico := una famiglia di funzioni definite sullo spazio delle fasi (con struttura di spazio di misura),
dette variabili casuali, integrabili su comodi insiemi, detti eventi, indiciata dal parametro temporale t. Le
transizioni fra due istanti, cosı̀ come il valore degli integrali, possono essere regolati da convenienti misure di
probabilità (stabilite apriori o dedotte da osservazioni di esperimenti quali, per esempio, il lancio di un dado, la
lunghezza di un messaggio, l’applicazione di una qualche matrice di transizione, etc.). Tuttavia, tali transizioni
possono anche essere deterministiche, e solo le variabili non esserlo.
Processo ereditario := l’intero passato del sistema determina (o influisce) sul suo futuro.

Un esempio di sistema deterministico di evidente importanza è quello di un


Sistema meccanico a dimensione finita := lo stato è assegnato mediante la coppia (x, ẋ), x, ẋ ∈ Rn , dove
le x (o anche q ) sono un insieme di coordinate spaziali (o generalizzate) che individuano la configurazione del
sistema; la sola x non lo renderebbe deterministico.
Sistemi evolutivi deterministici nella loro descrizione matematica (anche se possono non esserlo i modelli dei
sistemi fisici che essi interpretano) e di “dimensione infinita” sono per esempio i sistemi continui, i sistemi quantistici,
i sistemi cinetici, etc. Per essi lo spazio delle fasi è un conveniente spazio funzionale, magari discreto.
Nel seguito ci si occuperà solo di sistemi con spazio delle fasi a dimensione finita. In particolare, si tratteranno
principalmente sistemi definiti su spazi (a dimensione finita e) convenientemente regolari: M aventi struttura di
varietà differenziabili, (e cioè localmente Rn , vedi oltre). I punti di questi, rappresentanti i possibili stati del sistema,
verranno indicati con lettere minuscole in caratteri normali; le loro rappresentazioni in un qualche fissato sistema coordinate, e quindi
formate da n -ple ordinate di numeri reali, dalle stesse lettere in caratteri grassetto. Quando invece si vorrà rimarcare il carattere
puntuale dello spazio, in particolare dello spazio fisico tridimensionale, e distinguere (fissata la carta) un certo punto dello spazio dal
vettore di posizione che gli corrisponde, quest’ultimo verrà indicato con il sopra-simbolo di vettore, o anche con la coppia di punti che


ne individuano gli estremi: per esempio op invece di quell’elemento p ∈ M le cui coordinate (fissata la carta) sono assegnate dalla
n -pla p ∈ R delle componenti del vettore di estremi (fissato il riferimento) il punto p e l’origine o .
n

1
2 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Processo differenziabile := un sistema deterministico con spazio delle fasi avente la struttura di Varietà dif-
ferenziabile, o “Manifold”: M, (si veda: Appendice A.4), e la cui evoluzione è in esso descritta da funzioni:
g : (t, x0 ) ∈ R &→ g(t, x0 ) ∈ M differenziabili.
Più spesso con questo aggettivo si intende la prima di queste proprietà, e la seconda solo rispetto al dato:
x0 ∈ M.
Verranno ora introdotte, con maggiori dettagli, le proprietà essenziali di un possibile modello per un processo
differenziabile a dimensione finita che sia stazionario, e cioè tale da non contenere un transitorio dipendente dal
particolare istante iniziale.
Si considera innanzi tutto una varietà M come spazio delle fasi, ed un punto x ∈ M che rappresenti lo stato
del sistema in un certo istante t0 .
Come si è detto, l’evoluzione fra t0 e t è modellata da una trasformazione dello spazio delle fasi in sé, detta
onto
Applicazione d’avanzamento o Operatore d’evoluzione Gtt0 : M −→M :=
una mappa univocamente definita su tutto M ed a valori su tutto M, che fa corrispondere a ciascun x ∈ M il suo
evoluto Gtt0 x dopo l’intervallo di tempo [t0 , t].
Affinché una famiglia {Gtt0 }t∈R di tali applicazioni d’avanzamento possa rappresentare una evoluzione del
sistema con le proprietà richieste, è necessario che su tutto M
per il determinismo, sussista la: Gtt01 = Gtt1 Gtt0 , ∀t0 , t1 , t ∈ R;
per la stazionarietà, sussista la: Gtt+τ = G0τ =: G τ , ∀τ, t ∈ R.
Queste proprietà insieme forniscono:

G t+τ = G t G τ = G τ G t , ∀τ, t ∈ R . (1.1)

Gruppo ad un parametro di evolutori := {G t }t∈R una famiglia di applicazioni d’avanzamento G t : M → M


tali che
G t+τ = G t G τ ∀τ, t ∈ R, G 0 = 1I .
A volte ci si dovrà limitare a
Gruppi locali, ad un parametro := famiglie di trasformazioni che verificano la legge di composizione gruppale
per valori del parametro t solo in convenienti sottoinsiemi (connessi) di R;
o addirittura (vedi oltre) a famiglie di applicazioni d’avanzamento che non verificano la composizione gruppale,
e cioè per le quali Gtt12 ̸= G0t2 −t1 . In tali casi il sistema non è stazionario e la composizione Gtt34 Gtt12 è sicuramente
definita solo se t3 = t2 e se, ovviamente, sono definiti i fattori.
N.B. 1.1.2 In generale, infatti, non è detto che la Gtt34 Gtt12 sia un’ammissibile applicazione d’avanzamento, e cioè che
per una certa evoluzione G esistano t5 , t6 tali che l’assegnato sistema evolva fra t5 e t6 secondo la Gtt56 = Gtt34 Gtt12 .
Ma se t3 = t2 il determinismo assicura che ciò accade, almeno con t5 = t1 e t6 = t4 (e sempre che il secondo
membro sia definito: cioè sempre che esistano Gtt12 e Gtt24 ). Quando il sistema è stazionario, invece, per ogni τ ∈ R
ed arbitrari t, t0 si ha che
Gtt+τ
0 +τ
= Gtt0 o anche Gtt0 −τ = Gtt+τ
0

e l’esistenza dei due fattori G τ e G τ è sufficiente a garantire quella di G t G τ = G t+τ .


Le due proprietà, tuttavia, sono indipendenti fra loro; ad esempio l’evoluzione Gtt0 x0 := x0 t/t0 è deterministica
ma non stazionaria, mentre la Gtt0 x0 := x0 se t ≤ t0 e Gtt0 x0 := x0 (1 + t − t0 ) se t > t0 è stazionaria ma non
deterministica. Per ulteriori esempi si veda oltre. ♦

Un buon modello per un sistema differenziabile deterministico stazionario a dimensione finita è allora dato da
un:
Flusso di fase differenziabile := una funzione g : R × M → M definita per ogni t ∈ R ed x ∈ M dalla
g : (t, x) &→ G t x, con le ipotesi che g sia differenziabile ovunque in R × M e che {G t }t∈R sia un gruppo ad un
parametro di trasformazioni dello spazio delle fasi in sé.
Ne segue che G t è, per ogni t, un
Diffeomorfismo := una corrispondenza biunivoca differenziabile con inversa differenziabile.
Per esempio G t x := xt , con x ∈ R e t = 3 , non lo è perché (x1/3 )′ (0) non esiste.
Spazio delle fasi ampliato := lo spazio R × M delle coppie (t, x).

Moto uscente da x ∈ M in t = 0 := la funzione x ! : t ∈ R → x


!(t) ∈ M definita da x
!(t) = G t x, ove g :
(t, x) &→ G x ∈ M è un flusso di fase differenziabile.
t

M. Lo Schiavo
1.1. I termini del problema 3

Osservazione sulla notazione


• Ci si ricorda della scelta fatta del particolare x ∈ M relativo all’istante t = 0 con la locuzione: moto di
un “elemento” rappresentativo che all’istante t = 0 si trovi nel punto x dello spazio delle fasi M, o più
brevemente con moto di x. È però evidente che questo moto non corrisponde generalmente ad alcun tipo
di moto effettivo di alcun elemento materiale in alcuno spazio fisico.
• Inoltre è generalmente conveniente ricordare che il punto x è quello scelto all’istante t0 indicandolo con la
notazione x0 , ma si badi bene che tale punto è del tutto generale e deve poter essere scelto arbitrariamente
in tutto lo spazio delle fasi M.
• Accade poi spesso che il superscritto: “ ! ” della funzione x ! : J ⊆ R → M scompaia e che si confonda, nella
notazione, il punto x ∈ M con il valore assunto in t dalla funzione x ! e che coincide con il punto x stesso,
scrivendo cioè x = x(t) invece di x = x!(t). Tale notazione, impropria, è comune quando si voglia ricordare
esplicitamente e brevemente gli argomenti di una funzione, ed allora la locuzione “funzione φ(t, t0 , x0 )” può
perfino essere usata al posto di: funzione φ : (t, t0 , x0 ) &→ φ(t, t0 , x0 ) ∈ M.
! contenga, per esempio in qualità di coef-
In particolare ciò avverrà nel seguito quando un’equazione nell’incognita funzione x
ficienti, anche altre funzioni assegnate e generalmente non costanti: quando ciò non leda la chiarezza, queste ultime potranno
essere indicate con il simbolo riservato al loro valore in un punto. Per un sistema su Rn , per esempio, si scriverà
ẋ = c1 (t)x + c2 (t), con (t0 , x0 ) ∈ R × Rn ,
piuttosto che ⎧

⎪ x ! (t) ∈ Rn ;
! : t ∈ J ⊆ R &→ x = x



⎪ !1 : t ∈ I ⊆ R &→ c
c !1 (t),
d ⎨
!=c
x !1 x
!+c
!2 , con c1 (t) : x ∈ Rn &→ c1 (t)x ∈ Rn ;
dt ⎪


⎪ !2 (t) ∈ Rn ;
!2 : t ∈ I ⊆ R &→ c
c



(t0 , x0 ) ∈ R × Rn con x
! (t0 ) = x0 .
Nell’Appendice A.4 vengono poi date una motivazione ed una notazione anche più generali di queste.

Curva integrale := il Grafico del moto, e cioè la curva nello spazio delle fasi ampliato (R × M) costituita dalla
famiglia di coppie {(t, Gtt0 x0 )}t∈J⊆R .
N.B. 1.1.3 Il determinismo fa sı̀ che due curve integrali non si intersechino, e che ciascuna abbia una e una sola
intersezione con i piani t = cost. ♦

Nel caso in cui M ≡ R è lo spazio delle configurazioni, la curva integrale è il ben noto diagramma orario.
Se, ma non solo se (si veda: §III.1), {G t }t∈R è un gruppo, le curve integrali sono invarianti per traslazioni:
t → t + τ , (si veda: [Arnold I]):
Proposizione 1.1.1 Sia Hτ : (t, x) &→ (t + τ, x) l’operatore di traslazione lungo l’asse dei tempi nello spazio
delle fasi ampliato e {(t, G t x)}t∈R una curva integrale, con G t verificante la proprietà di gruppo: G t+τ = G t G τ .
Allora
{Hτ (t, G t x)}t∈R = {(t + τ, G t x)}t∈R è anch’essa una curva integrale.

Dimostrazione Dato che {G t }t∈R è un gruppo, esiste unico y = G −τ x, e quindi x = G τ y . Inoltre la stessa
t+τ
composizione G = G t G τ assicura l’esistenza di: G t x = G t+τ y . Quindi {(t + τ, G t x)}t∈R ≡ {(σ, G σ y)}σ∈R con
σ := t + τ .

G t+¿y

x
0 t ¿ (t+¿) 0 t ¿ (t+¿)
G ty

y= G -¿x

"

Curva di fase, o Orbita, uscente da x, o Traiettoria per x := l’Immagine del moto, e cioè il sottoinsieme di
M dato da γ := {Gtt0 x}t∈J ⊂ M.
N.B. 1.1.4 Se {G t }t∈R è un gruppo, le curve di fase non si intersecano (perché in caso contrario si potrebbero
sempre trovare due curve integrali che ad esse corrispondono e che si intersecano). ♦

Note di Sistemi Dinamici


4 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Le seguenti definizioni (si veda anche: [Arnold I]) riassumono le varie possibilità.
Sistema dinamico (deterministico stazionario differenziabile a dimensione finita) := la coppia (M, g) con M una va-
rietà differenziabile e g un flusso differenziabile.
Tuttavia, perfino nei casi di stazionarietà, ci si deve spesso limitare a:
Sistemi dinamici locali := (M, J0 , V0 , g) dove: M è una varietà differenziabile, J0 un intorno dell’origine
in R, V0 ⊆ M un conveniente intorno di un arbitrario punto x0 dello spazio delle fasi M, e g una funzione da
J0 × V0 in M tale che:

(i) per ciascun fissato t ∈ J0 , l’applicazione d’avanzamento G t : V0 → M definita da x &→ G t x := g(t, x) è un


diffeomorfismo;

! : J0 → M definito dalla t &→ x


(ii) per ciascun x ∈ V0 , il moto x !(t) := g(t, x) è una funzione differenziabile su
!(0) = x;
J0 e tale che x

(iii) per ogni x ∈ V0 si ha G t+τ x = G t G τ x per quei t, τ ∈ J0 per i quali il secondo membro è definito. Inoltre,
per ogni x ∈ V0 esistono N (x) ⊂ V0 e δ > 0 tali che G t G τ x′ è definito per ogni x′ ∈ N (x) e
|τ |, |t| < δ .

Nel caso non stazionario, il flusso di fase non è più invariante per traslazioni temporali: le curve integrali non è
detto siano più le traslate rigide l’una dell’altra secondo l’asse delle t (e le funzioni φ(t + c, t0 , x0 ) siano soluzioni
della stessa equazione della quale è soluzione la φ(t, t0 , x0 )). Per ogni applicazione d’avanzamento occorre allora
fissare l’esplicita coppia degli istanti di riferimento, e specificare il particolare intorno J × V0 ⊂ R × M del punto
(t0 , x0 ) vicino al quale si studia il sistema.
Un buon modello per l’evoluzione di un sistema deterministico non stazionario, nell’intorno di un punto (t0 , x0 ) ∈
R × M, consiste allora in una
Famiglia locale di applicazioni d’avanzamento su R × M := (M, J, V0 , &
g)
dove: M è una varietà differenziabile, J × V0 ⊆ R × M è un intorno del punto (t0 , x0 ) e g& , che verrà chiamato
Avanzamento locale, una funzione & g : J × J × V0 → R × M tale che, indicando con {t1 } il singleton {t′ ∈ R | t′ =
t1 } , si abbia:

(i) per ciascun (t, t1 ) ∈ J × J l’applicazione G&tt1 : ({t1 } × V0 ) → J × M definita da G&tt1 (t1 , x) := &
g(t, t1 , x) è un
diffeomorfismo da {t1 } × V0 in {t} × M;

(ii) per ciascun (t1 , x) ∈ J × V0 , il Moto uscente da x ∈ M in t1 , e cioè la mappa x !:t∈J ⊆R→x !(t) ∈ M
!(t)) := g&(t, t1 , x), è una funzione differenziabile su J e tale che x
definita nella (t, x !(t1 ) = x;

(iii) sussiste la: G&tt13 (t1 , x) = G&tt23 G&tt12 (t1 , x) se t1 , t2 , t3 ∈ J ed x ∈ V0 sono tali che il secondo membro è definito.
In tal caso, per ciascun (t1 , x) ∈ J × V0 esiste un intorno N (t1 ) × N (x) tale che il secondo membro continua
ad essere definito per ogni x′ ∈ N (x) e t2 , t3 ∈ N (t1 ).

Identificando con un unica M ogni “copia” dello spazio delle fasi, data per ogni t ∈ J da {t} × M, si ha che la
mappa G&tt12 : {t1 } × V0 → {t2 } × M individua la mappa Gtt12 : M → M di cui si è parlato precedentemente, e che
si riduce a G t2 −t1 quando il sistema è stazionario.

Tale identificazione permette anche di introdurre la


Componente spaziale dell’Avanzamento locale := la funzione φ : J × J × V0 &→ M definita dalla (t, φ(t, t1 , x))
:= g&(t, t1 , x). La sua restrizione a t e t1 fissati arbitrari in J è un diffeomorfismo Gtt1 da V0 in M, e la sua
restrizione a (t1 , x) fissati arbitrari in J × M è il moto x ! : J → M uscente da x in t1 e quindi definito da
!(t) := φ(t, t1 , x) ≡ Gtt1 x con x
t &→ x !(t1 ) = φ(t1 , t1 , x) = x, ed analoga proprietà per il suo valore a (t, x) fissati.
Posizione di equilibrio := punto unito di una famiglia di applicazioni di avanzamento, ovvero un punto che sia
esso stesso una traiettoria.
Qualora la varietà sia ad un numero infinito di dimensioni tale punto viene spesso chiamato “soluzione stazionaria”,
da non confondere però con un sistema stazionario.
Dato un moto x! : J ⊆ R → M definito, come si è detto, da x !(t) = Gtt0 x0
!(t) := φ(t, t0 , x0 ), ed indicata con x = x
la posizione occupata all’istante t dall’elemento rappresentativo che per t = t0 occupava il punto x0 , si definisce

M. Lo Schiavo
1.1. I termini del problema 5

Velocità di fase, nel punto x, individuata dal moto := la velocità ẋ che tale elemento rappresentativo possiede
nel punto x ed all’istante t; e cioè il valore della derivata
' '
d '' d ''
ẋ = !
x(t + τ ) = G t+τ x
dτ 'τ =0 dτ 'τ =0 t

essa dipende, come si vede, da x e da t e quindi, per ogni (t, x) ∈ J × V0 , durante una certa evoluzione individuata
da {Gtt0 }t∈J sussiste la
ẋ = v(t, x) , x ∈ M, v ∈ Tx M (1.2)
da interpretarsi come un legame (eventualmente dipendente dal tempo) che durante quella evoluzione sussiste
fra la posizione all’istante t e la velocità che in quello stesso istante compete ad un elemento in quella posizione.
Quando queste si intendano quali valori di funzioni del tempo, la (1.2) può essere interpretata come un’equazione
funzionale avente come incognita la funzione moto, ed infatti in tutti gli istanti t di definizione il moto risulta
verificare l’identità, ' '
d d '' t+τ d ''
!(t) ≡
x G x= G t+τ Gtt0 x0 ≡ v(t, x
!(t)). (1.3)
dt dτ 'τ =0 t dτ 'τ =0 t
In particolare, se la famiglia di trasformazioni forma un gruppo locale, e cioè se il sistema è stazionario, questa
velocità dipende solo dal punto e non dipende esplicitamente dal tempo; si ha infatti
' '
d '' t+τ d ''
G x≡ G τ x = v(x) .
dτ 'τ =0 t dτ 'τ =0

d'
'
N.B. 1.1.5 Per il momento, la funzione v : x &→ v(x) è individuata per componenti: v i (x) = dt t=0
xi (G t x);
e quando nel seguito si vorrà distinguere il caso scalare: dim M = 1 dal caso: dim M > 1 , lo si farà con la (usuale)
notazione: ẋ = v(x) nel primo caso e ẋ = v(x) nel secondo. Come già accennato tuttavia, (si veda: Appendice A.4
ed [Arnold 1]) questa differente notazione avrà anche il compito di distinguere l’equazione sul tangente alla varietà
dalla sua rappresentazione in coordinate. ♦

Si riassume tutto ciò nel seguente modo:

La terna (J, V0 , G) individua una famiglia di applicazioni d’avanzamento


{Gtt0 }t∈J , e questa definisce su J × V0 ⊆ R × M un campo vettoriale
v = v(t, x) ∈ Tx M. Il moto x !(·, t0 , x0 ) : J → M, definito dalla

!(t)) := (t, φ(t, t0 , x0 )) := (t, Gtt0 x0 ),


(t, x

è (una) soluzione dell’equazione differenziale associata al campo (o de-


finita dal campo):
ẋ = v(t, x) .

Con ciò si intende che esso è una funzione x ! : J ∈ R → M, differenziabile, tale che x
!(t0 ) = φ(t0 , t0 , x0 ) = x0 , e
!(t)) è definito per ogni t ∈ J e vi risulta
tale che v(t, x
d
!(t) = v(t, x
x !(t)) ∀t∈J .
dt

Osservazione fondamentale nello studio dei sistemi dinamici:


sotto certe condizioni è vero il viceversa: certi campi vettoriali sono tali da ammettere ed individuare una famiglia
{G t }t∈R che è un gruppo ad un parametro.
Più in generale:
se il campo v = v(t, x) è differenziabile in un aperto D ⊆ R × M si può mostrare (si veda: §I.3) che esiste una
famiglia locale di applicazioni d’avanzamento, e quindi un avanzamento locale &g relativo ad un conveniente intorno
J × V0 ⊆ D di un arbitrario punto (t0 , x0 ) interno al dominio D di regolarità del campo.

Memento 1.1.1 Dominio:= aperto, connesso, non vuoto. Qui, “aperto” nella topologia indotta dalla metrica
euclidea in R1+n .

Note di Sistemi Dinamici


6 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Sotto queste ipotesi infatti, la famiglia delle soluzioni x ! dell’equazione ẋ = v(t, x) uscenti in t1 dai punti x1
di V0 individua, al variare di (t1 , x1 ) in J × V0 , una funzione φ : J × J × V0 &→ M atta a definire mediante la
(t, φ(t, t1 , x1 )) =: g&(t, t1 , x1 ) un avanzamento locale g& in quanto si vedrà che:

(i) G&tt1 (t1 , ·) := φ(t, t1 , ·) è un diffeomorfismo da {t1 } × V0 in {t} × M;

(ii) per costruzione, il flusso & !(·) tale che


g(·, t1 , x1 ) è compatibile con un moto x
(
ṫ =1
t &→ x
!(t) è soluzione di e verifica: g&(t1 , t1 , x1 ) = x
!(t1 ) = x1 ;
ẋ =v(t, x),

(iii) g&(t3 , t2 , g&(t2 , t1 , x)) = g&(t3 , t1 , x) lı̀ dove tali operazioni sono definite.

Nel seguito, purché ciò non dia adito a dubbi, non solo la x ! ma anche la funzione φ verrà chiamata soluzione
dell’equazione ẋ = v(t, x). Ciò per motivi di brevità, e vuole ricordare non solo che per (t0 , x0 ) fissati in J × M
!(t) := φ(t, t0 , x0 ) = Gtt0 x0 ∈ M verifica su J la (1.2) e la condizione x
! il cui valore in t è x
la x !(t0 ) = x0 ∈ M, ma
anche che al variare di (t0 , x0 ) ∈ J × V0 e per t fissato, il punto x = x !(t) varia in modo (almeno) continuo in M.
Inoltre, come si è già accennato, la notazione con il superscritto “ ! ” verrà abbandonata a meno che essa sia
strettamente indispensabile. Per esempio, quando non vi siano dubbi sul punto (t0 , x0 ), si preferirà indicare la x !(t)
con x(t).

Esempio 1.1.6 ẋ = kx, k, t0 , x0 ∈ R ⇒ x(t) = ek(t−t0 ) x0 .

x
v(x)

x0

x t
#

Esempio 1.1.7 Si consideri l’equazione

ẍ = k , con k ∈ R (1.4)

La sua soluzione generale si può trovare integrando direttamente due volte l’equazione stessa. Scelti t0 , x0 , ẋ0
arbitrari in R si ha
1
ẋ(t) = k(t − t0 ) + ẋ0 , e x(t) = k(t − t0 )2 + ẋ0 (t − t0 ) + x0 . (1.5)
2
La (1.4) può essere trasformata nella seguente equivalente equazione, con ẋ0 ≡ y0 ∈ R,
) * ) x * ) * ) *) * ) *
ẋ v (x, y) y 0 1 x 0
ẋ ≡ = v(x) ≡ := = + , (1.6)
ẏ v y (x, y) k 0 0 y k

che mostra chiaramente la non linearità della (1.4).


Per brevità si ponga τ := (t − t0 ); la (particolare) funzione η(τ ) := kτ 2 /2 non dipende dai dati iniziali
(x0 , y0 ), si annulla con la sua derivata in τ = 0 , ed ha derivata seconda pari a k . La soluzione della (1.6),
equivalente alla (1.4), è esprimibile come segue
) * ) *) * ) 2 * ) 2 *
x(τ ) 1 τ x0 kτ /2 kτ /2 + τ y0 + x0
= + = . (1.7)
y(τ ) 0 1 y0 kτ kτ + y0

La curva di fase che in t0 = 0 passa, per esempio, per (0, 0) è il luogo


) * ) 2 *
x(t) kt /2 1 2
= e cioè x= y . (1.8)
y(t) kt 2k

M. Lo Schiavo
1.1. I termini del problema 7

y
y
(2)
y2 vx k
(1) x
y vx1
vx

Tale curva non è la traiettoria in uno spazio fisico, nel quale sia fissato un riferimento (o, ⃗e1 , ⃗e2 , ⃗e3 ), di un
−̈

elemento che si muova a partire da velocità iniziale nulla secondo l’equazione op = k⃗e1 ; infatti la parabola di volo,
che in questo caso degenera in una retta, e la parabola sul piano delle fasi sono curve in spazi diversi.
Si noti che con l’aggettivo generale qui sopra ricorda il fatto che le costanti (t0 , x0 , ẋ0 ) si riferiscono ai dati
iniziali del cosiddetto “problema di Cauchy” relativo all’equazione data, e per un flusso devono poter essere scelte
arbitrariamente in R × R2 .
È facile verificare che la soluzione (1.7) della (1.4) non solo è compositiva in modo deterministico:

φ(t2 , t0 ; x0 ) = φ(t2 , t1 ; φ(t1 , t0 , x0 )) , ∀({t0 , t1 , t2 }, x) ∈ D (1.9)

ma è anche stazionaria:

φ(t1 , t0 ; x0 ) ≡ φ(t1 − t0 , 0; x0 ) . ({t0 , t1 , t2 }, x) ∈ D (1.10)


) *
1 t
Infatti, indicata con Φ(t) la matrice: Φ(t) := e riconosciuto che sussistono l’identità:
0 1
) *) * ) *
1 t 1 τ 1 t+τ
Φ(t) Φ(τ ) = = = Φ(t + τ )
0 1 0 1 0 1

insieme con l’identità


) *) 2 * ) 2 * ) *
1 t kτ /2 kt /2 k(t + τ )2 /2
Φ(t)η(τ ) + η(t) = + = = η(t + τ ),
0 1 kτ kt k(t + τ )

si prova direttamente che il flusso Φ(t) x + η(t) è compositivo e stazionario:


) * ) *) * ) *
x(t) 1 t − t0 x0 k(t − t0 )2 /2
= +
y(t) 0 1 y0 k(t − t0 )
) * +) *) * ) *, ) *
1 t − t1 1 t1 − t0 x0 k(t1 − t0 )2 /2 k(t − t1 )2 /2
= + + .
0 1 0 1 y0 k(t1 − t0 ) k(t − t1 )

Alternativamente, la validità della (1.9) è facilmente provata se ci si serve della


- t
−1
φ(t, t0 , x0 ) ≡ Φ(t)Φ (t0 )x0 + Φ(t)Φ−1 (s) b(s) ds
t0

) * ) *
1 t −1 0
con la quale è possibile esprimere la soluzione (1.7) con Φ(t) = , Φ (s) ≡ Φ(−s), b(s) = , che
0 1 k
.t −1
danno: η(t) = 0 Φ(t)Φ (s) b(s) ds insieme con:

φ(t2 , t1 , φ(t1 , t0 , x0 ))
- t2
−1
= Φ(t2 )Φ (t1 )φ(t1 , t0 , x0 ) + Φ(t2 )Φ−1 (s) b(s) ds
t1
) - t1 * - t2
= Φ(t2 )Φ−1 (t1 ) Φ(t1 )Φ−1 (t0 )x0 Φ(t1 )Φ−1 (s) b(s) ds + Φ(t2 )Φ−1 (s) b(s) ds
t0 t1
- t2
−1
= Φ(t1 )Φ (t0 )x0 + Φ(t2 ) Φ−1 (s) b(s) ds .
t0

#
Note di Sistemi Dinamici
8 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

) *
y
Si ricordi comunque che il campo non è lineare: v(t, x1 + x2 ) ̸= v(t, x1 ) + v(t, x2 ), ed infatti la soluzione
k
(1) (2) (1) (2)
dell’equazione (1.4) non è somma di soluzioni: φ(t, x0 + x0 ) ̸= φ(t, x0 ) + φ(t, x0 ).
Esempio 1.1.8 Con k ∈ R e t0 , x0 ∈ R arbitrari si consideri l’equazione

ẋ = k(t − t∗ ) + ẋ∗ , per dati t∗ , ẋ∗ ∈ R . (1.11)

Innanzi tutto, l’equazione implica che, comunque siano stati scelti t0 , x0 ∈ R, risulta costante la differenza

ẋ − k t = ẋ∗ − k t∗ =: −k t̃ = ẋ0 − k t0 . (1.12)

Poi, e mediante la costante t̃ assegnata dalla equazione, si vede che la (1.11) assume la forma: ẋ = k(t − t̃) e
quindi ha soluzione:
1 1
x(t) = k(t − t̃)2 − k(t0 − t̃)2 + x0 (1.13)
2 2
o anche, introdotta nella (1.13) la costante (arbitraria) x̃ := −k(t0 − t̃)2 /2 + x0 ,
1
x(t) = k(t − t̃)2 + x̃ . (1.14)
2
La soluzione della (1.11), che dipende in modo essenziale dalle (sole) due costanti (t0 , x0 ) entrambe arbitrarie, è
compositiva ma non stazionaria; infatti dalla (1.13) segue la compositività
) *
1 1 1 1
k(t2 − t̃)2 − k(t1 − t̃)2 + k(t1 − t̃)2 − k(t0 − t̃)2 + x0
2 2 2 2
1 1
= k(t2 − t̃)2 − k(t0 − t̃)2 + x0 ,
2 2
ma anche che la condizione di stazionarietà: φ(t + c, t0 + c, x0 ) = φ(t, t0 , x0 ) non è verificata, in quanto
1 1 1 1
k(t + c − t̃)2 − k(t0 + c − t̃)2 ̸= k (t − t̃)2 − k (t0 − t̃)2
2 2 2 2
visto che (t2 − t20 ) ̸= (t − t̃)2 − (t0 − t̃)2 = (t2 − t20 ) + 2t̃(t0 − t).
In questa equazione le (t∗ , ẋ∗ ) non sono arbitrarie, come invece erano nella prima delle (1.5) trovata durante
il procedimento di risoluzione dell’equazione (1.4), e quella, come tale, non può essere risolta da sola ma solo
come seconda componente della (1.7). In primo luogo ciò comporta, tramite la (1.12), che la ẋ0 non può essere
scelta arbitrariamente, come invece accadeva nel caso della (1.5), in secondo luogo si ha che il valore della ascissa
temporale non è più scelto arbitrariamente in R, ma occorre riferirlo al valore assegnato t∗ , e l’istante in cui la ẋ
si annulla esiste, unico, ed è indipendente dalle scelte arbitrarie dei dati iniziali.

x
x0
x0

e
x

et t0 t
#

Esempio 1.1.9 Con k, t0 , x0 ∈ R si consideri l’equazione


/
ẋ = 2k(x − x̃) , per un dato x̃ ∈ R+ . (1.15)

Questa equazione si può facilmente ricavare come conseguenza sia della (1.11) che della prima delle (1.5); a tale scopo
è sufficiente riscrivere queste ultime nella forma ẋ = k(t−t̃) che dà la (1.14) dalla quale segue k 2 (t−t̃)2 = 2k(x−x̃).
Tuttavia, anche qualora la costante x̃ venga considerata come una costante arbitraria, la (1.15) non è equivalente
né alla (1.11) né alla (1.4). Infatti

• essa contiene solo una delle due possibili determinazioni della radice quadrata;

M. Lo Schiavo
1.1. I termini del problema 9

• un qualunque valore prescelto per la x̃ permette come soluzione possibile della (1.15) la funzione costante
x(t) = x̃, cosa questa non vera per le altre due citate equazioni;

• non ammette soluzione unica.

• la x0 non è più del tutto arbitraria in R.

Ove possibile, la sua soluzione generale si ricava per separazione di variabili (vedi oltre) dalla

√ - x 0√ / 1

(t − t0 ) 2k = √ = 2 x − x̃ − x0 − x̃ .
x0 ξ − x̃
/ √
Ponendo ẋ0 := 2k(x0 − x̃) e moltiplicandola per k/ 2 questa fornisce (insieme con la (1.15)) la ẋ = ẋ0 /2 +
k(t − t0 ) e cioè la prima delle (1.5), da cui segue senz’altro la seconda:

1
x(t) = x0 + ẋ0 (t − t0 ) + k(t − t0 )2
2

la quale, come si è visto, è compositiva e stazionaria. Tuttavia essa, come soluzione della (1.15), non è unica a
meno di ridursi a considerare solo tempi t per i quali è x(t) > x̃ , e quindi in particolare localmente vicino a dati
per i quali x0 > x̃ . Si osservi d’altra parte che per ricavare la2(1.15) dalla (1.11), e cioè dalla (1.14), occorre derivare
/ / /
la k(t − t̃) = 2k(x − x̃) ovvero “semplificare” la k = k ẋ 2k(x − x̃) proprio per il termine ẋ ≡ 2k(x − x̃) .
Se, invece, la si vuole ricavare direttamente dalla (1.4) occorre moltiplicare quest’ultima per ẋ .

e
x

t
#

Esempio 1.1.10 Nuovamente come conseguenza sia della (1.11) che della prima delle (1.5) e con k, t0 , x0 , ẋ0 ∈ R
si può ricavare la
ẋ − ẋ∗
ẍ = , per fissati t∗ , ẋ∗ ∈ R (1.16)
t − t∗

La sua soluzione generale si trova per separazione di variabili (vedi oltre): dalla ln |ẋ − ẋ∗ | = ln |t − t∗ | + c si
ottiene (localmente)
ẋ0 − ẋ∗
ẋ = ẋ∗ + (t − t∗ ) (1.17)
t0 − t∗

che quindi:

• è compositiva ma non è stazionaria;

• non assegna necessariamente il valore k alla costante c = (ẋ − ẋ∗ )/(t − t∗ ) che, inoltre, dipende dai dati
iniziali e muta con essi: ciascuna soluzione evolve in modo da lasciare costante il rapporto d := (ẋ0 − ẋ∗ )/(t0 −
t∗ );

• impedisce che il dato t0 possa essere scelto uguale al valore t∗ presente nell’equazione.

Note di Sistemi Dinamici


10 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

t0 t

Infatti la (1.16), riscritta nella variabile ξ := ẋ , permette le seguenti valutazioni


ξ0 − ξ∗
ξ(t0 + t, t0 , ξ0 ) = Gtt00 +t ξ0 = ξ∗ + (t0 + t − t∗ ) =: η0
t0 − t∗
η0 − ξ∗
ξ(t0 + τ, t0 , η0 ) = Gtt00 +τ η0 = ξ∗ + (t0 + τ − t∗ ) =: η&
t0 − t∗
ξ0 − ξ∗
= ξ∗ + (t0 + t − t∗ )(t0 + τ − t∗ )
(t0 − t∗ )2
ξ0 − ξ∗
ξ(t0 + t + τ, t0 , ξ0 ) = Gtt00 +t+τ ξ0 = ξ∗ + (t0 + τ + t − t∗ ) =: η
t0 − t∗
ed il fatto che risulti
ξ0 − ξ∗
η& − η = (t − τ ) ̸= 0
(t0 − t∗ )2
mostra la non stazionarietà della soluzione. Essa è invece compositiva; si ha infatti:
η0 − ξ∗
Gtt00+t
+t+τ
η0 = ξ∗ + (t0 + t + τ − t∗ )
t0 + t − t∗
ξ0 − ξ∗ t0 + t − t∗
= ξ∗ + (t0 + t + τ − t∗ ) = Gtt00 +t+τ ξ0 .
t0 + t − t∗ t0 − t∗
Si osservi che fissare a priori una soluzione, e cioè fissare un (solo) dato iniziale implica il non distinguere la (1.16) dalla (1.4) (si veda
l’Esempio 1.6.2 più oltre); infatti, posto per definizione k := ξ0 − ξ∗ /(t0 − t∗ ) , le stesse relazioni qui sopra (ancora con ξ := ẋ )
sarebbero state:
Gtt00 +t ξ0 = ξ∗ + k (t0 + t − t∗ ) =: η0 ≡ ξ0 + k t
Gtt11 +τ η0 = ξ∗ + k (t1 + τ − t∗ ) =: η& ≡ η0 + k τ
Gtt00 +t+τ ξ0 = ξ∗ + k (t0 + t + τ − t∗ ) = η0 + k τ

Tuttavia il campo è lineare rispetto alla variabile ξ& := ξ − ξ∗ , e la d2 /dt2 di ciascuna soluzione è costante. #

Esempio 1.1.11 Con un procedimento analogo al precedente, dalla seconda delle (1.5) si può ricavare la

2(x − x∗ ) 2ẋ∗
ẍ = − , con k, t0 , x0 , ẋ0 , t∗ , ẋ∗ ∈ R . (1.18)
(t − t∗ )2 t − t∗

La soluzione di questa (siano t∗ = x∗ = 0 ) va trovata separando la parte omogenea (che è lineare) da quella
non omogenea (vedi oltre). La prima: ẍ = 2x/t2 è un caso particolare dell’equazione di Eulero e si trasforma,
con la posizione: τ := ln |t| e quindi t∂t = ∂τ e t∂t + t2 ∂tt 2
= ∂τ2 , nella x′′ − x′ − 2x = 0 la cui soluzione è
x(τ ) = c1 e−τ + c2 e2τ . Se ne deduce la soluzione dell’equazione omogenea (per t > 0 ):
) * ) * ) *
xom (t) c 1/t t2
= Φ(t) 1 con Φ(t) := .
ẋom (t) c2 −1/t2 2t

Analogamente a quanto visto nell’Esempio 1.1.7, e secondo quanto si vedrà più in dettaglio nel seguito, una soluzione
particolare della (1.18) è allora data da
- t ) *
0
xp (t) = Φ(t)Φ−1 (τ ) dτ
−2ẋ∗ /τ
- ) *) *) *
1 t 1/t t2 2τ −τ 2 0
= dτ
3 −1/t2 2t 1/τ 2 1/τ −2ẋ∗ /τ

M. Lo Schiavo
1.1. I termini del problema 11

e quindi
- t) *
2ẋ∗ τ t2
xp (t) = − 2 dτ = ẋ∗ t .
3 t τ
La soluzione della (1.18) risulta quindi (indicando semplicemente t, t0 , x, x0 invece di t−t∗ , t0 −t∗ , x−x∗ , x0 −x∗ )
) * ) * ) *
x(t) c1 ẋ∗ t
= Φ(t) + con
ẋ(t) c2 ẋ∗
) * ) * ) *
c1 x − ẋ∗ t0 1 2t0 x0 − t20 (ẋ0 + ẋ∗ )
= Φ−1 (t0 ) 0 = .
c2 ẋ0 − ẋ∗ 3 [x0 + t0 (ẋ0 − 2ẋ∗ )]/t20

È facile rendersi conto che questa soluzione non è certo stazionaria, dato che Φ(t)Φ(τ ) ̸= Φ(t + τ ); essa tuttavia è
compositiva, come si può facilmente controllare. Inoltre, la sua derivata seconda non è detto sia costante salvo che
per quei dati iniziali per i quali la c1 risulta nulla. Anche in tal caso, non è certo detto che la costante sia proprio k ,
salvo che solo per opportuni dati iniziali, infatti c1 = 0 implica x(t) = c2 t2 + ẋ∗ t con t20 c2 = ẋ0 t0 − x0 ≡ x0 − t0 ẋ∗
e quindi la residua arbitrarietà dei dati certo permette c2 ̸= k/2 . #

Nota 1.1.1 Si vede bene, dagli esempi precedenti, che il trasformare un’equazione in un’altra spesso non è una
operazione semplice o gratuita. Per ottenere equazioni equivalenti a quelle dalla quale si è partiti occorre che la
trasformazione sia di tipo particolare (si veda la discussione sulla equivalenza fra campi, nel Cap.3). ◃

Esempio 1.1.13 L’oscillatore armonico lineare con t0 , x0 , y0 , ω ∈ R:


) * ) x * ) *
ẋ v (x, y) y
ẋ ≡ = v(x) ≡ := .
ẏ v y (x, y) −ω 2 x

Si ponga τ := (t − t0 ). Una soluzione è data da


) * ) * ) *) *
x(τ ) x0 cos ωτ + yω0 sin ωτ cos ωτ + ω1 sin ωτ x0
τ &→ = = ,
y(τ ) −ωx0 sin ωτ + y0 cos ωτ −ω sin ωτ + cos ωτ y0
) * ) *) * ) *
ẋ 0 1 x 1
infatti dalla = si ricava (si veda: Cap. II) ϵ(iω) = e quindi
ẏ −ω 2 0 y iω
) * ) *) *) *) *
x(τ ) 1 0 cos ωτ − sin ωτ 1 0 x0
τ &→ = .
y(τ ) 0 −ω sin ωτ cos ωτ 0 −1/ω y0

Memento 1.1.1 La velocità che compare a secondo membro della (1.2) è quella euleriana: è un campo vettoriale
dipendente esplicitamente dal tempo e dalla posizione. La soluzione t &→ x !(t) := φ(t, t0 , x0 ) ∈ R3 descrive il moto
di un elemento che, avendo attraversato in t0 il punto x0 ∈ R , all’istante t si trova nel punto φ(t, t0 , x0 ) = x
3

con velocità v(t, x). x0 sono le coordinate identificative, secondo Lagrange.


Le Linee di flusso, o “stream lines” o “linee di campo” sono definite, istante per istante, come le linee che
all’istante t passando per un punto x, hanno in x tangente parallela a v(t, x). Si supponga per esempio x :=
(x1 , x2 , x3 ) ∈ R3 ; la loro rappresentazione, in forma cartesiana e relativa all’istante t, si trova risolvendo le
equazioni (vedi oltre):

dx1 dx2 dx3


= = , x1 , x2 , x3 ∈ R , (1.19)
v 1 (t, x1 , x2 , x3 ) v 2 (t, x1 , x2 , x3 ) v 3 (t, x1 , x2 , x3 )

e quindi risultano ∞2 distinte; si noti che t rimane come parametro fissato.


Le “linee di corrente”, o “traiettorie”, o “path lines”, sono le linee descritte dagli elementi durante il loro moto.
Esse pertanto sono individuate ciascuna da uno dei punti del sistema e, nel caso di un moto in R3 , sono ∞3 : tanti
quanti sono gli x10 , x20 , x30 . La loro rappresentazione cartesiana si trova eliminando t dalla loro rappresentazione
parametrica: la soluzione: x = x !(t) := φ(t, t0 , x0 ) dell’equazione ẋ = v(t, x).
Per esempio in un moto rigido traslatorio arbitrario le linee di flusso sono in ogni istante rette parallele fra loro
e le linee di corrente sono curve sovrapponibili. Allo stesso modo, in un moto rigido qualunque le linee di flusso

Note di Sistemi Dinamici


12 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

sono in ogni istante delle eliche cilindriche. Per vederlo, si scelgano gli assi in modo che sia ω = (0, 0, ω), e siano
z
vΩ la velocità di un punto Ω dello spazio mobile, e vΩ ̸= 0 . L’equazione è
⎛ ⎞ ⎛ x⎞ ⎛ ⎞ ⎛ ⎞
ẋ vΩ −ω(y − yΩ ) −ω(y − yC )
⎝ẏ ⎠ = ⎝vΩ y⎠
+ ⎝ ω(x − xΩ ) ⎠ =: ⎝ ω(x − xC ) ⎠
z z
ż vΩ 0 vΩ
( y
xc : = xΩ − vΩ /ω, x y z z
ove si è posto x Si osserva innanzi tutto che vc = vc = 0 e che vc = vΩ =: µ, e ciò per
yc : = yΩ + vΩ /ω.
(
ξ : = x − xc
qualsiasi zc arbitrario. Poi, introdotte le si vede che l’equazione diviene
η : = y − yc
(
ξ̇ = −ω η
insieme con z(t) = µ (t − t0 ) + zc
η̇ = ω ξ
ovvero
d(x − xc ) d(y − yc ) d(z − zc ) dt dθ
= = = =: .
−ω(y − yc ) ω(x − xc ) µ 1 ω
Pertanto essa può essere trasformata nella
d2 ξ ω
+ξ =0 con θ=(z − zc ) .
dθ2 µ
) * ) *) * ) *
ξ cos θ − sin θ ξ0 xc + ξ0
In definitiva, tramite l’Esempio 1.1.13 si ottiene = , e si osservi che
η sin θ cos θ η0 yc + η0
sono le coordinate dei punti intersezioni delle linee di flusso con il piano (arbitrario ma fissato) z = zc . Le
corrispondenti linee di flusso hanno equazioni parametriche date dalle
x(θ) = xc + ξ0 cos θ − η0 sin θ ω
con θ = θ(z) = (z − zc )
y(θ) = yc + ξ0 sin θ + η0 cos θ µ

In entrambi i casi, invece, le linee di corrente sono curve varie, almeno una delle quali arbitraria. Se il sistema
è stazionario le due famiglie di linee coincidono.
In ogni caso ed in ogni istante esse risultano tangenti fra loro perché tangenti alle velocità.

È facile verificare che gli operatori di evoluzione di)tutti *


e tre gli Esempi)1.1.6,*1.1.7, 1.1.13 verificano le proprietà
1 t t2 /2
di gruppo. Per esempio nel caso 1.1.7, posto Φ(t) := e η(t) = −k , si nota che Φ(t)Φ(τ ) = Φ(t+τ )
0 1 t
e che Φ(t)η(τ ) + η(t) = η(t + τ ), e quindi che G t x := Φ(t)x + η(t) verifica la proprietà.

1.2 Equazioni scalari autonome


Una campo si dice autonomo quando non dipende esplicitamente dalla variabile indipendente. In dimensione uno
si ha allora il seguente problema

ẋ = v(x) , x0 ∈ R, v ∈ C r≥0 (D ⊂ R) . (2.20)

! dato da x
Risolvere l’equazione significa determinare il moto x !(t) := φ(t, t0 , x0 ), o alternativamente tracciare la
curva integrale, che per un qualunque t0 passa per un (arbitrario) x0 , e che, in x, è inclinata di v(x).

Teorema 1.2.1 (si veda: [Arnold 1]) Sia v : R → R definita su un intervallo V0 := (x1 , x2 ) ⊆ R, e differenziabile
con derivata limitata in V0 . Per ogni (t0 , x0 ) ∈ R × V0 , l’equazione ẋ = v(x) ammette una soluzione t &→ x !(t) :=
φ(t, t0 , x0 ) tale che φ(t0 , t0 , x0 ) = x0 .
Se v(x0 ) = 0 la soluzione è t &→ φ(t, t0 , x0 ) = x0 . Se v(x0 ) ̸= 0 , esiste un intorno N (x0 ) ⊂ V0 nel quale la
soluzione è definita implicitamente dalla
- x

t − t0 = =: ψ(x) − ψ(x0 ). (2.21)
x0 v(ξ)

Due soluzioni uguali in t0 , rimangono tali in tutto un intorno N (t0 ).

M. Lo Schiavo
1.2. Equazioni scalari autonome 13

Dimostrazione (inizio)
Se v(x0 ) = 0, x !(t) := φ(t, t0 , x0 ) = x0 verifica equazione e condizioni iniziali.
Se v(x0 ) ̸= 0 , la funzione 1/v(x) è definita e continua in un conveniente N (x0 ). La sua primitiva ψ(x) esiste,
unica, differenziabile in N (x0 ), ed è ψ ′ (x) = 1/v(x) ̸= 0 . Esiste quindi, su un certo N (t0 , x0 ), la funzione inversa
x=x !(t) := ψ −1 (t − t0 + ψ(x0 )) che vale x0 in t = t0 (ovvero ψ(! x(t)) = t − t0 + ψ(x0 )). Tale funzione ha derivata
'
d 1 '
'
!(t) = d
x ' = v(!x(t)).
dt dx ψ(x)
'
x=x̂(t)

"

In tal modo è stata dimostrata l’unicità locale solo se v(x0 ) ̸= 0 ; e non è stata usata la differenziabilità della v .
In effetti, in tale ipotesi più debole, se v(x0 ) = 0 la soluzione t &→ x !(t) := φ(t, t0 , x0 ) =
. xx0 può non essere unica.
Può accadere infatti che, sebbene sia v(x0 ) = 0 , eppure l’integrale (improprio) t − t0 = x0 dξ/v(ξ) =: ψ(x) − ψ(x0 )
esista finito per x ∈ V0 ; in tal caso le due funzioni x!1 (t) := ψ −1 (t − t0 + ψ(x0 )) ed x !(t) = x0 risultano entrambe
soluzioni del problema (2.20).

Esempio 1.2.1 ẋ = 1 − x2 , t0 , x0 ∈ R, con |x0 | ≤ 1 .
Sia (t0 , x0 ) = (t0 , −1). Il problema ha soluzioni per non solo:

t &→ x
!(t) = −1 per ogni t,

ma anche : ⎧

⎨−1 per t − t0 ≤ 0
t &→ x
!(t) = − cos(t − t0 ) per t − t0 ∈ [0, π]


+1 per t − t0 ≥ π ,
x

t0 t

ed anche, per un qualunque t1 > t0 ,




⎨−1 per t − t1 ≤ 0
!(t) = − cos(t − t1 ) per
x t − t1 ∈ [0, π]


+1 per t − t1 ≥ π .

Esempio 1.2.2 ẋ = x2/3 , t0 , x0 ∈ R , t0 = x0 = 0 .


Il problema ha soluzione non solo t &→ x !2 (t) = 0 ma anche molte altre, per esempio, scelti arbitrariamente due
istanti t1 e t2 tali che t1 ≤ t0 ≤ t2 , è soluzione la
⎧7 8
t−t1 3

⎨ 3 per t ≤ t1 ≤ t0
!(t) = 0
x per t1 ≤ t ≤ t2

⎩7 t−t2 83
3 per t0 ≤ t2 ≤ t

e cioè diverse funzioni per diverse scelte degli istanti t1 , t2 ∈ R. #

È chiaro d’altra parte che la perdita di unicità della soluzione non dipende dal dato iniziale t0 = x0 = 0 che qui
si è scelto,
. x̄ma solo dal fatto che in un qualche x̄ il campo si annulla in modo tale da rendere convergente l’integrale
t̄ − t0 = x0 dξ/v(ξ) =: ψ(x̄) − ψ(x0 ). In tal caso la ψ −1 (t − t0 + ψ(x0 )) e la funzione costante in x̄ sono soluzioni
dell’equazione ed hanno medesimo valore: x̄ nel medesimo istante: t̄
Esempio 1.2.3 (continuazione dell’Esempio 1.2.2)

Note di Sistemi Dinamici


14 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

1/3
Per t0 ed x0 arbitrari (sia per esempio x0 > 0 ), scelto comunque τ ∈ R tale che τ ≥ x0 , la funzione
⎧7 83
⎪ t−t0
⎪ +τ per t − t0 ≤ −3τ
⎨ 3
1/3
!(t) = 00
x per t − t0 ∈ [−3τ, −3x0 ]

⎪ 13
⎩ t−t0 + x1/3 per t − t0 ≥ −3x0
1/3
3 0

è soluzione dell’equazione e verifica le condizioni iniziali. Il problema però non è deterministico in quanto esistono
1/3
istanti (ciascuno degli istanti nell’intervallo [t0 − 3τ, t0 − 3x0 ]) nei quali due distinte soluzioni assumono lo stesso
valore x̄ = 0 , e pertanto tale punto evolve in modo non univoco.
x

x0

t0{3¿ t0{3x01/3 t0 t

In modo analogo si riconosce che sono non univoche, per t > 0 , tutte le soluzioni dell’equazione ẋ = x1/3
per le quali x0 = 0 . Esse infatti possono valere x(t) = 0 per t ≤ τ , per un qualsiasi fissato τ > 0 , e x(t) =
3/2
± (2(t − τ )/3) per t > τ . #

Se si confrontano gli esempi 1.2.1 e 1.2.2 con l’esempio 1.1.6 si osserva che, pur avendo tutti in comune il fatto
che i loro campi ammettono un punto x̄ tale che v(x̄) = 0 , tuttavia il campo dell’esempio 1.1 è, in tale punto, del
tutto regolare; viceversa i campi degli esempi 1.2.1 e 1.2.2 non solo si annullano in qualche punto x̄ dell’aperto D
ma, in più, sono in esso non differenziabili. Essi sono critici per quanto riguarda l’unicità.
In particolare non esiste k ∈ R+ tale che

|v(x) − v(x̄)| ≡ |v(x)| ≤ k |x − x̄| , ∀x ∈ N (x̄) . (2.22)

Lemma 1.2.1 Siano x̄ ∈ R ed N (x̄) un intorno di x̄. Siano poi v1 , v2 ∈ C 0 (N (x̄)) e tali che v1 (x̄) = v2 (x̄) =
0 e che v1 (x) < v2 (x), ∀x ∈ N (x̄)\ {0}. Se φ1 e φ2 sono soluzioni rispettivamente di ẋ = v1 (x) per
t ∈ J1 e di ẋ = v2 (x) per t ∈ J2 tali che φ1 (t0 ) = φ2 (t0 ) = x0 ∈ N (x̄) allora risulta:

φ1 (t) ≤ φ2 (t) per t ∈ [t0 , +∞) ∩ J1 ∩ J2 ,


φ1 (t) ≥ φ2 (t) per t ∈ (−∞, t0 ] ∩ J1 ∩ J2 ,

almeno fintanto che φ1 (t) e φ2 (t) sono in N (x̄).

Dimostrazione Si dimostrerà la seconda delle due; l’altra è del tutto


9 analoga.
' Per ipotesi v1 (x0 ) < v2 (x0:
) e
quindi, in un intorno sinistro di t0 , si ha φ1 (t) > φ2 (t). Sia τ := inf t′ ' per t ∈ (t′ , t0 ] si ha φ1 (t) ≥ φ2 (t) .
La continuità delle φ implica che, se τ ∈ J := J1 ∩ J2 , allora φ1 (τ ) = φ2 (τ ). L’ipotesi sui campi implica allora che
φ̇1 (τ ) < φ̇2 (τ ), e pertanto anche in un intorno sinistro di τ deve essere φ1 (t) > φ2 (t), il che contraddice l’assunto
che τ sia un estremo inferiore in J . "

Ne segue che se v ammette una costante che verifichi la (2.22), ed a maggior ragione se la v è differenziabile con
derivata limitata in N (x̄), allora le curve integrali {(t, φ(t, t0 , x0 ))}t∈J che in t0 passano per (t0 , x0 ), sia x0 > x̄,
rimangono per t < t0 inferiormente limitate dalla curva integrale, passante per lo stesso punto, dell’equazione
ẋ = k(x − x̄). Questa ha soluzione:

t &→ φ̄(t, t0 , x0 ) = x̄ + ek(t−t0 ) (x0 − x̄)

ed è quindi strettamente maggiore di x̄ per ogni t > −∞ se tale è stata in t0 , e cioè se, come si è supposto,
x0 > x̄.

M. Lo Schiavo
1.2. Equazioni scalari autonome 15

Á=Á2
x Á=Á1
x0

x
t0 t

Dimostrazione (del Teorema 1.2.1 fine) Si riconosce cosı̀ che se il campo v verifica la (2.22) allora la
soluzione costante x = x̄(t) := φ(t, t0 , x̄) = x̄ rimane separata da qualunque altra soluzione t &→ x(t) := φ(t, t0 , x0 )
che in qualche istante sia stata diversa da x̄ , e quindi consegue che essa rimanga unica.
[La condizione dell’esistenza della costante k, che è la Lip (x̄), è più debole della condizione che il campo sia loc.Lip (N (x̄)) (che
coincide (si veda: [Royden V.4.16]) con l’esistenza q.o. in N (x̄) e limitatezza della |v′ | ); quest’ultima, più agevole, condizione è quella
che verrà richiesta nel caso generale, non autonomo o con dim M > 1 , vedi oltre. Qui si sfrutta il fatto che per un’equazione autonoma
in R la non unicità può avvenire solo in punti fissati, nei quali il campo si annulla]. "

In definitiva, se v(x̄) = 0 l’unicità dipende dalla rapidità con cui v(x) → 0 per x → x̄ . Se v si annulla
abbastanza rapidamente (cioè se |v(x)| ≤ O(|x|)) ciò non accade a φ(t) − x̄; l’unica soluzione per x̄ è la costante,
e ogni altra “non raggiunge in tempo” il valore x̄. La funzione 1/v(x) risulta non integrabile su (x0 , x].

N.B. 1.2.4 Quanto visto non permette di indurre che la soluzione sia definita per ogni t ∈ R, e di conseguenza
che G t , per un arbitrario fissato t, abbia come dominio l’intera retta. È però palese dalla (2.21) la proprietà di
gruppo (locale) della famiglia degli evolutori della (2.20). ♦

N.B. 1.2.5 Se il campo è regolare, e quindi c’è l’unicità, gli equilibri sono vere e proprie barriere che separano il
piano delle fasi ampliato e verso cui le soluzioni tendono asintoticamente per |t| → ∞. Inoltre è chiaro che fra un
equilibrio e l’altro la soluzione è monotona. ♦

Esempio 1.2.6 ẋ = sin x, t0 , x0 ∈ R.

Si ponga τ := tan x2 . Se x0 ̸= 0 , si ha che


0x1 1 0 x1 dτ 1 + τ2 dx
d =
tan 1 + tan2 dx ⇒ = dx = ,
2 2 2 τ 2τ sin x
' 0 x 1' ' 0 x 1'
' ' ' 0 ' t−t0
il che fornisce 'tan ' = 'tan ' e . Il fatto che la funzione sin x si annulli solo nei punti xe = nπ ,
2 2
con n ∈ N, e che né lei né la tan(x/2) cambino segno all’interno degli intervalli (nπ, (n + 1)π), permette di
stabilire l’inversione per fasce:
(
nπ se x0 = nπ
!(t) =
x
2 arctan[e(t−t0 ) tan(x0 /2)] ∈ (nπ, (n + 1)π) se x0 ∈ (nπ, (n + 1)π).

x
(n +1)¼

(n {1)¼
#

Note di Sistemi Dinamici


16 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Diverso è il caso degli asintoti “verticali” (cioè paralleli all’asse x) che sono invece barriere, rispetto all’ascissa
temporale, per la validità della soluzione: la soluzione è locale , senza necessariamente contraddire l’unicità. Essi
provengono da singolarità del campo, o da campi troppo rapidi , e se il campo è autonomo possono dipendere dalle
condizioni iniziali.

Esempio 1.2.7 ẋ = x2 , t0 , x0 ∈ R, x0 ̸= 0 .
) *−1
1 1 1
Risulta t − t0 = − + , x = − t − t0 − , e si hanno due rami distinti, divisi da una singolarità che
x x0 x0
dipende dalle condizioni iniziali : se x0 > 0 la soluzione esiste ed è unica, compositiva e stazionaria, ma solo per
1 1
tempi t < + t0 , se invece x0 < 0 , la soluzione ha tali proprietà solo per t > + t0 .
x0 x0

x00

x0 t{t0
0
1=x00 1=x0 x00 1=x0 1=x0
x0

x2 − 1
Esempio 1.2.8 ẋ = , t0 , x0 ∈ R.
2
- x - x ' '
2 1 1 dξ dξ ' x0 − 1 '
Siccome = − , si ha t − t0 = − '
e quindi posto d := ' ' e
x2 − 1 x−1 x+1 x0 ξ − 1 x0 ξ + 1 x0 + 1 '
chiamati J− ed J+ rispettivamente gli intervalli (−∞, t0 − ln c) ed (t0 − ln c, +∞), si ricava

x−1 1 + c exp(t − t0 )
x0 > +1 ⇒ = +ce(t−t0 ) ⇒ x= , ∀t ∈ J−
x+1 1 − c exp(t − t0 )
x−1 1 + c exp(t − t0 )
x0 < −1 ⇒ = +ce(t−t0 ) ⇒ x= , ∀t ∈ J+
x+1 1 − c exp(t − t0 )
x−1 1 − c exp(t − t0 )
x0 ∈ (−1, 1) ⇒ = −ce(t−t0 ) ⇒ x= , ∀t ∈ R
x+1 1 + c exp(t − t0 )
x0 = +1 ⇒ ⇒ x = +1, ∀t ∈ R
x0 = −1 ⇒ ⇒ x = −1, ∀t ∈ R

1
0.5

-3 -2 -1 1 2 3
-0.5
-1

M. Lo Schiavo
1.3. I teoremi fondamentali 17

1.3 I teoremi fondamentali


È opportuno innanzi tutto premettere una breve discussione dei principali risultati ottenuti nel precedente para-
grafo.
L’equazione lineare ẋ = kx, x !(t0 ) = x0 ∈ R individua come si è visto la soluzione t &→ φ(t, t0 , x0 ) = ek(t−t0 ) x0 .
Questo fatto lo si può anche interpretare come la capacità di determinare per ogni fissato valore del parametro (t−t0 )
un operatore: ek(t−t0 ) , che agendo linearmente su x0 ne fornisce la posizione attuale. Tale operatore è l’operatore
di moltiplicazione per il numero ek(t−t0 ) . Si può allora porre: G t−t0 x0 := ek(t−t0 ) x0 , e la definizione è ben data
visto che, come è noto, la funzione esponenziale si compone verificando le proprietà di gruppo rispetto al parametro
t : et+τ = et eτ , ∀t, τ ∈ R. D’altra parte quello che è stato definito è il più generale gruppo ad un parametro di
trasformazioni lineari su R. Infatti uno qualunque di tali gruppi determina univocamente il flusso di una equazione
del tipo ẋ = kx in quanto la velocità di fase non può che essere anch’essa lineare sulle x, e cioè, visto che x ∈ R,
proprio del tipo kx. Pertanto il moto deve necessariamente essere soluzione di questa equazione, ed il teorema
di unicità della soluzione assicura che φ(t, t0 , x0 ) = ek(t−t0 ) x0 ; il gruppo di partenza non può quindi che essere il
gruppo moltiplicativo G t ≡ ekt .
Nell’esempio 1.2.6 si è trovato, per l’operatore G t−t0 la forma
(
t−t0 2 arctan[tan(x0 /2) exp(t − t0 )] se x0 ̸= nπ
G x0 =
x0 se x0 = nπ ,

e si vede che anche qui, fissato comunque t − t0 , il valore x0 può essere scelto arbitrariamente in R, che anche
questa famiglia di applicazioni di avanzamento verifica la proprietà gruppale, e che è costituita da diffeomorfismi.
In effetti, fissati t e t0 , l’operatore G t−t0 :

(i) è differenziabile rispetto ad x0 ;


(ii) è invertibile rispetto al tempo, dato che x1 = 2 arctan[tan(x0 /2) exp(t1 − t0 )] equivale, in un fissato intervallo
di invertibilità della tangente, alla e−t1 tan x1 /2 = e−t0 tan x0 /2 che è simmetrica nello scambio (t0 , x0 ) ↔
(t1 , x1 );
(iii) verifica la proprietà gruppale: posto x1 = G (t1 −t0 ) x0 e x2 = G (t2 −t1 ) x1 risulta: x2 = G (t2 −t0 ) x0 in quanto
verifica le
x2 x1 x0
e−t2 tan = e−t1 tan = e−t0 tan .
2 2 2
D’altra parte non è detto che ogni equazione del tipo ẋ = v(x) individui un gruppo ad un parametro. Nell’esem-
1 1
pio 1.2.7, per x0 ̸= 0 si è trovata l’evoluzione G (t−t0 ) x0 := −(t − t0 − x10 )−1 che dà t + = t0 + , e quindi verifica
x x0
(i),(ii),(iii) qui sopra, ma qualunque sia t c’è certamente almeno un x0 , in questo caso dato da (t − t0 )−1 , sul quale
G t−t0 non è definito, e pertanto non può essere un diffeomorfismo da R in sé. Questo esempio individua un sistema
dinamico locale (J, V0 , g), (si veda: §.1) per il quale (se x0 > 0 ) è: J = (−∞, t0 + x01+χ ), V0 = (0, x0 + χ), per
ogni (fissato) χ > 0.
Nel caso in cui |v(x)| < a|x| + b , v ∈ C 0 , a > 0, b ≥ 0, x ∈ R, è invece possibile ripetere il ragionamento
fatto precedentemente e ricavare l’esistenza, per ogni t ∈ R della soluzione; (le curve integrali non possono avere
asintoti paralleli all’asse x in quanto restano limitate dall’alto dagli esponenziali).
N.B. 1.3.1 Tutto quanto detto vale all’interno di aperti nei quali v è continua. ♦

È chiaro che il problema non si semplifichi se l’equazione non è scalare, o se non è autonoma: ẋ = v(t, x),
anche con x ∈ R. Già per questa equazione infatti non esistono metodi generali di risoluzione. Anche per essa
la soluzione:

(i) può non essere unica;


(ii) può non esistere per ogni t ∈ R;
(iii) può non dipendere in modo regolare dal dato (t0 , x0 ).

Sussistono tuttavia i seguenti basilari teoremi, tutti “locali” intorno alle assegnate condizioni iniziali: (t0 , x0 ) ∈
! : t ∈ R &→ x = x
R × Rn , e relativi alla più generale equazione differenziale ordinaria nell’incognita funzione x !(t) ∈
Rn

ẋ = v(t, x) , !(t0 ) = x0 ∈ Rn .
x (3.23)

Note di Sistemi Dinamici


18 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

La loro validità locale implica che essi sussistano limitatamente a ciascuna carta anche quando lo spazio delle fasi
è, più in generale, una varietà differenziabile M di dimensione finita n (vedi oltre) sulla quale sia stato scelto un
sistema di coordinate reali. In tutti i seguenti enunciati si indicherà con D un Dominio di uno spazio reale, e cioè
un insieme aperto (nella topologia indotta dalla metrica euclidea), connesso, non vuoto.

Teorema 1.3.1 (Peano) (si veda: [Hale p.14]) Sia D ⊂ R × Rn un dominio in R1+n . Se v ∈ C 0 (D), e (t0 , x0 )
è dato comunque in D , esiste almeno una soluzione della (3.23) passante per x0 nell’istante t0 .

Dimostrazione (cenno) Applicazione del teorema di punto fisso di Schauder su un sottoinsieme convesso compatto di uno
spazio di Banach. Alternativamente [Michel p.46 opp. Coddington teor.1.2] si può usare il metodo di Newton-Eulero ed il teorema di
Ascoli Arzelà.
In ogni caso il problema differenziale dato viene modificato in un equivalente problema integrale:
- t - t
d
! (t) − x0 =
x ! (τ ) dτ =
x ! (τ )) dτ .
v(τ, x (3.24)
t0 dt t0

Per esso si definisce, su un opportuno sottoinsieme dello spazio C 0 (N (t0 ), Rn ) , l’operatore S+ dato dalla
- t
S+ [!
x](t, t0 , x0 ) := x0 + ! (τ )) dτ ,
v(τ, x (3.25)
t0

e, nel primo dei due procedimenti su accennati, si studiano le condizioni per le quali esso risulta ammettere un punto unito: φ, e cioè
un punto tale che S+ [φ] = φ.
Nel secondo dei due procedimenti detti, ci si limita a costruire la famiglia delle

SpezzatediEulero : ψm (t) = ψm (tj ) + v(tj , ψm (tj )) (t − tj ) , per tj ≤ t ≤ tj+1 ,

con |tj+1 − tj | ≤ δm ove {δm }m=1,2,... è una successione di numeri reali convenientemente piccoli rispetto alla rapidità di crescita
m
del campo |v| e tali che (δ1 , δ2 , . . . , δm , . . .) −→ 0 . La famiglia delle Spezzate di Eulero è precompatta in quanto equicontinua
∞7 8
uniformemente limitata come sottoinsieme di C [t0 , t0 + a′ ], R : ∥·∥∞ . Esiste pertanto in C almeno un punto di accumulazione di
tali spezzate; esso sarà tale da verificare la (3.24) punto per punto. (Certo sarà soluzione. Se però questa non è unica, non è detto che
queste siano tutte ottenibili in questo modo. Per esempio per la ẋ = |x|1/2 con x0 = 0 , il metodo fornisce solo la soluzione nulla). "

N.B. 1.3.2 Il teorema è locale nel senso che scelto un qualsiasi (t0 , x0 ) ∈ D e fissato comunque un compatto
Γ ⊂ D del quale (t0 , x0 ) è punto interno, si può garantire l’esistenza della soluzione uscente da (t0 , x0 ) solo per
tempi t ∈ J := Ba′ (t0 ) con a′ che dipende: dall’ampiezza del compatto Γ, dalla posizione di (t0 , x0 ) all’interno di
Γ, e da un parametro a(v) ∈ R che a sua volta dipende dalla ) rapidità di crescita
* del campo nell’intorno di (t0 , x);
′ ∆b(Γ) 1−ε
per esempio nel successivo Teorema 1.3.1 è a (v) ≤ min , , con ε > 0 e ∆b := b − b′ che
maxΓ |v| kLip (v)
dipende anch’essa da Γ e dalla posizione di (t0 , x0 ) in Γ. ♦

Nel seguito si continuerà ad indicare con D ⊂ R × Rn l’insieme aperto di regolarità del campo.
Prolungabilità := Fissato (t0 , x0 ) ∈ D , una soluzione φ = φ(t, t0 , x0 ) ∈ Rn dell’equazione (3.23), definita su
[t0 , b] si dice prolungabile (come soluzione, non come funzione) nella φ+ = φ+ (t, t0 , x0 ) ∈ Rn definita su [t0 , b+ ]
quando accade che φ+ è soluzione della equazione sull’intervallo [t0 , b+ ], con b+ > b , e risulta φ+ (t) = φ(t), per
ogni t in [t0 , b]. Analoghe considerazioni valgono naturalmente per l’intervallo di definizione precedente l’istante
iniziale: [a, t0 ].
Quando il procedimento di prolungabilità non è ulteriormente possibile, l’estremo superiore dei b e l’estremo
inferiore degli a, che verranno indicati con m1 , ed m2 rispettivamente, individuano il:
Massimo Intervallo JM ≡ (m1 , m2 ) di esistenza contenente t0 . Esso è senz’altro aperto in quanto, per il teorema
di esistenza, il suo “sup”, (per esempio), non può essere un “max” visto che se lo fosse la soluzione esisterebbe in
tutto un suo intorno (aperto).

Teorema 1.3.1 (di prolungabilità) (si vedano: [Hartman p.13], [Michel II.3.1], [Coddington p.13]) Con le stesse
notazioni del Teorema 1.3.1, sia v ∈ C 0 (D) e limitata in un aperto U ⊂ D , e sia φ : t &→ φ(t, t0 , x0 ) una
soluzione uscente da (t0 , x0 ) ∈ U e definita su un qualche intervallo (a, b) =: J ⊂ JM , con t0 ∈ J , e tale che
J × φ(J) ⊂ U . Allora esistono i limiti: φ(a+ ) e φ(b− ). Inoltre, posto (ad esempio) xb := φ(b− ), se il punto
(b, xb ) appartiene a D (ne è interno) allora φ può essere definita su (a, b], e quindi essere prolungata oltre b.

Ovviamente lo stesso vale per a.

M. Lo Schiavo
1.3. I teoremi fondamentali 19

Dimostrazione Sia λ := sup(t,x)∈U |v(t, x)| e sia {tn }n∈N una successione monotona: a < tn ↗ b . Vale la
maggiorazione - th
|φ(th ) − φ(tk )| = | v(t, φ(t))dt| ≤ λ|th − tk | .
tk
Pertanto {φ(tn )}n∈N è di Cauchy, e ciò assicura l’esistenza di xb := φ(b− ) in Rn . Poi, se (b, xb ) è in U si
definisce, per ε > 0 e t ∈ [t0 , b + ε),
(
& φ(t, t0 , x0 ) per t ∈ [t0 , b)
φ(t, t0 , x0 ) :=
una soluzione per (b, xb ) per t ∈ [b, b + ε).
.
& = t v(τ, φ(τ
Essa è soluzione su tutto [t0 , b + ε) poiché per costruzione è φ(t) & ))dτ per ogni t ∈ [t0 , b + ε). In più,
t0
& &
la sua continuità implica quella di v(t, φ(t)) e quindi quella della derivata d φ(t)/dt. "

Si indichi con la notazione: |t| + |φ| → ∞ l’eventualità che φ sia definita per |t| comunque grandi, oppure che
il vettore x := φ(t, t0 , x0 ) assuma lunghezza comunque grande.
Corollario 1.3.1 Sia v ∈ C 0 (D) . Allora
t
o è |t| + |φ| → ∞, oppure (t, φ(t, t0 , x0 )) −→∂D . La prima eventualità accade se ∂D = ∅ .
∂JM

Dimostrazione Se non si verifica la prima eventualità, e detto per esempio m2 < ∞ l’estremo destro di JM ,

si supponga che sia (m2 , φ(m− −
2 )) ∈D ≡ D ̸= [D]. Certo esisterebbe un U := N (m2 , φ(m2 )) ⊂ D sul quale il
campo è limitato, contraddicendo la massimalità di m2 . "

Ci si ricorda di tutto ciò affermando che: φ può essere prolungata fino alla frontiera di un qualunque compatto K
che, contenente (t0 , x0 ), sia contenuto in D ; ove:
φ è prolungabile fino ad un insieme F ⊂ R × M := la soluzione φ della (3.23) è definita su [t0 , τ ] e si ha che
(τ, φ(τ, t0 , x0 )) ∈ F .
Per discutere l’unicità delle soluzioni in corrispondenza a ciascun dato iniziale risultano utili le seguenti consi-
derazioni.
Condizioni di Lipschitz := Quando, per ciascun compatto Γ ⊂ D ⊆ R1+n esiste kΓ ∈ R+ tale che |v(t, x) −
v(t, y)| ≤ kΓ |x−y| per ogni (t, x), (t, y) ∈ Γ, allora il campo v si dice localmente Lipschitz su D , o “loc.Lip (D )”,
relativamente a x. v si dice Lipschitz su D , o “uniformemente Lipschitz continua su D ”, (relativamente a x)
se il numero k è unico su tutto D .
N.B. 1.3.3
v ∈ C 1 (D) ⇒ v ∈ loc.Lip (D) relativamente ad x.
v ∈ Lip(D) ⇒ v uniformemente continua rispetto ad x, e per ogni t. ♦

Lemma 1.3.1 (di Gronwall) (si veda anche l’Appendice A.9)


Siano f : [a, b] ∈ R, f ∈ C 0 ([a, b]), α ∈ R, |χ| ∈ L1 ([a, b]), con [a, b] ⊂ R. Allora, per t ∈ [a, b]
.t .t
|f (t)| ≤ |α| + a |f (s)χ(s)|ds implica |f (t)| ≤ |α| exp a |χ(s)|ds ;
.b .b
|f (t)| ≤ |α| + t |f (s)χ(s)|ds implica |f (t)| ≤ |α| exp t |χ(s)|ds .
.t
Dimostrazione Sia h(t) := |α| + a |f (τ )χ(τ )|dτ , per t ∈ [a, b].
Per ipotesi è: |f (t)| ≤ h(t) 0e quindi1 ḣ = |f χ| ≤ |χ|h. Ne segue che ḣ − |χ|h ≤ 0, che0implica 1la
.t 7 .a 8 .t
decrescenza della funzione h(t) exp − |χ| . Quindi per t ∈ [a, b] si ha |α| exp − |χ| ≥ h(t) exp − |χ| ,
che dà .t
|f (t)| ≤ h(t) ≤ |α| exp a |χ(τ )|dτ .
La seconda disuguaglianza si dimostra in modo analogo osservando che, nel secondo caso, è ḣ = −|f χ| ≥ −|χ|h.
"

Teorema 1.3.1 (di unicità) (si veda: [Michel Teor. 4.2]] Con le stesse notazioni del Teorema 1.3.1, sia v ∈ C 0 (D).
Se v è anche loc.Lip (D) allora la soluzione φ : t &→ φ(t, t0 , x0 ) ∈ Rn dell’equazione ẋ = v(t, x) uscente da un
(arbitrario) dato iniziale (t0 , x0 ) ∈ D è unica.

Note di Sistemi Dinamici


20 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Dimostrazione Per assurdo, si applica il Lemma di Gronwall alla differenza


'- t ' - t
' '
'
|φ1 (t) − φ2 (t)| ≤ ' v(τ, φ1 (τ )) − v(τ, φ2 (τ )) dτ '' ≤ kΓ |φ1 (τ ) − φ2 (τ )| dτ .
t0 t0

"

Corollario 1.3.1 (di continuità)

In tali ipotesi, φ è continua rispetto a (t, t0 , x0 ) su (a, b) × (a, b) × N (x0 ).

Più precisamente: se una soluzione t &→ φ(t) := φ(t, t0 , x0 ) è definita su [a, b] ∋ t0 allora la soluzione t &→
φ′ (t) := φ(t, t′0 , x′0 ) uscente da un (t′0 , x′0 ) scelto comunque in un conveniente W ′ := (a, b) × Bη (x′ ) ⊂ D , ove si è
chiamato x′ := φ(t′0 , t0 , x0 ), esiste almeno su (a, b) ed è tale che: dato comunque ε > 0 , esiste δ(ε, a, b; t′ , t′0 , x′0 )
per il quale

|x′0 − x′′0 | + |t′0 − t′′0 | + |t′ − t′′ | < δ implica |φ(t′ , t′0 , x′0 ) − φ(t′′ , t′′0 , x′′0 )| < ε .

x
Á(t )
Á (t )
(t0,x0 )
(t0,x )
8
>
< (t0,x0 )
´1 >:
K
t
a t0 t0 b

Dimostrazione
' Chiamata ancora, per brevità, φ(t) := φ(t, t0 , x0 ), sia η1 > 0 tale che l’insieme compatto K :=
{(t, x) ' t ∈ [a, b], |x − φ(t)| ≤ η1 } sia in D , e si ponga η := η1 exp(−kK (b − a)). Per (t′0 , x′0 ) ∈ (a, b) × Bη (x′ )
il teorema di esistenza assicura che φ′ (t) := φ(t, t′0 , x′0 ) esiste per t prossimo a t′0 e, fintanto che esiste, verifica la
- t
φ(t, t′0 , x′0 ) = x′0 + v(τ, φ(τ, t′0 , x′0 )) dτ .
t′0

Ma è anche, per t ∈ [a, b],


- t

φ(t, t0 , x0 ) = x + v(τ, φ(τ, t0 , x0 )) dτ ,
t′0

e quindi dal Lemma di Gronwall segue che, finché esiste, φ(t, t′0 , x′0 ) verifica la

|φ(t, t′0 , x′0 ) − φ(t, t0 , x0 )| ≤ |x′0 − x′ | exp (kK |t − t′0 |) < η exp (kK (b − a)) = η1 .

Il Teorema di prolungabilità assicura allora che φ(t, t′0 , x′0 ) esiste per ogni t ∈ [a, b].
Per provare la continuità si può usare o il seguente procedimento oppure, vedi oltre, far ricorso al Teorema di
Ascoli-Arzelà.
Primo modo (si veda: [Coddington Teor. I 7.1]).
Si definisca la successione di funzioni:
⎧ ′
⎨ φ0 (t) :=
⎪ φ0 (t, t′0 , x′0 ) := x′0 + φ(t) − x′
- t
(3.26)
⎪ φ′j+1 (t) := φj+1 (t, t′0 , x′0 ) := x′0 +
⎩ v(τ, φ′j (τ )) dτ
t′0

tutte evidentemente continue sull’insieme W := (a, b) × W ′ .

M. Lo Schiavo
1.3. I teoremi fondamentali 21

Per (t′0 , x′0 ) ∈' W ′ si ha |φ′0 (t) − φ(t)| = |x'′0 − x′ |' < η e quindi per t' ∈ (a, b) si ha (t, φ′0 (t)) ∈ K . Inoltre
'. t ' '. t '
|φ′1 (t) − φ′0 (t)| = ' t′ v(τ, φ′0 (τ )) − v(τ, φ(τ ))dτ ' ≤ kK ' t′ φ′0 (τ ) − φ(τ )dτ ' = kK |t′0 − t| |x′0 − x′ | e questo implica
0 0
|φ′1 (t) − φ(t)| ≤ (1 + kK |t′0 − t|)|x′0 − x′ | < exp(kK |t′0 − t|) |x′0 − x′ |, e la (t, φ′ (t)) ∈ K .
Induttivamente si ricava
⎧ j+1 ′
⎪ j+1
⎨ |φ′ (t) − φ′ (t)| ≤ kK |t0 − t| |x′0 − x′ |
j+1 j
(j + 1)! (3.27)


|φ′j+1 (t) − φ(t)| < exp(kK |t′0 − t|) |x′0 − x′ | < η1 ,

che dà (t, φ′j (t)) ∈ K, per ogni j = 0, 1, . . . .


La prima delle (3.27) e la compattezza di [a, b] assicurano che la successione delle {φ′j (t)} converge; la seconda
.t
delle (3.26) implica che lo fa verso la funzione φ′ (t) ≡ φ(t, t′0 , x′0 ) = x′0 + t′ v(s, φ′ (s))ds; la limitatezza di W
0
garantisce che la convergenza è uniforme cosa che, come è ben noto, conserva la continuità di (t, t′0 , x′0 ) &→ φ(t, t′0 , x′0 )
su W anche nel limite. "

Secondo modo
È istruttivo qui riportare anche il secondo dei due procedimenti cui si è accennato per la dimostrazione del
teorema di continuità, in quanto esso fa uso del seguente importante

Teorema 1.3.2 (si veda: [Michel Teor. II.5.2])


m
Con la stessa notazione del Teorema 1.3.1, siano v ∈ C 0 (D), {x0,m }m∈N −→ x0 , {vm }m∈N ⊂ C 0 (D), e sia

m
{vm }m∈N −→ v uniformemente sui sottoinsiemi compatti di D .

Se {φm }m∈N è una successione di soluzioni, con intervalli massimali Jm , dei problemi:
ẋ = vm (t, x) , φm (t0 , t0 , x0,m ) = x0,m , m = 1, 2, . . .

allora esiste una sottosuccessione {φmj }j∈N ed una soluzione φ del problema

ẋ = v(t, x) , φ(t0 , t0 , x0 ) = x0

avente intervallo massimale J0 ∋ t0 tali che


(i) lim inf j→∞ Jmj ⊃ J0 ;
j
(ii) φmj −→ φ uniformemente sui sottoinsiemi compatti di J0 .

Se, inoltre, la soluzione φ è unica allora la successione {φm }m∈N ammette φ come limite uniforme.

Dimostrazione Applicazione del Teorema di Ascoli-Arzelà dopo aver mostrato che {φm }m∈N è equicontinua
uniformemente limitata. "

Corollario 1.3.2 (si veda: [Michel Cor. II.5.4]) Con la stessa notazione del Teorema 1.3.1, sia dato il problema

ẋ = v(t, x; ε) , φ(t0 , t0 , x0 ; ε) = x0

con v ∈ C 0 (D × Dε ) ove Dε ⊂ Rℓ aperto, e si 0 supponga che, per (t0 , x01) ∈ D, ε ∈ Dε , esso abbia soluzione unica
φ(t, t0 , x0 ; ε) con intervallo massimale J := m1 (t0 , x0 ; ε), m2 (t0 , x0 ; ε) .
'
Detto W := {(t, t0 , x0 ; ε) ' (t0 , x0 ) ∈ D, ε ∈ Dε , t ∈ J} allora φ è continua su W , m1 (t0 , x0 ; ε) è
semicontinuo superiormente e m2 (t0 , x0 ; ε) semicontinuo inferiormente in (t0 , x0 ; ε) su D × Dε .
Memento 1.3.1

lim inf xj := sup inf xk o anche lim inf f (y) := lim sup f (y) .
j→∞ k∈N j>k y→x ε→0 y∈B (x)
ε

Semicontinua inferiormente su D := una funzione f (x) tale che per ogni y ∈ D sia: f (y) ≤ lim inf x→y f (x);
ovvero quando dato ε esiste Nε (x) tale che per ogni y ∈ Nε (x) si ha f (y) > f (x)−ε ; o anche quando f −1 (α, +∞)
è aperto per ogni α ∈ R.

Note di Sistemi Dinamici


22 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Dimostrazione (del Corollario)


Posto ψ(τ, 0, x0 ; ε) := φ(τ + t0 , t0 , x0 ; ε), la ψ risolve il problema

d
x = ν(τ, x) := v(τ + t0 , x; ε) , ψ(0, 0, x0 ; ε) = x0 .

m
Sia {(tm , t0,m , x0,m ; εm ) ∈ W }m∈N −→ (t, t0 , x0 ; ε). Il teorema precedente sussiste per la successione dei campi

νm (τ, x) := v(τ + t0,m , x; εm ), ed assicura che
m
φ(τ + t0,m , t0,m , x0,m ; εm ) −→ φ(τ + t0 , t0 , x0 ; ε0 )

uniformemente sui sottoinsiemi compatti di (m1 (t0 , x0 ; ε) − t0 , m2 (t0 , x0 ; ε) − t0 ). In particolare, quindi, si può
scegliere τ + t0,m = tm per ciascun m, e dedurne che la convergenza per tm → t è uniforme in m. In definitiva,
tramite la
|φ(tm , t0,m , x0,m ; εm ) −φ(t, t0 , x0 ; ε0 )| ≤
|φ(tm , t0,m , x0,m ; εm ) − φ(tm , t0 , x0 ; ε0 )| + |φ(tm , t0 , x0 ; ε0 ) − φ(t, t0 , x0 ; ε0 )| ,
m
si conclude che φ(tm , t0,m , x0,m ; εm ) −→ φ(t, t0 , x0 ; ε0 ).
0 ∞ 1
Per la (i) inoltre si ha: lim inf m→∞ m1 (t0,m , x0,m ; εm ), m2 (t0,m , x0,m ; εm ) ⊃ J0 . "

Sussiste infine anche la seguente estensione agli ordini superiori, (si veda il Teorema 1.3.1 per un enunciato
meno forte):

Teorema 1.3.3 (si veda: [Arnold §32.9], opp. [Lefschetz p.40]) Sia v(t, x, ε) ∈ C r≥1 (D×Dε ) con D ⊆ R1+n aper-
to, e Dε ⊆ Rm aperto. Allora la soluzione φ = φ(t, t0 , x0 ; ε), è di classe C r rispetto a (t0 , x0 , ε) ∈ D × Dε , e
C r+1 rispetto a t, nel suo dominio di definizione.

Ne segue che v ∈ C 1 (D) determina una ed una sola soluzione uscente da una qualsiasi coppia (t′0 , x′0 ) ∈
N (t0 , x0 ); tale soluzione è definita in tutto un intorno N (t0 , x0 ) delle condizioni iniziali ed è ivi differenziabile
rispetto a (t, t′0 , x′0 ). Risulta quindi determinata una famiglia locale di applicazioni d’avanzamento in N (t0 , x0 ).

Quanto segue, enunciato in Rn , vale anche in Cn pur di considerare accoppiate le equazioni per le parti ℜe ed
ℑm; e costituisce un parziale riassunto di quanto detto, secondo un’alternativa linea di dimostrazione: Cauchy-
Picard. In questo caso, esistenza ed unicità vengono provate simultaneamente, e sotto la più stretta ipotesi:
v ∈ C 1 (D), (si veda: [Arnold, cap.IV]).
Si consideri dapprima uno spazio metrico (X, d) ed una mappa S : X → X.
S è una contrazione := esiste una costante reale non negativa k , strettamente minore di uno, tale che:
x, y ∈ X ⇒ d(Sx, Sy) ≤ k d(x, y).
Si osservi che per poter parlare di contrazioni è fondamentale il fatto che il dominio di S e l’immagine di S
siano sottoinsiemi di uno stesso spazio metrico.
Una contrazione è un caso particolare di:
& Lipschitz := esiste k > 0 : per ogni x, y ∈ X si ha:
& d)
S : (X, d) → (X,

&
d(Sx, Sy) ≤ k d(x, y) .

Quest’ultima implica l’uniforme continuità di S su (X, d).


Per le applicazioni contrattive sussiste il fondamentale :

Teorema 1.3.4 (delle contrazioni, o C.M.P.) Sia (X, d) uno spazio metrico completo ed S : X −→ X una
contrazione. Esiste, ed è unico, un punto x̄ ∈ X che è punto unito per S , e cioè: S x̄ = x̄ .
n
Esso inoltre è anche tale che preso comunque x0 ∈ X si ha: S n x0 −→ x̄ .

M. Lo Schiavo
1.3. I teoremi fondamentali 23

Dimostrazione
Unicità: Se fosse x′ = Sx′ e simultaneamente x′′ = Sx′′ , con x′ ̸= x′′ , si avrebbe: d(x′ , x′′ ) = d(Sx′ , Sx′′ ) <
d(x′ , x′′ ), e ciò non è lecito.
Esistenza: Sia xn := S n x0 . Risulta: d(xn+1 , xn ) ≤ k n d(x1 , x0 ).
Pertanto, se m > n si ha
d(xm , xn ) ≤ d(xm , xm−1 ) + d(xm−1 , xm−2 ) + · · · + d(xn+1 , xn )
≤ (k m−1 + k m−2 + · · · + k n )d(x1 , x0 )
(1 − k m−n ) kn
= kn d(x1 , x0 ) ≤ d(x1 , x0 ) .
(1 − k) 1−k
Ne segue che la successione {S n x0 }n∈N è di Cauchy, e la completezza dello spazio X assicura l’esistenza in X di
un punto limite x̄ := lim xn . Tale punto è unito per S , infatti dalle definizioni di limite e di operatore contrattivo
segue che: x̄ è punto limite anche della successione {xm }m∈N con m = n + 1 la quale, d’altra parte, ha come limite
anche il punto S x̄ dato che è
d(xm , S x̄) = d(xn+1 , S x̄) = d(Sxn , S x̄) ≤ k d(xn , x̄) .
L’unicità del limite implica necessariamente la S x̄ = x̄ . "

kn
N.B. 1.3.4 Si è anche valutato l’errore: d(x̄, xn ) ≤ d(x1 , x0 ).
1−k

S x
S2 x
3
S x

S 2 x Sx x x S 2 x Sx

Teorema 1.3.1 (Cauchy-Picard) Sia D ⊆ R × Rn aperto; sia (t0 , x0 ) ∈ D , e sia v : D → Rn . Se il campo


v è differenziabile con continuità in D , per ogni x sufficientemente prossimo ad x0 la soluzione dell’equazione
ẋ = v(t, x) uscente da (t0 , x) esiste almeno in un intorno delle condizioni iniziali (t0 , x) unica e regolare rispetto
alle condizioni iniziali stesse.

Dimostrazione Con a e b in ∈ R, si introducano gli insiemi


; ' <
'
:= t ∈ R ' t0 − a ≤ t ≤ t0 + a ,
( >
' 0= n 11/2
'
[Bb (x0 )] := x ∈ Rn ' |x − x0 | := (xi − xi0 )2 < b ,
i=1

(si ricordi che con la notazione [A] si intende la chiusura dell’insieme A) e si supponga che a e b siano scelti in
modo tale che l’insieme (compatto)
; ' <
'
Γ := [Ba (t0 )] × [Bb (x0 )] := (t, x) ∈ R1+n ' t ∈ [Ba (t0 )] , x0 ∈ [Bb (x0 )]
risulti appartenere al dominio D . Siano poi
λ := max |v(t, x)|, kΓ := max ∥∂x v(t, x)∥ ,
(t,x)∈Γ (t,x)∈Γ

e si noti che λ e kΓ dipendono da Γ ma non direttamente da (t, x). Infine, chiamato


; ' <
'
Kx := (t, y) ' t ∈ [Ba′ (t0 )], y ∈ [Bλ|t−t0 | (x)]

il cono di apertura 2λ e centro x, sia b′ tale che, opportunamente fissato a′ ≤ a, si abbia:


Γ ⊃ Kx per ciascun x ∈ [Bb′ (x0 )].

N.B. 1.3.5 a e b dipendono dalla posizione di (t0 , x0 ) ∈ D . I valori a′ , b′ sono tali che a′ ≤ a, b′ ≤
b, b′ + λa′ ≤ b . Per l’unicità occorrerà che a′ < 1/kΓ ; b′ è l’ultimo ad essere fissato tale che b′ + λa′ ≤ b . ♦

Note di Sistemi Dinamici


24 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Qualora esista, la soluzione φ dell’equazione assegnata: ẋ = v(t, x), che esce dal dato (t0 , x), è una funzione
φ : t &→ φ(t, t0 , x) =: x + h(t, x) , h(t0 , x) = 0
che (equivalentemente) risolve il problema integrale
- t
φ(t, t0 , x) = x + v(τ, φ(τ, t0 , x)) dτ =: S+ [φ](t, t0 , x) .
t0

Essa quindi individua una curva integrale (t, φ(t, t0 , x)) =: (t, x + h(t, x)) che non potrà essere esterna a Kx finché
t < a′ , giacché in tutto Γ accade che |v| < λ.
x0+b
¡ Kx0+b¶ ¸
x0+b¶
¡¶

Kx x0 h
Á
x

x0{b¶ Kx0{b¶
x0{b
t0{a t0{a¶ t0 t0+a¶ t0+a
Sia Γ′ := [Ba′ (t0 )] × [Bb′ (x0 )], con b′ fissato come detto ed a′ ancora da specificare, e si definisca lo spazio
funzionale ; <
A(a′ , b′ ) := h ∈ C 0 (Γ′ , Rn ) tali che |h(t, x)| ≤ λ|t − t0 |, , ∀ (t, x) ∈ Γ′

o, equivalentemente, lo spazio A+ (a′ , b′ ) delle funzioni φ ∈ C 0 (Γ′ , Rn ) tali che |φ(t, x)−x| ≤ λ|t−t0 |, ∀ (t, x) ∈
Γ′ . Lo spazio A(a′ , b′ ) contiene certamente la funzione costante h : (t, x) &→ h(t, x) = 0 . Si doti tale insieme
di funzioni della norma: ? ? ' '
? ? ' '
?h1 − h2 ? := max ′ 'h1 (t, x) − h2 (t, x)' .
∞ (t,x)∈Γ

N.B. 1.3.6 Siccome Γ′ è compatto il valore che si ottiene è un massimo, cioè è un numero reale che viene assunto
dalla funzione a secondo membro. In questa norma la convergenza implica l’uniforme convergenza delle funzioni
appartenenti a C(Γ′ , Rn ). Pertanto, se una successione {hn }n=1,2,... di funzioni in A ammette limite in questa
norma, si può dedurre che la funzione limite non solo appartiene a C (Γ′ , Rn ) , ma appartiene addirittura ad A,
giacché la condizione sulla massima crescita della funzione continua a sussistere anche nel limite. Si ha cioè che
(A; ∥·∥∞ ) è un sottoinsieme chiuso, convesso, di uno spazio di Banach ed è pertanto esso stesso uno spazio di
Banach e, come tale, completo rispetto alla norma ∥·∥∞ . Analoghe affermazioni sussistono per lo spazio A+ . ♦

Si definisca ora su (A; ∥·∥∞ ) l’operatore S : h &→ S[h] mediante la:


- t
S[h](t, x) := v(τ, x + h(τ, x))dτ ,
t0
.t
o, su A+ , l’equivalente operatore S+ [φ](t, x) := x + t0 v(τ, φ(τ, x))dτ .

Proposizione 1.3.1 Per a′ sufficientemente piccolo l’operatore S : A → A è una contrazione su (A, ∥·∥∞ ).

Dimostrazione (della Proposizione)


(i) Siano τ ∈ Ba′ (t0 ) ed x ∈ Bb′ (x0 ). Dalla definizione di A segue che se h ∈ A allora (τ, x + h(τ, x)) ∈ Kx ⊂
Γ ⊂ D . Quindi S[h] è definita in quanto è definito v(τ, x + h(τ, x));
(ii) dalle proprietà degli integrali segue che S[h] ∈ C 0 (Kx ), ed inoltre S manda A in sé; infatti
' ' ''- t '
'
' ' '
'S[h](t, x)' ≤ ' |v(τ, x + h(τ, x))|dτ '' ≤ λ|t − t0 | ,
t0

il che implica che la funzione S[h] appartiene ad A; (si osservi infatti che x è definitivamente fissato in
Bb′ (x0 ), e che t varia in Ba′ (t0 ); quindi la S[h] verifica tutte le condizioni per la sua appartenenza ad A);

M. Lo Schiavo
1.3. I teoremi fondamentali 25

(iii) S può essere reso contrattivo su (A, ∥·∥∞ ). Infatti


- t0 1
(S[h1 ] − S[h2 ])(t, x) = v(τ, x + h1 (τ, x)) − v(τ, x + h2 (τ, x)) dτ ;
t0

e siccome v ∈ C 1 (D) ⊂ Lip (Γ) risulta

|v(τ, x + h1 (τ, x)) − v(τ, x + h2 (τ, x))| ≤ kΓ |h1 (τ, x) − h2 (τ, x)|
≤ kΓ ∥h1 − h2 ∥∞ ,

da cui segue
|(S[h1 ] − S[h2 ]) (t, x)| ≤ kΓ |t − t0 | ∥h1 − h2 ∥∞ ≤ kΓ a′ ∥h1 − h2 ∥∞ .
Posto allora kΓ a′ =: k si ottiene

∥S[h1 ] − S[h2 ]∥∞ ≤ k ∥h1 − h2 ∥∞ .

Pertanto, purché sia k < 1, si ha che S è una contrazione su (A, ∥·∥∞ ) . Equivalentemente: S+ è
contrattivo su A+ . "

Scelto x prossimo a x0 , per esempio |x − x0 | < b′ , e se a′ verifica la limitazione kΓ a′ < 1 , ne segue che in A
esiste ed è unico il punto unito di S :
- t
h̄ = S[h̄] ≡ v(τ, x + h̄(τ, x))dτ ,
t0

ed anzi risulta x + h̄(t, x) ∈ Kx per ogni t ∈ Ba′ (t0 ).


Ponendo - t
φ(t, t0 , x) := x + h̄(t, x) = x + v(τ, φ(τ, t0 , x))dτ ≡ S+ [φ](t, t0 , x)
t0

si riconosce cosı̀ che, per t0 ed x ∈ Bb′ (x0 ) fissati e per t ∈ Ba′ (t0 ), la funzione t &→ φ(t) := φ(t, t0 , x) verifica su
Ba′ (t0 ) l’identità
φ̇(t) = v(t, φ(t)) , con φ(t0 ) = x .
Si noti anche che
φ = S+ [φ] implica che φ = lim φn ,
n→∞

ove si è posto
φ0 (t, t0 , x) := x, e, per n = 0, 1, . . .
- t
n
φn+1 (t, t0 , x) := x + v(τ, φn (τ, t0 , x)) dτ = S+ [φ0 ] .
t0

Infine, la funzione φ(·, t0 , ·) è uniformemente continua su Γ′ , giacché h̄ è in A. "

Per provare la regolarità della soluzione è conveniente premettere il seguente:

Lemma 1.3.1 Sia L(Rn ) lo spazio degli operatori lineari reali su Rn , sia T : t &→ T (t) ∈ L(Rn ), con T ∈ C 1 (I ⊆
R), e sia T (t) la matrice che una data base assegna all’operatore T (t). L’equazione

ẋ = T (t)x, x(t0 ) = x0 ∈ Rn (3.28)

ammette soluzione φ(·, t0 , x0 ) : JM ⊃ I → Rn se e solo se

Ẋ = T (t)X, X(t0 ) = X0 = 1I ∈ L(Rn ) (3.29)

ammette soluzione Ψ(·, t0 , 1I ) : JM ⊃ I → L(Rn ), ed in tal caso esse sono tali che x0 è l’unico vettore in Rn
tale che φ(t, t0 , x0 ) = Ψ(t, t0 , 1I )x0 .

Note di Sistemi Dinamici


26 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Dimostrazione Indicata brevemente con Ψ = Ψ(t, t0 ) la detta soluzione di (3.29), dato comunque x0 si ha che
Ψ̇(t, t0 )x0 = T (t)Ψ(t, t0 )x0 , e pertanto φ(t, t0 , x0 ) := Ψ(t, t0 )x0 è soluzione di (3.28). D’altra parte, tale x0 è
ovviamente unico data l’unicità della soluzione di (3.28) ed il fatto che Ψ(t0 , t0 ) = 1I .
Per quanto riguarda il viceversa, si dimostrerà (si veda: Cap.II) che la famiglia delle soluzioni di (3.28) è dotata
della proprietà di essere esprimibile, mediante una Ψ & t0 )x0 , con x0
& : JM → L(Rn ), secondo la φ(t, t0 , x0 ) = Ψ(t,
il vettore (arbitrario) che ne individua la condizione iniziale. Pertanto deve necessariamente essere Ψ & = Ψ. "

Nel seguito, all’occorrenza, i ruoli di (3.28) e di (3.29) verranno scambiati senza ulteriori commenti.

Teorema 1.3.1 (di regolarità) Sotto le stesse ipotesi del Teorema 1.3.1, se il campo è differenziabile due volte con
continuità, la soluzione, localmente, è differenziabile con continuità.

Come si è detto, questo enunciato non esprime il migliore risultato ottenibile, (si veda: Arnold §32.6), ma è
relativamente facile da dimostrare.
) *
2 1 ∂v .. .. ∂v
Dimostrazione Se v è in C (D) allora ∂x v è in C (D), ove si è posto: ∂x v =: . · · · . n ; per
∂x1 ∂x
cui, per il Lemma 1.3.1, il sistema
(
ẋ = v(t, x) (t, x(t)) ∈ D
(3.30)
Ẋ = ∂x v(t, x)X X : t &→ X(t) ∈ L(Rn ) ,

è anch’esso un sistema come nel Teorema 1.3.1. Si noti anche che le due equazioni sono accoppiate: la seconda
non va considerata
) * come indipendente dalla prima, bensı̀ come quella relativa alla seconda componente di un unico
x
vettore: . Posto allora φ0 := x e ∂x φ0 ≡ Ψ0 = 1I , si riconosce che il sistema delle iterate successive
X
del problema (3.30)
⎧ - t


⎪ φ
⎨ n+1 (t, t 0 , x) := x + v(τ, φn (τ, t0 , x))dτ
t0
- t (3.31)



⎩ Ψn+1 (t, t0 , x) := 1I + ∂x v(τ, t0 , φn (τ, t0 , x))Ψn (τ, t0 , x)dτ ,
t0

individua due successioni delle quali, come è facile riconoscere, la seconda ha gli elementi ordinatamente uguali alle
derivate (rispetto alla variabile x) degli elementi della prima: ∂x φn = Ψn . Per il Teorema 1.3.1, d’altra parte, tali
successioni convergono, simultaneamente ed entrambe uniformemente, la prima verso la soluzione φ = φ(t, t0 , x)
dell’equazione ẋ = v(t, x), come già detto precedentemente, e la seconda verso la soluzione Ψ = Ψ(t, t0 ; x) della
sua corrispondente
Equazione Variazionale := Ẋ = ∂x v(t, φ(t, x))X, X(t0 , t0 ; x) = 1I .
Inoltre, ricordando che la seconda delle (3.31) uguaglia la derivata (rispetto alla variabile x) della prima, si
osserva che Ψ è limite uniforme delle derivate Ψn = ∂x φn . Quindi, il limite φ delle φn è senz’altro derivabile
ed ha come derivata il limite Ψ delle derivate: Ψ(t, t0 , x) ≡ ∂x φ(t, t0 , x). In definitiva:
la derivata ∂x φ di quella funzione φ = φ(t, t0 , x) che vale x all’istante t0 e che come funzione della t è
soluzione dell’equazione ẋ = v(t, x), esiste, è continua, ed è la soluzione uscente dal dato iniziale: Ψ(t0 ) = 1I
dell’equazione Ẋ = ∂x v(t, φ(t, t0 , x))X variazionale della ẋ = v(t, x) nel punto φ = φ(t, t0 , x).
Infine, siccome la convergenza è uniforme su [Ba′ (t0 )] × [Bb′ (x)], la derivata ∂x φ è anche tale che

|φ(t, t0 , x + χ) − φ(t, t0 , x) − ∂x φ(t, t0 , x)χ|


lim =0
|χ|→0 |χ|

uniformemente rispetto a t ∈ [Ba′ (t0 )] (questo ultimo fatto, ancora più esplicitamente rimarcato nel Teorema 1.3.2,
è di importanza fondamentale per tutto ciò che riguarda i procedimenti di calcolo approssimato). "

N.B. 1.3.7 Tutto ciò è valido in insiemi limitati. In particolare a′ , se anche può a volte essere arbitrario, deve
comunque essere fissato e finito. ♦

M. Lo Schiavo
1.4. Esempi e casi notevoli 27

N.B. 1.3.8 Si osservi che la seconda delle (3.31) individua la successione delle derivate delle φn e converge verso
la derivata della φ(t, t0 , x) soluzione della ẋ = v(t, x) solo se quest’ultima viene considerata accoppiata con
la Ẋ = ∂x v(t, x)X . In caso contrario, la soluzione di Ẋ = ∂x v(t, x)X potrebbe non coincidere con quella di
Ẋ = ∂x v(t, φ(t, t0 , x))X , e la successione
- t
Ψn+1 (t, t0 , x) = 1I + ∂x v(τ, t0 , φn (τ, t0 , x))Ψn (τ, t0 , x)dτ
t0

essere diversa dalla - t


Ψn+1 (t, t0 , x) = 1I + ∂x v(τ, t0 , x)Ψn (τ, t0 , x)dτ.
t0

Dal precedente Teorema segue che la trasformazione (Gtt0 rappresentata da) Gtt0 : x0 &→ φ(t, t0 , x0 ) per
ogni fissato t prossimo a t0 risulta essere un diffeomorfismo locale in un conveniente intorno V0 contenente x0 e
contenuto in D cosı̀ come l’operatore G&tt1 definito secondo la G & t (t1 , x1 ) := (t, Gt x1 ) è un diffeomorfismo definito
t1 t1
su {t1 } × V0 ed a valori in D .
Si può inoltre mostrare (si veda: Cap.II) che sotto le stesse ipotesi esiste un diffeomorfismo di rettificazione
ϕ
) *J ×V0 → D , a t0 fissato,
: ) rappresentato
* da ϕ(t, x̄) := (t, φ(t, t0 , x̄)) la cui derivata trasforma il campo standard
0 v
nel campo assegnato e risulta G&tt0 ≡ ϕ ◦ G!tt0 ◦ ϕ −1 ove G!tt0 è l’evoluzione banale: G!tt0 (t0 , x) = (t, x).
1 1
N.B. 1.3.9 G&tt0 trasforma {t0 } × V0 in {t} × V ; ϕ trasforma (t, x0 ) in (t, x), e cioè J × V0 in J × V , a t
fissato; infine, Gtt0 trasforma x0 in x. ♦

M0 V M
(t0;x(t)) (t;x(t))
Get0t
G t0t
'
V0
t0 t
(t0;x0) (t;x0)
Gb t0t

1.4 Esempi e casi notevoli


Come si è detto, se il campo non è autonomo il problema della determinazione delle soluzioni dell’equazione
ẋ = v(t, x) anche con x ∈ R si complica in modo generalmente non risolubile.
Vi sono però alcuni casi particolari di speciale interesse. Sia D , anche in questo paragrafo, un dominio (un
aperto, connesso, non vuoto) di uno spazio reale.

Primo caso notevole Separazione delle variabili.


v x (x)
v(t, x) = , v x , v t ∈ C 1 (D), D dominio ⊆ R1+1 , (t0 , x0 ) ∈ D .
v t (t)
Essendo entrambe scalari, le due variabili x e t sono del tutto simmetriche, ed allora spesso si usano solo
variabili “spaziali”: x, y ∈ R ottenendo
dy v y (y) dx dy
= x , o addirittura : = ;
dx v (x) v x (x) v y (y)
si osservi tuttavia che in quest’ultima espressione vi è un certo abuso di notazione (vedi oltre).
Si supponga che siano non nulli entrambi i valori v x (x0 ), v y (y0 ). Esisterà allora N (y0 , x0 ) ⊂ D nel quale ciò
continua a sussistere. In N (y0 , x0 ) la soluzione y = y(x), tale che y0 = y(x0 ), esiste unica implicitamente definita
da: - x - y
dξ dη
ψ1 (x) − ψ1 (x0 ) := x
= y
= ψ2 (y) − ψ2 (y0 ).
x0 v (ξ) y0 v (η)

Note di Sistemi Dinamici


28 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Infatti: posto t − t0 := ψ1 (x) − ψ1 (x0 ) si ha che ne esiste l’inversa x(t) = ψ1−1 (t − t0 + ψ1 (x0 )) in N (y0 , x0 ), e
questa è soluzione di ẋ = v x (x) , x(t0 ) = x0 ; (giacché v x (x0 ) ̸= 0 ). Analogamente esiste unica la y(t) =
−1
ψ2 (t−t0 +ψ2 (y0 )) tale che: ψ2 (y(t)) = t−t0 +ψ2 (y0 ). Pertanto, definita ψ3 (x, x0 , y0 ) := ψ1 (x)−ψ1 (x0 )+ψ2 (y0 ),
la soluzione del problema è data dalla: y(x) := ψ2−1 (ψ3 (x, x0 , y0 )). Essa infatti ha per derivata
'
dy(x) 7 −1 8′ dψ2−1 (η) '' dψ1 (x)
= ψ2 (x) = =
dx dη 'η=ψ3 (x,x0 ,y0 ) dx
@ ' A−1
dψ2 '' 1 v y (y(x))
= ' x
=
dy y=ψ−1 (ψ3 (x,x0 ,y0 )) v (x) v x (x)
2

ed inoltre è evidente che y(x0 ) = ψ2−1 (ψ2 (y0 )) = y0 .


Sia per esempio y la variabile dipendente. Se in D la v x (x) ̸= 0 e la .v y (y) si annulla per qualche ȳ, allora si

può perdere l’unicità, a dipendere dalla convergenza o meno dell’integrale y0 vydη(η) . L’unicità si perde se vi possono
essere diverse curve integrali tangenti alla soluzione, certamente accettabile, y(x) = ȳ . Se l’integrale diverge, il
procedimento su esposto porta ad un assurdo, e l’unica soluzione accettabile è la costante (Esempi 1.2.7 e 1.2.8).
Se invece l’integrale converge, è possibile determinare infinite soluzioni, (Esempi 1.2.1 e 1.2.2), compatibili con
arbitrarie condizioni iniziali e che “biforcano” dalla y(x) = ȳ, raccordandosi con questa nei punti di tangenza lungo
la retta y = ȳ. Viceversa, se è la sola v x (x) ad annullarsi in qualche punto x̄ allora è l’esistenza in grande che
viene a mancare, e la soluzione resta definita solo in intervalli che dipendono dalle condizioni iniziali.
2 1 1
Esempio 1.4.1 ẋ = ≡ − , t0 , x0 ∈ R, t0 ̸= ±1 ,
−1t2 t−1 t+1
(si veda anche: Esempio 1.2.8). La famiglia delle soluzioni è contenuta nell’espressione
' '
't − 1'
'
!(t) = ln '
x ' + cost .
t + 1'

-1 +1
t

1
Esempio 1.4.2 ẋ = t0 , x0 ∈ R, t0 ̸= 0 .
t
Fissato comunque τ > 0 , non possono esistere soluzioni in J := (−τ, τ ), perché ln |τ | + c è discontinua in zero.
L’equazione ha però soluzioni date da

t &→ φ(t, t0 , x0 ) = ln(−t) − ln(−t0 ) + x0 per t ∈ (−τ, 0), se t0 < 0


t &→ φ(t, t0 , x0 ) = ln(+t) − ln(+t0 ) + x0 per t ∈ (0, +τ ), se t0 > 0 .

x0
t

M. Lo Schiavo
1.4. Esempi e casi notevoli 29

x
Esempio 1.4.3 ẋ = t0 , x0 ∈ R, t0 ̸= 0 .
t
Per t > 0 e per t < 0 le soluzioni sono date da x !(t) = c0 t con c0 := x0 /t0 . Tuttavia nessuna di esse passa
per la retta t = 0 che rappresenta la frontiera del dominio D di regolarità del campo. Quindi anche se (t0 , x0 ) e
(t′0 , x′0 ) sono tali da avere lo stesso rapporto, qualora fosse t0 t′0 < 0 le due semirette non fanno parte di una stessa
soluzione, pur facendo parte di una stessa retta.
x

Ciò è per dire che quando v non è regolare, anche se la soluzione “sembra” regolare essa va comunque considerata
come formata dalle varie parti dalle quali risulta composta e che separatamente sono soluzioni della equazione su
diversi domı́ni.
Si noti che il teorema di esistenza non dice che la soluzione è certamente singolare su ∂D , dice solo che non lo

è in D .
Esempio 1.4.4 t2 ẋ + 2tx − 4t3 = 0 , (t0 , x0 ) = (1, 1).
2 4
L’equazione implica t x − t = c, e le condizioni iniziali danno c = 0 . La soluzione pertanto è contenuta in una
funzione regolare su tutto R pur non essendo, la soluzione stessa, definita su tutto R. Infatti essa è comunque
composta da due rami disgiunti su t < 0 e t > 0 . Ciò è immediato se si pensa al fatto che l’equazione data è, in
2
reatà, la ẋ = 4t − x, le cui soluzioni sono riassunte dalla x !(t) = t2 + c/t2 .
t
x

t
Esempio 1.4.5 ẋ = −, t0 , x0 ∈ R, x0 ̸= 0 .
x
L’equazione implica x + t = c = x20 + t20 . La soluzione quindi cessa di esistere per t2 > c. In particolare, se
2 2

c=0, la funzione φ(t, 0, 0) : {0} &→ {0} non è certo differenziabile, (e non è la costante R → {0} ).
x

t
#

Esempio 1.4.6 Il modello ecologico unidimensionale. p : t ∈ R &→ p(t) ∈ R+ .


Siano n(t) il numero di nuovi nati, su un campione di n̄ individui, nell’intervallo di tempo [t − τ, t]; m(t) il
numero di morti nello stesso intervallo di tempo e sullo stesso campione; p(t) il numero di individui vivi all’istante
t. La frequenza di crescita all’istante t, media nell’intervallo ∆t, è data per definizione da
∆p 1
:= (n(t) − m(t)) · .
p∆t n̄τ

Note di Sistemi Dinamici


30 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

∆p ṗ
Ipotesi di lavoro però è che sia p : R → R, ed inoltre = .
p∆t p
Un primo modello si ottiene ponendo n(t)−m(t) ∼ cost = α, con α dipendente dalla quantità di cibo disponibile
per individuo σ . Può essere plausibile supporre α = β(σ − σ0 ), con β una costante positiva e con σ0 la minima
quantità di cibo sufficiente al sostentamento: si ha cioè σ ≤ ≤
>σ0 ⇐⇒ α>0. In tal modo risulta

p!(t) = p0 exp(α(t − t0 )).

Con tale schema, (σ indipendente da p), la popolazione p potrebbe crescere in modo indefinito. È chiaro
che generalmente questo non è accettabile; come correzione è necessario assegnare qualche fenomeno sociale, il cui
modello sia σ = σ(p), e che impedisca la crescita indefinita.
A questo scopo si può tenere conto della lotta per il cibo: σ = (& σ − kp) con σ & > σ0 . Risulta allora α =
σ − σ0 ) − βkp =: c(η − p). Questo secondo modello dà luogo alla
β(&

equazione Logistica : ṗ = c(η − p)p , c, η > 0 . (4.32)

Gli equilibri sono p = 0, e p = η che viene chiamata popolazione endemica. Si noti poi che −cp2 è proporzionale
al numero di incontri, e rappresenta gli attriti sociali. Ci si aspetta anche che per piccole popolazioni tali attriti
siano piccoli, e cioè η ≫ 1 . Per p piccole allora si ha ṗ ≃ cηp da cui si vede che lo zero è instabile in quanto la p
segue l’evoluzione vista sopra. Viceversa, se p > η risulta ) ṗ/p < 0 e di *
conseguenza si ha che η è stabile.
1 1 1/η b/η
Più in dettaglio, mediante la relazione ≡ + si ricava
cp(η − bp) c p η − bp
' ' ' ' ' '
1 'p' 1 ' η − bp) ' ' p(η − p0 ) '
c(t − t0 ) = ' '
ln ' ' − ln ' ' ' , e quindi '
cη(t − t0 ) = ln ' ' .
η p0 η η − bp0 ' p0 (η − p) '

Pertanto, se η − p0 > 0 allora (per continuità) è anche η − p > 0 almeno fino a che p = η ; e ciò non può accadere
in un tempo finito. Analogamente, se: η − p0 < 0 allora η − p < 0 per ogni t ≥ t0 . Risulta infatti esplicitamente:
η
p!(t) = ,
1 + ( pη0 − 1) exp(−cη(t − t0 ))

che implica, dato p0 > 0 , che lim p(t) ↑ η se p0 < η , e lim p(t) ↓ η se p0 > η . Si ha cioè la curva
t→∞ t→∞
logistica:

0
t

N.B. 1.4.7 Attenzione alle forme implicite. Con x : t ∈ R &→ x(t) ∈ R si hanno per esempio:

• ẋ2 + x2 = 0 non ha soluzioni: l’insieme aperto D di definizione del campo è vuoto. Al più si può estendere il
concetto di soluzione (vedi qui sotto) ed accettare l’unica x = x(t) = 0 in corrispondenza dell’unica possibile
scelta delle condizioni iniziali: (t0 , x0 ) ≡ (t0 , 0) ∈ ∂D .

• |ẋ| + 1 = 0 non ha soluzioni ;

• (ẋ − x)(ẋ − 2x) = 0 non è una equazione ma sono due.

Definizioni desuete:

M. Lo Schiavo
1.4. Esempi e casi notevoli 31

Soluzione generale := Una funzione Φ : (t, t0 ; c) &→ Φ(t, t0 ; c) ∈ Rn , con c := (c1 , . . . , cn ) ∈ Rn , definita
su un aperto J × U ⊆ J × D ⊆ R2+n e tale che ogni possibile soluzione x = φ(t, t0 , x0 ) dell’equazione ẋ = v(t, x),
con x ∈ Rn e (t0 , x0 ) ∈ U , si possa ricavare come caso particolare della Φ per una qualche scelta dei parametri
c1 , c2 , · · · , cn . Lo spazio dei parametri deve pertanto poter essere posto in corrispondenza biunivoca con quello dei
dati iniziali (a t0 fissato).
Soluzione singolare := una soluzione che non è ottenibile dalla soluzione generale per alcun valore reale finito

dei parametri. (Spesso appartiene con la ∂D se il campo è loc.Lip in D ).
Queste possono dar luogo a casi dubbi: ẋ = −2x3/2 , che è Lip in R, dà
1 −1/2
(x−1/2 − x0 ) = −2(t − t0 )
(1 − 3/2)

da cui (
(t + c)−2 se ̸ 0
x0 =
!(t) =
x
0 se x0 = 0

e si noti che la x = 0 non è ottenibile dalla prima per alcun valore reale di c. Se però si pone k := 1/c la funzione
!(t) = k 2 /(1 + kt)2 che è del tutto regolare, ma che non contiene il caso c = 0 .
che si ottiene è : x
Conviene in definitiva riferirsi sempre alla soluzione locale per (t0 , x0 ).
Esempio 1.4.8 L’equazione di Clairaut

ẋ2
x = ẋt − t0 , x0 ∈ R .
2
√ '
In realtà queste sono due equazioni: ẋ = t ± t2 − 2x entrambe con campo loc.Lip in D := {(t, x) 'x < t2 /2 },
1
infatti ivi è finita la ∂x v = ∓(t2 − 2x)− 2 . La frontiera del dominio D è la parabola x = t2 /2 che è soluzione,
singolare.
La funzione x !(t) = x0 + λ(t − t0 ) è soluzione purché λ verifichi la:
B
1
x0 + λ(t − t0 ) = λt − λ2 , e cioè se λ± = t0 ± t20 − 2x0 .
2
A sua volta quest’ultima individua due rette (una per equazione) per ciascun (t0 , x0 ) ̸∈ ∂D ; esse passano per la
∂D nei punti (x± , t± ) tali che

t2± λ2
= x± = x0 + λ± (t± − t0 ) = λ± t± − ±
2 2
che implica (t± − λ± )2 = 0 e quindi t± = λ± . D’altra parte il coefficiente angolare della tangente in t alla
parabola ∂D vale: d(t2 /2)/dt ≡ t, per cui le rette soluzione sono tangenti alla parabola nei punti (x± , t± ).
Come nell’Esempio 1.4.3 però queste soluzioni vanno considerate in modo separato: l’una o l’altra delle due
semirette il cui punto di separazione è quello di tangenza con la frontiera ∂D del dominio di regolarità del campo.

x=t2=2
x

t
(t0;x0)

Nella figura il tratto unito rappresenta le soluzioni per l’equazione con il segno positivo, quello tratteggiato le
soluzioni dell’equazione con il meno. #

Memento 1.4.1 Una funzione f : R2 → R si dice omogenea di grado α ∈ R se, per ogni x > 0 , si ha

f (xy, xz) = xα f (y, z), identicamente per y, z ∈ R .

Note di Sistemi Dinamici


32 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Secondo caso notevole Equazioni omogenee di grado zero.


Siano x0 , y0 ∈ R, D ⊂ R2 aperto, con x0 ̸= 0 e v(x0 , y0 ), e siano v x , v y : R2 → R, v x , v y ∈ C 1 (D), due
funzioni omogenee dello stesso grado. (Ridefinendo x → −x se x0 < 0 ), la sostituzione y(x) =: x z(x) trasforma
l’equazione
dy v y (x, y)
= x , (x0 , y0 ) ∈ D nella :
dx v (x, y)
dz v y (1, z)
z+x = x , (x0 , z0 ) ∈ D, z0 := y0 /x0
dx v (1, z)
che si risolve implicitamente con la
- ) *−1 '
x z
v y (1, ζ) '
'
ln = −ζ dζ ' ,
x0 z0 v x (1, ζ) '
z=y/x

(si veda: [Petrovskj p.18]); tutte le curve integrali sono simili, con l’origine come centro di similitudine: y → cy, x →
cx, con c ̸= 0 .
È evidente che questo metodo si applica anche ad equazioni del tipo: y ′ = g(x, y) con g : R2 → R funzione
omogenea di grado zero.
) *
dy ax + by + c
Esempio 1.4.9 =g x0 , y0 ∈ R, dx0 + ey0 ̸= 0 con g : R → R, funzione regolare, e
dx dx + ey + f
con a, .' . . , f '∈ R , tali che |c| |f | ̸= 0.
'a b'
Se '' ' ̸= 0 esiste un unico punto (x̄, ȳ) intersezione delle due rette. Posto x =: ξ + x̄, y =: η + ȳ si ricava
d e'
facilmente ) * ) *
dη aξ + bη dζ a + bζ
=g =⇒ ζ + ξ =g .
dξ dξ + eη dξ d + eζ
' '
'a b'
Se invece ' ' ' = 0 , (pur restando |a| + |b| > 0, e |d| + |e| > 0), esiste σ ∈ R tale che a = σd, b = σe, e si
d e'
ha con z = (ax + by) = σ(dx + ey) :
) *
dy dz z+c
b = − a = bg z+f .
dx dx 1/σ
#
N.B. 1.4.10 Nel seguito di questo paragrafo si assumeranno x, y, z ∈ R; le funzioni v , v , µ, ν : R → R verranno x y 2

tutte considerate appartenenti a C 1 (D) per un conveniente aperto D ⊆ R2 , D ∋ (x0 , y0 ); e si supporrà che in
D entrambi i valori di v x , v y e di µ, ν siano non simultaneamente nulli.
Inoltre, la seguente notazione si intenderà valida con l’intesa di scegliere come variabile dipendente quella per
la quale la condizione iniziale (x0 , y0 ) ∈ R2 rende la corrispondente componente del campo determinata e non
nulla. Per esempio se v x (x0 , y0 ) è in R\{0} allora si intenderanno localmente equivalenti in N (x0 , y0 ) ⊆ R2 le
due espressioni
dy v y (x, y)
= x e v y (x, y) dx = v x (x, y) dy , (4.33)
dx v (x, y)
il che comporta che nell’intorno di punti nei quali è invece v y (x, y) ̸= 0 l’equazione che si pensa di risolvere è la:
dx v x (x, y)
= y e non la prima delle (4.33). Allo stesso modo, se ν : R2 → R, è tale che ν(x0 , y0 ) ̸= 0 , allora si
dy v (x, y)
equivarranno in N (x0 , y0 ) ⊆ R2 le
dy
ν(x, y) + µ(x, y) = 0 e µ(x, y)dx + ν(x, y)dy = 0 . (4.34)
dx
Questa notazione si può generalizzare al caso n ≥ 2 , e cioè con x := (x1 , . . . , xn ) ∈ Rn e con v := (v1 , . . . , vn ) : D ⊆ Rn → Rn ,
v ∈ C 1 (D) . Tuttavia ciò dà luogo a due possibili “estensioni”, diverse l’una dall’altra. Da un lato si può considerare la (4.33) come
un caso particolare di un’espressione del tipo
dx1 dx2 dxn
= = ... = , (4.35)
v1 (x1 , . . . , xn ) v2 (x1 , . . . , xn ) vn (x1 , . . . , xn )
da intendersi equivalente al sistema (per esempio)
dxi vi (x1 , . . . , xn )
= j 1 , i = 1, . . . , j − 1, j + 1, . . . , n
dxj v (x , . . . , xn )

M. Lo Schiavo
1.4. Esempi e casi notevoli 33

se nell’intorno di un punto x0 := (x10 , . . . , xn j


0 ) nel quale è v (x0 ) ̸= 0 (si veda: Cap.II). In particolare

dx1 dx2 dxn dt


= = ... = = (4.36)
v1 (t, x1 , . . . , xn ) v2 (t, x1 , . . . , xn ) vn (t, x1 , . . . , xn ) 1
può essere ritenuta equivalente per esempio al sistema
d i
x = vi (t, x1 , . . . , xn ) , i = 1, . . . , n .
dt
Dall’altro, la (4.33) può essere vista come caso particolare della sola espressione:
f1 (x1 , . . . , xn )dx1 + f2 (x1 , . . . , xn )dx2 + · · · + fn (x1 , . . . , xn )dxn = 0 , (4.37)
la quale però, per n > 2 , in generale non equivale ad alcuna equazione differenziale ordinaria risolubile in modo indipendente. Essa
infatti stabilisce “solo” un vincolo di ortogonalità, nel punto x = (x1 , . . . , xn ) , fra il vettore f(x) ∈ Rn ed uno dei vettori v(x) ∈ Rn
che possono comparire nella (4.35), e cioè un qualsiasi vettore di campo di un sistema del tipo ẋ = v(x) . ♦

Terzo caso notevole Equazioni differenziali esatte


(si vedano: [Ghizzetti II p.221] o anche: [Apostol III.7.19])

Memento 1.4.1 Si ricordino dapprima le seguenti definizioni.


Cammino semplice := Un cammino γ := {γ(τ )}τ ∈[t0 ,t] individuato da una funzione γ : τ ∈ [t0 , t] → x :=
x(τ ) ∈ D ⊂ R2 , γ ∈ C([t0 , t]) tale che dati comunque τ1 , τ2 ∈ [t0 , t], τ1 ̸= τ2 , si ha γ(τ1 ) ̸= γ(τ2 ).
Cammino generalmente regolare := Un cammino γ : [t0 , t] → D ⊂ R2 , γ ∈ C 0 ([t0 , t]) che ammette t0 <
t1 < t2 < . . . < tn := t tali che su ciascun Ii := (ti−1 , ti ) si ha γ ∈ C 1 (Ii ), con ∥γ̇∥ := (ẋ2 + ẏ 2 )1/2 > 0 ,
i = 1, 2, . . . , n .

Sia γ un Cammino generalmente regolare in Rn dato da x(t) = (x1 (t), .., xn (t)).
“Integrare una funzione scalare f : D9 → R,
' f=
1 n
: f (x , . . . , x ) lungo γ” significa sommare i valori ottenuti su
ciascuno degli archi regolari: γ i := γ(t) t ∈ Ii mediante la
'
- - ti /
f ds ≡ f (x(τ )) |ẋ(τ )|2 dτ ;
γi ti−1

e si osserva che il risultato è indipendente C dalla particolare parametrizzazione dell’arco γ i .


i=1 gk (x , . . . , x ) dx lungo γ i significa calcolare l’integrale
n 1 n k
“Integrare una forma differenziale lineare
@ n A
=- = D1 / - t=n
i
gk ẋ (τ ) |ẋ|2 dτ = gk (x1 (τ ), . . . , xn (τ )) ẋk (τ ) dτ .
i=1 γi k=1 t0 k=1

Forma esatta := Una forma differenziale del tipo:

µ(x, y)dx + ν(x, y)dy, con µ, ν : R2 → R, x, y ∈ R ,

si dice esatta su un dominio D ⊂ R2 quando esiste su D una funzione F : D → R che sia F ∈ C 1 (D) con
@ A @ A
∂x F (x, y) µ(x, y)
∇F (x, y) := = , (x, y) ∈ D .
∂y F (x, y) ν(x, y)

In tal caso, scelto un qualunque cammino semplice e generalmente regolare γ : [t0 , t] → D , la cui rappresentazione
parametrica sia x(τ ) ≡ (x(τ ), y(τ )) con x(t0 ) = p0 ≡ (x0 , y0 ) e x(t) = p ≡ (x, y), si ha:
- - t - t
dF
µdx + νdy := (µẋ + ν ẏ)dτ = dτ = F (x, y) − F (x0 , y0 ) .
γ t0 t0 dτ

Equivalentemente, lungo un qualunque cammino semplice e chiuso γ0 ⊂ D risulta, con T il periodo del ciclo γ 0,
- - t0 +t
µdx + νdy ≡ (µ(x(t))ẋ(t) + ν(x(t))ẏ(t)) dt
γ0 t0
- t0 +t
dF (x(t))
= dt = F (x(t0 + T)) − F (x(t0 )) ≡ 0 .
t0 dt

Note di Sistemi Dinamici


34 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Le precedenti considerazioni si estendono al caso generale, e cioè per una forma differenziale del tipo (4.37)
con n > 2 ed x ∈ Rn . Anche questa si dice esatta quando esiste una funzione (scalare) F = F (x) ∈ R il cui
differenziale totale uguaglia la forma stessa; e pertanto essa è tale che ∇F (x) = (f1 (x), . . . , fn (x)) . Come si vedrà
più diffusamente nel Cap.III, se n > 2 l’esattezza di una forma implica “solo” che il valore F (t) := F (! x(t)) non
muta lungo ciascuna delle soluzioni x : t &→ x !(t) := (x1 (t), . . . , xn (t)) di una qualsiasi delle equazioni ẋ = v(x)
che hanno campo v(x) che verifica
n
=
∇F (x) · v(x) ≡ fi (x1 , . . . , xn )v i (x1 , . . . , xn ) = 0,
i=1

e cioè quelle con campo v tangente in ogni suo punto a una superficie: F (x) = F0 .
Esempio 1.4.11 (continuazione dell’Esempio 1.4.5) ) *
−y/x
La funzione F (x, y) := x2 + y 2 ha valori costanti non solo lungo le soluzioni del campo , ma anche
) * ) * 1
y yx
lungo quelle dei campi: oppure , etc, (ma solo il secondo dei tre verifica la condizione di Shwartz,
−x −x2
cfr. oltre). #

Viceversa, nel caso n = 2 (ovvero 1 variabile scalare dipendente ed 1 indipendente), sussiste la seguente

Proposizione 1.4.1 Sia D ⊆ R2 aperto, x, y ∈ R, e µ, ν ∈ C 1 (D) a valori reali e non simultaneamente nulli.
* + ν(x, y)dy è esatta, e quindi esiste una funzione F : D → R, F ∈ C (D), tale che su D
1
Se la forma µ(x,) y)dx
µ
si abbia: ∇F = , allora il teorema della funzione implicita permette di risolvere la F (x, y) = c = F (x0 , y0 )
ν
e di ricavare la soluzione (generale) in D dell’equazione µ(x, y)dx + ν(x, y)dy = 0 , e cioè di una (qualsiasi)
) *
x
delle equazioni ẋ = v(x), con x(t) ∈ R , che hanno campo v(x) ortogonale a ∇F (x) nel punto x =
2
, per
y
esempio: dy/dx = v x /v y = −ν/µ, e sempre che sia µ(x, y) ̸= 0 , la x = x(y) tale che F (x(y), y) = F0 := F (x0 , y0 )
è la soluzione di

Dimostrazione Supposto, per esempio, che sia ∂x F (x0 , y0 ) ≡ µ(x0 , y0 ) ̸= 0, la: F (x, y) = F0 = F (x0 , y0 )
definisce implicitamente x = x(y) tale che:

• F (x(y), y) = F0 per ogni y in un conveniente intorno di y0 ;

• x(y0 ) = x0 ;

• x = x(y) è soluzione di
dx ν(x, y)
=− (4.38)
dy µ(x, y)
perché x = x(y) è tale che
+ ,
d dx
0= (F (x(y), y)) = µ(x, y) + ν(x, y) . (4.39)
dy dy x=x(y)

Si osservi che la (4.38) è equivalente al sistema



⎨ x′ = − ν(x, y) ,
µ(x, y) (4.40)
⎩ ′
y =1,

ed è quindi della forma: ) *


µ
ẋ = v(x), con x ∈ R2 , e con v ⊥ ∇F = .
ν
In effetti anche qui, come nel caso generale, ogni soluzione della (4.38) è tale da giacere su una delle superfici
F (x, y) = cost. Infatti lungo le soluzioni della (4.38), ed in forza della (4.39), si riconosce che la funzione F
conserva il valore F (x0 , y0 ) che essa assume nel punto iniziale. Come si vedrà in seguito, la funzione F è un
integrale primo del sistema (4.40).

M. Lo Schiavo
1.4. Esempi e casi notevoli 35

Memento 1.4.1 Sussistono i seguenti risultati classici.

Teorema 1.4.1 (della funzione implicita) , (si veda: [Apostol III.3.29])


Sia f : (x, y) ∈ D → f (x, y) ∈ R, con D := R × [a, b] ⊂ R2 , tale che ∂x f esista su D e verifichi 0 < m1 ≤
∂x f ≤ m2 per certe due costanti m1 , m2 ∈ R.
Se per ogni φ ∈ C 0 ([a, b]) anche la f ◦1 φ ∈ C 0 ([a, b]), ove (f ◦1 φ)(y) := f (φ(y), y), allora esiste ed è unica la
φ! ∈ C 0 ([a, b]) tale che f ◦1 φ! = 0 per ogni y ∈ [a, b].

1 7 8
Dimostrazione L’operatore S[φ] := φ − f ◦1 φ è contrattivo su C 0 ([a, b]), ∥ · ∥∞ . Infatti, siccome è
m2
possibile scrivere 0 1
f ◦1 φ = f ◦1 ψ + ∂x f ◦1 ψ& (φ − ψ)

per un’opportuna ψ& tale che ψ(y)


& ∈ [φ(y), ψ(y)], allora si ha che
' ' ' ' ' ) *'
' ' ' ' ' '
'S[φ] − S[ψ]' = 'φ − ψ − 1 (f ◦1 φ − f ◦1 ψ)' = '(φ − ψ) 1 − 1 ∂x f ◦1 ψ& '
' ' ' m2 ' ' m2 '
) *
m1
≤ 1− |φ − ψ|
m2

e quindi
m1
∥S[φ] − S[ψ]∥∞ ≤ k ∥φ − ψ∥∞ con k =1− < 1.
m2
"

Per cui, se f (x0 , y0 ) = 0 , l’unicità di φ! ed il fatto che ∂x f ̸= 0 assicurano che x0 = φ(y


! 0 ). Infatti la
f (·, y) è nulla in φ(y0 ) e monotona in N (x0 ).
Alternativamente, con ipotesi leggermente meno restrittive ed una dimostrazione meno snella, si ha il seguente

Teorema 1.4.2 (del Dini) , (si veda: [Avantaggiati II.2.1]) Siano f, ∂x f ∈ C 0 (D) con D ⊂ R2 aperto, e sia
(x0 , y0 ) ∈ D tale che
f (x0 , y0 ) = 0, ed ∂x f (x0 , y0 ) ̸= 0 .

Allora esistono h, k ∈ R+ ed una sola φ! : [Bh (y0 )] → [Bk (x0 )] tali che

! 0 ) = x0 ,
φ(y e che f ◦1 φ! = 0 su Bk (y0 ).

Dimostrazione Si supponga ∂x f (x0 , y0 ) > 0 . Esistono δ, h, m > 0 tali che [Bh (x0 )] × [Bδ (y0 )] =: Γ ⊂ D , e
che su Γ risulti ∂x f ≥ m > 0 .
Ma allora è f (x0 − h, y0 ) < 0 ed f (x0 + h, y0 ) > 0 , e quindi esiste 0 < k ≤ δ tale che f (x0 − h, y) < 0 ed
f (x0 + h, y) > 0 su Bk (y0 ).
Pertanto per ciascun ȳ ∈ Bk (y0 ) esiste x̄ ∈ Bh (x0 ) tale che f (x̄, ȳ) = 0 , e tale x̄ è unico giacché ∂x f > 0 .
Infine, la continuità della corrispondenza è provata, punto per punto, scegliendo h e k opportunamente piccoli.
"

Prendono il nome di esatte quelle equazioni differenziali che risultano le derivate totali di un’equazione di ordine
d
inferiore. Per esempio, l’equazione di Lighthill: ẍ+tẋ+x = 0 è del tipo dt (ẋ+tx) = 0 . Esse danno luogo, mediante
quadratura, ad un’equazione di ordine più basso, e consistono in un caso particolare di ortogonalità fra il vettore
f (x) := ∇F (x) di una forma esatta ed un vettore ẋ = (ẋ1 , . . . , ẋn ) espressi in funzione di un’unica variabile
dipendente e delle sue derivate di ordine superiore. Nell’esempio della equazione 7 di Lighthill si ha ∇F 8 (t, x) ≡
f (t, x) := (Ft ; Fx ; Fẋ ; . . . ; Fx(n) ) = (x; t; 1) che è ortogonale al vettore 1 ; ẋ ; ẍ ; . . . ; x(n+1) , e quindi
!(t))/dt = 0 .
dF (t, x
N.B. 1.4.12 Se µ(x, y) si annulla in qualche punto in D occorre cambiare il ruolo delle due variabili dipendente ed
indipendente: per la forma vista nell’Esempio 1.4.11: xdx + ydy vanno presi in considerazione quattro domı́ni;
ciò non toglie tuttavia che la funzione F (x, y) = x2 + y 2 sia del tutto regolare. ♦

Note di Sistemi Dinamici


36 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

N.B. 1.4.13 Per definizione, la funzione F è F ∈ C 1 (D), e quindi risulta necessariamente verificata la

Condizione di Schwartz δ(x, y) := ∂y µ(x, y) − ∂x ν(x, y) = 0, x, y ∈ D .

e cioè la forma è chiusa in tutto il dominio di regolarità D della funzione F .


L’opposto della funzione δ può essere interpretato sia (in dim = 2 ) come la divergenza del vettore: w :=
(ν, −µ), sia (in dim = 3 ) come la terza componente di un vettore ω tale che ω x = µ ed ω y = ν . ♦

In generale non è immediato capire se esista o meno una tale funzione F anche al di fuori del “conveniente
intorno” delle condizioni iniziali. A volte invece può succedere che se ne possa stabilire l’esistenza in modo semplice:
è ciò che accade quando la funzione δ(x, y) := ∂y µ(x, y) − ∂x ν(x, y) si annulla in tutti i punti di un aperto
semplicemente connesso: A.

Memento 1.4.1 Semplicemente connesso := Un aperto A ⊂ R2 si dice semplicemente connesso quando ogni
curva generalmente regolare semplice e chiusa contenuta in A è frontiera, in R2 , di un aperto connesso totalmente
contenuto in A.
Ciò è l’equivalente in dimensione due di quello che in dimensione tre si chiama:
Connessione lineare semplice := Un aperto A ⊂ R3 si dice a connessione lineare semplice quando ogni curva
generalmente regolare semplice e chiusa contenuta in A è frontiera, in R3 , di una superficie S generalmente
regolare totalmente contenuta in A.
Entrambi si possono anche enunciare richiedendo che ogni curva semplice chiusa sia “contraibile” ad un punto
in modo continuo senza uscire dall’insieme A.
Se A è semplicemente connesso, dato comunque un cammino semplice chiuso γ 0 ⊂ A si può assicurare
l’esistenza di un insieme regolare Γ ⊂ A ⊂ R2 che lo ha per frontiera, ove:
Insieme regolare := Un chiuso Γ ⊂ Rn che ammette una decomposizione finita: Γ = ∪ni=1 Γi fatta con Insiemi
normali o semplici {Γ1 , . . . , Γn } rispetto ad un (qualche) piano coordinato, e frontiera costituita da porzioni di
superficie regolari aventi a coppie al più punti (isolati) in comune.
Insieme in R3 normale rispetto al piano (x, y), o: z -semplice := un compatto Γ ⊂ R3 espresso da
⎧ ' ⎫
⎨ ' α(x, y) ≤ z ≤ β(x, y); α, β ∈ C 1 (D ⊂ R2 ), ⎬
'
Γ := (x, y, z) ∈ R3 '' ◦ .
⎩ ' α(x, y) < β(x, y) ⎭
∀(x, y) ∈D, D normale

Se A ⊂ R2 è semplicemente connesso sussistono le formule di Green secondo le quali, se µ, ν ∈ C 0 (A) e se γ 0


è semplice chiusa e bordo di Γ ⊂ A, si ha che:
- - -
(∂x ν(x, y) − ∂y µ(x, y)) dx dy = − δ(x, y)dx dy = µ(x, y)dx + ν(x, y)dy . (4.41)
Γ Γ γ0
) * ) *
ν +dy
Con la notazione v ∥ w := ed n dλ = la (4.41) si può anche leggere come la restrizione ad R2
−µ −dx
del teorema della divergenza (o di Gauss):
- H
div w dΓ = w · n dλ con Γ ⊂ R2 regolare, ∂Γ semplice e liscia, n uscente.
Γ ∂Γ

Solo per memoria si ricorsi che, in dimensione tre, sussistono le formule


- H
div w dV = w · n dσ con V ⊂ R3 regolare, ∂V orientata, n uscente,
V ∂V

da paragonare con quelle del teorema di Stokes:


- H
rot ω · n dS = ω · τ dλ , ω, n, τ ∈ C 1 (A, R3 ) . (4.42)
+S +∂S

nelle quali ω = (µ, ν, σ) ∈ C 1 (A, R3 ), n dS = (dy dz, dz dx, dx dy), e τ dλ = (dx, dy, dz). Inoltre, +∂S è una
curva semplice chiusa generalmente regolare, bordo di una superficie S orientata regolare e contenuta in A ⊆ R3 ;
quest’ultima esiste certamente purché A sia a connessione lineare semplice.

M. Lo Schiavo
1.4. Esempi e casi notevoli 37

Pertanto, se rot ω = 0 su un qualche insieme D a connessione lineare semplice, dal Teorema di Stokes segue
.p
che p0 ω · τ ds = F (p) − F(p0 ) qualsiasi sia il percorso semplice generalmente regolare che unisce p0 a p .
Allora necessariamente si ha ω = ∇F . Infatti, facendo passare il percorso per un arbitrario p′ := (x′ , y, z) con
.p
p′ ∈ Γ(p) ⊂ D ed x′ < x, si riconosce che ∂x F (p) = ∂x p0 ω x dx + 0 ≡ ω x ; ed analogamente per le altre derivate
parziali.

In definitiva, e con δ(x, y) := ∂y µ(x, y) − ∂x ν(x, y) = −div w = rotz ω , si ha che:

• in dim = 2 : la condizione div w = 0 in tutti i punti di un aperto semplicemente connesso A

• in dim = 3 : la condizione rot ω = 0 in tutti i punti di un dominio a connessione lineare semplice)

è condizione sufficiente (oltre che necessaria) perché si annulli l’integrale di linea della forma lungo una qualsiasi
curva semplice chiusa γ 0 contenuta in A. Quest’ultima condizione equivale all’esistenza della funzione F = F (x)
il cui differenziale totale uguaglia la forma su A. In particolare, in dim = 2 è garantita l’esistenza di F = F (x, y)
tale che (
) *
µ ∇F ∥ ω
∇F = , ovvero , e quindi tale che ∇F · τ dλ = dF .
ν ∇F ⊥ ω

Riassumendo (in dim = 2 ):


(
⇐ ∂y µ = ∂x ν, µ, ν ∈ C 1 in A semplicemente connesso
∃F ∈ C 1 (D) 1
⇒ ∂y µ = ∂x ν, µ, ν ∈ C in D aperto connesso.

Nota 1.4.1 Sapendo che la forma è esatta, e quindi che la funzione F esiste, per calcolarla è opportuno scegliere
percorsi convenienti; per esempio, per ogni (x0 , y0 ), (x0 , y) ∈ D ⊆ R2 si ha
- x - y
F (x, y) − F (x0 , y0 ) = µ(ξ, y)dξ + ν(x0 , η)dη ;
x0 y0

oppure altre analoghe espressioni, quali per esempio la:


- x - y
F (x, y) − F (x0 , y0 ) = µ(ξ, y0 )dξ + ν(x, η)dη .
x0 y0

Altre volte è invece conveniente agire come segue:


- x
∂x F (x, y) = µ(x, y) =⇒ F (x, y) = µ(ξ, y)dξ + r(y).

La derivata parziale rispetto ad y del secondo membro di quest’ultima deve uguagliare ν(x, y). Si risolve rispetto
a dr/dy e si integra in modo indefinito la funzione della sola y cosı̀ ottenuta; infatti
) * ) - x *
∂ dr ∂ ∂
= ν− µ(ξ, y)dξ = ∂x ν − ∂y µ = 0
∂x dy ∂x ∂y

Si ha in tal modo: - + - ,
y x
r(y) = ν(x, η) − ∂η µ(ξ, η)dξ dη.

Esempio 1.4.15 cos y dx − (x sin y − y 2 ) dy = 0 , (x, y) ∈ R2 .


Si ha ∂x ν = ∂y µ = − sin y. Pertanto F (x, y) = x cos y + r(y), e quindi

dr
−x sin y + = −x sin y + y 2 , che implica r(y) = (y 3 + c)/3
dy

da cui x(t) = (c − y 3 /3)/ cos y + c.


#

Note di Sistemi Dinamici


38 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

xdy − ydx
Esempio 1.4.16 , (x, y) ∈ R2 .
x2 + y 2
La forma è definita in un aperto D := R2 \{(0, 0)} . Tuttavia, anche se verifica la condizione di Schwartz ed esiste
arctan xy di cui essa risulta il differenziale totale:
) ′ * '
d 1 xy − y x2 d 0y 1 d '
'
arctan ξ = ⇒ = arctan ξ '
dξ 1 + ξ2 x2 x2 + y 2 dx x dξ ξ=y/x

c’è il problema che arctan(·) non è regolare, addirittura non è una' funzione, su tutto D . Occorre pertanto “tagliare”
il piano R2 \{(0, 0)} con, per esempio, l’insieme D− := {(x, y) ' y = 0, x < 0} e la forma resta allora esatta nel
complementare R2 \D− che risulta infatti semplicemente connesso. (Per definirvi in modo opportuno la funzione
F è opportuno procedere per quadranti; e tuttavia, per poterla adoperare ai fini della risoluzione di (una delle)
equazioni compatibili con essa, occorre far salve le usuali cautele su quale dei suoi coefficienti possa annullarsi: si
vedano anche i successivi due N.B.). #

Fattore integrante := una funzione ϖ : D → R per la quale si moltiplica la forma differenziale lineare
rendendola cosı̀ esatta. Per esempio, se n = 2 , ϖ è fattore integrante quando

ϖ (µ dx + ν dy) è tale che ∂y (ϖµ) = ∂x (ϖν) .

Esempio 1.4.17 (y 2 + y)dx − xdy , (x, y) ∈ R2 .


) *
1
La forma non è esatta; tuttavia, moltiplicandola per il fattore ϖ(x, y) := 1/y 2 si ha 1+ dx −
) * ) * ) * y
x 1 1 1
dy che è esatta e dà, per esempio, F (x, y) − F (x0 , y0 ) = (x − x0 ) 1 + +x − da cui segue
y2 y0 y y0
x
y= .
c−x
Naturalmente la soluzione y = 0 va considerata a parte. L’idea è che ϖ non deve introdurre nuove singolarità.#

Se µ, ν ∈ C 1 (D), ogni forma µ(x, y)dx + ν(x, y)dy ammette, localmente, un fattore integrante (cosı̀ come ogni
ẋ = v(t, x) con x ∈ Rn ammette n integrali primi dipendenti dal tempo ed indipendenti fra loro, come si vedrà
nel seguito); ma non sono noti metodi generali per trovarlo.
N.B. 1.4.18 Se ϖ è un fattore integrante, e quindi tale che ϖµ = ∂x F , ϖν = ∂y F , e se g : R → R è una
funzione regolare, allora ϖ g ◦ F è un altro fattore integrante, infatti in tal caso la condizione di esattezza diviene
∂y (ϖµ g ◦ F ) = ∂x (ϖν g ◦ F ) e fornisce ϖµ ∂y (g ◦ F ) = ϖν ∂x (g ◦ F ) che è una identità, data l’ipotesi su ϖ . ♦

Qualche idea sul come trovare il fattore integrante. Dovendo essere ∂y (ϖµ) = ∂x (ϖν), si ha:
1
∂y µ − ∂x ν = δ = (ν∂x ϖ − µ∂y ϖ) , (4.43)
ϖ
e allora, con un pò di fortuna, possono darsi i seguenti casi:

• δ/ν funzione solo di x, (oppure δ/µ funzione solo di y), ed allora si può scegliere ϖ funzione solo di x (o
di y ), e dalla (4.43) si ricava
- x ) - y *
δ δ
ln ϖ = + , oppure ln ϖ = − .
ν µ

δ
• funzione solo di x y ; posto allora ϖ = ϖ(x y), e quindi con
yν − xµ
- xy
δ
∂x ϖ = ϖ′ y, ∂y ϖ = ϖ′ x, si ha ln ϖ = + .
yν − xµ

δy 2
• funzione solo di x/y; posto allora ϖ = ϖ (x/y), e quindi con
yν + xµ
- x/y
1 −x δy 2
∂x ϖ = ϖ′ , ∂y ϖ = ϖ′ 2 , si ha ln ϖ = + .
y y yν + xµ

M. Lo Schiavo
1.4. Esempi e casi notevoli 39

−δx2
• funzione solo di y/x; posto allora ϖ = ϖ (y/x) , e quindi con
yν + xµ
- y/x
−y 1 −δx2
∂x ϖ = ϖ ′ , ∂y ϖ = ϖ ′ , si ha ln ϖ = + .
x2 x yν + xµ

Esempio 1.4.19 (continuazione dell’esempio 1.4.17)


Dalla δ = (2y + 1) + 1 segue
)- *
δ 2(y + 1) 2 2 1
= = che implica ϖ = exp − = .
µ y(y + 1) y y y2

Esempio 1.4.20 ẋ = −x/(t2 x − t) , t0 , x0 ∈ R .


δ ∂t µ − ∂x ν
Posto µ(x, t) := t2 x − t e ν(x, t) := x, l’equazione diviene µẋ + ν = 0 ; per cui si ha = =
µ µ
(2tx − 2) 2
= ⇒ ϖ = t−2 . Si ricava l’equazione (x−1/t)dx+(x/t2 )dt = 0 che fornisce ((x2 /2)−(x/t)) = cost.
t(tx − 1) t
Questa seconda equazione si può anche ricondurre alla: ẋ = (x/t) − x2 che verrà risolta in altro modo (si veda:
Esempio 1.4.24). #

N.B. 1.4.21 È chiaro che anche se può sembrare il contrario, l’equazione non muta quando viene moltiplicata
per ϖ , infatti essa rimane definita dal rapporto µ/ν e gli eventuali casi particolari vanno trattati direttamente su
questo rapporto. Per esempio xdy − ydx con ϖ = (x2 + y 2 )−1 dà F (x, y) = arctan xy , mentre con ϖ = x12 dà
1 y y y
x dy − x2 dx e cioè F (x, y) = x . Comunque il luogo di punti che contiene la soluzione è dato da x = cost, ed in
tutti i casi, l’equazione (nella variabile indipendente x) ha soluzioni fuori da x = 0 . ♦

Esempio 1.4.22 Specchio con proiezione all’infinito; x0 , y0 ∈ R .


y
®

µ
x
Sussistono le: θ = 2α,/ tan θ = 2 tan α/(1 − tan α), e cioè y/x = 2y /(1 − y ′2 ).
2 ′
Se ne ricava l’equazione
omogenea y ′ = (−x ± x2 + y 2 )/y da cui
/ y x
ydy + xdx = ± x2 + y 2 dx o anche / dy + / dx = ±dx ,
2
x +y 2 x + y2
2

0 / 1
che dà d x ± x2 + y 2 = 0 , e dunque la parabola: x2 + y 2 = x2 + c2 + 2cx.
È opportuno osservare che il campo che si è trovato è omogeneo di grado zero. #

Esempio 1.4.23 L’equazione lineare in R1 .

ẋ + p(t)x = q(t), con p, q ∈ C 0 (I), I ⊂ R chiuso, x0 ∈ R . (4.44)


.t
Il fattore integrante è ϖ(t) = exp( p(τ )dτ ) e con esso si ha
) - t * - t
d
x(t) exp p(τ )dτ = q(t) exp p(τ )dτ,
dt

Note di Sistemi Dinamici


40 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

(la costante di integrazione si può scegliere nulla perché rappresenta solo un fattore moltiplicativo per tutta
l’equazione). Di conseguenza si ha, per t, t0 ∈ [a, b] , la nota relazione:
.t
+ . - t0 .τ 1 ,
t0
x(t) = e− p(σ)dσ x0 e p(σ)dσ + q(τ )e p(σ)dσ dτ =
t0
) - t * - t ) - t * (4.45)
= x0 exp − p(σ)dσ + q(τ ) exp − p(σ)dσ dτ .
t0 t0 τ

Si noti che il fattore integrante si può ottenere con le tecniche viste prima, infatti in questo caso si ha
µ(x, t) = 1, ν(x, t) = p(t)x − q(t), δ(x, t) = ∂t µ(x, t) − ∂x ν(x, t) ,
e quindi
δ(t, x) ϖ̇(t)
≡ −p(t) che implica = p(t) .
µ(t, x) ϖ(t)
.t
Si noti infine che la funzione Φ(t) := ϖ−1 (t) ≡ exp −( p(τ )dτ ) è soluzione della equazione “omogenea associata”:
ẋ + p(t) x = 0 , e che il prodotto Φ(t)Φ−1 (t0 ) x0 è la soluzione, dell’omogenea associata, che vale x0 in t = t0 .
.t
Allo stesso modo si vede che il secondo addendo della (4.45), e cioé y&(t) := t0 Φ(t)Φ−1 (τ )q(τ ) dτ è soluzione
particolare della (4.44) che vale zero in t = t0 . #

Esempio 1.4.24 L’equazione di Bernoulli; t0 , x0 ∈ R .


ẋ + p(t)x = q(t)xα , con p, q ∈ C 0 (I), I ⊂ R chiuso, α ∈ N\{0, 1}.
Si moltiplichino ambo i membri dell’equazione per (−α + 1)x−α . Si ottiene
d −α+1
(x ) + (−α + 1)p(t)x−α+1 = (−α + 1)q(t),
dt
che è lineare e che quindi si può risolvere come visto nell’esercizio precedente. Ad esempio ẋ+tx = t/x3 implica
d 4 4
dt x + 4tx = 4t che dà - t
2t2 4 2 2
e x = 4te2t dt + e2t0 x4 (t0 ) =
t0
2 2 2
= (e2t − e2t0 ) + e2t0 x40 dalla quale segue
4 −2t2
x = 1 + ce .
d −1
Un altro caso è l’equazione vista nell’Esempio 1.4.20: ẋ = (x/t) − x2 che dà dt (x ) + x−1 /t = 1 da cui
ottenere: + ,−1
1 t0
x(t) = t (t2 − t20 ) + .
2 x0
#
Esempio 1.4.25 L’equazione di Riccati; t0 , x0 ∈ R .
ẋ + p(t)x = q(t)x2 + r(t), con p, q, r ∈ C 0 (I), I ⊂ R chiuso .
L’equazione non ha metodi generali di risoluzione. Se però si conosce una soluzione x1 allora, ponendo x =:
x1 + (1/ξ) si ricava la soluzione generale. Sostituendo, infatti, si ottiene l’equazione lineare:
ξ˙ + [2qx1 − p](t)ξ = −q(t) .
Un caso particolare di questa equazione è quelli in cui p(t) = 0, q(t) = cost =: b . Si ha allora la:
2
Equazione speciale di Riccati: ẋ + bx = r(t)
che si trasforma ponendo bx =: u̇/u, ed ottenendo di conseguenza
ü u̇2 ü
bẋ = − = − b2 x2 , dalla quale segue ü = br(t)u .
u u2 u
Anche quest’ultima si può risolvere quando se ne conosca una soluzione (cfr oltre); tuttavia, è comunque possibile
discuterla in modo qualitativo.

M. Lo Schiavo
1.4. Esempi e casi notevoli 41

N.B. 1.4.26 Vi possono essere più modi alternativi per risolvere una stessa equazione: ad esempio la (x2 + y 2 )dy +
2xydx = 0 è omogenea, è esatta, ed è anche risolubile “a occhio” osservando che equivale a d(x2 y) = −d( 13 y 3 ). ♦

Esempio 1.4.27 Catenaria; x0 , y0 ∈ R .


y ¿
p µ
o
¿0
0
x
Le ipotesi sono: la tensione
/ τ è tangente, la densità funzione della ascissa curvilinea λ la quale, come è noto, è

definita da: dλ/dx = 1 + y ′ 2 . Si ha τ cos θ = τ0 , τ sin θ = peso di arc(op) =: 0 ρ(σ)dσ .
-
dy 1 λ
Segue = tan θ = ρ(σ)dσ , da cui l’equazione
dx τ0 0

d2 y 1 dλ ρ(λ) /
2
= ρ(λ) = 1 + (y ′ )2 ,
dx τ0 dx τ0

che è risolubile per separazione di variabili. Per il ponte sospeso si ha x &→ ρ(x) = cost, e quindi la prima
′′
di queste due equazioni / dà immediatamente y = cost. Invece, con l’ipotesi λ &→ ρ(λ) = cost e posto
′ 2
y =: η/ , si ricava (1/ 1 + η )dη = kdx, da cui (usare un’ottima tavola di integrali o un computer) segue
ln(η + 1 + η 2 ) = kx. Essendo η(0) = 0 risulta infine η = 12 (ekx − e−kx ), ovvero y(x) = k1 cosh kx. #

Esempio 1.4.28 Curve di inseguimento x0 , y0 ∈ R.


y
q
µ

p ¸ p0
q0
o x
Con le posizioni:
) * ) * /

→ 0 −
→ x(t)
oq(t) = , op(t) = , a = cost, b := |λ̇| = ẋ2 + ẏ 2 = cost,
at y(t)

si considera il problema di moto (in figura è a t0 = y0 )

dy a(t − t0 ) − (y − y0 )
y ′ := = .
dx −x
Ne segue: x y ′ = −a(t − t0 ) + (y − y0 ), e quindi x y ′′ = −a dt/dx .
D’altra parte, detta λ l’ascissa curvilinea decrescente con x, e detti ⃗τ il versore tangente alla curva, ⃗e1 quello
dell’asse delle x, e θ l’angolo che essi formano, si riconosce che sussiste anche la relazione

dx dλ dx −1
= = λ̇ / .
dt dt dλ 1 + (y ′ )2

Sostituendo quest’ultima nella precedente si ricava l’equazione a variabili separabili


/ /
x y ′′ = a 1 + y ′2 /λ̇ = a 1 + (y ′ )2 /b .

Pertanto
dη a
/ = dx ,
1+η 2 b

Note di Sistemi Dinamici


42 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

che dà ) *
/ a x
2
ln(η + 1 + η ) = ln
b x0
e cioè I) *a/b ) *−a/b J
dy 1 x x
:= η = − .
dx 2 x0 x0
#
Esempio 1.4.29 Una barca punta verso un faro, con velocità (locale) di modulo v costante, ma subisce una
corrente al traverso di velocità costante: w .
y
µ

v
w
O´ F
x
( −̇
→ ) * ) *
op = v vers ⃗v + w ⃗e2 ẋ −v cos θ

→ ⇒ = .
−vers ⃗v = vers op = cos θ⃗e1 + sin θ⃗e2 ẏ −v sin θ + w
Si ottiene l’equazione omogenea:
/
′ w y w x2 + y 2
y = tan θ − = −
v cos θ x v x


che si risolve ponendo y =: zx e quindi xz = −w 1 + z 2 /v . Ne seguono
/ / 0 x 1−w/v
ln(z + 1 + z 2 ) = ln x−w/v =⇒ z + 1 + z2 = =⇒
)0 1 * ) a *
1 x −w/v 0 x 1+w/v a 0 x 11−w/v 0 x 11+w/v
z= − =⇒ y = − ,
2 a a 2 a a
e cioè
a
7 8
(i) w = v, ⇒ y = 2 1 − x2 /a2 , una parabola che non passa per l’origine;
x
(ii) w > v, ⇒ y −→ ∞, eventualità peggiore della precedente;
0
x
(iii) w < v, ⇒ y −→ 0 , e si ha successo solo in questo caso.
0
#

Esempio 1.4.30 Riduzione di ordine. Siano ancora t0 , x0 , y0 ∈ R .


Si possono ridurre ad equazioni del primo ordine e senza aumentare la dimensione dello spazio della variabile
dipendente, le seguenti equazioni:
(i) f (ẍ, ẋ, t) = 0 mediante l’ovvia posizione y := ẋ .
(ii) f (ẍ, ẋ, x) = 0 mediante la sostituzione: t ↔ x come variabile indipendente. Ne seguono, con ẋ = y , le:
d d
ẍ = ẋ ẋ = y y , e si ottiene la
dx dx ) *
dy
f y , y, x = 0.
dx
dx
L’esplicita dipendenza da t si ricava poi risolvendo la dt = y(x).
È da notare che in tal modo si introduce una singolarità (d’altra parte questa non è la solita riduzione di
ordine), tuttavia ciò accade lı̀ dove la sostituzione t ↔ x non è lecita.
(iii) Procedimenti simili a quello del punto (ii) possono però risultare vincenti. Si consideri, per esempio, la
ẍ+f (x)ẋ2 +p(x) = 0 . Addirittura con y = 12 ẋ2 essa fornisce: ẋ y ′ = ẋ ẍ e questa dà: y ′ +2f (x)y+p(x) =
0.
#

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 43

Esempio 1.4.31 Brachistocrona. x0 , z0 ∈ R .


Si consideri un elemento pesante vincolato senza attrito ad una linea semplice; questa sia contenuta in un piano
verticale e congiunga due punti fissi: p e q del piano. Si chiede quale sia la forma da attribuire alla linea affinché
essa venga percorsa, in caduta, nel minimo tempo.
Supponendo una spezzata descritta con velocità costanti v1 e v2 , si ha che
B B
2
a2 + x2 b2 + (c − x)
∆t = +
v1 v2
ove a, b, c sono definite in figura
p x c
®1 x
a

b q
z
Per derivazione si ottiene ∆tmin per x tale che
x c−x sin α1 sin α2
B = / ; e quindi = .
v2 b + (c − x)2
2 v1 v2
v1 a2 + x2

sin α
Si assume allora = cost come legge di minimo tempo.
v
√ ẋ 1
D’altra parte la conservazione dell’energia dà v = 2gz, mentre è sin α = B = / . Si
ẋ2 + ż 2 1 + (z ′ )2
) *
dz 2
ottiene cosı̀: 1 + ( ) z = k, da cui:
dx
- x - z ) *1/2
ζ
dξ = dζ .
0 0 k−ζ
) *1/2
ζ .θ
Posto =: tan φ, ovvero ζ = k sin2 φ, si ha infine x=k 0
(1 − cos 2φ)dφ la cui soluzione è la
k−ζ
cicloide: ⎧
⎪ k
⎨ x = (2θ − sin 2θ)
2
⎪ k
⎩ z = (1 − cos 2θ) .
2
#

1.5 Equazioni lineari scalari del secondo ordine


In questo paragrafo, invece della (pesante seppur corretta) notazione x !(t) ∈ Rn per indicare i valori x = x
!(t) della
funzione moto x ! : J → R definita da: x
n ! : t &→ x
!(t) := φ(t, t0 , x0 ), si userà quella imprecisa, ma sensibilmente
più snella, x = x(t). Con x quindi si indicherà (salvo esplicito contrario avviso) non solo un qualche vettore in
Rn , ma anche la funzione x : I → R il cui valore in t è x = x(t) ∈ Rn . Rimangono ovviamente in Rn i valori
iniziali x0 = x(t0 ).
Pur essendo riconducibili ad equazioni del primo ordine in R2 , alcune tecniche delle equazioni scalari del secondo
ordine sono di per sé interessanti, e vale la pena considerarle separatamente dal caso più generale di Rn . D’altra
parte, la bassa dimensionalità favorisce la notazione, per cui sarà conveniente usare le equazioni del secondo ordine
proprio come modello per introdurre il procedimento di passaggio da sistemi di ordine superiore a sistemi del primo
ordine in spazi ad un numero maggiore di dimensioni.
Cosı̀ come accade per l’equazione ẋ = v(t, x) seppure solo per x(t) ∈ R, anche per la ẍ = f (t, x, ẋ) con
x(t) ∈ R non esistono metodi generali di risoluzione analitica. Perfino il caso più semplice, quello delle equazioni

Note di Sistemi Dinamici


44 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

lineari, in generale non può essere risolto in forma chiusa ed in termini di funzioni elementari, a meno che sussistano
particolari condizioni sui coefficienti o che sia possibile ricorrere a sviluppi in serie di convenienti funzioni.
È chiaro però che valgono i teoremi generali per i quali, se f, ∂x f, ∂ẋ f sono continue in un aperto D ⊂ R3 ,
allora dato comunque (t0 , x0 , ẋ0 ) ∈ D esiste una ed una sola soluzione: φ : (t, t0 , x0 , ẋ0 ) &→ φ(t, t0 , x0 , ẋ0 ), continua
rispetto alle ultime tre variabili in un conveniente intorno di (t0 , x0 , ẋ0 ), definita e differenziabile almeno in un
conveniente intorno di t0 , e tale che φ(t0 , t0 , x0 , ẋ0 ) = x0 , φ̇(t0 , t0 , x0 , ẋ0 ) = ẋ0 ; essa inoltre risulta prolungabile fino
alla frontiera di un qualunque sottoinsieme di D che sia chiuso e limitato (in norma) e che contenga (t0 , x0 , ẋ0 ).
L’unico altro caso “quasi
. x semplice” è quello in cui l’equazione si riduce a: ẍ = f (x). Questa dà senza troppa
difficoltà la nota: 12 ẋ2 − f (ξ)dξ = cost, che permette un’ampia discussione qualitativa. Ciò non toglie però che
anche in questo caso non è possibile, in generale, fornire la soluzione x = x(t) in forma chiusa; infatti l’integrale
- x - ξ

/ , con V (ξ) := − f (η)dη ,
2(E − V (ξ))
non è quasi mai esprimibile con funzioni elementari, o comunque con funzioni facilmente invertibili. Il caso
ẍ = f (x) verrà trattato in dettaglio nel Cap.III.
È opportuno invece anticipare qui la discussione delle equazioni lineari in R2 :
ÿ + p(t)ẏ + q(t)y = r(t), p, q, r ∈ C 0 (I); I chiuso ⊂ R , y ∈ R .
A tale scopo, sarà opportuno pensare ai punti di R2 in modo astratto, e cioè non conseguente alla scelta di una
specifica base, e quindi riconoscere ad R2 (o più in generale ad Rn ) la struttura di spazio vettoriale.
Memento 1.5.1 Uno Spazio vettoriale V è un gruppo commutativo che è un modulo su un campo K (con
operazioni “ + ”, “ · ”). Esso cioè è un gruppo commutativo con operazione “ ⊕ ”, distributivo rispetto alle
operazioni “ + ”, “ · ”, e “ ⊕ ”, e che accetta l’unità moltiplicativa del campo. L’operazione “ ⊕ ” viene
perciò generalmente indicata anch’essa con “ + ”.
Una Base e per uno spazio V è un insieme e := {e1 , . . . , en } di vettori linearmente indipendenti e che sia
massimale: ogni x ∈ V può essere espresso (in modo unico) come combinazione lineare degli elementi {ei }i=1,...,n .
In tal caso, lo spazio V si dice n-dimensionale, ed i numeri {xi }i=1,...,n tali che x = xi ei formano la n-pla
x ∈ Rn che la base e fa corrispondere in Rn al vettore x ∈ V.
Scelta in esso una base, uno spazio vettoriale reale (e cioè con campo K ≡ R) resta cosı̀ rappresentato da Rn e
ciò permette di agire su di esso mediante le usuali operazioni per componenti e regole di trasformazione fra n-ple di
numeri reali. In queste note si tratterà regolarmente con spazi vettoriali reali, e solo saltuariamente (per esempio
nel Cap.II e nelle appendici) sarà opportuno considerare V come “parte reale” n-dimensionale di un conveniente
spazio C V ≡ R2n sul campo C dei numeri complessi.
Dati due spazi vettoriali V e V′ sullo stesso campo numerico K si definisce
Operatore lineare T := una funzione T : x ∈ V &→ T [x] ∈ V′ tale che

c1 , c2 ∈ K, x1 , x2 ∈ V, implicano T [c2 x1 + c2 x2 ] = c1 T [x1 ] + c2 T [x2 ] .


Sia K ≡ R. La scelta delle basi e := {e1 , . . . , en } , e ′ := {e′1 , . . . , e′m } assegna a ciascun operatore lineare T
da V ≡ Rn in V′ ≡ Rm una matrice T reale m × n, che muterà, al cambio di base, nella τ secondo le note
regole di trasformazione:
( (
ϵh = Peh ≡ pih ei xh = phi ξ i
Se allora e T = p ′ τ p −1 .
ϵh = P eh ≡ pih ei
′ ′ ′ ′ ′
(xh )′ = p′hi (ξ i )′
Fissate le basi, fra le matrici che corrispondono ad altrettanti operatori si opera con le usuali regole del prodotto
righe per colonne.
Lo spazio degli operatori lineari su V viene indicato con L(V), o con L(V, V′ ) se è opportuno specificare anche
lo spazio V′ nel quale essi assumono valori.
All’occorrenza, lo spazio V viene dotato di un prodotto scalare: ⟨ ·, · ⟩ : V2 → R+ ∪ {0} mediante il quale
1/2
stabilire la lunghezza di un vettore: |x| := ⟨ x, x ⟩ .
Un primo risultato importante relativo alle equazioni lineari è il seguente.
Proposizione 1.5.1 La soluzione massimale dell’equazione lineare omogenea (non autonoma)
ẋ = T (t) x , (t0 , x0 ) ∈ R × V ≡ Rn , T : I → L(V), I chiuso ⊂ R ,
esiste almeno su tutto l’intervallo I di continuità dei coefficienti T ∈ C 0 (I).

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 45

Dimostrazione Dato che il campo è del tutto regolare rispetto ad x ∈ V, la frontiera al dominio D può essere
generata soltanto da eventuali non regolarità rispetto alla variabile indipendente t.
D’altra parte, come si vedrà, il campo v = T x ha lunghezza (indotta da un qualche prodotto scalare su
V) che cresce meno di c|x|, ove c ≡ ∥T ∥ è una conveniente costante reale positiva dipendente dall’intervallo di
regolarità: I dei coefficienti). È pertanto possibile effettuare la stima
' ' ' '
'd '
' |φ(t)|2 ' = ''2⟨ φ(t), φ̇(t) ⟩'' = 2 |⟨ φ(t), T (t)φ(t) ⟩|
' dt '
2
≤ 2 |φ(t)| |T (t)φ(t)| ≤ 2cI |φ(t)| ,

che fornisce, per ogni t ∈ I , la disuguaglianza


' '
' |φ(t)|2 '
'ln '
' |φ0 |2 ' ≤ 2cI |t − t0 | .

Quest’ultima implica che la soluzione φ : (t, t0 , x0 ) &→ φ(t, t0 , x0 ) non può raggiungere la superficie laterale del
cilindro (ad esempio):
; ' <
'
(τ, x) ∈ R × V ' τ ∈ [t0 , t]; |x| ≤ 2 |x0 | ec(t−t0 ) , ε > 0 .

Se ne conclude che essa arriva fino al disco τ = t, e quindi rimane definita fintanto che lo sono i coefficienti
T (t) ∈ L(V). Pertanto nel seguito si assumerà senz’altro I ⊂ JM ⊆ R. "

Anche se per certi versi il caso delle equazioni lineari è particolarmente semplice, tuttavia anche per esso lo
studio esplicito delle loro soluzioni richiede metodi non banali quali per esempio metodi approssimati, qualitativi,
o addirittura perturbativi. A questo fa eccezione il solo sotto-caso particolare delle equazioni lineari a coefficienti
costanti, per le quali infatti (e solo per esse) esiste un algoritmo generale di risoluzione che verrà esaminato in
seguito.
Quando i coefficienti dipendono esplicitamente dal tempo, si può “solo” dire che le soluzioni sono esprimibili
per mezzo di altre soluzioni, e ne bastano poche.
Siano n ≥ 2 ed ℓ ≥ 0 . Sullo spazio C n≥2 (I) delle funzioni t ∈ I ⊂ R &→ x(t) ∈ R di regolarità n, si consideri
l’operatore
L : C n (I) → C m (I), I chiuso ⊆ R, m = inf{ℓ, n − 2},
) 2 *
d d
L[ · ](t) := + p(t) + q(t) , p, q : I → R, p, q ∈ C ℓ (I).
dt2 dt
L’operatore L è un Operatore lineare sullo spazio (vettoriale) C n≥2 (I), e quindi tale che, identicamente rispetto
a t ∈ I , si ha che

c1 , c2 ∈ R, x1 , x2 ∈ C n (I) implicano L[c1 x1 + c2 x2 ] = c1 L[x1 ] + c2 L[x2 ] .

Ne segue che se x1 è tale che L[x1 ] = 0 anche L[c2 x1 ] = 0 , e che se anche x2 è tale che L[x2 ] = 0 allora
L[c x1 + c2 x2 ] = 0 per ogni scelta c1 , c2 ∈ R. (Ovviamente, lo zero a secondo membro sta per la funzione
1

identicamente nulla su I ).
Si supponga ora di conoscere una (particolare e possibilmente comoda) soluzione dell’equazione

L[y](t) = ÿ + p(t)ẏ + q(t)y = r(t) ; (5.46)

sia essa:
y& : J ⊃ I → R, y& ∈ C n (J), y (t0 ), y&˙ (t0 )) = (&
(& y0 , y&˙ 0 ) ∈ R2 ,
(5.47)
y&(t) := φ(t, t0 , y&0 , y&˙ 0 ) e cioè L[&
y ](t) = r(t), per t∈J ⊃I .
Ci si domanda come possano essere espresse le altre soluzioni y : J ⊃ I → R

y : t &→ y(t) := φ(t, t0 , y0 , ẏ0 ) tali che L[y] = r .

Per la linearità di L, non potrà che essere

L[y] − L[&
y ] = L[y − y&] = r − r = 0 ,

Note di Sistemi Dinamici


46 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

da cui segue la condizione necessaria: y = x + y&, ove x è soluzione di:

L[x] = 0 ovvero ẍ + p(t)ẋ + q(t)x = 0, p, q ∈ C ℓ≥0 (I), (5.48)

e si noti che y, y& sono arbitrarie, e cioè sono arbitrarie le quattro costanti relative ai dati iniziali y0 , ẏ0 , y&0 , y&˙ 0 ∈ R.
Di queste le seconde due sono scelte secondo criteri di convenienza, le prime due sono imposte dal problema concreto
che si deve risolvere.
Si ricava quindi facilmente il seguente criterio.
Nota una soluzione particolare y& : t &→ y&(t) := φ(t, t0 , y&0 , y&˙ 0 ) su J ⊃ I dell’equazione L[y] = r , si conosce
y : t &→ y(t) := φ(t, t0 , y0 , ẏ0 ) soluzione generale della stessa equazione L[y] = r , se e solo se si conosce
x : t &→ x(t) := φom (t, t0 , x0 , ẋ0 ) soluzione ) * )su J ⊃ *
generale I dell’equazione omogenea associata L[x] = 0 , con
x0 y0 − y&0
(x0 , ẋ0 ) arbitrarie, “per esempio” tali che: = , e risulta y(t) = y&(t)+x(t) per ogni t ∈ J ⊃ I .
ẋ0 ẏ0 − y&˙0
Infatti

(i) essa è soluzione dato che L[y] = L[&


y ] + L[x] = r ;
(ii) verifica le condizioni iniziali dato che y(t0 ) = y&(t0 ) + x(t0 ) = y&0 + y0 − y&0 = y0 ;
(iii) è la sola soluzione che esca da queste condizioni iniziali dato che di tali soluzioni ce n’è solo una.

Sempre per le proprietà di linearità ed unicità delle soluzioni, se x1 , x2 sono certe due funzioni note, soluzioni
particolari ma non nulle della L[x] = 0 , e cioè se si ha

x1 : t &→ x1 (t) := φom (t, t0 , x1 |0 , ẋ1 |0 ),


(5.49)
x2 : t &→ x2 (t) := φom (t, t0 , x2 |0 , ẋ2 |0 ) ,

un’arbitraria x : t &→ x(t) := φom (t, t0 , x0 , ẋ0 ) (e cioè con x0 , ẋ0 arbitrari) è esprimibile nella specifica forma la:
x(t) = c1 x1 (t) + c2 x2 (t), se e solo se essa verifica le condizioni iniziali, e cioè se e solo se esistono le costanti
c1 , c2 ∈ R tali che i sei numeri (x0 , ẋ0 , x1 |0 , ẋ1 |0 , x2 |0 , ẋ2 |0 ) , (non banali ma, per il resto, qualsiasi), verificano le
(
x0 = c1 x1 |0 + c2 x2 |0
(5.50)
ẋ0 = c1 ẋ1 |0 + c2 ẋ2 |0 ,

(anche in questo caso gli ultimi quattro dei sei valori detti sono fissati secondo criteri di convenienza, ed i primi
due sono invece quelli che devono verificare le condizioni imposte dal problema); in tal caso infatti, con un
ragionamento analogo a quello visto sopra, si prova che tale x(t) è soluzione della (5.48), e verifica le date condizioni
iniziali (5.50).
Si osserva che, affinché per un’arbitraria scelta del dato (x0 , ẋ0 ) possano esistere unici i coefficienti c1 , c2 è
necessario e sufficiente che: posto ' '
'x1 (t) x2 (t)'
'
W (t) := ' ',
ẋ1 (t) ẋ2 (t)'
si abbia ' '
'x1 |0 x2 |0 ''
' = W (t0 ) ̸= 0 (5.51)
'ẋ1 |0 ẋ2 |0 '
ed allora le due soluzioni x1 ed x2 si dicono linearmente indipendenti.
Dunque, siccome per entrambe le equazioni (5.48),(5.46) la soluzione è unica (per quei t per i quali esiste), si
è provato che per assegnati comunque (y0 , ẏ0 ) ∈ R2 la soluzione della (5.46) uscente da tali condizioni iniziali sarà
certamente ed univocamente esprimibile con:

y : t &→ y(t) = c1 x1 (t) + c2 x2 (t) + y&(t), t∈J ⊃I ,

purché x1 , x2 siano tali da verificare la (5.48) con dati iniziali che verificano la (5.51), ciò implicando l’esisten-
za di c1 , c2 tali da verificare la (5.50), e sempre che y& sia una certa soluzione nota, ma per il resto qualsiasi,
dell’equazione di partenza L[y] = r .
Lo spazio delle fasi V dell’equazione lineare omogenea L[x] = 0 e quello delle sue soluzioni sono spazi vettoriali
isomorfi, [Arnold]; le soluzioni si combinano fra loro linearmente cosı̀ come lo fanno i vettori (x0 , ẋ0 ) ∈ R2 che
ne esprimono le condizioni iniziali; se in t0 c’è una certa dipendenza lineare fra le condizioni iniziali di certe
soluzioni, la stessa dipendenza rimane valida fra i valori assunti all’istante t dai corrispondenti evoluti (x(t), ẋ(t)).

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 47

Data l’unicità delle funzioni soluzioni in corrispondenza a ciascuna scelta in V delle condizioni iniziali, la stessa
dipendenza lineare sussiste allora fra le funzioni soluzioni.
D’altra parte, sebbene la scelta delle soluzioni di base possa dipendere dal particolare istante iniziale t0 , l’essere
queste linearmente indipendenti non muta al variare di t. Per convincersene, siano x1 , x2 ∈ C n (J ⊃ I) soluzioni
di L[x] = 0 e tali da verificare (5.51). Queste stesse soluzioni possono essere usate per rappresentare la generica
x = x(t) anche qualora per essa si scelga un altro & t0 , e cioè esse stesse continuano ad essere funzioni soluzione
linearmente indipendenti. Basta notare infatti che dalle L[x1 ] = L[x2 ] = 0 segue subito
d
W = (x1 ẍ2 − x2 ẍ1 ) = x1 (−pẋ2 − qx2 ) + x2 (pẋ1 + qx1 )
dt
= −p (x1 ẋ2 − x2 ẋ1 ) = −p W ,

e questa si risolve nella )- *


t
W (t) = W (t0 ) exp −p(τ )dτ . (5.52)
t0

Per cui se W (t0 ) ̸= 0 ed x1 , x2 sono soluzioni di L(x) = 0 allora per ogni t si ha W (t) ̸= 0 : due soluzioni che
in un istante sono linearmente indipendenti lo saranno in ogni altro istante (immediata conseguenza, d’altra parte,
del teorema di unicità).
Ciò implica in particolare che il problema dato: (5.48) ammette almeno ed al più due soluzioni che sono
linearmente indipendenti: per esempio quelle) * che, fissata arbitrariamente
) * la base nello spazio delle fasi V ≡ R2 ,
1 0
nell’istante iniziale valgono: x1 |0 = e1 = , ed x2 |0 = e2 = .
0 1
In definitiva il problema è quello di determinare x1 , x2 , y& .
Nel caso particolare di un operatore del secondo ordine, come quello in esame:
+ 2 ,
d d
L[x](t) ≡ + p(t) + q(t) x(t) ,
dt2 dt
pur non essendo disponibile una formula risolvente generale come quella vista nell’Esempio 1.4.23 per l’equazione
del primo ordine, tuttavia ci si può ricondurre ad essa in casi speciali. Per esempio sussiste il seguente importante
risultato: qualora sia nota una soluzione dell’equazione omogenea associata, la si scelga come una delle due funzioni
di base: x1 , è possibile ricavarne un’altra: x2 con W (t0 ) ̸= 0 . Basta a questo scopo definire la funzione v mediante
la x2 =: vx1 e ricavare:
L[vx1 ] = v̈x1 + 2v̇ ẋ1 + vẍ1 + p(v̇x1 + v ẋ1 ) + qvx1 =
(5.53)
= v̈x1 + (2ẋ1 + px1 ) v̇.
Si introduca la - t) * - t
ẋ1 (τ )
ϖ(t) := exp 2 + p(τ ) dτ ≡ x21 (t) exp p(τ )dτ .
x1 (τ )
d
Si riconosce che la funzione ϖ è un fattore integrante per la (5.53), mediante il quale: L[vx1 ]ϖ/x1 = dt (ϖv̇) .
Risulta pertanto
L[vx1 ] ≡ L[x2 ] = 0 purché sia v̇ ϖ = κ1 = cost .
Segue - - ) - *
t t τ

v(t) = κ2 + κ1 := κ2 + κ1 x−2
1 (τ ) exp − p(ξ)dξ dτ ,
ϖ(σ)
ed è lecito scegliere κ1 = 1 dato che si tratta di una costante moltiplicativa inessenziale, e κ2 = 0 perché altrimenti
si avrebbe nuovamente l’addendo x1 .
Per la funzione x2 si ottiene in tal modo l’espressione:
- t - t ) - τ *
dτ −2
x2 (t) = x1 (t) = x1 (t) x1 (τ ) exp − p(ξ)dξ dτ ,
ϖ(τ )
e questa in effetti fornisce, per ogni t ∈ J ,
) - t *
W (t) = (x1 v̇x1 + vx1 ẋ1 − vx1 ẋ1 )(t) = exp − p(ξ)dξ ̸= 0 .

Nota 1.5.1 Il procedimento può essere applicato anche ad equazioni non omogenee (si veda: [Tenenbaum p.244]).
Infatti data l’equazione L[y] = r , e nota x1 soluzione dell’equazione omogenea L[x1 ] = 0 , se si impone y := vx1

Note di Sistemi Dinamici


48 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

si ricava la condizione: L[y] = v̈x1 + (2ẋ1 + px1 )v̇ = r che è lineare in v̇ . Lo stesso fattore integrante del caso
omogeneo: - t) * ) - t *
ẋ1 1 ϖr
ϖ(t) := exp 2 +p fornisce : v̇(t) = κ1 + .
x1 ϖ(t) x1
Ne segue che la funzione y definita da
+ - t) - σ * ,
κ1 1 ϖ(τ )r(τ )
y(t) = v(t)x1 (t) = x1 (t) κ2 + + dτ dσ
ϖ(σ) ϖ(σ) x1 (τ )

è la soluzione generale dell’equazione (5.46), (provare per credere!). ◃

La cosa è assai utile quando si è in presenza di equazioni che abbiano almeno una soluzione facilmente
riconoscibile:
Esempio 1.5.2 f (t)ẍ + tẋ − x = 0 , t0 , x0 ∈ R .
.t 2
x1 (t) = t è soluzione; quindi ϖ(t) = t2 exp τ f −1 (τ )dτ ; per esempio se f (t) = 1 si ha ϖ(t) = t2 et /2 , e si ricava
. t −2 −τ 2 /2
x2 (t) = t τ e dτ . #

Esempio 1.5.3 ẍ − f (t)ẋ + (f (t) − 1)x0= 0 , t0 , x0 ∈ 1R .


.t
t
x1 (t) = e è soluzione; quindi ϖ(t) = exp 2t − f (τ )dτ . #

Altri casi fortunati si possono cercare procedendo per tentativi:


Esempio 1.5.4 ẍ + p(t)ẋ + q(t)x = 0 , t0 , x0 ∈ R , p, q ∈ C 0 (I) .
Si può provare a trasformare l’equazione mediante la trasformazione

τ = τ (t), ∂t = τ̇ ∂τ , ∂t2 = τ̈ ∂τ + τ̇ 2 ∂τ2 ,

che dà
d2 x τ̈ dx pτ̇ dx q
L[x] −→ + 2 + 2 + 2x
dτ 2 τ̇ dτ τ̇ dτ τ̇
con i coefficienti espressi in funzione di τ . Se allora p, q sono tali che per qualche particolare τ = τ (t), questi
nuovi coefficienti hanno una forma più agevole, allora si è riusciti ad ottenere qualcosa. Per esempio se esiste
una costante c tale che (cq̇ + 2cpq)/(2(cq)3/2 ) = cost allora la sostituzione τ̇ 2 = cq è tale da rendere costanti tutti
i coefficienti, infatti in tal caso si ha (2τ̇ τ̈ + 2pτ̇ 2 )/(2τ̇ 3 ) = cost . #

Esempio 1.5.5 L’equazione di Eulero

t2 ÿ + tẏ − y = r , t0 , y0 , ẏ0 ∈ R, t > 0, r ∈ C(R+ ) .


0. 1
t
È facile vedere che x1 (t) = t è soluzione dell’equazione omogenea associata; quindi ϖ(t) = t2 exp τ −1 dτ = t3 .
.t
Dunque, dalla ϖ v̇ = K1 + r ϖ/x, ad esempio per r(t) = t, si ricavano

κ1 1 κ1 1
v̇(t) = 3
+ , ed y(t) = κ2 t − + t ln t.
t 2t 2t 2
In questo caso è anche (q̇ + 2pq)/(2q 2/3 ) = cost e la sostituzione τ = ln t dà la facile equazione: y ′′ − y = e3τ . #

Prima di esaminare qualche metodo per cercare le soluzioni particolari, è qui opportuno introdurre una simbo-
logia più snella anche perché essa risulta valida, come si vedrà, anche per sistemi di equazioni di ordine maggiore al
secondo (si veda §II.3). Inoltre ne sarà discusso l’aspetto geometrico, dopo aver introdotto il concetto di sistemi
equivalenti, e cioè l’aspetto invariante al cambio di coordinate.
Chiamata x1 la variabile x, si introduca l’ulteriore variabile: x2 := ẋ. L’equazione

ẍ = f (t, x, ẋ), t0 , x0 , ẋ0 ∈ R ,

equivale alla ) 1* ) *
ẋ x2
ẋ = = =: v(t, x) .
ẋ2 f (t, x1 , x2 )

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 49

Si scelga, nello spazio delle fasi V ≡ R2 , la particolare base e # = (e1 , e2 ) tale che e1 sia il versore relativo alle
coordinate, ed e2 quello relativo alle loro derivate. In tale base la precedente equazione si specializza nella
)d * ) * ) x *
dt x ẋ v (t, x, ẋ)
ẋ = = ≡ = v(t, x).
d
dt ẋ
f (t, x, ẋ) v ẋ (t, x, ẋ)

Di questa equazione si cercano le soluzioni


) 1 * ) *
2 1 x (t) x(t)
x ∈ C (J) × C (J) con x(t) ≡ ≡ ∈ R2 .
x2 (t) ẋ(t)

Queste, per la scelta della base e # , posseggono la particolare proprietà di avere seconda coordinata identicamente
d
uguale alla derivata dt della prima In virtù dei teoremi fondamentali visti in precedenza, per poter determinare
un particolare vettore soluzione x = x(t) occorre assegnare, oltre che l’istante iniziale t0 , anche i valori di tutte le
sue componenti x0 nello stesso istante.
L’operatore di evoluzione Gtt0 è rappresentato in coordinate da un Gtt0 : R2 → R2 che trasforma, a t e t0 fissati,
il punto ) * ) *
x0 x(t, t0 , x0 )
x0 := nel punto x(t) = Gtt0 x0 ≡ .
ẋ0 ẋ(t, t0 , x0 )
Nel caso particolare di equazioni lineari l’operatore di evoluzione ha una forma eccezionalmente semplice, ed
ancora più semplice è quello relativo ad una equazione scalare di ordine n. Infatti, per esempio nel caso n = 2 ,
secondo le considerazioni fatte sopra, la soluzione della (5.48) è espressa mediante le (5.49), e cioè risulta x =
c1 x1 + c2 x2 dove x1 ed x2 sono due arbitrarie funzioni soluzione della (5.48). Scelta la base e # := {e1 , e2 }
come sopra, e cioè con il primo versore nella direzione delle coordinate ed il secondo in quella delle loro derivate,
ed espresse le due prescelte x1 (t) ed x2 (t) in tale base mediante la

xi (t) = xi (t) e1 + ẋi (t) e2 , i = 1, 2

la x = x(t) resta espressa dalla


0 1 0 1
x = x(t) = c1 x1 (t) e1 + ẋ1 (t) e2 + c2 x2 (t) e1 + ẋ2 (t) e2

e cioè, nella base detta, dalle


) * ) * ) 1* ) *
x(t) x1 (t) x2 (t) c .
= , o anche x(t) = x1 (t) .. x2 (t) c .
ẋ(t) ẋ1 (t) ẋ2 (t) c2
) 1*
c
Per la (5.50), il vettore c := 2 si ricava dalla
c
) 1* ) *−1 ) * ) *−1
c x1 |0 x2 |0 x0 ..
= , ovvero c = x 1 |0 . x 2 |0 x0 .
c2 ẋ1 |0 ẋ2 |0 ẋ0

Pertanto l’equazione:
) *
d2 d
L[x](t) := + p(t) + q(t) x=0, p, q : I → R, p, q ∈ C ℓ≥0 (I) (5.54)
dt2 dt
o meglio la ⎧ ) *
⎪ x(t)

⎨ ẋ = T (t)x , x : t &→ x(t) := ∈ R2 , con
ẋ(t)
) * (5.55)

⎪ 0 1
⎩ T : t &→ T (t) := ∈ L(R2 ), T ∈ C ℓ≥0 (I) ,
−q(t) −p(t)
ha come operatore di evoluzione Gtt0 l’operatore lineare Φ(t)Φ−1 (t0 ) ∈ L(V) che, nella base e# scelta su R2 in
modo che sia x0 = (x0 , ẋ0 ), è rappresentato dalla matrice
) *) *−1
−1 x1 (t) x2 (t) x1 |0 x2 |0
Gtt0 = Φ(t)Φ (t0 ) = =: Φ(t)Φ−1 (t0 ) ∈ L(R2 ).
ẋ1 (t) ẋ2 (t) ẋ1 |0 ẋ2 |0

Il fatto che l’equazione provenga da una del secondo ordine si riscontra nella particolare forma (5.55) della matrice
T ; questa è, invece, del tutto arbitraria nel caso di una generica equazione lineare del primo ordine in R2 , cosı̀

Note di Sistemi Dinamici


50 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

come è del tutto arbitraria la base B nello spazio delle fasi V. Se ne consideri una, fissata, che coincida con la e #
nel particolare caso in esame, e si indichi con T (t) l’operatore cui la base detta assegna matrice T (t). Nello spazio
delle soluzioni dell’equazione ẋ = T (t)x una possibile base naturale e ! := {!
e1 , e!2 } è quella consistente
) * delle) due
*
1 0
soluzioni !ei : t &→ e!i (t), i = 1, 2 , che in t = t0 hanno e -componenti rispettivamente e1 =
#
ed e2 = ,
0 1
che quindi rappresentano le evoluzioni della base e # = {e1 , e2 } di V, ed il cui valore in t è rappresentato dalla
e # -matrice: ⎛ ⎞
..
.
Ψ(t, t0 ) := ⎝e!1 (t) .. e!2 (t)⎠ .
..

Rispetto alla base e! si ha x = x0 ! e1 + ẋ0 e!2 , che mostra esplicitamente


' l’isomorfismo
' detto. In particolare,
anche per le due (arbitrarie) soluzioni scelte sopra si hanno le xi (t) = xi '0 ! e1 (t) + ẋi '0 e!2 (t), i = 1, 2 , e quindi
la x(t) = c1 x1 (t) + c2 x2 (t), conferma la relazione sulle e # -componenti al tempo t0
) * ) * ) * ) * ) 1* ) 1*
x0 1 x1 |0 2 x2 |0 x1 |0 x2 |0 c c
=c +c = = Φ(t0 ) .
ẋ0 ẋ1 |0 ẋ2 |0 ẋ1 |0 ẋ2 |0 c2 c2

Si osservi infine come la matrice Ψ(t, t0 ) sia la migliore rappresentante Gtt0 dell’operatore Gtt0 . Mediante essa,
infatti, si esprimono non solo le e
! -componenti della soluzione x uscente da (x0 , ẋ0 ) con la semplice espressione
) * ) *
x(t) x
x(t) = Ψ(t, t0 ) x0 ovvero = Ψ(t, t0 ) 0
ẋ(t) ẋ0

ma si esprime anche la soluzione Φ = Φ(t) uscente da Φ0 := Φ(t0 ) dell’equazione Ẋ = T (t)X mediante l’espres-
sione Φ(t) = Ψ(t, t0 )Φ0 . Di questa, ciascuna colonna rappresenta una soluzione: xi (t), i = 1, 2 , dell’equazione
ẋ = T (t)x, come si può verificare immediatamente applicando sul dato ei tale equazione.
Con la notazione appena introdotta è particolarmente agevole, fra l’altro, scrivere ed interpretare il cosiddetto
metodo della variazione della costante per la ricerca di una soluzione particolare dell’equazione non omogenea
(5.46): ) *
y(t)
ẏ = T (t)y + b(t), y(t) := ∈ R2 , T , b ∈ C ℓ≥0 (I) ,
ẏ(t)
) *
0
dove la matrice T (t) è stata definita come nella (5.55) e dove b(t) := ∈ R2 .
r(t)
Esso consiste nel cercare la soluzione y : J ⊃ I → R2 della (5.46) tale che y(t0 ) = y0 = x0 esprimendola sotto
la speciale forma
y(t) = x(t) + y&(t) = Ψ(t, t0 )(x0 + c(t))
7 1 2 8T
con c ≡ c , c ∈ C 2 (J) × C 1 (J) tale che c(t0 ) = 0 , e con Ψ(t, t0 ) la matrice che la base detta fa corrispondere
all’operatore di evoluzione Gtt0 dell’equazione (5.55), o meglio della ẋ = T (t)x. In altre parole si cerca,
dell’equazione non omogenea, la soluzione particolare y&(t) := Ψ(t, t0 )c(t) che esce da condizioni iniziali nulle:
y&(0) = 0 , ed espressa proprio come combinazione lineare, a coefficienti c = c(t) dipendenti dal tempo, delle due
soluzioni di base)(! e*1 , !
e2)
) dell’equazione
* omogenea associata (5.55) e cioè quelle che, all’istante iniziale, valgono
1 0
rispettivamente e . È altresı̀ ovvio che, qualora queste non fossero note, ma lo fossero altre due: x1 ed
0 1
x2 , la matrice Ψ(t, t0 ) potrebbe essere facilmente calcolata mediante il prodotto Φ(t)Φ−1 (t0 ).
Si ottiene cosı̀ la condizione necessaria:

Φ̇(t)Φ−1 (t0 )(x0 + c(t)) + Φ(t)Φ−1 (t0 )ċ(t) = T (t)Φ(t)Φ−1 (t0 )(x0 + c(t)) + b(t) ;

ma è ) * ) *
ẋ1 (t) ẋ2 (t) ..
Φ̇(t) = = T (t)x1 (t) . T (t)x2 (t) =
ẍ1 (t) ẍ2 (t)
) *
..
= T (t) x1 (t) . x2 (t) = T (t)Φ(t)

pertanto rimane Φ(t)Φ−1 (t0 )ċ(t) = b(t) al quale assegnare come condizioni iniziali c(t0 ) = 0 . Si ricava
- t
c(t) = Φ(t0 )Φ−1 (τ )b(τ )dτ
t0

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 51

che dà come soluzione generale dell’equazione (5.46) la funzione y tale che
) * ) * - t ) *
y(t) y 0
y(t) =: = Φ(t)Φ−1 (t0 ) 0 + Φ(t)Φ−1 (τ ) dτ,
ẏ(t) ẏ0 t0 r(τ )

della quale un caso particolare è la soluzione trovata nell’Esempio 1.4.23


N.B. 1.5.6 Naturalmente il metodo è proficuo solo se si conosce la matrice Φ(t), e cioè una coppia x1 , x2 di
soluzioni indipendenti della (5.54). Tuttavia esso può essere usato per funzioni b(t) che abbiano discontinuità
eliminabili e/o di prima specie, e in tal caso la y è solo C 1 . ♦

N.B. 1.5.7 Se ciò che si cerca è una qualunque soluzione particolare, l’integrale può essere considerato indefinito
e la soluzione espressa mediante la
+) * - t ,
k1 −1
y(t) = Φ(t) + Φ (τ ) b(τ ) dτ .
k2

Si osservi inoltre che il procedimento si può ripetere per una equazione lineare non omogenea di ordine n ≥ 2 :

y [n] + a1 (t)y [n−1] + · · · + an (t)y = r(t) , a1 , . . . , an , r ∈ C ℓ≥0 (I) .

Anche per essa il vettore b(t) ha nulle tutte le componenti salvo l’ultima, ed anche di essa l’unica componente
che interessa calcolare è la prima. Visto poi che le prime componenti del vettore b(t) sono nulle per costruzione,
l’unico elemento interessante della matrice integranda è l’elemento (1, n). Una soluzione particolare è allora: y&(t) =
) *−1
.t a b
[Φ(t)Φ−1 (τ )](1,n) r(τ )dτ. In particolare, il caso che si sta qui trattando ha n = 2 , e siccome =
c d
) *
d −b
(ad − bc)−1 , si ha:
−c a
0 1 - t ) *
1 −x2 (τ )r(τ )
y&(t) = x1 (t), x2 (t) dτ
W (τ ) x1 (t)r(τ )
- t ' '
1 ''x1 (τ ) x2 (τ )''
= r(τ ) dτ ,
W (τ ) ' x1 (t) x2 (t) '

da cui si riconosce la forma speciale del nucleo risolvente. Ciò dà anche, per la (5.52),
- t' ' )- τ *
'x1 (τ ) x2 (τ )'
y&(t) = c ' ' exp p(σ)dσ r(τ )dτ.
' x1 (t) x2 (t) '


Se l’operatore L[x] è a coefficienti costanti, un metodo che a volte è più veloce per trovare la soluzione particolare
è detto “dei coefficienti indeterminati”. Esso consiste nell’ipotizzare la forma della soluzione, e cercarne la specifica
espressione imponendo l’equazione come condizione necessaria. Un modo per formulare l’ipotesi detta è quello
di derivare ripetutamente il termine noto (o meglio la parte di esso che non compare già nella soluzione della
omogenea associata) fino ad ottenere termini ripetitivi, o zero. In definitiva, si cerca una soluzione dell’equazione
(non omogenea) sotto forma di una combinazione lineare dei termini (diversi) cosı̀ ottenuti più quelli di un’opportuna
soluzione dell’omogenea associata e del termine noto stesso.
Esempio 1.5.8 ÿ + ẏ + y = t3 et , t0 , y0 ∈ R .
t e dà luogo a t e , tet , et . Ipotizzata una forma del tipo:
3 t 2 t

f (t)et = (at3 + bt2 + ct + d)et

si richiede che questa sia soluzione anche dell’equazione non omogenea

3f (t)et + 3f˙(t)et + f¨(t)et = t3 et ,

da cui
3a = 1, 9a + 3b = 0, 6a + 6b + 3c = 0, 2b + 3c + 3d = 0 .
#
Note di Sistemi Dinamici
52 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Esempio 1.5.9 ÿ + 4y = tet + t sin 2t, t0 , y 0 ∈ R .

ÿ + 4y = tet → (a0 t + a1 )et


ÿ + 4y = t sin 2t → (b0 t2 + b1 t) sin 2t + (c0 t2 + c1 t) cos 2t

e poi si può provare con una combinazione lineare delle funzioni cosı̀ trovate. #

Ancora nel caso di una equazione lineare di ordine n in una variabile scalare, ed a coefficienti costanti, talvolta
può convenire non usare la teoria generale, che verrà esposta nel Cap.II, ma ricorrere a una simbologia ancora più
compatta.
Alla base di tutto c’è il fatto che l’equazione
d
ẏ + ay =: (∂ + a)y = f (t), t0 , y0 ∈ R, ∂ := , (5.56)
dt
ha fattore integrante: ϖ(t) = eat per cui è eat (∂ + a)y = ∂(eat y), e quindi l’equazione (5.56) ha soluzione
- t
−at −1 at −at
y(t) = e ∂ (e f (t)) := e eaτ f (τ )dτ ;

(qui si parla solo di soluzioni particolari, quindi tutte le costanti di integrazione sono irrilevanti: esse specificano
infatti l’una soluzione particolare rispetto ad un’altra e quindi, per quanto visto all’inizio del paragrafo, la loro
presenza serve ad introdurre nella soluzione l’addendo consistente nella soluzione dell’omogenea associata. In tal
senso, tutti i risultati si intenderanno noti a meno di una arbitraria traslazione nel Ker (L)).

Nascita del metodo: scrivere il fatto qui sopra nel seguente modo:
l’equazione (∂ + a)y = f (t) ha soluzione particolare data da:

y(t) = (∂ + a)−1 f (t) := e−at ∂ −1 (eat f (t))


2
d d
sempre che f (t) ∈ Im(∂ + a), che si intendano ∂ := dt , ∂ 2 := dt2,... , e che l’invertibilità venga intesa per
classi di equivalenza e cioè a meno di una traslazione in Ker(∂ + a).

Evoluzione del metodo: notare che (∂ + a1 )(∂ + a2 )y = f (t) fornisce:


+ - t ,
−1 −1 −1 −a1 t a1 τ
y(t) = (∂ + a2 ) (∂ + a1 ) f (t) = (∂ + a2 ) e e f (τ )dτ =
- t) - τ *
= e−a2 t ea2 τ e−a1 τ ea1 σ f (σ)dσ dτ ;


ed osservare che, posto h(τ ) := ea1 σ f (σ)dσ , un’integrazione per parti fornisce
- t
y(t) = e−a2 t e(a2 −a1 )τ h(τ )dτ =
+ - t ,
e−a2 t
= h(t)e(a2 −a1 )t − e(a2 −a1 )τ ea1 τ f (τ )dτ =
a2 − a1
1 K L
= (∂ + a1 )−1 − (∂ + a2 )−1 f (t) .
a2 − a1

Decollo del metodo: fare ricorso ai seguenti punti:

(i) Sia p(ξ) un polinomio di grado n nell’indeterminata ξ ∈ R, con il coefficiente della potenza di grado massimo
1 α1 αn
uguale ad uno e tutte le radici distinte: a1 , a2 , . . . , an . Se si vuole porre p(ξ) = (ξ−a 1)
+ · · · + (ξ−a n)
si può
(ξ−aj ) C αi (ξ−aj ) −1 ′ 1 C n 1
sfruttare la: p(ξ)−p(aj ) = αj + i̸=j (ξ−ai ) per determinare αj = p (aj ) e quindi p(ξ) = i=1 p′ (ai )(ξ−ai ) .
Se invece gli zeri sono molteplici va considerata la decomposizione p(ξ) = (ξ − a1 )n1 (ξ − a2 )n2 · · · e poi
uguagliato ad uno il polinomio che si ottiene a numeratore avendo posto
1 α1 αn1 β1 βn2
= + ···+ n
+ + ··· + + ··· .
p(ξ) (ξ − a1 ) (ξ − a1 ) 1 (ξ − a2 ) (ξ − a2 )n2

M. Lo Schiavo
1.5. Equazioni lineari scalari del secondo ordine 53

(ii) In modo analogo, se si considera la ∂ come un simbolo e si ha p(∂) = (∂ + a1 )n1 (∂ + a2 )n2 · · · , si possono
determinare i coefficienti αi , βi , . . . in modo tale che sia
α1 (∂ + a1 )n1 −1 (∂ + a2 )n2 · · · + α2 (∂ + a1 )n1 −2 (∂ + a2 )n2 · · · +
+β1 (∂ + a1 )n1 (∂ + a2 )n2 −1 · · · + · · · = 1
che, in base al punto precedente, sono quelli per i quali risulta unitario il prodotto (non operatoriale ma per
ora solo formale) fra p(∂) ed
) *
α1 αn1 β1 βn2
+ ··· + + + · · · + + · · · .
(∂ − a1 ) (∂ − a1 )n1 (∂ − a2 ) (∂ − a2 )n2

(iii) Un polinomio p = p(∂) di grado n intero non negativo ed a coefficienti costanti è senz’altro un operatore
lineare P := p(∂) ben definito su C m purché m ≥ n .
Inversamente: si conviene di definire P −1 (∂) come quell’operatore che trasforma f ∈ C m−n in quella funzione
y =: P −1 (∂)f che è soluzione dell’equazione P(∂)y = f . L’operatore esiste in quanto esiste la soluzione,
e questa è “unica” se si conviene di trattare sempre con quella “senza” costanti d’integrazione, cioè con
(y0 , ẏ0 , . . . , y0n−1 ) ∈ Rn scelte nulle;
(iii.1) l’operatore P −1 (∂) cosı̀ definito può essere considerato come operatore inverso di P(∂), (fatte salve
le precauzioni sul fatto che il suo dominio dovrà essere contenuto nell’immagine di P(∂), e che delle
soluzioni va scelta sempre quella con costanti di integrazioni banali);
(iii.2) la linearità di P(∂) implica che anche l’operatore P −1 (∂) è un operatore lineare, infatti la relazione di
linearità di P(∂) dà luogo alla:
P(∂)(αP −1 (∂)f1 + βP −1 (∂)f2 ) = αP(∂)P −1 (∂)f1 + βP(∂)P −1 (∂)f2 ,
e l’asserto segue applicando P −1 (∂) ad ambo i membri dell’uguaglianza.
(iv) La linearità dell’operatore ∂ permette inoltre:
(iv.1) di fattorizzare l’operatore P(∂) nel prodotto (questa volta sı̀, operatoriale):
(∂ + a1 )n1 (∂ + a2 )n2 · · · (∂ + am )nm ;
(iv.2) di fare lo stesso con P −1 (∂);
(iv.3) di riconoscere che su essi valgono le usuali regole algebriche, giustificando cosı̀ il punto (ii).
(v) Tutto ciò rende leciti, sempre fatte salve le debite cautele di esistenza nell’immagine ed unicità nel kernel, i
seguenti passaggi:
P −1 (∂)f (t)
α1 (∂ + a1 )n1 −1 (∂ + a2 )n2 · · · + α2 (∂ + a1 )n1 −2 (∂ + a2 )n2 · · · +
=
(∂ + a1 )n1 (∂ + a2 )n2 · · ·
+β1 (∂ + a1 )n1 (∂ + a2 )n2 −1 · · ·
f (t) =
= α1 (∂ + a1 )−1 f (t) + α2 (∂ + a2 )−2 f (t) + · · · .
'
In particolare si ritrova, dato che [(ξ + a1 )(ξ + a2 )]′ '(−a ) = (a2 −a1 ) che la soluzione della (∂+a1 )(∂+a2 )y =
1
f (t) si può esprimere mediante la
y(t) = ((∂ + a1 ) (∂ + a2 ))−1 f (t) =
1 7 8
= (∂ + a1 )−1 − (∂ + a2 )−1 f (t) =
(a2 − a1 )
) - t - t *
1 −a1 t a1 τ −a2 t a2 τ
= e e f (τ )dτ − e e f (τ )dτ .
(a2 − a1 )

Esempio 1.5.10 (∂ 2 − 3∂M+ 2)y = t , y, t ∈ R .


B
3 9 8 2
−a(1,2) = 2 ± 4 − 4 = 1 e quindi una soluzione particolare è data da
) - t - t *
t 3
y(t) = − et e−τ τ dτ − e2t e−2τ τ dτ = + .
2 4
#
Note di Sistemi Dinamici
54 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Esempio 1.5.11 (∂ 2 + 4∂ + 4)y = t3 e−2t , y, t0∈ R . 1


−1
.t 1 5 −2t
Ha soluzione particolare data da y(t) = (∂ + 2) e−2t τ 3 dτ = 20 t e .
Si noti che se si fossero conservate le due costanti di integrazione si sarebbero trovate le due soluzioni dell’omogenea
associata: c1 te−2t , c2 e−2t . #

'
N.B. 1.5.12 Sempre con p : a ∈ R → p(a) ∈ R un polinomio a coefficienti costanti, e con P(∂) := p(a) '(∂) , si ha
P(∂)eat ≡ p(a)eat . Pertanto se un numero a è tale che p(a) = 0 detta equazione ausiliaria , si vede subito che
eat è senz’altro soluzione dell’equazione omogenea P(∂)x = 0 . Nel caso di tutte radici distinte si può ottenere in
questo modo la soluzione generale. ♦

N.B. 1.5.13 Mediante l’espressione ∂(eat y) = eat (∂ + a)y si ottiene:


7 8
∂ 2 (eat y) = ∂ eat (∂ + a)y = eat (∂ + a)2 y

e cosı̀ via, ricavando in modo analogo:

P(∂)(eat y) = eat P(∂ + a)y.

Questa poi può essere usata anche in senso inverso:

(∂ + a)n y = 0 ⇐⇒ ∂ n (eat y) = 0

che di conseguenza ha soluzione data da eat y = c1 + c2 t + · · · + cn tn−1 . ♦

1.6 Ricerca di soluzioni per serie di potenze


In questo paragrafo, per motivi in definitiva solo “storici”, si userà la lettera x per indicare la variabile indipendente
mentre la lettera y per la funzione dipendente, entrambe scalari reali.
C∞
Memento 1.6.1 Una serie di potenze n=0 an (x − x0 )n (di punto iniziale x0 ∈ R) si dice convergente nel
punto x se
N
=
lim an (x − x0 )n =: s(x) < ∞.
n→∞
n=0

Raggio di convergenza r := l’estremo superiore dei valori |x − x0 | ∈ R per i quali il limite detto esiste finito.

In molti casi il criterio del rapporto permette di trovare r . Posto


(
|an+1 | λ<1 serie convergente
lim |x − x0 | =: λ(x) si ha che
n→∞ |an | λ>1 serie non convergente

e quindi
|an |
r ≡ lim .
n→∞ |an+1 |
Sussiste il seguente, generale, criterio di convergenza per una qualsiasi serie di funzioni un = un (t).
Weiestrass m-test o convergenza totale := Sia {un }n=0,1,... una successione di funzioni un : R → R tale che:

(1) le funzioni un siano definite su un insieme aperto A ⊆ R;

(2) su A, e per ciascun n, si abbia |un (x)| < mn per certi mn ∈ R+ ;


C
(3) la serie ∞n=0 mn sia convergente;

C∞
allora la serie n=0 un (x) si dice totalmente convergente su A. La convergenza totale implica sia la convergenza
assoluta che quella uniforme.

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 55

Dimostrazione Basta ricordare la definizione di uniforme convergenza. "

Per semplicità, si assuma x0 = 0 .


C∞ C∞
Lemma 1.6.1 Se una data serie di potenze n
n=0 an x C & ∈ R, e cioè se
è convergente per un certo x &n
n=0 an x
∞ n
x) < ∞ , allora l’m-test assicura che: la serie
=: s(& n=0 an x converge assolutamente ed uniformemente per
ogni x ∈ [−ξ, ξ] con 0 ≤ ξ < |& x|.
C∞ n−1
Lo stesso risultato sussiste per la serie delle derivate n=0 nan x la quale, inoltre, ha come somma la
derivata della somma della serie iniziale.

;C <
N n
Dimostrazione sN }N ∈N :=
Dato che la successione {& n=0 a n &
x delle somme ridotte è di Cauchy si
'C ' N ∈N
' j+1 ' n
ha ' i=j ai x &n −→ 0 . In particolare esiste σ ∈ R tale che |an ||&
&i ' < ε e quindi an x xn | < σ per ogni n. Sia

n
x|; allora per |x| ≤ |ξ| si ha: |an ||xn | ≤ |an |ξ n = |an x
0 ≤ ξ < |& &n |ξ n /|&
x|n < σ |ξ/&
x| .
C∞ n
Ma la serie geometrica n=0 |ξ/& x| converge, e siccome maggiora la serie data questa converge assolutamente
ed uniformemente su [−ξ, ξ] .
Analogo risultato si ottiene per la serie delle derivate, infatti sussiste la stima

|nan xn−1 | ≤ |n||an ||ξ n−1 | = n|an ||& x|n |1/ξ| < |σ/ξ| n |ξ/&
x|n |ξ/& x|n ;

la serie di cui quest’ultima è il termine n-mo converge per il criterio del rapporto, per cui (eventualmente rinomi-
nando i coefficienti) si può nuovamente agire con l’m-test. Ne segue anche che la somma delle derivate è continua
ed è proprio la derivata della somma della serie, (metodo “3 ε ”). Infine, lo stesso ragionamento si può ripetere
per la k -esima derivata, per la quale si ha
n
x|n |ξ/&
n(n − 1) · · · (n − k + 1)|an ||& x| |1/ξ k | <
' '
x|n
< 'σ/ξ k ' n(n − 1) · · · (n − k + 1) |ξ/&

ed ancora il criterio del rapporto dà |ξ/&


x| n/ (n − k) −→ |ξ/&
x| < 1 . "

Funzione (reale) analitica in x0 : f (x) ∈ C ω (x0 ) := una funzione f : R → R che ammette derivate f [n] (x0 )
di ogni ordine, e per la quale esista un c > 0 tale che: per ogni x ∈ Bc (x0 ) si ha

=n
1 [m] n
f (x) − f (x0 )(x − x0 )m =: rn (x) −→ 0.
m=0
m! ∞

La sola condizione f ∈ C ∞ (x0 ), e cioè l’esistenza in x0 delle derivate f [n] (x0 ) di ogni ordine n, comporta
“solo” (Teorema di Taylor, [Spivak 19.4]) l’esistenza di un conveniente punto x̄ ∈ B|x−x0 | (x0 ), dipendente da
1
L
x, x0 , n, f, tale che (per un qualsiasi n) rn (x) = (n+1)! f [n+1] (x̄)(x − x0 )n+1 .
C∞Le proprietà nasintotiche e di derivabilità viste sopra implicano che: la somma s(x) di una serie di potenze
n=0 an (x − x0 ) è una funzione analitica all’interno dell’intervallo di convergenza Br (x0 ), e verifica la relazione
1 [n]
an ≡ n! s (x0 ). Quest’ultima uguaglianza inoltre implica l’unicità dello sviluppo della somma.
Più debolmente: se una funzione f = f (x) è infinitamente differenziabile per |x − x0 | minore di un certo c ∈ R+ è possibile che,
in Bc (x0 ) , essa sia uguale alla somma della sua serie di Taylor

= f [n] (x0 )
f (x) = s(x) := an (x − x0 )n con an = ;
n=0
n!

tuttavia ciò non è necessario; non è detto infatti che la somma s(x) della serie sia l’unica funzione che
0 ha nel punto
1 tutte le derivate
ordinatamente uguali ai coefficienti della serie (si veda: [Spivak p.398]). Per esempio la funzione f ∈ C ∞ (R)
( 2
e−1/x per x ̸= 0
f (x) :=
0 per x=0

non è analitica in zero: ha infatti tutte le derivate nulle nell’origine pur non essendo la funzione nulla.
Le funzioni analitiche sono invece per definizione quelle identicamente uguali alla somma della loro serie di
Taylor nel suo intervallo di convergenza.

Note di Sistemi Dinamici


56 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Stante l’uniforme convergenza, sulle serie di potenze convergenti si può agire come sui polinomi:

= ∞
=
n
an (x − x0 ) = bn (x − x0 )n ⇐⇒ an = b n ∀n;
n=0 n=0
=∞ =∞ ∞
=
an (x − x0 )n + bn (x − x0 )n = (an + bn )(x − x0 )n ;
n=0 n=0 n=0
=∞ =∞ ∞
=
an (x − x0 )n bn (x − x0 )n = s1 (x)s2 (x) = cn (x − x0 )n ,
n=0 n=0 n=0
= n
=
ove cn := ak b j ≡ ak bn−k = a0 bn + a1 bn−1 + . . . + an b0 .
k+j=n k=0

In più si riconosce che lo spazio delle funzioni analitiche è chiuso rispetto alla somma, prodotto, composizione
funzionale, limite uniforme, inversa continua (si veda: [Simmons §25; Flanigan V.2.3])
In virtù di tali proprietà, le serie di potenze risultano idonee ad essere usate come funzioni “campione” per
problemi differenziali lineari in quei casi nei quali si sappia per altra via, o si assuma, che la soluzione del problema
sia una funzione analitica in un certo punto x0 . È chiaro che in tal modo il risultato è da intendersi locale
all’interno del cerchio di convergenza centrato nel punto di analiticità. C∞
Il procedimento consiste nell’assumere l’incognita soluzione del tipo y(x) =: n=0 an (x − x0 )n , e nel ricercare
le condizioni necessarie sui coefficienti {an }n∈N affinché tale y sia soluzione del problema originario: equazione e
dati iniziali. L’unicità della soluzione implica che tali condizioni risultano anche sufficienti all’interno del cerchio
di convergenza.
Esempio 1.6.1 y ′ = k y , con k ∈ R
Il metodo fornisce, con x0 = 0 , la seguente condizione necessaria

= ∞
= ∞
=
m am xm−1 = (n + 1)an+1 xn = k an xn
m=1 n=0 n=0

dalla quale si ricavano le (n + 1)an+1 = k an . Si calcolano quindi, ricorsivamente,


k3 kn
a1 = k a0 , 2a2 = k a1 = k 2 a0 , 3a3 = k a2 = a0 , . . . , an = a0 , . . .
2 n!
e si trova
=∞
kn n
y(x) = a0 x =: a0 ekx .
n=0
n!
In questo caso è palese che il coefficiente a0 rappresenta il dato y(0). #

Il metodo è utile particolarmente quando non si hanno a disposizione funzioni elementari che siano somma
delle serie cosı̀ trovate. Inoltre il procedimento può essere applicato anche per ottenere lo sviluppo di un’assegnata
funzione, purché analitica e soluzione di una qualche equazione differenziale ordinaria.
Esempio 1.6.2 y(x) = (1 + x)α , α∈R.
La funzione data è soluzione particolare, per x ∈ Bc (0) con c < 1 , della
(
′ α−1 −1 (1 + x)y ′ = αy
y = α(1 + x) = α(1 + x) y e cioè della
y(0) = 1 .
C∞
Con y(x) = n=0 an xn si ha, scrivendo i termini fino al grado (n − 1) ,

y ′ = a1 + 2a2 x + 3a3 x2 + . . . + nan xn−1


xy ′ = a1 x + 2a2 x2 + . . . + (n − 1)an−1 xn−1
(1 + x)y ′ = a1 + (2a2 + a1 )x + (3a3 + 2a2 )x2 + . . . + (nan + (n − 1)an−1 )xn−1
αy = αa0 + αa1 x + αa2 x2 + . . . + αan−1 xn−1
e quindi a1 = αa0 , 2a2 + a1 = αa1 , . . ., nan + (n − 1)an−1 = αan−1 , ovvero
1
an = (α − (n − 1)) an−1 .
n

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 57

Più brevemente, dalla



= ∞
= ∞
=
(n + 1)an+1 xn + n an xn − α an xn = 0
n=0 n=0 n=0

si trova l’equivalente an+1 = (α − n) an /(n + 1).


Se ne ricava
1 1
a1 = α a0 , a2 = (α − 1) a1 = α(α − 1) a0 ...
2 2
che fa sperare in un termine ricorrente del tipo
1
an = α(α − 1) . . . (α − (n − 1)) a0 ,
n!
la quale, giustamente, fornisce
1
nan = [α(α − 1) . . . (α − (n − 2)) a0 ] (α − (n − 1)) .
(n − 1)!

Pertanto, dato che la condizione iniziale fissa y(0) = a0 = 1 , la soluzione del problema è necessariamente
espressa dalla serie
= 1
1+ α(α − 1) · · · (α − (n − 1)) xn
n=1
n!

nella
' 'quale, ovviamente, si riconosce lo sviluppo di Taylor in x = 0 della funzione (1 + x)α . Siccome poi
' an ' ' α−n+1 '
' an−1 ' = ' n ' −→ 1 , tale funzione è la somma di una serie di potenze convergente in |x| < 1 e quindi
y ∈ C ω (B1 (0)) e tutti i passaggi effettuati sono leciti. Il teorema di unicità infine garantisce che la funzione iniziale
y(x) e la somma della serie trovata sono necessariamente coincidenti. #

Nota 1.6.1 Talvolta viene introdotto il simbolo

(β)k := (β)(β + 1)(β + 2) · · · (β + k − 1);

con esso, i coefficienti trovati sopra si possono anche scrivere come segue
1
an = an (α) = α(α − 1) · · · (α − n + 1)
n!
(−1)n
= (−α)(−α + 1) · · · (−α + n − 1)
n!
1
= (−1)n (−α)n .
n!

In qualsiasi forma vengano espressi, i coefficienti an hanno le seguenti proprietà. Nel caso particolare in cui il
numero α =: m è un numero intero positivo ciascuno dei coefficienti an (m) è nullo se n > m, infatti (−m)m+1 ≡ 0 ,
e quindi la serie dell’esempio precedente termina in una somma finita. Invece, per n ≤ m si ha
) *
1 (m − n)! m! m
an (m) = m(m − 1) · · · (m − n + 1) = = .
n! (m − n)! n!(m − n)! n

Nel caso generale, e facendo riferimento a quanto trovato nel caso m ∈ N, si nota che la) prima* delle due
α
espressioni ottenute per i coefficienti an può essere usata per definire il Coefficiente binomiale anche per α
n
non necessariamente interi positivi; esso si definisce mediante la:
) * ) *
α 1 1 α
:= (−1)n (−α)n = α(α − 1) · · · (α − n + 1) ; := 1 .
n n! n! 0

In tal modo dall’Esempio 1.6.2 si può dedurre la formula cercata per α reale; essa è
∞ ) *
=
α α
(1 + x) = xn .
n
n=0

Note di Sistemi Dinamici


58 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Esempio 1.6.4 La funzione θ(x) := arcsin x, definita per |x| < 1 , è soluzione della
) *−1
dθ d sin θ '' 1
= ' = = (1 − x2 )−1/2 . (6.57)
dx dθ θ(x) cos θ(x)

Ma dalla (1.6) con α = 1/2 segue che il secondo membro è esprimibile come segue
∞ )
= * =∞
−1/2 1
(1 − x2 )−1/2 = (−x2 )n = (1/2)n x2n .
n n!
n=0 n=0

Applicando, d’altra parte, all’equazione


C∞ (6.57) il metodo di ricerca per serie di potenze si ottiene, per la funzione
arcsin x, uno sviluppo del tipo n=0 an xn , e si trova che i coefficienti devono necessariamente verificare la

= =∞
n 1
(n + 1)an+1 x = (1/2)n x2n .
n=0 n=0
n!

1
Da questa si ricavano le due relazioni a2k = 0 , ed a2k+1 = k!(2k+1) (1/2)k , e quindi una delle forme note per il
calcolo di π : ) * ) * ) *3
1 1 1 1 1 1
π = arcsin = 1 + + ... .
6 2 2 3 2 2
#
ω
Il metodo si applica ad equazioni differenziali lineari omogenee con coefficienti C (Br (x0 )) infatti (si veda:
[Bender - Orszag cap.III, opp. Simmons §27]) anche ogni loro soluzione è C ω (Br (x0 )).
Qui verrà trattato il caso delle equazioni lineari omogenee del secondo ordine con primo coefficiente uguale ad
uno, e cioè
y ′′ + p(x)y ′ + q(x)y = 0 , con x0 , y0 , y0′ ∈ R ; (6.58)
e si mostrerà come se p, q ∈ C ω (Br (x0 )) allora anche la y è in C ω (Br (x0 )).
Un siffatto punto x0 viene detto Punto ordinario, o non singolare.
Se invece x0 è tale che p, q sono non analitici in x0 , ma lo sono le due funzioni

p&(x) := (x − x0 )p(x) ed q&(x) := (x − x0 )2 q(x)

allora il punto x0 è detto Punto singolare regolare.


In tal caso la funzione soluzione può, non deve, essere non analitica nell’intorno di x0 ; la sua singolarità è
algebrica oppure logaritmica a seconda che compaiano termini del tipo (x − x0 )α con α ∈ R\N, oppure ln(x − x0 ).
Negli altri casi il punto è detto Singolare Irregolare, ed almeno una delle funzioni soluzione presenta una
singolarità essenziale, in generale tutte.
Le stesse definizioni si estendono ai casi di equazioni di ordine superiore: un punto x0 è singolare regolare per
l’equazione y [n] + q1 (x)y [n−1] + . . . + qn (x)y = 0 se esso è tale da rendere analitici ciascuno dei prodotti

q&n (x) := (x − x0 )n qn (x),


q&n−1 (x) := (x − x0 )n−1 qn−1 (x),
··· ···
q&1 (x) := (x − x0 )q1 (x) .

Sia per il momento x0 un punto ordinario per la (6.58) con r il (più piccolo) raggio di analiticità dei coefficienti
e condizioni iniziali y(x0 ) = y0 ed y ′ (x0 ) = y0′ arbitrarie. Si cerca la soluzione sotto forma di uno sviluppo locale
intorno al punto x0 , che risulta anche globale qualora r = ∞. Il procedimento è costruttivo. [Qui di seguito si
supporrà x0 = 0 , maC∞ C∞ facilmente sostituendo x con (x − x0 )].
il caso generale si può ottenere
Siano: p(x) =: n=0 pn xn e q(x) =: n=0 qn xn ; e si ponga
⎧ ∞
⎪ =

⎪ y ′
(x) = (n + 1)an+1 xn ,
∞ ⎪

= n=0
y(x) =: an xn , e quindi ∞

⎪ =
n=0 ⎪
⎪ ′′
(n + 1)(n + 2)an+2 xn .
⎩ y (x) =
n=0

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 59

Si ricavano le @ A@ A

= ∞
= ∞
= n
=
n n
q(x)y(x) = qn x an x = xn ak qn−k ;
n=0 n=0 n=0 k=0
@∞ A@ ∞ A ∞ n
= = = =
′ n n
p(x)y (x) = pn x (n + 1)an+1 x = xn (k + 1)ak+1 pn−k .
n=0 n=0 n=0 k=0

Ne segue la successione di condizioni necessarie


n
=
(n + 1)(n + 2)an+2 + [(k + 1)ak+1 pn−k + ak qn−k ] = 0 . (6.59)
k=0

Tali relazioni permettono di determinare in modo univoco il termine an+2 quando siano noti i precedenti:

(n = 0) −→ 2a2 = −(a1 p0 + a0 q0 )
(n = 1) −→ 3 · 2a3 = −(a1 p1 + a0 q1 ) − (2a2 p0 + a1 q0 )
··· ··· ··· ···
Di conseguenza rimangono da assegnare solo i due coefficienti a0 , a1 , ed è palese che ciò si possa fare in modo
del tutto arbitrario. In funzione delle condizioni iniziali si esprimono allora a0 = y0 = y(0) ed a1 = y1 = y ′ (0)
e quindi quella trovata rappresenta l’unica “soluzione” che passa per esse.
Occorre però dimostrare che tale soluzione esiste, e cioè che esista un qualche r > 0 per il quale la serie converge
almeno in Br (0). Se questo è il caso, tutte le operazioni effettuate risultano lecite, e la soluzione del problema è
trovata, stante l’unicità, ed è analitica in Br (0); (in tal modo, le (6.59) risultano condizioni anche sufficienti).
C∞ n
Questo è il caso; la dimostrazione della convergenza in Br (0) di n=0 an x quando le an verificano le (6.59)
e purché i coefficienti p, q siano analitici in Br (0), è di routine: (si veda: [Simmons p. 183]).
Nota 1.6.2 Se l’equazione è a coefficienti costanti, e quindi pn = qn = 0 per ogni n > 0 la (6.59) si riduce a

(n + 1)(n + 2)an+2 + (n + 1)an+1 p0 + an q0 = 0 .

Esempio 1.6.6 Nel caso particolare y ′′ + y = 0 si hanno p0 = 0, q0 = 1 . Ne segue la (n + 1)(n + 2)an+2 + an = 0


e quindi
1 1
a2n = (−1)n a0 ed a2n+1 = (−1)n a1 .
(2n)! (2n + 1)!
Si ottiene in tal modo un’alternativa definizione delle funzioni trigonometriche, chiaramente con raggio di conver-
genza r = ∞, data da
@∞ A @∞ A
= 1 = 1
n 2n n 2n+1
y(x) = a0 (−1) x + a1 (−1) x
n=0
(2n)! n=0
(2n + 1)!
= a0 cos x + a1 sin x .

Si osservi che tale definizione è consistente con il modello di un punto che percorra di moto uniforme una circon-
ferenza; esso ha infatti vettore posizione ed accelerazione paralleli e discordi, e posizione totalmente individuata
dall’“angolo” x. #

Naturalmente il difficile è determinare non certo la forma (6.59) ma la formula ricorrente che ne consegue:
in questo esempio è stata a due termini, ma potrebbe essere peggiore, e ciò anche in base alla forma che si dà
all’equazione di partenza.
Esempio 1.6.7 L’equazione di Schrödinger stazionaria unidimensionale

!2 ′′
ψ + (E 0 − V (ξ)) ψ = 0 , ξ∈R. (6.60)
2m
Quando siano
k 2 k mω 2
V (ξ) = ξ , =: ω 2 , !ω =: hν, ξ =: x2 ∈ R ,
2 m !

Note di Sistemi Dinamici


60 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

la (6.60) (insieme con le necessarie condizioni fisiche) diviene:



⎪ 2E 0

⎨ ψ ′′ + (λ − x2 )ψ = 0 λ= ∈ R+ ;
- ∞ hν
0 ω 12 (6.61)

⎪ |x| k/m
⎩ |ψ|2 dx = 1 , e quindi ψ −→ 0; ν2 = = .
−∞ ∞ 2π 4π 2

A prescindere dalle condizioni al contorno, l’equazione cosı̀ trovata può ulteriormente


K essere trasformata.
L Si
2 2 2
ponga: y(x) := ex /2 ψ(x) e quindi ψ ′ = e−x /2 (y ′ − xy) e ψ ′′ = e−x /2 y ′′ − 2xy ′ − y + x2 y . Con
queste relazioni, dalla (6.61) si ottiene l’equazione di Hermite classica:

y ′′ − 2xy ′ + (λ − 1)y = 0 ; (6.62)


2
la quale a sua volta, moltiplicata per e−x , assume una forma particolarmente utile per la sua discussione,
[Simmons]: 0 1
2 2
e−x y ′ ′ + (λ − 1)e−x y = 0 . (6.63)
C∞
Il metodo consiste nel cercare soluzioni della forma y(x) = n=0 an xn . La (6.61) dà facilmente (n + 1)(n +
2)an+2 +λan −an−2 = 0, la quale però è una ostica relazione a tre termini. È più conveniente, invece, servirsi della
(6.62). Ponendo 2ϱ := (λ−1) si ottiene y ′′ −2xy ′ +2ϱy = 0 dalla quale segue (n+1)(n+2)an+2 −2nan +2ϱan = 0 ,
ovvero
−2(ϱ − n)
an+2 = an (6.64)
(n + 1)(n + 2)
dalla quale si ricavano

−2(ϱ − 2) (−2)2 ϱ(ϱ − 2)


a2 = −ϱa0 , a4 = a2 = a0 ,
3·4 (2 · 2)!

e cosı̀ via. In definitiva si arriva alle


(−2)k
a2k = ϱ(ϱ − 2) · · · (ϱ − 2k + 2) a0 , (6.65)
(2k)!
(−2)k
a2k+1 = (ϱ − 1)(ϱ − 3) · · · (ϱ − 2k + 1) a1 , (6.66)
(2k + 1)!

e si vede subito che è r = limk→∞ (k + 1)(2k + 1)/|ϱ − 2k| = ∞. Inoltre, con il porre nulli prima tutti i termini
dispari e poi quelli pari, e cioè scegliendo, come fatto nel precedente esempio, (a1,0 , a1,1 ) := (1, 0) e, rispettivamente,
(a2,0 , a2,1 ) := (0, 1), si trova che la soluzione generale della (6.60) è
2 2 2
ψ(x) = e−x /2
y(x) = e−x /2
y1 (x) + e−x /2
y2 (x) , (6.67)

ove le funzioni y1 ed y2 sono espresse mediante le serie di potenze aventi i coefficienti (6.65), (6.66) rispettivamente
e gli altri tutti nulli. Infatti, tali funzioni sono convergenti per ogni x < ∞ poiché tali sono i coefficienti di (6.62),
e certo fra loro linearmente indipendenti poiché di diversa parità.
Nel problema fisico, tuttavia, non basta che la serie converga per ogni x ∈ R; occorre anche che la soluzione sia
|x|
ψ ∈ L2 (R), e quindi che sia soggetta al vincolo: |ψ| −→ 0 . Per studiare l’avverarsi di tale condizione, si ricordi

C
innanzi tutto che ex /2 = ∞
2
n=0 b2n x
2n
con b2n := (2n n!)−1 . Pertanto, il primo addendo della (6.67) ammette
la seguente espressione
2 a0 + a2 x2 + · · · + a2n x2n + · · ·
e−x /2 y1 (x) = .
b0 + b2 x2 + · · · + b2n x2n + · · ·
Si può esaminare cosa accade per |x| → ∞ osservando il rapporto |a2n |/|b2n | .
Se per n ≫ 1 risultasse |a2n |/|b2n | > 1 allora, dato che tutti i coefficienti hanno lo stesso segno (positivo) per
|x|
n sufficientemente grandi, senz’altro non potrebbe essere |ψ| −→ 0 . Analogo risultato si ottiene studiando il

rapporto |a2n+1 |/|b2n |. Perché anche la y2 possa verificare la condizione al contorno occorre escludere la possibilità
che sia |a2n+1 |/|b2n | > 1 .
Per assicurarsene si usi il seguente procedimento. Dalla (6.64) segue che

a2n+2 (−2)(ϱ − 2n) b2n+2 1


= insieme con = ;
a2n (2n + 1)(2n + 2) b2n 2(n + 1)

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 61

e pertanto
a2n+2 /a2n (−2)(ϱ − 2n)2(n + 1)
= −→ 2.
b2n+2 /b2n (2n + 1)(2n + 2)
Se allora n è sufficientemente grande tale rapporto è maggiore per esempio di 3/2, e quindi se ne deduce
a2n+2 /b2n+2 > (3/2) a2n /b2n . Da questa si ricava, per n maggiori di un qualche n0 , la stima: a2n0 +2n /b2n0 +2n >
n 2
(3/2) a2n0 /b2n0 > 1 . Se ne conclude che la soluzione e−x /2 y1 (x) è fisicamente inaccettabile a meno che la
serie termini, e cioè a meno che (ϱ − 2n) si annulli per qualche n. Allo stesso modo si riconosce che il secondo
2
addendo della (6.67): e−x /2 y2 (x) diverge all’infinito a meno che (ϱ − 2n + 1) = 0 si annulli per qualche n. In
conclusione, affinché il problema fisico ammetta soluzione occorre che sia ϱ ∈ N.
N.B. 1.6.8 Questo è un modo di mostrare la condizione ϱ ∈ N alternativo
) a quello che*sfrutta l’autoaggiunzione
7 d 8 1 7 d 8 |x|
∗ 1
dell’operatore T T = √2 − dt + x · √2 + dt + x nello spazio L2 (R), |ψ| −→ 0 . ♦

In altre parole il problema fisico risulta un problema agli autovalori, le cui autofunzioni sono date dalle
2
ψm (x) = e−x /2
hm (x), m ∈ N,

nelle quali gli hm (x) sono polinomi, detti Polinomi di Hermite, autosoluzioni delle (6.62), (6.63) corrispondenti
agli autovalori ϱ = 2m e ϱ = 2m + 1 . Per quanto si è visto, tali polinomi sono dati rispettivamente dalle
⎧ m
⎪ = (−2)k

⎪ h (x) = c (2m)(2m − 2) · · · (2m − 2k + 2)x2k

⎨ 2m 2m
(2k)!
k=0
⎪ m
=

⎪ (−2)k
⎪ h
⎩ 2m+1 (x) = c 2m+1 (2m − 1)(2m − 3) · · · (2m − 2k + 1)x2k+1
(2k + 1)!
k=0

ove le cm sono costanti di normalizzazione. Per varie ragioni, queste vengono scelte in modo tale che il termine di
grado massimo sia 2n xn , e quindi sono

c2m = (−2)m 1 · 3 · 5 · · · (2m − 1) e c2m+1 = −(−2)m+1 1 · 3 · 5 · · · (2m + 1) ;

per esempio, i primi valori sono {1, −2, −12, 12, 120, · · ·}, e forniscono finalmente

h0 (x) = 1, h1 (x) = 2x, h2 (x) = 4x2 − 2, h3 (x) = 8x3 − 12x, etc.

Alternativamente, detto an il termine più alto del polinomio e cioè con ϱ = n, si sarebbe potuto anche usare
le (6.64) per trovare
1 n!
an−2k = (−1)k k an
2 (2k)! (n − 2k)!
ed allora con an := 2n si ottiene
[n/2]
= (−1)k (2x)n−2k
hn (x) =n! .
k! (n − 2k)!
k=0
2
0 2
1
È utile notare che la (6.63) è autoaggiunta: (2n − 1)e−x y = − e−x y ′ ′ e quindi in tal caso, per le proprietà
2
N 2
O∞
dell’esponenziale e con r := e−x , si ha ⟨ ψn , ψm ⟩ = 2(n − m) ⟨ hn , hm ⟩ r = e−x W(hn , hm ) = 0 . Un
−∞
2 2
calcolo diretto, con l’uso delle formile di Rodriguez: hn (x) = (−1)n ex dn (e−x )/dxn , mostra poi che invece
- ∞ - ∞
−x2 2 dn 2
⟨ hn , hn ⟩r = e hn (x)dx = (−1)n hn (x) n e−x dx
−∞ −∞ dx
- ∞ n−1
d 2
= (−1)n+1 h′n (x) n−1 e−x dx = . . .
−∞ dx
- ∞
2 √
= 2n n! e−x dx = 2n n! π ̸= 0
−∞

λ−1 E 1
Si osservi il profondo significato fisico della limitazione trovata per il parametro ϱ ≡ = − ∈ N.
2 hν 2
Essa rende discreto numerabile lo spettro dei valori accettabili per l’energia di un oscillatore armonico descritto
E 1
dalla equazione di Schrödinger, che pertanto è detto quantistico: = + n con n = 0, 1, . . . . #
hν 2

Note di Sistemi Dinamici


62 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Si esamini ora un caso di punto singolare regolare.

Esempio 1.6.9 Sia data, su (0, ∞), l’equazione di Bessel:

x2 y ′′ + xy ′ + (λ2 x2 − ϱ2 )y = 0 , λ, ϱ ∈ R . (6.68)

Anche l’equazione (6.68) può essere opportunamente trasformata.


√ Per esempio, oltre che poter essere scritta nella
forma −(xy ′ )′ + ϱ2 y/x = λ2 xy mediante la u(x) := x · y(x), e quindi per y ′ = x−1/2 u′ − 12 x−3/2 u ed
y ′′ = x−1/2 u′′ − x−3/2 u′ + 34 x−5/2 u , essa si trasforma nella
) *
′′ 2 1/4 − ϱ2
u + λ + u=0; (6.69)
x2

oppure, per t := λx, la


7 8
t2 ÿ + tẏ + t2 − ϱ2 y = 0 ; (6.70)

cosı̀ come questa stessa sostituzione trasforma (6.69) nella


) *
1/4 − ϱ2
ü + 1 + u=0. (6.71)
t2

Di questa generalmente si cercano soluzioni per x ∈ (0, l] con y(0+ ) < ∞ e per λ = λ(ϱ) ∈ R tale che y(l) = 0 ;
(in questo esempio, ϱ è una costante reale fissata a priori).
L’origine è palesemente
C∞ un punto singolare regolare. Come tale non è possibile sperare, a priori, in soluzioni
analitiche: y(x) = n=0 an xn . #

Osservazione.
Nel caso λ = 0 , la (6.68) si riduce alla nota equazione di Eulero, vedi Esempio 1.5.5, nella quale le p& e q& sono costanti reali e si badi
che qui la variabile x è positiva; nel caso generale i prossimi risultati vanno intesi validi con |x| ove occorra.

p& ′ q&
y ′′ + y + 2 y=0 (6.72)
x x
1 1 1 1 0 1
la quale, con ξ := ln x , e quindi con ∂x = ∂ξ e ∂x2 = − ∂ξ + ∂x ∂ξ = 2 ∂ξ2 − ∂ξ , diviene l’equazione lineare a
x x2 x x
coefficienti costanti:
d2 d
p − 1)
y + (& y + q& y = 0 . (6.73)
dξ 2 dξ
Come è noto, e come si rivedrà nel seguito, a seconda che le radici dell’equazione caratteristica:

α2 + (&
p − 1) α + q& ≡ [α(α − 1) + α&
p + q&] = 0 (6.74)

siano reali distinte, coincidenti, o complesse coniugate, l’equazione (6.73) ammette soluzioni del tipo eα1 ξ ed eα2 ξ , oppure eαξ
e ξeαξ ,
oppure e(ρ+iθ)ξ ed e(ρ−iθ)ξ , e quindi la (6.72) avrà in loro corrispondenza soluzioni contenenti potenze algebriche (e
cioè non necessariamente intere) della |x| oppure prodotti di queste con logaritmi, oppure potenze della |x| moltiplicate per funzioni
trigonometriche del logaritmo.

L’equazione di Bessel è un caso particolare della seguente forma generale (del secondo ordine)

p&(x) ′ q&(x)
y ′′ + y + y=0, con x0 singolare regolare (6.75)
x − x0 (x − x0 )2

e cioè x0 tale che: i coefficienti p(x) = p&(x)/(x − x0 ) e q(x) = q&(x)/(x − x0 )2 possono essere non analitici
in x0 , ma sono analitiche le due funzioni p&(x), q&(x).
Motivati dalla precedente osservazione sull’equazione di Bessel, viene spontaneo cercare soluzioni, nell’intorno
di x0 ,
o della forma y(x) = (x − x0 )α s(x), α ∈ C,
oppure della forma y(x) = (x − x0 )α s(x) ln |x − x0 |, α ∈ R,
C∞
dove si è posto s(x) = n=0 an (x − x0 )n , con a0 ̸= 0 ,

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 63

e nell’ipotesi che i coefficienti a0 , a1 , . . . , an , . . . ∈ R siano tali che la serie di potenze s(x) abbia raggio di
convergenza non nullo.
La prima di tali rappresentazioni quando α è un numero reale prende il nome di Serie di Frobenius, della quale
α è detto l’Esponente indiciale.
Sia, per semplicità, x0 = 0, e siano

= ∞
=
p&(x) =: p&n xn ed q&(x) =: q&n xn
n=0 n=0

entrambe analitiche per |x| < r .


Si ponga, come tentativo,

=
α
y(x) = x an xn con a0 ̸= 0 . (6.76)
n=0

È opportuno notare che se α ̸= 0 il coefficiente a0 non rappresenta il valore y(0); d’altra parte con le attuali
ipotesi il punto x = 0 è addirittura non appartenente dal dominio di regolarità del campo.
In base alla posizione fatta, risultano

= ∞
=
y ′ (x) = (α + n)an xα+n−1 , y ′′ (x) = (α + n)(α + n − 1)an xα+n−2
n=0 n=0

da cui @ A@ A

= ∞
=
p&(x) ′
y (x) = x−1 p&n x n
(α + n)an x α+n−1
=
x n=0 n=0

@ n A
= =
= p&n−k (α + k)ak xα+n−2
n=0 k=0

ed in modo analogo si ha
@ ∞
A@ ∞
A ∞
@ n A
q&(x) = = = =
y(x) = x−2 q&n x n
an x α+n
= q&n−k ak xα+n−2 .
x2 n=0 n=0 n=0 k=0

Anche in questo caso si trova una successione di condizioni necessarie, per n ≥ 0 ,


n
= n
=
(α + n)(α + n − 1)an + p&n−k (α + k)ak + q&n−k ak = 0
k=0 k=0

o anche, con la somma presente solo per n > 0 ,


n−1
=
[(α + n)(α + n − 1) + p&0 (α + n) + q&0 ] an + pn−k (α + k) + q&n−k ] ak = 0.
[& (6.77)
k=0

N.B. 1.6.10 La (6.77) si può paragonare con la (6.59)


n−1
= n−2
=
n(n − 1)an + kak pn−k−1 + ak qn−k−2 = 0, n≥2, (6.78)
k=1 k=0

che si è ottenuta per un punto regolare nel quale p&0 = q&0 = q&1 = 0 ; il passaggio da p, q a p&, q& comporta uno
spostamento in avanti negli indici: un posto per la p, due per la q ; vedi anche la seguente Nota 1.6.3. ♦

Per rendere più agevole la discussione delle (6.77) si definisca la funzione (già incontrata nella (6.74))

α &→ ind(α) := α(α − 1) + p&0 α + q&0 ;

la (6.77) si può riscrivere nella


n−1
=
ind(α + n) an + pn−k (α + k) + q&n−k ) ak = 0 ,
(& (6.79)
k=0

Note di Sistemi Dinamici


64 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

C
e l’equazione (6.75) calcolata per y(x) = n=0 an xn (e moltiplicata per x2 ) assumerà la forma


I n−1
J
= =
α
a0 ind(α) x + ind(α + n) an + pn−k (α + k) + q&n−k ) ak
(& xα+n = 0 . (6.80)
n=1 k=0

In particolare, e ricordando la convenzione sulla n ≥ 0 sussistono le

(n = 0) −→ ind(α)a0 =0
(n = 1) −→ ind(α + 1)a1 = −(&
p1 α + q&1 )a0
(n = 2) −→ ind(α + 2)a2 = −(&
p2 α + q&2 )a0 − (&
p1 (α + 1) + q&1 )a1

··· ··· ··· ···

L’assunto a0 ̸= 0 rende non ambigua la determinazione dell’esponente α ; esso dovrà essere una delle radici della:

Equazione indiciale ind(α) := α(α − 1) + p&0 α + q&0 = 0 (6.81)

e quindi, generalmente si avrà: α ̸∈ N. Tuttavia non è questa l’unica differenza con il caso dei punti regolari.
Diversamente dalla (6.78), infatti, le (6.77) permettono di determinare in modo ricorsivo tutti i coefficienti ai =
ai (a0 , a1 , . . . , ai−1 ) = ai (α; a0 ), i = 1, 2, . . ., solo se, in corrispondenza a quel valore di α , non esista alcun
intero positivo n̄ tale che

ind(α + n̄) = (α + n̄)(α + n̄ − 1) + p&0 (α + n̄) + q&0 = 0 .

Inoltre, anche ammettendo che per qualche α un tale n̄ non esista e sia quindi possibile determinare l’intera
successione {ai (α; a0 )}i=0,1,... , la soluzione che cosı̀ si determina in corrispondenza della prescelta radice α dell’e-
quazione indiciale (6.81) non potrà di regola essere la soluzione generale del problema; essa infatti dipende da una
sola costante arbitraria a0 .
Siano α1 , α2 le radici di ind(α) = 0 , e si suppongano entrambe reali ed ordinate secondo la α1 ≥ α2 .
Certamente ind(α1 + n) sarà non nullo per ogni n > 0 , infatti l’altra radice di ind(α) = 0 è α2 che, per
costruzione, cade a sinistra di α1 . Pertanto almeno una prima soluzione si potrà trovare con questo metodo, ed
avrà la forma
=∞
α1
y1 (x) = x a1,n xn , con a1,n = a1,n (α1 ; a1,0 ) .
n=0

È di routine (si veda: [Simmons p.185, opp. Tenenbaum 40.b]) la dimostrazione del fatto che la serie cosı̀
trovata è convergente almeno all’interno del cerchio di raggio r di analiticità dei termini p&, q&. Ne segue che la
soluzione y1 (x), analitica o meno a seconda del valore α1 , è certamente definita per x ∈ (0, r).
Sfortunatamente, siccome la (6.77) è condizione necessaria per gli an , si riscontra qui un
Primo caso sfavorevole: se α1 = α2 non esiste alcun’altra serie di Frobenius linearmente indipendente da quella
già trovata. Per trovare un’altra soluzione y2 indipendente dalla y1 , e quindi la soluzione generale del problema,
occorrerà inventare qualcos’altro.
Siano α2 ̸= α1 . Se è anche (α2 − α1 ) ̸∈ N allora ind(α2 + n) è anch’esso non nullo per ogni n > 0 , e quanto
appena fatto a partire dalla α1 può essere ripetuto per questa seconda radice α2 . Si trova cosı̀ una seconda serie
di Frobenius y2 , la quale per la condizione (α2 − α1 ) ̸∈ N ∪ {0} risulta evidentemente indipendente dalla y1 .
Quando invece esiste un intero positivo n̄ tale che α1 = α2 + n̄, allora accade che ind(α1 ) = ind(α2 + n̄) = 0
e ciò fa sı̀ che la (6.79), inizializzata con α2 e con un qualche a2,0 , termini con la:

n̄−1
=
0an̄ + pn̄−k (α2 + k) + q&n̄−k ) ak = 0 .
(& (6.82)
k=0

Questa eventualità può generare il


Cn̄−1
Secondo caso sfavorevole: (α2 − α1 ) ∈ N e k=0 pn̄−k (α2 + k) + q&n̄−k ) ak ̸= 0 .
(&
In tal caso la (6.82) non può essere risolta rispetto ad an̄ , ed anche ora occorre inventare qualcos’altro.
Questo caso sfavorevole può però anche non presentarsi. Infatti, qualora accada che risulti nulla anche l’intera
Cn̄−1
somma k=0 (&pn̄−k (α2 + k) + q&n̄−k ) ak , allora un arbitrario an̄ permette di reinnescare il procedimento, e dato
che le radici della ind(α) = 0 sono solo due il metodo è ormai vincente.

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 65

In definitiva, se (α2 − α1 ) ̸∈ N ∪ {0} oppure se, essendo α1 = α2 + n̄ con n̄ ∈ N è anche


Cn̄−1
k=0 (&
p n̄−k (α2 + k)+ q&n̄−k ) a k = 0 , si ottiene una seconda soluzione che è certamente linearmente indipendente
dalla prima ed è anch’essa una serie di Frobenius:

(
= a2,n = a2,n (α2 ; a2,0 ) nel primo caso ,
α2 n
y2 (x) = x a2,n x ,
k=0
a 2,n = a 2,n (α ; a ,
2 2,0 n̄ a ) nel secondo caso .

D’altra parte, quando si impongano sulla y(x) arbitrarie condizioni iniziali si nota che solo due delle tre costanti
a1,0 , a2,0 , ed an̄ sono realmente arbitrarie.
Nota 1.6.3 Si osservi, (si veda: [Bender-Orszag p.83]), che l’ultimo caso preso in esame contiene quello dei punti
ordinari. Per essi si ha p&0 = q&0 = q&1 = 0 , e quindi ind(α) = α(α − 1) che fornisce α1 = 1 ed α2 = 0 . In questo
C0
caso la (6.82), per n̄ = 1 ed α2C= 0 , fornisce 0a2,1 + k=0 (0& p1 + q&1 ) a2,0 ≡ 0 . Si hanno pertanto: una prima
serie di Frobenius y1 (x) = x ∞ n=0 a 1,n xn
, e quindi tale
C∞ che y1 (0) = 0 , ed una seconda serie di Frobenius,
sicuramente indipendente dalla prima, data da y2 (x) = n=0 a2,n xn con a2,0 ̸= 0 ed an̄ ≡ a2,1 arbitrario, per
esempio nullo se si richiede a1,0 = y ′ (0). ◃

Resta a questo punto solo da inventare qualcosa di diverso nei due possibili casi sfavorevoli. Ciò che si sfrutta
è il fatto che l’equazione che si sta studiando è del secondo ordine: come si è fatto in precedenza, visto che ormai
una soluzione è nota, si tenta di determinarne un’altra con il metodo della variazione della costante moltiplicativa.
Posto cioè y2 = vy1 , questa verifica la (6.75) se e solo se la funzione u := v ′ è soluzione della
) *
′ p&(x) ′
y1 (x)u + y1 (x) + 2y1 (x) u = 0 .
x
.x
Moltiplicando tale equazione per y1 (x) exp p̃(ξ)/ξ dξ si deduce che
) - x *
′ −2 p&(ξ)
v (x) = y1 (x) exp − dξ
ξ
@∞ A ) *
= x2
= x−2α1 a1,n xn −2 exp −& p0 ln x − p&1 x − p&2 − ···
n=0
2
@∞ A ) *
= x2
−(2α1 +&p0 ) n −2
=x a1,n x exp −& p1 x − p&2 − ··· . (6.83)
n=0
2

Si noti che in entrambi i due casi sfavorevoli si ha che α1 = α2 + n̄ per un qualche n̄ = 0, 1, . . . . Tuttavia,
siccome α1 , α2 sono soluzioni dell’equazione indiciale ind(α) ≡ α2 −(1− p&0 )α+ q&0 = 0 , è anche α1 +α2 = (1− p&0 ),
e quindi (sommandole) si ha 2α1 + p&0 = n̄ + 1 . Pertanto, il primo dei tre fattori della (6.83) ha come esponente
il numero intero: −(n̄ + 1). D’altra parte, l’intero coefficiente di x−(2α1 +&p0 ) nella (6.83) è senz’altro analitico in
zero giacché vale (a1,0 )−2 . Si ottiene cosı̀, con β0 ̸= 0 ,
7 8
v ′ (x) = x−(n̄+1) β0 + β1 x + β2 x2 + . . . ,

da cui
β0 β1
v(x) = x−(n̄+1)+1 + x−(n̄+1)+2 + . . . .
−(n̄ + 1) + 1 −(n̄ + 1) + 2
In questa somma, siccome n̄+1 è intero positivo, ci sarà uno ed un solo termine non algebrico: il termine βn̄ ln x.
Si ha cioè 9 :
y2 (x) = βn̄ y1 (x) ln x + x−n̄ y1 (x) [v(x) − βn̄ ln x] xn̄
con il termine fra parentesi graffe, e quindi anche il suo prodotto con y1 (x), ormai analitici in zero.
In definitiva, se α1 = α2 + n̄, risulta

=
y2 (x) = βn̄ y1 (x) ln x + xα2 cn xn . (6.84)
n=0

Si osservi che se α1 = α2 si ha βn̄ = β0 non nullo per costruzione, e quindi in tal caso il termine logaritmico
è sicuramente presente, e c0 = 0 . Può invece essere presente se è α1 − α2 =: n̄ > 0 (e allora c0 ̸= 0 ) ma può
anche non esserlo, a dipendere dal fatto che sia bn̄ ̸= 0 oppure bn̄ = 0 , come nel caso accennato sopra nel quale la
sommatoria in (6.82) risulta nulla.

Note di Sistemi Dinamici


66 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Infine, si consideri il caso α1 , α2 ∈ C. Dall’ipotesi che l’equazione assegnata sia reale segue che anche i coefficienti
dell’equazione indiciale sono reali, e pertanto le sue due radici saranno, nel caso, complesse coniugate: α1 =: ρ+ iθ ,
α2 =: ρ − iθ . Ricordando l’identità x(ρ+iθ) ≡ xρ (cos(θ ln |x|) + i sin(θ ln |x|)), lo studio che si è fatto nel primo
dei casi esaminati: α1 ̸= α2 può essere ora ripetuto, e dà luogo alle seguenti due serie di Frobenius certamente
indipendenti ed atte ad essere determinate con il metodo visto

= ∞
=
y1 (x) = +xρ cos(θ ln x) cn xn ed y2 (x) = +xρ sin(θ ln x) cn xn ;
n=0 n=0

queste, tuttavia, presentano entrambe una singolarità nel punto singolare regolare.
È bene notare che comunque, in tutti i casi discussi, per trovare esplicitamente i coefficienti delle serie è
sicuramente preferibile sostituire la forma ipotizzata per la soluzione direttamente nella equazione di partenza. A
tale proposito, anzi, dalla (6.80) si possono trarre le seguenti considerazioni (si veda Boyce-Di Prima § 5.7).
Nel caso α1 = α2 , se si suppone di risolvere tutte le infinite equazioni (6.79) mantenendo indeterminato il
parametro α e di sostituire le an = an (α; a0 ) cosı̀ trovate nella (6.80), questa diviene necessariamente:

a0 ind(α) xα = a0 (α − α1 )2 xα = 0 (6.85)

in quanto la α1 = α2 è l’unica radice (doppia) della equazione ind(α) = 0 , e conferma che y1 = y1 (x) è soluzione
della (6.75). Ricordando poi la formula: d(xα )/dα = xα ln x, si derivi rispetto ad α la (6.85); si ottiene
l’identità:
∂ N O K L
a0 (α − α1 )2 xα = a0 xα 2(α − α1 ) + (α − α1 )2 ln x = 0 .
∂α
Ma i coefficienti della (6.75) non dipendono (ovviamente) da α e quindi quest’ultima espressione coincide necessa-
riamente con quello che si ottiene sostituendo nella (6.75) al posto della y le derivate rispetto ad α della y1 (α; a0 ).
Se ne deduce che anche la derivata ∂y1 (α; a0 )/∂α risulta soluzione della stessa equazione (6.75) quando la si calcoli
per α = α1 . In breve, si è provato che è soluzione della stessa equazione (6.75) anche la funzione
+ ,

y2 (x) := y1 (α; x)
∂α α=α1
⎡ ⎤
= ∂) * =
= ⎣ an (α; a0 ) xα+n + ln x an (α; a0 ) xα+n ⎦
∂α (6.86)
n≥1 n≥0
α=α1

=
= a′n (α1 ; a0 ) xα1 +n + y1 (x) ln x
n≥1

dove la a′n (α1 ; a0 ) indica la derivata, rispetto alla α e valutata per α = α1 , della an (α; a0 ) soluzione
C della (6.79).
Anche in questo caso si ha che spesso la sostituzione diretta della espressione y2 (x) = y1 (x) ln x + k≥0 bk xα1 +k
nella equazione (6.75) è preferibile al calcolo delle derivate a′n (α1 ; a0 ) giacché non è sempre immediata la forma di
queste funzioni della α .
Il caso della differenza intera α1 − α2 ∈ N dà luogo a considerazioni simili alle precedenti (si veda Coddington
Cap.4) e fornisce per i coefficienti cn della (6.91) qui sotto l’espressione (per n ≥ 1 )
∂ '
'
cn (α2 ) = ((α − α2 ) an (α; a0 )) 'α=α2
∂α a0 =1

ed è γ = limα→α2 (α − α2 ) an̄ (α). In definitiva sussiste il seguente

Teorema 1.6.1 Sia data l’equazione (6.75):

p&(x) q&(x)
y ′′ + y′ + y=0 , (6.87)
x − x0 (x − x0 )2

con x0 singolare regolare, e cioè con p&(x), q&(x) ∈ C ω (N (x0 )). Sia r il (più piccolo) raggio di convergenza dei
suoi coefficienti p& e q&, e siano α1 e α2 ≤ α1 le soluzioni (supposte reali) dell’equazione indiciale (6.81):
ind(α) := α(α − 1) + p&0 α + q&0 = 0 . Allora in uno dei due intervalli −r < x < 0 o 0 < x < r esiste una
soluzione della forma ⎛ ⎞
=
y1 (x) = |x|α1 ⎝1 + an (α1 ) xn ⎠ (6.88)
n≥1

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 67

ove le an (α1 ) sono date dalle relazioni di ricorrenza (6.79) con a0 = 1 ed α = α1 , e la serie converge almeno
per |x| < r .
Se inoltre l’altra radice α2 è tale che α1 −α2 ̸∈ N∪{0} allora nello stesso intervallo esiste una seconda soluzione
avente la medesima forma della prima e linearmente indipendente da essa:
⎛ ⎞
=
y2 (x) = |x|α2 ⎝1 + an (α2 ) xn ⎠ (6.89)
n≥1

con le an (α2 ) date dalle (6.79) con a0 = 1 ed α = α2 , e la serie converge almeno per |x| < r .
Se α1 = α2 la seconda soluzione della (6.75) ha la forma
=
y2 (x) = y1 (x) ln |x| + |x|α1 bn (α1 ) xn (6.90)
n≥1

Se invece α1 − α2 ∈ N la seconda soluzione della (6.75) ha la forma


⎛ ⎞
=
y2 (x) = γ y1 (x) ln |x| + |x|α2 ⎝1 + cn (α2 ) xn ⎠ . (6.91)
n≥1

I coefficienti an , bn , cn , γ vanno cercati sostituendo direttamente nella equazione (6.75) tali espressioni e usan-
do l’uniforme convergenza delle serie e le relazioni di identità dei loro coefficienti, oppure, all’occasione,mediante
le ⎧ 1'
⎪ ∂ 0 '

⎨ bn (α1 ) = an (α; a0 ) 'α=α1 ,
n̄ = α2 − α1 ∂α a0 =1
e 0 1'
γ = lim (α − α2 ) an̄ (α) ⎪
⎪ ∂ '
α→α2 ⎩ cn (α2 ) = (α − α2 )an (α; a0 ) 'α=α2 .
∂α a0 =1

Il coefficiente γ può essere nullo.

Decalogo per la ricerca di soluzioni per serie di potenze

Si parte dalla equazione (supposta del secondo ordine) scritta nella forma

p&(x) q&(x)
y ′′ +
y′ + y=0 (6.92)
x − x0 (x − x0 )2
e si decide se il punto x0 nell’intorno del quale si sviluppa è regolare, singolare regolare, singolare irregolare. Sia, per semplicità,
x0 = 0 . Quanto segue vale in particolare per il caso singolare regolare.
N O N O
(1) Si individuano i valori p&0 = x p(x) e q&0 = x2 p(x) .
x=0 x=0
(2) Si scrive l’equazione indiciale α(α − 1) + α&
p0 + q&0 = 0 e se ne trovano le due radici α1 e α2 .
(3) Si scrivono le

= ∞
=
y(x) = ak xα+k , y ′ (x) = ak (α + k) xα+k−1 ,
k=0 k=0
=∞
y ′′ (x) = ak (α + k) (α + k − 1) xα+k−2 ,
k=0
e si sostituiscono nella (6.92) scritta nella forma
r1 (x) y ′′ + r2 (x) y ′ + r3 (x) y = 0 (6.93)
con i coefficienti r1 , r2 , r3 senza denominatori.
(4) Si eseguono le operazioni di prodotto per i coefficienti ri e si raccolgono a fattore comune i vari termini (per opportuni
n1 , n2 , . . . ):
= 0 1 = 0 1
... xα+k+n1 + ... xα+k+n2 + . . . = 0 .
k≥0 k≥0

(5) A partire dall’ordine più basso si annullano i primi coefficienti: nei primi si deve ritrovare l’equazione indiciale come condizione
necessaria. Ciò fa crescere l’indice dei primi termini non banali.
(6) Si rinominano i vari indici k in modo da riconoscere l’uguaglianza fra le potenze della x e da poter raccogliere tutto in
un’unica somma (in generale con k0 = 0 )
= 0 1
xα+k = 0 .
k≥k0
Poi si sostituisce α = α1 (la maggiore delle due radici) e si annullano i vari coefficienti.

Note di Sistemi Dinamici


68 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

(7) Si ricavano i coefficienti ak in funzione dei precedenti (a partire dai primi), poi si cerca un’unica relazione di ricorrenza per la
prima delle due soluzioni: y1 (x) , quella relativa alla α1 , la radice (reale) maggiore.
(8) Si ricomincia dal Punto (6) per α = α2 , e si cerca una y2 (x) indipendente dalla y1 (x) .
(9) Se non si riesce (certamente quando α1 = α2 ; eventualmente quando (α1 − α2 ) ∈ N ) si prova con una delle
(
y2 (x) = v(x) y1 (x) quando la y1 è “facile”
C
y2 (x) = γ y1 (x) ln |x| + k≥0 bk xα2 +k quando la y1 è una serie
Il fattore γ è .certamente presente se α1 = α2 , può essere nullo se α1 − α2 ∈ N ; l’equazione risolvente per la v è: v′ (x) =
y1−2 (x) exp − x r2 (s)/r1 (s) ds .
Se il punto è singolare regolare almeno una delle due riesce certamente.
(10) Si confermano i risultati rimettendo le yi (x) nell’equazione di partenza (6.93) e controllando che esse ne siano soluzioni.

Esempio 1.6.12 L’equazione di Bessel (continuazione; si veda la (6.70))


x2 y ′′ + xy ′ + (x2 − ϱ2 )y . (6.94)
Si cerca lo sviluppo nell’intorno dell’origine, e senza imporre la condizione fisicamente significativa ϱ ∈ N, ma
solo (senza ledere la generalità) supponendo ϱ positiva. L’origine è singolare regolare, con p&0 = 1 , q&0 = −ϱ2 ,
q&2 = 1 , e tutti gli altri nulli.
L’equazione indiciale è α(α − 1) + α − ϱ2 = 0 , che dà α1,2 = ±ϱ.
C∞
Si inizia lo studio con α1 = +ϱ, e cioè si impone y1 (x) = xϱ n=0 an xn con a0 ̸= 0 . Siccome il raggio di
convergenza di p&(x) = 1 e di q&(x) = −ϱ2 + x2 è banalmente infinito, si ha la convergenza ovunque della prima serie
di Frobenius. La funzione y1 è quindi definita su tutto R dato che, per ipotesi, è ϱ ≥ 0 , ed è addirittura analitica
se ϱ ∈ N. Per trovare i coefficienti an basta seguire l’usuale metodo:

=
x2 y ′′ (x) = an (α + n)(α + n − 1)xα+n ;
n=0
=∞
xy ′ (x) = an (α + n)xα+n ;
n=0
=∞
x2 y(x) = an xα+n+2 ;
n=0

=
−ϱ2 y(x) = − ϱ2 an xα+n .
n=0

Si trovano: 0 1 0 1
α(α − 1) + α − ϱ2 a0 = 0 , e α(α + 1) + (α + 1) − ϱ2 a1 = 0 ,

e per n ≥ 2 si ritrova la (6.77), con p&0 = 1 , q&0 = −ϱ2 , q&2 = 1 , e gli altri tutti nulli. Se ne deduce, con a0
arbitrario, la ⎧ 0 1

⎨ (α + 1)2 − ϱ2 a1 = 0 ,
0 1 (6.95)

⎩ (α + n)(α + n − 1) + (α + n) − ϱ2 an + an−2 = 0, n = 2, 3, . . .

da cui, (si ricordi che è ϱ ≥ 0 , e a−1 da determinare) si ha


an−2
an = − , n = 1, 2, . . . ; a0 ̸= 0 . (6.96)
(α + n)2 − ϱ2
Nel primo caso, e cioè α = α1 = ϱ, occorre allora porre a−1 = 0 , e quindi, con a1,0 := a0 arbitrario, per i
a2(k−1) −a1,0 −a1,2
coefficienti della prima Frobenius dalla a2k = − 2k(2k+2ϱ) si ricavano i valori a1,2 = 2(2+2ϱ) ; a1,4 = 4(4+2ϱ) ; e
cosı̀ via, ovvero
(−1)k a1,0
a1,2k+1 = 0, a1,2k = 2k ; k = 1, 2, . . . .
2 k!(ϱ + 1) · · · (ϱ + k)
Scelto in particolare a1,0 := 2ϱ1ϱ! si ha che la prima soluzione, certamente esistente definita e continua su tutto
(0, ∞), ed anzi su tutto [0, ∞) giacché ϱ ≥ 0, può essere esplicitamente espressa da:
∞ ∞
xϱ = (−1)k 1 2k
=
k (x/2)
2k+ϱ
jϱ (x) = x = (−1) . (6.97)
2ϱ ϱ! 22k k!(ϱ + 1) · · · (ϱ + k) k!(ϱ + k)!
k=0 k=0

#
M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 69

1.0
J0 cos

0.5 J1
J2

5 10 15 20

-0.5

-1.0
Curiosità: per ϱ = 0 il coefficiente di (−x2 )k è (2k k!)−2 e quindi vale (22 · 42 · · · 4k 2 )−1 ; questo può essere
paragonato a quello di un coseno che è ((2k)!)−1 = (2 · 4 · · · 2k)−1 .

Nota 1.6.4 Per il momento, la (6.97) è priva di significato a meno che non si definisca il simbolo ϱ! nel caso in
cui ϱ ̸∈ N. .∞
Esiste una funzione, e precisamente la Γ(ϱ) := 0 tϱ−1 e−t dt che quando venga calcolata sugli interi positivi ha
le stesse proprietà del fattoriale, e cioè

(i) Γ(ϱ + 1) = ϱΓ(ϱ);

(ii) Γ(1) = 1 .

Infatti si nota che


- @ A
b N Ob - b
ϱ −t ϱ −t ϱ−1 −t
Γ(ϱ + 1) = lim t e dt = lim −t e + ϱt e dt = ϱ Γ(ϱ),
b→∞ 0 b→∞ 0 0

e pertanto risulta Γ(n + 1) = n! per n = 0, 1, . . . .


D’altra parte Γ è definibile su tutto R+ . Infatti per ϱ ∈ [ε, 1 + ε], con ε > 0 , la funzione è definita e limitata; e
la (i) permette di scrivere Γ(ϱ+n) = (ϱ+n−1)(ϱ+n−2) · · · ϱΓ(ϱ) per ogni ϱ ∈ (0, 1], e n = 1, 2, . . . . Pertanto
la (i) stessa può ancora essere usata per definire la Γ(ϱ) quando ϱ ∈ (−1, 0) secondo la Γ(ϱ) := ϱ1 Γ(ϱ + 1), e cosı̀
via procedendo all’indietro.

In definitiva, salvo che sugli interi negativi, la funzione Γ è atta a rappresentare il simbolo fattoriale: ϱ! := Γ(ϱ + 1)
per ogni ϱ ∈ R\N− .

10

-4 -2 2 4
-5

-10

Mediante la funzione Γ si può scrivere



= (−1)k 0 x 12k+ϱ
jϱ (x) =
k!Γ(ϱ + k + 1) 2
k=0

purché sia ϱ ̸= 0, −1, −2, . . . come è nell’ipotesi: ϱ ≥ 0.

Note di Sistemi Dinamici


70 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Per trovare un’altra soluzione dell’equazione di Bessel, indipendente C∞dalla (6.97), si supponga dapprima che sia
ϱ ̸∈ {0, 1, 2, . . .}, e la si ricerchi nuovamente della forma y2 (x) = x−α n=0 an xn con α = α2 = −ϱ. Si ricava la

⎨ (1 − 2ϱ) a1 = 0 ,
0 1
⎩ (−ϱ + n)(−ϱ + n − 1) + (−ϱ + n) − ϱ 2
an + an−2 = 0, n = 2, 3, . . .

Anche in questo secondo caso quindi, la scelta a−1 := 0 permette di porre nulli tutti i coefficienti di ordine dispari,
e di ricavare tutti i coefficienti di ordine pari in funzione dell’unico, arbitrario, primo coefficiente a2,0 :

n(n − 2ϱ)a2,n + a2,n−2 = 0, n = 1, 2, . . . a2,0 ̸= 0 . (6.98)

Diversamente dal caso precedente, in questo secondo caso il coefficiente n(n − 2ϱ) nella (6.98) potrebbe creare
delle difficoltà qualora le radici dell’equazione indiciale fossero tali che α1 − α2 ≡ ϱ − (−ϱ) = 2ϱ ∈ N, e cioè: o
quando ϱ ∈ {0, 1, 2, . . .} , oppure quando per qualche k̄ ∈ N si ha 2ϱ = 2k̄ + 1 . È però solo il primo di questi
due casi che fa realmente terminare il procedimento ed impedisce che i coefficienti vengano determinati per mezzo
della (6.98). La seconda eventualità infatti potrebbe far terminare la determinazione dei soli coefficienti di ordine
dispari e non può impedire, come è stato fatto, che essi siano posti tutti nulli.
In definitiva, se 2ϱ è un intero positivo dispari o non è intero, e cioè se ϱ ̸∈ {0, 1, 2, . . .} , dalla (6.98) si ricavano

(−1)k a2,0
a2,2k+1 = 0; a2,2k = 2k
; k = 1, 2, . . . . (6.99)
2 k!(−ϱ + 1) · · · (−ϱ + k)
−1
Scegliendo a2,0 = (2−ϱ Γ(−ϱ + 1)) si ottiene un’altra soluzione particolare, e cioè l’altra Frobenius di cui si è
parlato sopra:

= (−1)k 0 x 12k−ϱ
j−ϱ (x) = (6.100)
k!Γ(−ϱ + k + 1) 2
k=0

e siccome questa è non limitata in x = 0, (infatti il primo termine è certamente divergente in zero), essa è certo
indipendente da jϱ . Si osserva che la singolarità in zero è di tipo algebrico.
Rimane la difficoltà ϱ = m ∈ N ∪ {0} , che è però il caso fisicamente significativo. Applicando a ritroso la
(6.98) si conferma che necessariamente (e ancora usando x! in luogo di Γ(x + 1))

(−1)k a2,0
a2k = =0 per k = 0, 1, . . . , m − 1 ,
22k k!(k − m)!

e siccome le relazioni per jϱ e j−ϱ danno

(−1)k 0 x 12k−m (−1)k 0 x 12k−m



= ∞
=
j−m (x) = =
k!(k − m)! 2 k!(k − m)! 2
k=0 k=m

(−1)n+m 0 x 12n+2m−m
=∞
= = (−1)m jm (x)
n=0
n!(n + m)! 2

si ha che quando ϱ ∈ N ∪ {0} la y2 ≡ j−ϱ non fornisce una soluzione indipendente dalla y1 , e la y = c1 jϱ + c2 j−ϱ
non è la soluzione generale.
Nel caso dell’equazione di Bessel è parso opportuno usare, come seconda soluzione di base nel caso ϱ ∈
{0, 1, 2, . . .} e qualora sia necessaria, invece della y2 logaritmica come visto sopra, la seguente (Bessel di seconda
specie)
jϱ (x) cos ϱπ − j−ϱ (x)
Ym (x) := lim .
ϱ→m sin ϱπ
Si possono constatare le seguenti proprietà delle funzioni di Bessel jϱ :
0 1
(p1) x+ϱ jϱ (x) ′ = +x+ϱ jϱ−1 (x) per ϱ > 0 ;
0 1
(p2) x−ϱ jϱ (x) ′ = −x−ϱ jϱ+1 (x) per ϱ > 0 ;

(p3) j0′ = −j1 ;

(p4) jϱ′ + xϱ jϱ = +jϱ−1 ;

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 71

(p5) jϱ′ − xϱ jϱ = −jϱ+1 ;


0 1
1/4−ϱ2 1
(p6) La (6.69): u′′ + λ + x2 u = 0 , con ϱ2 = 4 e λ = 1 fornisce alla (6.68) la soluzione y(x) =
√1 (c1 cos x + c2 sin x) .
x

Ma per quanto visto è anche y = &


c1 j1/2 + &
c2 j−1/2 per cui seguono le
( √
xj1/2 (x) = a cos x + b sin x

xj−1/2 (x) = c cos x + d sin x .
K√ L
Tuttavia, xj1/2 (x) x=0 = 0 per la convergenza di jϱ con ϱ > 0 ; e quindi è a = 0 . Questa proprietà,
d’altra parte, è facilmente dimostrabile mediante il calcolo diretto; infatti (si noti che 2k k! ̸= (2k)! ) mediante
la (6.95) con 2ϱ = 1 si arriva alla

= (−1)k sin x
j1/2 ∝ x−1/2 x2k+1 = √
(2k + 1)! x
k=0

A sua volta, un calcolo diretto tramite la (6.99) fornisce


I∞ J √ T
K√ L = (−1)k 0 x 12k √ 2 2
xj−1/2 (x) x=0 = 2 = = = c.
k!(− 12 + k)! 2
k=0
1
(− 2 )! π
x=0
K 7 8 . . 2
B .
Si noti che l’ultima uguaglianza proviene dalla Γ( 12 ) = − 12 ! = 0∞ √1 e−t dt = 0∞ 2e−s ds = 4 0∞ e(x2 +y 2 ) dxdy =
B . t
. √ √ L
4 0π/2 0∞ e−ϱ2 rdrdθ = π per la quale si ha anche (n − 12 )! = ( 12 )n π .

Servendosi di questi√ risultati,


√ e ancora dalla (p1) si ricava la (b sin x)′ = c cos x + d sin x, da cui seguono
d = 0 e b = c = 2/ π .
2(n+1)
(p7) Sommando (p4) e (p5) si ha 2ϱ x jϱ = jϱ−1 + jϱ+1 ed in particolare jn+2 = x jn+1 − jn che permette
√ di
esprimere le jn , per ogni n ≥ 2 , in funzione di j0 e j1 . Allo stesso modo, la (p6) implica che ogni xjm+1/2
è una combinazione lineare di termini del tipo sin x/xn1 e cos x/xn2 con n1 , n2 ∈ N, e cioè che è esprimibile
con funzioni elementari

Nota 1.6.5 Una qualunque equazione della forma

x2 y ′′ + β1 xy ′ + (β2 + β3 x2b )y = 0, con β1 , β2 , β3 ∈ R, b > 0, (6.101)

diviene l’equazione (6.94):


z 2 w′′ + zw′ + (z 2 − ϱ2 )w = 0
con le posizioni:

b c β3 β1 − 1 c 2 − β2
z := ax , w(z(x)) := y(x)x , a := , d := , ϱ2 := .
b 2 b2
Infatti, la prima di queste fornisce:

d 7 8−1 d d2 7 8−2 d2 7 8−2 d


= abxb−1 ed 2
= abxb−1 2
− abxb−1 (b − 1)x−1 ,
dz dx dz dx dx
e sostituendo queste e la w definita come sopra nella (6.94) si verifica, con un pò di algebra,
) *
1 d2 (b − 1) d
0 = a2 x2b − (yxc )+
a2 b2 x2b−2 dx2 a2 b2 x2b−1 dx
) *
1 d
+ axb (yxc ) + (a2 x2b − ϱ2 )(yxc )
abxb−1 dx
= x2 y ′′ + (2c + 1)xy ′ + (a2 b2 x2b + (c2 − ϱ2 b2 ))y .


Note di Sistemi Dinamici
72 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

Nota 1.6.6 Un’altra famiglia di equazioni dalla forma molto comune è la

(t − β1 )(t − β2 )ÿ + (β3 + β4 t)ẏ + β5 y = 0 (6.102)

con β1 , . . . β5 ∈ R e naturalmente con β1 ̸= β2 . Mediante le posizioni:


t − β1 β3 + β1 β4 d 1 d
x:= , d := − , = ,
β2 − β1 β2 − β1 dt β2 − β1 dx
a + b + 1 := β4 , a b := β5 ,

e quindi con
β3 + β4 t β3 + β4 [(β2 − β1 )x + β1 ]
− =− = c − (a + b + 1)x,
β2 − β1 β2 − β1
la (6.102) si trasforma nella Equazione ipergeometrica di Gauss:

x(1 − x)y ′′ + (c − (a + b + 1)x)y ′ − aby = 0 (6.103)

che ha lo zero e l’unità come punti singolari regolari:


1
p&(x) = xp(x) = (c − (a + b + 1)x) = (c − (a + b + 1)x)(1 + x + x2 + . . .)
1−x
−abx
q&(x) = x2 q(x) = = −abx(1 + x + x2 + . . .)
1−x
ed analoghe per il punto x = 1 .
Nel punto zero si ha allora, in particolare, p&0 = c , q&0 = 0 , e l’equazione indiciale risulta α(α − 1) + cα = 0
che dà α(1,2) = (0; 1 − c).
Per quanto visto sopra, a meno che (1 − c) ∈ {0, 1, 2, . . .}, una soluzione è certamente

=
y1 (x) = x0 ak xk con a0 ̸= 0.
k=0

In tal caso, sostituendo questa espressione nella (6.103), si ha

(k + 1)kak+1 xk − k(k − 1)ak xk + c(k + 1)ak+1 xk − (a + b + 1)kak xk − abak xk = 0

da cui per k = 1, 2, . . . si ottiene

(k(a + b + k) + ab) (a + k)(b + k)


ak+1 = ak = ak ,
(k + 1)(k + c) (k + 1)(c + k)

e quindi la ricorrente
(a)k (b)k
ak = a0 , k = 1, 2, . . . .
(c)k k!
La somma y1 della serie cosı̀ trovata, con a0 = 1 , prende il nome di
Funzione Ipergeometrica di Gauss e si indica con

= (a)k (b)k
y1 (x) = xk =: F (a, b, c; x) ,
(c)k k!
k=0

definita ed analitica per |x| < 1, dato che è questo il polo dei coefficienti più vicino all’origine, e sempre che
(1 − c) ̸∈ {0, 1, 2, . . .}. In particolare è un polinomio se a, b sono interi negativi.
Inoltre, qualora sia (1 − c) ̸∈ {0, −1, −2, . . .} , c’è anche un’altra soluzione

=
y2 (x) = x1−c ak xk .
k=0

Per trovarla esplicitamente conviene porre y(x) =: x1−c z(x) nella (6.103) ed ottenere
7 8
(x(1 − x)) (1 − c)(−c)x−1−c z + 2(1 − c)x−c z ′ + x1−c z ′′ +
7 8
+ (c − (a + b + 1)x) (1 − c)x−c z + x1−c z ′ − abx1−c z = 0 ,

M. Lo Schiavo
1.6. Ricerca di soluzioni per serie di potenze 73

da cui K
(x(1 − x)) z ′′ + [2(1 − c)(1 − x) + c − (a + b + 1)x] z ′ + (−c)(1 − c)(1 − x)x−1 +
L
+ c(1 − c)x−1 − (a + b + 1)(1 − c) − ab z =
= (x(1 − x)) z ′′ + [(2 − c) − (a + b + 1 + 2 − 2c)x] z ′ −
− [(1 − c)(a + b + 1 − c) + ab] z = 0 ,
che ha soluzione
F (a − c + 1, b − c + 1, 2 − c; x) .
Ne segue
y2 (x) = x1−c F (a − c + 1, b − c + 1, 2 − c; x)
e si noti che 1 − (2 − c) ̸∈ N per l’ipotesi che sia (1 − c) ̸∈ {0, −1, −2, . . .}.
Tutto ciò è valido in un intorno dello zero. Se si vuole uno sviluppo valido nell’intorno di x = 1 basta porre
t := (1 − x) nella (6.103) ed ottenere la

t(1 − t)ÿ + [(a + b + 1 − c) − (a + b + 1)t] ẏ − aby = 0

da cui, sempre che (c − a − b) ̸∈ N, segue

y(t) = c1 F (a, b, a + b + 1 − c; t) + c2 F (c − b, c − a, c − a − b + 1; t) .


La flessibilità delle funzioni ipergeometriche è notevole:
Esempio 1.6.16
∞ ) *
= ∞
=
α (−1)k (−α)k
(1 + x)α = xk = xk = F (−α, 1, 1; −x).
k k!
k=0 k=0

#
ln(1 + x)
Esempio 1.6.17 La funzione =: y verifica l’equazione
x
) *
′ x y 2 2
y = − x e quindi x(1 + x)y ′′ + (2 + 3x)y ′ + y = 0 .
1+x x

Questa è del tipo (6.103) con variabile indipendente −x e con

ab = 1, a + b + 1 = 3, c=2.

Ne segue la soluzione particolare


ln(1 + x) = x F (1, 1, 2; −x) .
#
Esempio 1.6.18 (si veda per esempio la Nota 1.5.1)
) *
1 1 3 2
arcsin x = x F , , ; x .
2 2 2

Note di Sistemi Dinamici


74 Capitolo 1. Equazioni Differenziali Ordinarie Metodi Analitici

M. Lo Schiavo
Capitolo 2

Sistemi differenziali lineari

2.1 Il procedimento di linearizzazione


Si consideri un sistema differenziale autonomo di tipo generale:

ẋ = v(x), x0 ∈ M, (1.1)

con campo sufficientemente regolare, per esempio C 1 (D), in un aperto D ⊆ M di una varietà n-dimensionale M.
Scelto un sistema di coordinate h(x) su M, resta definito su un aperto di Rn un sistema di equazioni che verrà
indicato con la notazione ẋ = v(x), x ∈ Rn .
Nell’intorno di punti non di equilibrio, come si vedrà, il campo può essere rettificato, e quindi le linee di flusso
risultano localmente “pettinate”. Di conseguenza la maggior parte dell’informazione qualitativa circa il diagramma
di fase proviene dagli intorni dei punti di equilibrio e dalla struttura e forma delle traiettorie in essi.
D’altra parte se si pensa allo sviluppo di Taylor del campo v(x), in un intorno sufficientemente piccolo del
punto critico xe e nell’ipotesi ∥∂v(xe )∥ > 0 , si ha che il suo termine principale risulta essere quello lineare:
∂v(xe )(x − xe ) in quanto v(xe ) = 0 .
Un metodo che a volte, si badi bene, e non sempre è utile a fornire informazioni sul diagramma di fase
nell’intorno di un punto di equilibrio isolato: xe , consiste nello studiare, invece che l’equazione di partenza (1.1) in
generale non lineare, la sua variazionale o “linearizzata” in x !(t) = xe , e cioè

u̇ = v∗ (xe )u, u ∈ V ≡ Rn . (1.2)

A parziale ed euristica giustificazione del procedimento, si possono considerare i seguenti punti, (un teorema
più dettagliato verrà richiamato nel § IV.1).

(• ) Una funzione f : M → M′ è differenziabile in x ! ∈ M quando risulta differenziabile una sua qualche rappre-
sentazione in coordinate. In tal caso, ciò resta vero (si veda: Appendice A.4 N.B.1.4.13) in tutte le carte (U, hξ ) che
x) : Tx̂ M → Tf (x̂) M′
siano C r≥1 -compatibili con la prima, ed è quindi possibile definire l’operatore lineare T := f∗ (!
come quello che, nelle coordinate che rappresentano f con f , è rappresentato dalla matrice Jacobiana T := ∂f (! x).
Pertanto, scelto comunque x in un intorno N (! x) ⊂ M sufficientemente piccolo, in tali coordinate risulta

f (x) ≡ f (!
x + χ) = f (! x)χ + |χ|κ(f ) (!
x) + ∂f (! x, χ) (1.3)
|χ|
! può essere pensato come χ = εν con ν arbitrario finito e
x, χ) −→ 0 . L’incremento χ = x − x
con κ(f ) (!
0
0 < ε ≪ 1 . A partire da questi, sulla varietà V = Rn resta definito il corrispondente vettore ν .
A tale scopo, indicate con h(x) le coordinate su M , e detto X := (h(x) )∗ l’isomorfismo da esse indotto fra Tx̂ M ed Rn , innanzi tutto
si considera quel vettore w ∈ h(x) (U ) ⊆ Rn per il quale (si veda: Appendice A.4 N.B.1.4.16) x = h(x) (x) =: h(x) (! x) + εw = x̄ + εw,
e poi, a partire da questo, si definisce su Tx̂ M il vettore ν = X −1 w. Esso contiene la curva γ : N (0) ⊂ R → M che, al variare di ε ,
resta definita dalla γ(ε) := h−1 (h (!
(x) (x)
! , contiene x , ed è tale che γ̇(0) = ν , e quindi [γ]x̂ = ν che,
x) + εw) . Tale curva è basata in x
tuttavia, dipende dal sistema di coordinate scelto su M .
Inoltre, ciò giustifica l’espressione
0 ' 1 (f(!x + εν) − f(! x)) d ''
'
h(x) Lν f ' = lim ≡ ' f(!
x + εν) = f∗ (! x)ν
x̂ ε→0 ε dε ε=0
che vuole interpretare la
' d '' '
' '
Lν f ' = ' (f ◦ γ) = f∗ ' ν
x̂ dε ε=0 x̂
ove γ : ε ∈ R &→ γ(ε) ∈ M è una curva tale che γ(0) = x ! e γ̇(0) = ν .

(• ) Si assuma che la (1.1) abbia campo v : M → T M almeno C 2 (D), e che sia nota la sua soluzione t &→ x =
!0 ) uscente da un certo x
φ(t, t0 , x !0 ∈ D ⊆ M; l’istante t0 è arbitrario ma fissato, per esempio t0 = 0 . Detta
t &→ φ(t, t0 , x0 ) la soluzione uscente da un qualunque x0 ∈ N (! x0 ) la regolarità del campo v impone che sulla
varietà V ≡ Rn esista una funzione (vettoriale) χ = χ(t, t0 , x0 , x
!0 ) soluzione del seguente problema, ancora non
lineare e sostanzialmente equivalente al problema (1.1), detto

75
76 Capitolo 2. Sistemi differenziali lineari

!0 ))
Problema alle variazioni (relativo alla φ(t, t0 , x
(
!0 ))χ + |χ| κ(v) (t, χ),
χ̇ = v∗ (φ(t, t0 , x
(1.4)
χ0 = χ(t0 ) arbitrario in V ,

ed è
κ(v) (t, χ) ∈ C 0 (N (t0 ) × N (0)) con N (t0 ) × N (0) ⊂ R × V
|χ|
κ(v) (t, χ) −→ 0 uniformemente per t0 ≤ t ≤ τ < ∞.
0

!0 ) esista e sia in D , va intesa nel senso che: fissato


Quest’ultima affermazione, conseguenza dell’ipotesi che il punto x = φ(t, t0 , x
comunque un valore τ < ∞ (e per esempio τ > t0 ) appartenente all’intervallo massimale JM di definizione della soluzione di
!0 ) , il limite per |χ| → 0 della κ(v) (t, χ) esiste (nullo) ed è anzi uniforme rispetto a t ∈ [t0 , τ ] giacché φ è
riferimento t &→ φ(t, t0 , x
funzione continua di t , e le funzioni v e (quindi) v∗ e κ(v) sono funzioni continue del punto x , e quindi di t .

(• ) Il teorema di dipendenza continua (si veda: Teorema 1.3.2 Cap. I) afferma che χ : t &→ χ(t) è definita su
tutto [t0 , τ ], e che per χ0 −→ 0 anche χ(t) −→ 0 in modo uniforme sui compatti rispetto a t, (risulta cioè
limχ0 →0 supt∈[t0 ,τ ] |χ(t)| = 0 ).

(• ) Si ponga χ0 = x0 − x !0 =: εu0 con u0 ∈ Tx̂0 Rn arbitrario finito ed ε > 0 e, per ciascun t ∈ JM , sulla
varietà V = R si consideri l’operatore
n

T (t) ∈ L(V) definito da T (t) := v∗ (φ(t, t0 , x


!0 )) .

Si indichi poi con u : t &→ u(t) ∈ V la soluzione del


!0 ))
Problema variazionale (relativo alla φ(t, t0 , x
(
u̇ = T (t)u := v∗ (φ(t, t0 , x
!0 )) u
(1.5)
u(t0 ) = u0 .

Sotto l’ipotesi v ∈ C 2 (D), il teorema di regolarità, (si veda: Teorema 1.3.2 Cap. I), non solo dichiara la φ
derivabile rispetto a x0 , e quindi dichiara lecita la

! 0 + εu0 ) = φ(t, t0 , x
φ(t, t0 , x !0 ) + ∂φ(t, t0 , x
!0 )εu0 + |εu0 |κ(φ̂) (t, ε) ,

con κ(φ̂) (t, ε) = o(|ε|) e per arbitrari t0 , u0 , ma in più individua nella soluzione u : t &→ u(t) del problema (1.5)
la funzione
!0 ) u0
u(t) = φ∗ (t, t0 , x o, in coordinate, ! 0 ) u0 .
u(t) = ∂φ∗ (t, t0 , x

Ne segue che le funzioni χ(t) ed εu(t) sono tali che


' '
' χ(t) ' ε
' '
' ε − u(t)' −→ 0
0, uniformemente per t0 ≤ t ≤ τ < ∞. (1.6)

Nota 2.1.1 Nel caso più generale nel quale la (1.1) ha campo v = v(t, x; σ) non autonomo, dipendente da un ulteriore parametro
σ ∈ G con dim G = ℓ , e sufficientemente regolare rispetto alle sue tre variabili, e chiamata t &→ φ0 (t) := φ(t, t0 , x !0 , 0) la soluzione
nota di ẋ = v(t, x; 0) , si ricava che la t &→ u(t) soddisfacente la (1.6) e relativa a una variazione di condizioni iniziali per esempio date
x0 , 0) &→ (x0 , σ0 ) ≡ (x0 , ε1ℓ ) , è la soluzione della
da (!


⎨ u̇ = T (t)u + b(t) , T (t) : = v∗ (t, φ0 (t); 0) ,
con: b(t) : = vσ (t, φ0 (t); 0) 1ℓ , (1.7)

⎩ u(t0 ) = u0 ∈ V ,
φ (t) : = φ(t, t , x
0 0 0! ).

Notazione

1I m := l’operatore identità su uno spazio m -dimensionale;


1m := il vettore m -dimensionale che nelle coordinate scelte ha tutte le componenti unitarie.

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 77

Dimostrazione All’equazione ẋ = v(t, x; σ) , con v : R × M × G → T M si aggiunga l’equazione σ̇ = 0 . Si ottiene il sistema


) * ) *
ẋ v(t, x; σ)
=
σ̇ 0
) * ) *
!
φ !0 ; σ
φ(t, t0 , x !0 )
e se ne indichi con : t &→ ∈ M×G !0 ; σ
la soluzione uscente dalle condizioni iniziali (t0 , x !0 ).
!
σ !0 ; σ
σ(t, t0 , x !0 )
!
Tale sistema ha variazionale in (φ, σ ! ) individuata dalla
) *' ) *'
v∗ vσ '' ∂v/∂x ∂v/∂σ ''
Φ̇ = Φ := Φ, Φ0 ∈ L(M × G) ;
0 0 '(φ,! ! σ) ∂0/∂x ∂0/∂σ '(φ̂,σ̂)

in base alla teoria generale, la sua soluzione uscente dalle condizioni iniziali Φ0 = 1I n+ℓ è riassunta dalla
) *' ) *
∂x φ ∂σ φ '' !∗ φ
φ !σ
!0 ; σ
Φ(t, t0 , x !0 ) = ≡ .
∂x σ ∂σ σ '(φ̂,σ̂) 0 1I ℓ

Sussiste cioè l’identità (rispetto a t ):


) * ) *' ) * ) *'
d !∗ φ
φ !σ v∗ vσ '' !∗
φ !σ
φ v∗ φ∗ v∗ φσ + vσ 1I ℓ ''
= =
dt 0 1I ℓ 0 0 '(φ̂,σ̂) 0 1I ℓ 0 0 '
(φ̂,σ̂)

!∗ , φ
ovvero: le (φ !σ ) sono soluzioni dell’equazione
(
φ̇∗ = v∗ φ∗ (n × n), con condizioni iniziali φ∗ |0 = 1I n ;
φ̇σ = v∗ φσ + vσ (n × ℓ), con condizioni iniziali φσ |0 = 0.

Dati allora u0 ∈ Tx̂0 M e h0 ∈ T0 G , la funzione


) * ) *) * ) *
u(t) !∗
φ !σ
φ u0 !∗ u0 + φ
φ !σ h0
t &−→ := =
h(t) 0 1Iℓ h0 h0

è la soluzione uscente da (u0 , h0 ) dell’equazione variazionale


) * ) *' ) * ) *'
d u v∗ vσ '' u v∗ u + vσ h ''
= = .
dt h 0 0 '(φ̂,σ̂) h 0 '
(φ̂,σ̂)

In definitiva, analogamente alla (1.6) e con ε > 0 , risulta (in coordinate)


') * ) * ) *) *'
' φ(t, t0 , x
! 0 + εu0 ; σ
! 0 + εh0 ) !0, σ
φ(t, t0 , x !0) !
∂x φ ∂σ φ ! εu0 ''
' − − = o(ε)
' ! 0 + εh0
σ !0
σ 0 1I ℓ εh0 '

da cui segue ' '


' ! h0 '' = o(ε) .
! u0 − ε∂σ φ
!0 , σ
'φ(t, t0 , x0 , σ0 ) − φ(t, t0 , x ! 0 ) − ε∂x φ
In particolare, con h0 = 1ℓ e detta u : t &→ u(t) la soluzione uscente da (u0 , 1ℓ ) dell’equazione u̇ = ∂x v u + ∂σ v1ℓ , si ha,
uniformemente per t0 ≤ t ≤ τ < ∞ ,
1 '' '
' ε
! 0 + εu0 ; σ
'φ(t, t0 , x ! 0 + ε1ℓ ) − φ(t, t0 , x
!0 ; σ
! 0 ) − εu(t)' −→ 0 .
ε 0

!0 = 0 e x
Di speciale interesse è il caso in cui σ !0 =: x0 è arbitrario. Per esso si ha
) *' ) *
φ(t, t0 , x !0 ) ''
!0 ; σ φ0 (t, t0 , x0 )
' =:
!0
σ σ̂0 =0 0
x̂0 =x0

ove t &→ φ0 (t, t0 , x0 ) è la soluzione del problema “all’ordine 0 ”:


(
ẋ = v(t, x; 0)
x(t0 ) = x0 .

In tal caso, la u(t) è soluzione del problema “all’ordine 1 ” dato dalla (1.7).
Queste considerazioni permettono di sviluppare (si veda: Cap. VI) molti e diversi metodi di risoluzione approssimata dei sistemi
nonlineari il cui campo dipende da un parametro σ che, rispetto agli altri coefficienti presenti, possa essere considerato sufficientemente
“piccolo”. In tali metodi il teorema appena ricordato è solo uno (e non il migliore) dei teoremi che permettono di giustificare le varie
tipologie di soluzioni approssimate. ◃

(• ) Sia xe ∈ M tale che v(xe ) = 0 . La quiete t &→ φ(t, t0 , xe ) ≡ xe nel punto di equilibrio xe (supposto isolato)
è allora la soluzione della (1.1) uscente da x0 = xe .
Contrariamente al caso generale, nel quale all’operatore T (t) resta associata (in coordinate) una matrice T di
dimensione (n × n), generalmente dipendente dal tempo, individuata dalla:
) i *
∂v
∂v(φ(t)) =: T (t) ∈ L(Rn ), T i j (t) = (t) ,
∂xj

Note di Sistemi Dinamici


78 Capitolo 2. Sistemi differenziali lineari

se la soluzione di riferimento è la quiete l’operatore T (t) := vx (φ(t, t0 , xe )) risulta indipendente dal tempo, e lo
stesso accade a ogni sua matrice ∂v(xe ) =: T .
Sotto tali ipotesi, il sistema (1.5) (in coordinate) risulta allora un sistema lineare a coefficienti costanti:
(
u̇ = T u , T = ∂v(xe ) ∈ L(Rn )
(1.8)
u(t0 ) = u0 , arbitrario in Rn .

È quest’ultimo il sistema del quale, nel paragrafo seguente, si cercheranno i diagrammi di fase nell’intorno di
xe .
(• ) Quanto detto assicura che per tempi limitati ogni orbita del sistema (1.5) (o del sistema (1.8) se vicino a un
equilibrio) presa singolarmente è prossima a quella del sistema non lineare (1.4) e lo è in misura tanto maggiore
quanto più lo è stata in t = t0 e secondo un scarto che dipende dalla durata dell’intervallo dopo il quale avviene il
confronto.
È ben vero che questo non implica che il diagramma nel suo insieme del sistema lineare sia “simile” al
diagramma del sistema nonlineare, anche se solo vicino al punto di equilibrio xe . Tuttavia come si vedrà
(teorema di Hartman e Grobman) ciò accade, pur se al costo di accettare somiglianze non più che topologiche fra
certe classi di diagrammi per il resto diversi, nel caso in cui il punto di equilibrio sia un
Punto Iperbolico := un punto di equilibrio xe ∈ M tale che le parti reali degli autovalori (λ1 , . . . , λn ) dell’o-
peratore T := v∗ (xe ) siano tutte non nulle.
In modo analogo si definiranno i punti iperbolici per le mappe f : Rn → Rm dei sistemi dinamici discreti; per essi andranno però
tenute presenti le relative modifiche: per esempio per una mappa f ∈ L(Rn ) un punto è unito quando verifica la xe = f xe . Un tale
punto è allora detto iperbolico se accade che |λi | ̸= 1, ∀i , e ciò perché in questo caso la proprietà di iperbolicità si riconosce dallo lo
studio degli autovalori di f e non di quelli del suo esponenziale, visto che per una mappa l’evoluzione è governata dalla sua tangente,
mentre per un flusso dalla exp(tv∗ (xe )) (si veda: Cap.V).

(• ) Fortunatamente i casi di iperbolicità sono generici, (si veda: Cap.IV), e quindi lo studio del sistema lineare
(1.8) ha comunque un rilevante interesse.

Nota Dato che v(xe ) = 0 , l’operazione di linearizzazione (non quello di sviluppo di Taylor) nell’intorno di un
punto di equilibrio xe non dipende dal particolare sistema di coordinate scelto su M nel' seguente senso.
∂v '
Se, in un sistema di coordinate, a v∗ (xe ) corrisponde una certa matrice: ∂v(xe ) := ∂x x
allora, in un nuovo
e

sistema
' di coordinate ξ = ϕ(x) nel quale 'l’equazione (non lineare) equivalente a quella data è ξ̇ = ν(ξ) :=
∂ϕ v 'x=ϕ−1 (ξ), la matrice ∂ν(ξe ) ≡ ∂ν '
∂ξ ξe che regola l’evoluzione linearizzata nelle nuove coordinate è la
∂ϕ-trasformata della ∂v :
K L ''
∂ν(ξe ) = ∂ϕ ∂v (∂ϕ)−1 ' −1 xe =ϕ (ξe )
ed è quindi unico l’operatore lineare v∗ che assegna l’avanzamento locale nell’intorno di un equilibrio, come si
poteva, d’altra parte, leggere direttamente dalla (1.5).
[Questa precisazione è necessaria dato che il cambio di coordinate avviene sulla varietà e non solo nello spazio V . In questo secondo
caso infatti, e cioè nel caso in cui v∗ rappresentasse una qualunque assegnata trasformazione lineare, l’osservazione sarebbe conseguenza
dell’essere questa lineare (si veda: Appendice A.4, N.B.1.4.15)].
Se invece il campo nel punto non è nullo, la variazionale risente anche della curvatura delle linee ϕ = cost, (a
meno che la ϕ sia lineare).
Dimostrazione
Dalla ν(ξ) := ∂x ϕ v ◦ ϕ−1 (ξ), e indicate rispettivamente con ∂x e con ∂ξ le operazioni di derivazione
nelle coordinate x e ξ , si ricava
'
'
∂ξ ν(ξe ) = ∂x (∂x ϕ v) ' · ∂ξ ϕ−1 (ξe )
x=ϕ−1 (ξe )
'
'
= (∂x2 ϕ v + ∂x ϕ ∂x v) ' · ∂ξ ϕ−1 (ξe )
x=ϕ−1 (ξe )
'
'
= ∂x ϕ ∂x v ∂x ϕ−1 ' −1 x=ϕ (ξe )
' '
giacché v(xe ) = v(ϕ−1 (ξe )) = 0 e 1 = ∂x ϕ 'x · ∂ξ ϕ−1 'ϕ(x ) . "
e e

Si osservi che per la generalità del risultato l’essere nullo il campo v(xe ) è condizione necessaria, come si può
vedere nel seguente

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 79

Esempio L’equazione ) * ) * ) x *
ẋ −y(x2 + y 2 ) v (x, y)
= ≡ , x 0 , y0 ∈ R
ẏ +x(x2 + y 2 ) vy (x, y)
) x* ) * ) *
u x x̄
ha linearizzata in (x̄, ȳ) ̸= (0, 0) data sul vettore := − dalla:
uy y ȳ
) x* ) * ) x*
u̇ −2x̄ȳ −x̄2 − 3ȳ 2 u
u̇ ≡ y = 2 2 ≡ v∗ (x̄, ȳ)u .
u̇ 3x̄ + ȳ 2x̄ȳ uy

D’altra parte, mediante l’usuale trasformazione in coordinate polari ρ, θ ∈ R+ × R


) * ) * @ y A
√ x √
ρ x x2 +y 2 x2 +y 2
=ϕ , e quindi con ∂ϕ := −y x ,
θ y 2 2 x +y x2 +y 2

essa è equivalente alla ) * ) *


ρ̇ '
0 '
= ≡ ν(ρ, θ) ≡ (∂ϕ v) ' −1
θ̇ ρ2 ϕ (ρ,θ)
) ρ* ) * ) *
κ ρ ρ̄
che ha linearizzata sul vettore := − data dalla:
κθ θ θ̄
) ρ* ) * ) ρ*
κ̇ 0 0 κ
κ̇ ≡ θ = ≡ ∇ν(ρ̄, θ̄) κ .
κ̇ 2ρ̄ 0 κθ

) *
cos θ −ρ sin θ
Si osserva che, essendo ∇ϕ−1 = , e quindi
sin θ ρ cos θ
) * ) 2 *
0 −ρ sin θ −ρ3 cos θ
∇2 ϕ−1 = ,
ρ2 ρ2 cos θ 3
−ρ sin θ
fra i due campi ∂v e ∇ν sussiste il legame su indicato:
) ) * * ) ) * *
0 0 0
∇2 ϕ−1 2 · ∂ϕ + ∇ϕ−1 · · ∂ϕ
ρ x̄,ȳ
2ρ̄ 0 x̄,ȳ
) * ) *
0 −(x̄2 + ȳ 2 ) −2x̄ȳ −2ȳ 2
= + .
x̄2 + ȳ 2 0 2x̄2 2x̄ȳ
#

Prima di iniziare lo studio sistematico dei sistemi lineari a coefficienti costanti verrà qui brevemente accennato
uno dei più importanti esempi di linearizzazione: quella che si esegue nell’intorno di una posizione di equilibrio rego-
lare di un sistema meccanico conservativo, e cioè a vincoli indipendenti dal tempo e forze posizionali a potenziale.

Memento 2.1.1 Una funzione f : Rn → R si dice convessa su A ⊆ Rn convesso quando per ogni x, y ∈ A e
α ∈ [0, 1] accade che
f (x + α(y − x)) ≤ f (x) + α (f (y) − f (x)) .
Se f è di classe C 2 su A ne segue che f (x) ≥ f (y)+∂f (y) (x−y) e quindi la forma B := 12 (y−x)T ∂ 2 f (x)(y−x)
è definita positiva.

Sia G la varietà delle configurazioni di un sistema lagrangiano generalizzato (vedi oltre) di dimensione n, e
sia (U, h(q) ) un sistema di coordinate (o carta) di classe C k locale nell’intorno di un qualche punto q0 in G ,
dal quale quest’ultima è resa localmente omeomorfa ad Rn . Sia V ≡ Tq0 G il suo tangente. Sia M la varietà
delle fasi (fibrato tangente di G ) di dimensione 2n del sistema. In corrispondenza alle coordinate scelte, nello
spazio V resta individuata la base naturale e = {ei }i=1,...,n dei vettori tangenti alle curve coordinate, e questa
(ad esempio) rende V isomorfo a Rn . Lo spazio V ≡ Tq0 G , inoltre, sia reso metrico da un certo prodotto scalare
reale ⟨ ·, · ⟩ : V2 → R ∪ {0} , e quindi tale che risulta definita per ciascuna coppia x, y ∈ V la forma bilineare
simmetrica K : V2 → R (o tensore della metrica) individuata da

K (x, y) := ⟨ x, y ⟩ = ⟨ y, x ⟩ ≡ xi ⟨ ei , ej ⟩y j ,
⟨ x, αy ⟩ = α⟨ x, y ⟩, ⟨ x, x ⟩ > 0 se x ̸= 0 ,

della quale sia κ hk := ⟨ eh , ek ⟩ la matrice (in quella base) e κ hk la sua inversa: κ jk κ kh = κ hk κ kj = δjh .
Si denoti con (q, q̇) il vettore che in R2n rappresenta (in tal modo, localmente, e in queste coordinate) il punto
(q, q̇) ∈ M.
Sia L : R × M → R una funzione di classe C 2 , e si continui a indicare con L = L (t, q, q̇) : R × R2n → R
la sua rappresentazione in coordinate.

Note di Sistemi Dinamici


80 Capitolo 2. Sistemi differenziali lineari

Il sistema si dice Lagrangiano generalizzato, e la L si dice Lagrangiana del sistema quando ciascuna delle
funzioni q̇ &→ L (t, q, q̇) è convessa su Rn , e quando le equazioni del moto del sistema, minimizzando l’integrale
.t
d’azione a estremi fissati: t0 L (τ, q(τ ), q̇(τ )) dτ , risultano le

d ∂L ∂L
− = 0 h = 1, . . . , n . (1.9)
dt ∂ q̇ h ∂ qh

Certo ogni sistema meccanico a potenziale è un sistema Lagrangiano generalizzato con la L = T − V , ove la
V = V (t, q) è la sua energia potenziale (generalizzata), e T = T2 + T1 + T0 è la sua energia cinetica, con Ti
forme di grado i = 0, 1, 2 rispetto alle q̇ e coefficienti dipendenti da (t, q), e con T2 definita positiva.
N.B. 2.1.2 Nel caso qui in esame il sistema è reale, meccanico, a vincoli bilaterali olonomi, regolari, perfetti,
indipendenti dal tempo, e forze strettamente conservative. Come tale, sussistono i seguenti fatti.

• la sua funzione Lagrangiana, certo convessa rispetto alle q̇ , ha espressione in coordinate


1 T
L (q, q̇) = T2 (q, q̇) − Π(q) = q̇ κ a q̇ − Π(q) ,
2
nella quale la funzione energia potenziale V = V (t, q) è la sola parte Π = Π(q) dovuta al contributo delle
forze conservative, e quindi
; ∂Π < 0 1 0 ∂ 2T 1
Qh (q) = −
∂q h
(q)
h=1,...,n
ed a kj (q) :=
∂ q̇ k ∂ q̇ j
(q)

sono rispettivamente le componenti lagrangiane Qh delle forze, e la matrice reale simmetrica a della forma
quadratica T2 dell’energia cinetica T ;

• valgono le espressioni q̇i κ ik = q̇ k e q̇ k κ ki = q̇i ;

• l’operatore T2 : V → V, definito su V (a partire dalla sua rappresentazione in coordinate e per q ∈ G fissato)


dalla
1 T 1 1 1
q̇ a q̇ = q̇ k a kj q̇ j = T2 (q̇, q̇) =: ⟨ T2 q̇, q̇ ⟩ =: ⟨ q̇, T2∗ q̇ ⟩ ,
2 2 2 2
è autoaggiunto rispetto all’iniziale prodotto scalare: ⟨ ·, · ⟩ .

Infatti la T2 è, in particolare, Hermitiana simmetrica (rispetto a ⟨ ·, · ⟩ considerato Hermitiano), e quindi si


ha
⟨ q̇, T2∗ q̇ ⟩ := 2T2 (q̇, q̇) = 2T2 (q̇, q̇) = ⟨ T2 q̇, q̇ ⟩ = ⟨ q̇, T2 q̇ ⟩ .
Alternativamente, detta A la matrice dell’operatore T2 , il calcolo in coordinate fornisce

⟨ T2 x, y ⟩ = xT AT κ ȳ ed ⟨ x, T2∗ y ⟩ = xT κ Ā∗ ȳ ,

che mostra come la definizione di aggiunto implichi che

a = AT κ = κ Ā∗ ovvero Aih κ ik = κ hj Ā∗ jk .


D’altra parte, dalla simmetria della T2 si ha la a T = ā , e quindi segue la: κ̄ A = κ̄ A∗ . In definitiva,
fissata la base e , l’operatore T2 ha e -matrice A = A∗ , che conferma l’autoaggiunzione di T2 reale. Qui
di seguito, come si è detto, G , V, e κ verranno supposti reali, e pertanto

a = AT κ = κ̄ Ā = κ A, e quindi A = κ −1 a .
La scelta più comune è certo κ = 1I .

Come è noto, a partire dalla n-pla di funzioni

∂L
z : (t, q, q̇) ∈ R1+2n &→ (t, q, q̇) ∈ Rn ,
∂ q̇
si definiscono:

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 81

Momenti Coniugati delle q := le variabili p := (p1 , . . . , pn ) ∈ Rn (che nella riduzione d’ordine delle equazioni
(1.9) verranno considerate ulteriori variabili, indipendenti dalle q ) definite dalla
∂L
pk = pk (t, q, q̇) ≡ (t, q, q̇), k = 1, . . . , n .
∂ q̇ k
Il fatto che la L sia funzione convessa delle q̇ assicura che è anche possibile invertire le p = z(t, q, q̇) rispetto
alle q̇ . In altre parole, il considerare i momenti coniugati come variabili alla stessa stregua delle (q e delle) q̇
permette di definire (localmente) una trasformazione di coordinate ϕ : x &→ ξ = ϕ (x) espressa da
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
t t t
⎝q ⎠ ϕ
&−→ ⎝q ⎠ := ⎝ q ⎠.
q̇ p z(t, q, q̇)

Dimostrazione La trasformazione ϕ ha matrice Jacobiana


⎛ ⎞
1 0 0
∂ϕ= ⎝ 0 1I 0 ⎠ ,
∂t z ∂q z ∂q̇ z
0 1
dove per le due matrici n × n in essa contenute si è usata la notazione: ∂q z per indicare la matrice ∂z h
∂qk
,
0 2 1 0 1
k, h = 1, . . . , n, e analogamente ∂q̇ z per la matrice ∂ L
∂ q̇h ∂ q̇k
= ∂z h
∂ q̇k
. È facile riconoscere che per l’assunta
convessità di L rispetto alle q̇ , la ∂ϕ ha determinante non nullo
) * ) 2 *
∂zh ∂ L
Det ≡ Det ̸= 0 .
∂ q̇ k ∂ q̇ h ∂ q̇ k
Nel caso in esame, tale determinante coincide con il determinante della matrice a = a (q) dell’energia cinetica
T2 , e si ricavano le facili espressioni
pj = a jk q̇k = κ ji Aik q̇k , e pertanto κ ij pj =: pi = Aik q̇ k .
Esiste pertanto (localmente) la trasformazione inversa della ϕ data da
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
t t t
⎝q ⎠ ϕ
−1
&−→ ⎝q ⎠ := ⎝ q ⎠ ,
p q̇ ζ(t, q, p)
dove la ζ verifica l’identità p = z(t, q, ζ(t, q, p)), per ogni (t, q). "

Si osservi ora che il sistema delle equazioni di Lagrange è


d ∂L ∂L ∂zh k ∂zh j ∂zh ∂L
− =0 e cioè k
q̈ + j q̇ + = , h = 1, . . . , n
dt ∂ q̇ ∂q ∂ q̇ ∂q ∂t ∂q h
e quindi esso si può certo scrivere, al primo ordine, nella forma (k = 1, . . . , n )


⎪ ṫ = 1


⎨ q̇ k = y k
) 2 *−1 ) * (1.10)

⎪ ∂ L ∂T ∂zh j ∂zh

⎪ k
⎩ ẏ = − j y − ,
∂y h ∂y k ∂q h ∂q ∂t
∂L
con, ovviamente, zh (t, q, y) :=
(t, q, y), h = 1, . . . , n.
∂y h
Detto ẋ = v(t, x) il 'sistema (1.10), e ξ̇ = ν(t, ξ) il suo equivalente nelle nuove coordinate: ξ = ϕ(x),
l’espressione ν(ξ) = ∂ϕ v 'ϕ−1 (ξ) fornisce facilmente tale sistema, equivalente a (1.10):


⎪ ṫ = 1

⎨ k
q̇ = ζ k (t, q, p)
' k = 1, . . . , n , (1.11)

⎪ ∂L '

⎩ ṗk = '
∂q k q̇=ζ(t,q,p)

Note di Sistemi Dinamici


82 Capitolo 2. Sistemi differenziali lineari

infatti le ultime n componenti del vettore ν sono date da


2n+1
=
ν3 (ξ) = ∂ϕ3,h v h = [∂t z + (∂q z) y + (∂q L − (∂q z) y − ∂t z)] .
h=1

È possibile dare una forma più espressiva alle (1.11). Per farlo si inizi con il notare che le funzioni q̇ = ζ(t, q, p)
possono essere usate per definire la
Funzione Hamiltoniana H : R × TG → R definita dalla:
+ ,
∂L k
H (t, q, p) := q̇ − L = p · ζ(t, q, p) − L (t, q, ζ(t, q, p)). (1.12)
∂ q̇ k q̇=ζ(t,q,p)

N.B. 2.1.3 Sulla funzione H non è difficile riconoscere la validità dei seguenti punti.

• la H ha Hessiano non singolare


) * ) *−1
∂2H ∂2L
= ;
∂ph ∂pk ∂ q̇ k ∂ q̇ h
• sussistono, per ciascun k = 1, . . . , n, le identità
∂H
(t, q, p) ≡ ζ k (t, q, p) ,
∂pk
∂H ∂L ''
(t, q, p) ≡ − ' ,; (1.13)
∂q h ∂q h q̇=ζ(t,q,p)
∂H ∂L ''
(t, q, p) ≡ − ' ,
∂t ∂t q̇=ζ(t,q,p)

• tramite queste ultime identità è possibile dare all’equazione (1.11) una forma più interessante. Essa infatti si
trasforma nelle

Equazioni di Hamilton: ⎧
⎪ k ∂H

⎨ q̇ = + (t, q, p)
∂pk
k = 1, . . . , n ; (1.14)

⎪ ∂H
⎩ ṗk = − (t, q, p)
∂q k
∂Π
• le posizioni di equilibrio per il sistema lagrangiano: (qe , q̇ = 0) ∈ M con (qe ) = 0 , si trasformano nelle
∂q
particolari posizioni di equilibrio: (qe , p = 0) per quello Hamiltoniano.
• nel particolare caso in esame, e facendo uso della (1.12), la funzione Hamiltoniana è data da
U2 (q, p) + Π(q) ,
H (q, p) : = T dove si è posto
1 1
U2 (q, p) : = (a−1 )hk ph pk =: ⟨ p, T −1 p ⟩ .
T 2
2 2 ♦

In definitiva, mediante la funzione Hamiltoniana e il diffeomorfismo ϕ , il sistema Lagrangiano assegnato si


trasforma nell’equivalente sistema di 2n equazioni del primo ordine (1.14) che è generalmente del tipo (1.1) e
con campo v(q, p) definito sulla varietà 2n-dimensionale M & a partire dalla sua rappresentazione i componenti
0 1T
v(q, p) := + ∂H ∂H
∂p ; − ∂q ∈ R2n .
Nel caso particolare in esame, il sistema che si ottiene (in coordinate) è
@ A
) *

= 0
−1
a
p 1 (1.15)
ṗ a
− ∂q 12 pT −1 p + Π

o anche (se κ ̸= 1I ) 0 1
q̇ k = a−1 kj pj = 7A−1 8ki κij pj = 7A−1 8ki pi
) *
∂ 1 k 7 −1 8l m
ṗi = −κih p κ kl A m
p + Π
∂q h 2

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 83

Le equazioni variazionali delle equazioni di Hamilton (1.14), di centro la quiete in ue := (qe , 0), sono le

u̇ = ∂v(ue )u con u0 ∈ R2n arbitrario (1.16)

e con ∂v(qe , 0) che rappresenta in coordinate la derivata


⎛ 2 ⎞'
+ ∂∂p∂q
H 2
+ ∂∂p∂p
H '
'
v∗ (q, p) = ⎝ ⎠' .
2 2 '
− ∂∂q∂q
H
− ∂∂p∂q
H '
(qe ,0)

Questa, nel caso in esame, ha elementi dati da

∂2H ' ∂ 7 −1 8 ''


'
∂p∂q
'
(qe ,0)
=
∂q
a p '(q ,0) = 0;
e

∂2H ' ∂ 7 −1 8 ''


'
∂p∂p
'
(qe ,0)
=
∂p
a p '(q ,0) = a−1 (qe ) =: A−1 e κ
−1
e

∂2H ' ∂ 2 (T2 + Π) '' ∂ 2 Π(qe )


'
' = ' = =: κBe ,
∂q∂q (qe ,0) ∂q∂q (qe ,0) ∂q∂q
ed è opportuno osservare che allo stesso risultato si sarebbe giunti se, al posto dell’attuale Hamiltoniana, fosse stata
considerata l’altra definita dalle funzioni “ridotte”:
⎧ 0 2 1'
1 1 '
⎪ (e)
⎨ T2 (q̇) := q̇h Ahk (qe )q̇ k =: ⟨ q̇, Te q̇ ⟩, (κ Ae ) : = ∂∂q̇∂Tq̇ '
2 2 0 2 1' e
q=q
⎪ 1 1 '
⎩ Π(e) (q) :=
2 qh Bkh (qe )q k =: ⟨ q, π e q ⟩, (κ Be ) : = ∂q∂q
∂ Π
'
2 2 q=qe

In definitiva, per un sistema meccanico come quello del caso in esame la variazionale in (qe , 0) del sistema
Hamiltoniano è data da
M ) * ) *) *
q̇ = a−1
e p q̇ 0 A−1e q
o anche
ṗ = −κBe q κ−1 ṗ = −Be 0 κ−1 p
nelle quali A−1
e è definita positiva e Be è simmetrica, e il cui determinante vale Det (A−1
e Be ). (L’ipotesi che il
punto di equilibrio
) sia regolare
* ) * ) * consiste nell’assumere che,
) inoltre,
* Det B ̸
= 0 ).
q qe r r(t)
κ−1 p = 0 + s e cioè con u(t) = s(t) ∈ R la (1.16) fornisce
2n
Posto

(
ṙ = A−1e s
(1.17)
ṡ = −Be r

ovvero l’equivalente
Ae r̈ + Be r = 0 . (1.18)

Nota 2.1.2 Lo stesso risultato si sarebbe potuto ricavare anche direttamente dalle equazioni di Lagrange, sempre nel caso ∂L /∂ q̇ =
a (q)q̇ , e quindi con (qe , 0) che annulla sia il campo dell’equazione di Lagrange che quello dell’equazione di Hamilton.
A questo scopo si consideri che le equazioni
) *
d 1 T
dt
a
(q)q̇ − ∂q
2
q̇ a
(q)q̇ = −∂q Π(q)

divengono
a (q)q̈ = f(q, q̇) := −∂q a (q)q̇q̇ + 12 q̇ ∂q a (q)q̇ − ∂q Π(q)
e cioè
fi = −
a
∂ ij h j 1
q̇ q̇ + q̇ h
a
∂ hk k
q̇ −
∂Π
.
∂q h 2 ∂q i ∂q i
Nell’ipotesi che f sia regolare in G ⊆ R2n , e cioè che sia valido lo sviluppo:
f(x, y) = f(! ! + ∂x f(!
x, y) !
x, y)(x −x! ) + ∂y f(! !
x, y)(y !
− y)
1 2 1 2
+ (x − x ! )∂xx f(! !
x, y)(x −x ! ) + (y − y)∂ ! yy f(! !
x, y)(y !
− y)
2 2
2
+ (x − x! )∂xy f(! !
x, y)(y ! + o(x, y, x
− y) ! , y)
! , ove
! , y)
o(x, y, x !
lim = 0, con ! , y)
(x, y, x ! )2 + (y − y)
! := (x − x ! 2 ,
x→x̂ ! , y)
d(x, y, x !
y →ŷ

Note di Sistemi Dinamici


84 Capitolo 2. Sistemi differenziali lineari

! + ε r(t) , nella quale t &→ q(t)


e con la posizione: q(t) =: q(t) ! ∈ G è la soluzione di
a (q) q̈ = f(q, q̇), !
q(0) !0 ,
=q ˙
!
q(0) ˙ ,
!
=q0
si ottiene
a (!q + ε r)(q¨! + ε r̈) = f(!q, q)
˙ + ε ∂q f(!
! ˙ r + ε ∂q̇ f(!
!
q, q) ˙ ṙ + o(ε)
!
q, q)
dalla quale si ricava la
a (!q)r̈ = +∂q f r + ∂q̇ f ṙ − r∂q a (!q) q¨! + O(ε) .
Pertanto, se la soluzione di riferimento è una soluzione statica: t &→ q(t) ! = qe , e quindi tale che q ¨! = 0 e ∂q̇ f(qe , 0) = 0 , si riottiene
la variazionale
2
−1 ∂ Π(qe )
a (qe )r̈ = (∂q f)e r ovvero A(qe ) r̈ = − κ
∂q∂q
r.

Nel caso in cui l’energia cinetica abbia la sua forma generale


1
T = q̇h Ah k h
k (q, t)q̇ + q̇h b (q, t) + T0 (q, t),
2
e quindi l’ i -ma equazione di Lagrange venga
d 7 i 8
A (q, t)q̇ + bi (q, t) − ∂qi T = Ai q̈ + ∂q Ai q̇q̇ + ∂t Ai q̇ + ∂q bi q̇ + ∂t bi
dt
1
− q̇ ∂qi Aq̇ − ∂qi bq̇ − ∂qi (T0 ) = − ∂qi Π ,
2
la linearizzata intorno a una soluzione statica: t &→ q(t) ! = qe (non necessariamente di equilibrio) risulta
7 8 7 8
Ai (qe )r̈ = ∂qi b − ∂q bi − ∂t Ai ṙ + ∂q2i q (T0 − Π) − ∂tq bi r
ovvero più esplicitamente @ A ) *
∂bk ∂bi ∂Aik ∂ ∂(T0 − Π) ∂bi
Aik (qe )r̈ k = − − ṙ k + − rk .
∂qi ∂q k ∂t ∂q k ∂qi ∂t

È chiaro che le coordinate r non sono le migliori per risolvere il sistema Ae r̈ = −Be r . Infatti, in generale,
la matrice A−1 e Be non solo non è diagonale, ma nemmeno simmetrica, (ovvero corrispondente a un operatore
⟨ ·, · ⟩ -autoaggiunto). È quindi giustificata la ricerca di una trasformazione di coordinate ϱ := P −1 r che possa
ridurre il sistema
r̈ = − A−1 e Be r (1.19)
in uno più semplice, e in particolare in un sistema disaccoppiato:
ϱ̈j + λ(j) ϱj = 0, j = i, . . . , n. (1.20)
Sostituendo direttamente r = Pϱ nella (1.18) si ricava la (1.20) purché esista P −1 tale che il prodotto
−1 −1
P Ae Be P dia luogo a una matrice diagonale.
N.B. 2.1.5 Lo stesso risultato si ottiene tenendo presente che sia il sistema di equazioni differenziali che la
trasformazione di coordinate sono entrambi lineari (si veda: Appendice A.4 N.B.1.4.12). In effetti il sistema
) * ) * ) *) *
ṙ s 0 1I r
= =:
ṡ −A−1e B e r −A −1
e B e 0 s
può essere trasformato, preservandone la struttura di sistema del secondo ordine, mediante la
) * ) −1 *) *
ϱ P 0 r
:=
σ 0 P −1 s
nell’equivalente sistema ) * ) −1 *) *) *) *
ϱ̇ P 0 0 1I P 0 ϱ
=
σ̇ 0 P −1 −A−1
e B e 0 0 P σ
) −1 *) *) *
P 0 0 P ϱ
=
0 P −1 −A−1
e B e P 0 σ
) *) *
0 1I ϱ
= .
−P −1 A−1
e B e P 0 σ

Proposizione 2.1.1 L’operatore Te−1 π e individuato dalla {e} -matrice A−1e Be è diagonalizzabile.
Esiste cioè (almeno) un operatore non singolare P , avente e -matrice P , tale che P −1 A−1
e Be P = Λ con Λ
una matrice diagonale.

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 85

Dimostrazione
Per semplicità di notazione, il prodotto ⟨ ·, · ⟩ verrà supposto reale, e la base e := {ei }i=1,...,n ortonormale
rispetto a esso: ⟨ ei , ej ⟩ = κ ij = κ ij = δij . In tal modo si può confondere la matrice A con la a , e affermare
che se T2 è simmetrico allora lo è anche la sua {e} -matrice A. (Il caso: κ̄ = κ T ̸= 1I , d’altra parte, è poco
∂2L ∂2Π
dissimile dato che la simmetria di e di implica l’autoaggiunzione sia di Te che di π e (entrambi reali).
∂ q̇∂ q̇ ∂q∂q
−1/2
(• ) Esiste Ae , simmetrica reale definita positiva dato che tale è Ae .
(• ) L’equazione
P −1 A−1
e Be P ≡ P
−1 −1/2
Ae (A−1/2
e Be A−1/2
e )A1/2
e P = Λ
−1/2 −1/2
ammette soluzione rispetto all’incognita P . Infatti la matrice Ae Be Ae è simmetrica e, come tale, corri-
sponde a un operatore autoaggiunto e quindi normale. È noto allora che esiste almeno un sistema ortonormale di
!,
suoi autovettori abbastanza ricco da formare una base per lo spazio Rn . Ciò implica l’esistenza di un operatore P
avente e -matrice P! =: Ae P , reale, ortogonale (o, se occorre, κ -ortogonale) e tale che
1/2

P! −1 A−1/2
e Be A−1/2
e P! = Λ , con Λ diagonale.

◦ P! individuato dalla e -matrice P = Ae P! , generalmente né autoaggiunto né


−1/2 −1/2
(• ) L’operatore P := Te
ortogonale, è tuttavia invertibile e come tale definisce un cambio di base {ϵi = Pei }i=1,...,n che rende diagonali non
già le nuove matrici α e , β e degli operatori Te e π e le cui e -matrici sono Ae e Be rispettivamente, bensı̀ il
prodotto α −1e β e e cioè la nuova matrice dell’operatore Te
−1
π e . Infatti si ha, per costruzione,
α −1
e β e = (P
−1
Ae P )−1 P −1 Be P = P −1 A−1
e Be P = Λ.

1/2 1/2
(• ) L’ortogonalità della matrice P! = Ae P e la simmetria di Ae permettono di ricavare l’espressione

P T A1/2
e = P! T = P! −1 = P −1 A−1/2
e e quindi P −1 = P T Ae .

Ne segue la P T Ae P = 1I o anche Te = P −∗ P −1 . Ciò implica il fatto che i versori della nuova base {ϵi :=
Pei }i=1,...,n , le cui e -componenti sono ordinatamente uguali alle colonne della matrice P , sono ( κ -) ortonor-
(e)
mali rispetto al prodotto scalare definito dall’energia cinetica T ≡ T2 . Valgono cioè le

(P T Ae P )ij = δij ≡ κ ij = ⟨ ϵi , ϵj ⟩ T e
(e)
:= ⟨ ϵi , Te ϵj ⟩ = T2 (ϵi , ϵj )

giacché la Te = P −∗ P −1 implica

⟨ ϵi , Te ϵj ⟩ = ⟨ ϵi , P −∗ P −1 ϵj ⟩ = ⟨ P −1 ϵi , P −1 ϵj ⟩ = ⟨ ei , ej ⟩.

Si nota in particolare che l’operatore P , rappresentato in base {ei }i=1,...,n dalla matrice P , non è né 1I -ortogonale,
né Te -ortogonale, perché trasforma la base 1I -ortonormale: e in quella Te -ortonormale: ε ≡ {ϵj }j=1,...,n .
(• ) Allo stesso modo si riconosce che il cambio di base rende simultaneamente diagonali i prodotti

1I = P −1 P = P T Ae P ≡ P T P α e e Λ = P T Be P ≡ P T P β e ,
(e) (e)
e quindi entrambe le forme quadratiche T2 (q̇, q̇) e Π2 (q, q). Infatti, esprimendo le due forme nelle nuove
coordinate: ξ := P −1 x, si ha:
(e)
⟨ x, Te y ⟩ = xT Ae y = xT P −T P −1 y = ξ T η ≡ 2T2 (x, y)
⟨ x, π e y ⟩ = xT Be y = xT P −T ΛP −1 y = ξ T Λη ≡ 2Π2 (x, y),
(e)

(• ) Indicando con {λh }h=1,...,n gli autovalori dell’operatore Te−1 π e , si ha che Λih = δhi λ(h) , e si osservi che
essi sono generalmente diversi da quelli sia di Te sia di π e . Tali autovalori {λh }h=1,...,n possono essere determinati
come radici dell’equazione secolare:
Det (Be − λAe ) = 0 ,

e siccome coincidono con gli autovalori dell’operatore Te


−1/2
π e Te−1/2 , che è simmetrico, sono sicuramente reali.

Note di Sistemi Dinamici


86 Capitolo 2. Sistemi differenziali lineari

(• ) La nuova base {ϵi = Pei }i=1,...,n è composta da autovettori dell’operatore Te−1 π e in quanto la A−1e Be
viene diagonalizzata dalla trasformazione P . D’altra parte si può controllare anche direttamente, per esempio
lungo ej , che:
−1 j j
(A−1 j h k j m j
e Be ϵi ) = Ae h Bk Pi = Pm Λi = λ(i) Pi = (λ(i) ϵi ) .

Essa pertanto è anche tale che Be ϵ = λAe ϵ. Si osservi che la base 1I -ortonormale fatta con gli autovettori di Te
di regola non coincide né con la base degli autovettori di Te
−1/2
π e Te−1/2 (che dipende da π e ), né con la nuova
base {ϵi = Pei }i=1,...,n che generalmente non è nemmeno 1I -ortonormale. Queste ultime due sono a loro volta
correlate dal fatto che la prima è A1/2 volte la seconda. D’altra parte, dalla Be ϵ = λAe ϵ segue che se gli ϵi
fossero autovettori di Te dovrebbero esserlo anche di π e che è invece del tutto indipendente dalla Te . "

Siccome la (1.20) è disaccoppiata, si vede facilmente che lungo ciascun autovettore ϵj la j -ma componente della
soluzione ϱ = ϱ(t), e cioè la t &→ ϱj (t) ha la forma
B B
c1 exp |λj | t + c2 exp − |λj | t oppure la forma
/ /
c3 cos λj t + c4 sin λj t

a seconda che λ sia negativo oppure positivo. Infatti, se fosse nullo si avrebbe Rank ∂v(qe , 0) < n contrariamente
all’ipotesi che (qe , 0) sia di equilibrio regolare, e cioè che Det Be ̸= 0 il che implica Det ∂v(qe , 0) = Det (A−1
e Be ) ̸=
0.
Infine, il teorema degli assi principali (ovvero: la Te -autoaggiunzione dell’operatore Te−1 π e ) assicura che gli
{ϵj }j=1,...,n sono in numero sufficiente a formare una base, con ciò escludendo la possibilità, anche/nel caso in cui
un qualche autovalore
/ λj avesse molteplicità maggiore di uno, di soluzioni del tipo: t &→ p(t) exp |λj | t oppure
t &→ p(t) cos λj t con p(t) un polinomio in t.

Nota 2.1.3 Si osservi che pur non essendo autovalori di Be le λ ne hanno la stessa segnatura. Ciò permette
di affermare che se la forma xT Be y è definita positiva, e quindi il punto (qe , 0) è di minimo per l’energia
potenziale Π(q), allora le λi sono tutte positive, dando cosı̀ luogo a soluzioni oscillanti intorno all’origine. Si
parla in tal caso di piccole
√ oscillazioni intorno alla posizione di equilibrio, descritte dalle coordinate normali: ϱi ,
con pulsazioni proprie λi .
Si noti però che non è stato dimostrato che il comportamento delle t &→ ϱ(t), e quindi delle t &→ r(t) = P ϱ(t)
oscillanti intorno all’origine “bene approssima” il comportamento delle t &→ q(t). Ciò si può fare solo parzialmente
e usando il “Secondo metodo di Liapunov” (si veda: Cap.IV) nella misura in cui si mostra che sotto le ipotesi fatte,
e in particolare quella sulla conservatività del sistema, le q = q(t) rimangono indefinitamente limitate in un intorno
dell’equilibrio e senza contrarre i volumi nello spazio delle fasi, anzi con traiettorie che appartengono alle superfici
H = cost. Ad esempio non si riesce a dire nulla di definitivo sui periodi “veri” delle oscillazioni, i quali restano
dipendenti dai termini superiori dello sviluppo in serie del campo; né si può dire molto nel caso, generale, non
conservativo. ◃

Riassumendo: per trovare i modi normali si devono determinare:

• (i) gli autovalori di A−1


e Be , soluzioni dell’equazione Det (Be − λAe ) = 0 ;

• (ii) gli autovettori di A−1


e Be , soluzioni dell’equazione Be x = λi Ae x;

• (iii) la loro normalizzazione: ⟨ ϵi , ϵj ⟩ Te ≡ ϵTi Ae ϵj = (Pik )T Ae kh Pjh = δij ;


) *
.. ..
• (iv) la loro matrice P := · · · . ϵi . ··· ;

• (v) i modi normali ϱi , legati alle coordinate rj dalle: r = P ϱ, e le t &→ r(t), a loro volta definite
(localmente) dalla q = qe + r .

Esempio 2.1.7 (si veda: [Arnold II])

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 87

Si considerino due pendoli fisici di uguale lunghezza l e stesso punto di sospensione, vincolati senza attri-
to
0 a oscillare su un piano verticale x, z1, (z verticale ascendente), e accoppiati da una sollecitazione elastica
−−→ −−→ ⃗ −−→ −−→
p1 p2 , p2 p1 , f12 = k p1 p2 , f⃗21 = −f⃗12 , e quindi V ≡ Πel = k|p1 p2 |2 /2 .
z

µ1
µ2

Date le ⎛ ⎞ ⎛ ⎞
l sin θ2 l sin θ1
−−→ −−→
op2 = ⎝ 0 ⎠ op1 = ⎝ 0 ⎠
−l cos θ2 −l cos θ1
si riconoscono nelle θ delle convenienti variabili lagrangiane q := (θ1 , θ2 ). Di conseguenza, le energie cinetica e
potenziale del sistema risultano espresse da:
1 1 1 1
T = m1 (ẋ21 + ż12 ) + m2 (ẋ22 + ż22 ) = m1 l2 θ̇12 + m2 l2 θ̇22
2 2 2 2
1 1
Π = c + m1 gz1 + m2 gz2 + k(x2 − x1 ) + k(z2 − z1 )2
2
2 2
= −g(m1 l cos θ1 + m2 l cos θ2 ) − kl2 cos(θ1 − θ2 ).
Se ne traggono le @ A
) *
∂Π/∂θ1 gm1 l sin θ1 + kl2 sin(θ1 − θ2 )
= ,
∂Π/∂θ2 gm2 l sin θ2 − kl2 sin(θ1 − θ2 )
e quindi le equazioni di Lagrange

⎪ d ∂T ∂T

⎨ dt − = m1 lθ̈1 = −gm1 l sin θ1 − kl2 sin(θ1 − θ2 )
∂ θ̇1 ∂θ1

⎪ d ∂T ∂T
⎩ − = m2 lθ̈2 = −gm2 l sin θ2 + kl2 sin(θ1 − θ2 )
dt ∂ θ̇2 ∂θ2
Si riconosce
7 innanzi tutto
8 che la posizione ce := (θ1 = 0, θ2 = 0) è di equilibrio per il sistema. Poi, essendo la
matrice B = ∂ 2 Π/∂θi ∂θj data da:
@ A
gm1 l cos θ1 + kl2 cos(θ1 − θ2 ) −kl2 cos(θ1 − θ2 )
B=
−kl2 cos(θ1 − θ2 ) gm2 l cos θ2 + kl2 cos(θ1 − θ2 )
@ A
gm1 l + kl2 −kl2
si vede che la posizione è anche di equilibrio stabile, giacché la matrice: Be = è
−kl2 gm2 l + kl2
definita positiva. Infine si ricavano le forme ridotte dell’energia cinetica e potenziale ancora nell’intorno della
posizione θ1 = θ2 = 0 :
(e) 17 8
Π2 := gm1 lθ12 + gm2 lθ22 + kl2 (θ1 − θ2 )2
2
(e) 10 1
T2 := m1 l2 θ̇12 + m2 l2 θ̇22 .
2
In definitiva, e ponendo per semplicità m1 = m2 = l = g = 1 , si ha
) *
1+k −k
Be = ed Ae = 1I .
−k 1+k

Ne segue l’equazione delle pulsazioni proprie:

Det (Be − λAe ) = (1 + k − λ)2 − k 2 = λ2 − 2(1 + k)λ + (1 + 2k) = 0

che fornisce λ1 = 1 , λ2 = 1 + 2k ; e quindi le equazioni per determinare gli autospazi span{ϵi } divengono
rispettivamente
(1 + k)α1 − kβ1 = α1 , e (1 + k)α2 − kβ2 = (1 + 2k)α2

Note di Sistemi Dinamici


88 Capitolo 2. Sistemi differenziali lineari

) * ) *
1 1
da cui: ϵ&1 = , ed ϵ&2 = .
1 −1
Affinché la matrice A1/2 P sia ortogonale, questi vettori vanno normalizzati secondo la ⟨ ϵi , ϵj ⟩ Te = δij e cioè

in questo caso,
) dato che
* qui la A è diagonale, moltiplicati per 1/ 2 . Di conseguenza la matrice di trasformazione
1 1
è P = √12 che, di nuovo giacché in questo semplice esempio la matrice Ae vale 1I , risulta qui anche
1 −1
ortogonale.
Le coordinate normali ϱ sono quelle per le quali
) * ) * ) * ) e* ) * ) * ) *
θ1 0 q1 q1 ϱ1 1 1 1 1
− ≡ − e =P = √ ϱ1 (t) + √ ϱ2 (t) ,
θ2 0 q2 q2 ϱ2 2 1 2 −1

ed evolvono secondo le (
ϱ̈1 + ϱ1 = 0
ϱ̈2 + (1 + 2k)ϱ2 = 0

Si possono per esempio distinguere i seguenti casi:

• (i) condizioni
) * iniziali tali
) * che ϱ2 (t) = 0 , ovvero ϱ2 (0) = ϱ̇2 (0) = 0 .
θ1 1 1
Si ha = √ ϱ1 e cioè i pendoli oscillano, in fase, con pulsazione ω1 = 1 , e la forza elastica non
θ2 2 1
lavora;

• (ii) condizioni che ϱ1 (t) = 0 , ovvero ϱ1 (0) = ϱ̇1 (0) = 0 .


) * iniziali)tali *
θ1 1 1 /
Si ha = √ ϱ2 e cioè i pendoli oscillano, in opposizione di fase, con pulsazione ω2 = (1 + 2k);
θ2 2 −1

) * ) * ) * ) *
θ1 (0) 0 θ̇1 (0) v
• (iii) condizioni iniziali = , = , che la
θ2 (0) 0 θ̇2 (0) 0
) * ) * ) * ) * ) *
1 1 1 ϱ1 (0) 0 ϱ̇1 (0) v 1
P −1 =√ trasforma nelle: = , = √ . Se ne ricava:
2 1 −1 ϱ 2 (0) 0 ϱ̇ 2 (0) 2 1
) * @ √v sin t
A
ϱ1 (t) 2 √
= √ v sin( 1 + 2kt) .
ϱ2 (t) 2(1+2k)


Con l’ipotesi k << 1 , e la ben nota approssimazione: 1 + 2k ≃ (1 + k), questa fornisce ϱ2 (t) ≃ √v sin(1 +
2
p±q p∓q
k)t, e formule le sin p ± sin q = 2 sin 2 cos 2 danno
) * ) * ) *
θ1 (t) v sin t + sin(1 + k)t sin t cos 12 kt
= ≃ v
θ2 (t) 2 sin t − sin(1 + k)t − cos t = sin 12 kt

e cioè il primo pendolo oscilla con pulsazione ω1 ≃ 1 e ampiezza a1 ≃ v cos 12 kt, mentre il secondo ha un
moto analogo, sfasato di π , e con ampiezza sfasata di un tempo (lungo): τ /4 = π/k .

Si rammenti che le soluzioni trovate sono relative al sistema lineare e non sono conclusive per quello non lineare,
in special modo per quanto riguarda i periodi di oscillazione; questi, come si è visto, rappresentano solo il primo
termine di uno sviluppo perturbativo i cui termini successivi hanno valori che dipendono dalla scelta dei dati iniziali.
#

L’esempio precedente è ottenuto come semplificazione, parzialmente esasperata, del seguente e più corretto,
caso fisico.
Esempio 2.1.8

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 89

Si considerino due pendoli fisici di lunghezze l1 ed l2 rispettivamente, con punti di sospensione posti su una retta
x orizzontale a distanza d l’uno dall’altro, vincolati senza attrito a oscillare sul piano verticale x, z (con z verticale
ascendente), e accoppiati da una sollecitazione elastica
0 0 1 1
−−→ −−→ ⃗ −−→ −−→
p1 p2 , p2 p1 , f12 = k |p1 p2 | − ℓ vers p1 p2 , f⃗21 = −f⃗12 ,
/ 0 12
−−→
tale che ℓ = d2 + (l2 − l1 )2 sia la lunghezza di riposo della molla. Ne consegue la V ≡ Πel = k |p1 p2 | −ℓ /2 ,
0 1
→ π el = k
−−→ −−→
per la quale è, correttamente, ∇− op |p p
1 2 | − ℓ ∇−
op |p1 p2 |.

x
d

µ1 µ2
l1
l2

Date le 0 1
−−→ −−→ −−→ −−→ −−→ −−→
2| p p |∇ |p p | ∇q p1 p2 · p1 p2 p1 p2 · ∇q p1 p2
−−→ 1 2 q 1 2
∇q |p1 p2 | = −−→ = −−→ = −−→
2|p1 p2 | 2|p1 p2 | |p1 p2 |
@ A (1.21)
−−→ −−→
vers p1 p2 · ∂ p1 p2 /∂ θ1
= −−→ −−→
vers p1 p2 · ∂ p1 p2 /∂ θ2
e le ⎛ ⎞ ⎛ ⎞
l2 sin θ2 + d l1 sin θ1
−−→ −−→
op2 = ⎝ 0 ⎠ op1 = ⎝ 0 ⎠
−l2 cos θ2 −l1 cos θ1
si riconoscono nelle θ delle convenienti variabili lagrangiane q := (θ1 , θ2 ) per le quali si hanno le
⎛ ⎞ ⎛ ⎞
−−→ −−→ cos θ2 −−→ −−→ cos θ1
∂ p1 p2 ∂ op2 ∂ p1 p2 ∂ op1
= = l2 ⎝ 0 ⎠ ; = − = −l1 ⎝ 0 ⎠ .
∂ θ2 ∂ θ2 ∂ θ1 ∂ θ1
sin θ2 sin θ1
Queste e la (1.21) forniscono la
@ −−→ A @ −−→ A
−−→ ∂|p1 p2 |/∂ θ1 (+l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1 )/|p1 p2 |
∇q |p1 p2 | = −−→ = −−→
∂|p1 p2 |/∂ θ2 (−l1 l2 sin(θ1 − θ2 ) + dl2 cos θ2 )/|p1 p2 |
e quindi, in particolare, le
∂ π el 7 0 1
−−→ 8
= k 1 − ℓ/p1 p2 | l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1
∂θ1
∂ π el 7 0 1
−−→ 8
= k 1 − ℓ/p1 p2 | l1 l2 sin(θ2 − θ1 ) + dl2 cos θ2 .
∂θ2
Pertanto ⎛ 7 0 1⎞
@ A −−→ 8
∂Π/∂θ1 gm1 l1 sin θ1 + k 1 − ℓ/|p1 p2 | l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1
⎜ ⎟
=⎝ 7 0 1⎠
∂Π/∂θ2 −−→ 8
gm2 l2 sin θ2 + k 1 − ℓ/|p1 p2 | l1 l2 sin(θ2 − θ1 ) + dl2 cos θ2
da cui insieme con la
1 1 1 1
m1 (ẋ21 + ż12 ) + m2 (ẋ22 + ż22 ) =
T = m1 l12 θ̇12 + m2 l22 θ̇22 ,
2 2 2 2
seguono le corrispondenti equazioni di Lagrange:
⎧ 7 0 1
⎨ m1 lθ̈1 + gm1 l1 sin θ1 + k 1 − ℓ/|−
⎪ −→ 8
p1 p2 | l1 l2 sin(θ1 − θ2 ) − dl1 cos θ1 = 0 ,
7 0 1
⎩ m2 lθ̈2 + gm2 l2 sin θ2 + k 1 − ℓ/|−
⎪ −→ 8
p1 p2 | l1 l2 sin(θ2 − θ1 ) + dl2 cos θ2 = 0 .

Note di Sistemi Dinamici


90 Capitolo 2. Sistemi differenziali lineari

Esempio 2.1.9 Il seguente calcolo mostra come il normalizzare a 1 i prodotti ϵh · Ae ϵh non sia rilevante ai
fini della scrittura delle soluzioni del problema linearizzato, quando queste si esprimano tramite le loro condizioni
iniziali. ) *
0 1
Sia A1 la matrice reale data da A1 := . Risulta
−ω 2 0
) * ) * ) *
0 −ω 1 0 1 0
P1−1 A P
∼ 1 1∼ = con P 1∼ = ; P −1
1∼ = .
ω 0 0 −ω 0 −1/ω

D’altra parte, come è noto, l’equazione


@ A ) *) * ) * ) *) *
˙ ξ& & ξ&0
ξ& = α −β implica
ξ(t)
= eαt
cos βt − sin βt
.
η&˙ β α η& η&(t) sin βt cos βt η&0

Pertanto la soluzione ρ(t) ≡ (ρ1 (t), . . . , ρn (t)) del sistema disaccoppiato di equazioni
⎛ ⎞
ω1 0
⎜ .. ⎟
ρ̈ + Ωρ = 0 con Ω=⎝ . ⎠
0 ωn

può essere scritta nella forma


) * ) * ) * ) *
ρ C −S −1 ρ0 ρ0
= P∼ P∼ =: E (1.22)
ρ̇ S C ρ̇0 ρ̇0

ove si sono introdotte le matrici diagonali


⎛ ⎞ ⎛ ⎞
cos ω1 t 0 sin ω1 t 0
⎜ .. ⎟ ⎜ .. ⎟
C := ⎝ . ⎠, S := ⎝ . ⎠
0 cos ωn t 0 sin ωn t
⎛ ⎞ ⎛ ⎞
1I n 0 1I n 0
P∼ = ⎝ ⎠ , P∼−1 = ⎝ ⎠
−1
0 −Ω 0 −Ω
⎛ ⎞ ⎛ ⎞
1/ω1 0 1 0
−1 ⎜ .. ⎟ ⎜ .. ⎟
Ω := ⎝ . ⎠, 1I n := ⎝ . ⎠.
0 1/ωn 0 1
In altre parole:
ρ̇i |0
ciascuna ρ̈i + ωi2 ρi = 0 ha soluzione ρi (t) = ρi |0 cos ωi t + sin ωi t
ωi
e ciò è quanto si legge dalla (1.22) ove si svolga il prodotto E servendosi del fatto che il prodotto di matrici
entrambe diagonali è commutativo. Si ha:
) * ) * ) *
C −S −1 C SΩ−1 C SΩ−1
E = P∼ P∼ = P∼ = .
S C S −CΩ−1 −ΩS C

Esprimendo con tale notazione le coordinate x := (x1 , . . . , xn ) di un sistema del quale si cercano i modi normali
ρ = (ρ1 , . . . , ρn ), e cioè chiamando P la matrice che ha come colonne gli (ϵ1 , . . . , ϵn ) soluzioni della equazione
Be ϵ = λAe ϵ, si ricava quindi la
) * ) *) * ) * ) −1 *) * ) *
x P 0 ρ P 0 P 0 x0 x0
= = E =: Ξ
ẋ 0 P ρ̇ 0 P 0 P −1 ẋ0 ẋ0

nella quale si è introdotta la matrice Ξ data esplicitamente dalla


) *) * ) −1 * ) *
P 0 C SΩ−1 P 0 P CP −1 P SΩ−1 P −1
Ξ= −1 =
0 P −ΩS C 0 P −P ΩSP −1 P CP −1

M. Lo Schiavo
2.1. Il procedimento di linearizzazione 91

per ottenere la quale si è usato il fatto che le Ω, C , e Ω−1 commutano fra loro.
Se allora, invece di una certa n-pla (ϵ1 , . . . , ϵn ) di autovettori dell’equazione Be ϵ = λAe ϵ se ne usa un’altra:
(ϵ1 ′ , . . . , ϵn ′ ), ancora di autovettori della stessa equazione, ciascuno dei quali proporzionale al suo corrispondente:
ϵi ′ ∝ ϵi , i = 1, . . . , n, si ricava da questi la matrice P ′ data dalla
⎛ ⎞ ⎛ ⎞ ⎛k 0

.. .. .. .. 1
P ′ = ⎝k1 ϵ1 .. . k ϵ ⎠ = ⎝ϵ .
.. n n 1 .
.. ϵn ⎠ ⎜
⎝ ..
.

⎠ =: P K.
. . .
. . . . 0 kn

Ripetendo lo stesso procedimento seguito nel caso precedente, si arriva in tal modo alla matrice
@ A
P KCK −1 P −1 P KSΩ−1 K −1 P −1
Ξ′ = .
−P KΩSK −1 P −1 P KΩCΩ−1 K −1 P −1

Tuttavia, il fatto che tutte le matrici K, Ω, C, S, Ω−1 , K −1 siano diagonali permette di concludere che Ξ′
coincide con Ξ . Le x := (x1 , . . . , xn ) non dipendono quindi dalle costanti (k1 , . . . , kn ), e sono date dalla
) * @ P CP −1 A
P SΩ−1 P −1 )x0 *
x
=
ẋ −P ΩSP −1 P CP −1 ẋ0

o, più semplicemente, dalla


0 1
x = P CP −1 x0 + P SΩ−1 P −1 ẋ0 = P Cρ0 + SΩ−1 ρ̇0

nella quale le colonne della matrice P non sono necessariamente normalizzate a uno secondo la Ae , pur restando
necessariamente Ae -ortogonali fra loro. In altre parole la matrice P è (una qualsiasi matrice) fatta da n vettori
ϵ1 , . . . , ϵn linearmente indipendenti e tali da verificare le

Be ϵi = λ(i) Ae ϵi per i = 1, . . . , n , ed ϵk · Ae ϵh = 0 se k ̸= h .

La teoria assicura che essi esistono e che le seconde di queste relazioni sono conseguenza delle prime quando i
corrispondenti autovalori λh e λk sono diversi fra loro.
Esempio di linearizzazione di un sistema, non necessariamente Hamiltoniano.
Si è già introdotta (si veda: § I.4 Es. 5) l’equazione logistica per una specie, e cioè la ṗ = β(σ − σ0 )p ove σ0 è la
minima quantità di cibo per individuo. Con le ipotesi: σ = σ & −kp, σ & > σ0 , e posto η := (&σ −σ0 )/k, c := βk ,
si è ottenuto il modello per una specie singola:

ṗ = c(η − p)p , t ∈ R, p 0 ∈ R+ .

Se si vuole estendere il modello e considerare la presenza di due specie di cui una rappresenti il cibo per l’altra
e che abbia essa stessa scorte più che sufficienti di cibo, la preda x avrà mortalità proporzionale al numero di
incontri con il predatore y , e quindi l’equazione

ẋ = ax − bxy, a, b > 0 ,

mentre il predatore avrà riserva di cibo proporzionale alla popolazione delle prede, sua unica fonte di sussistenza:

ẏ = cxy − dy, c, d > 0 .

Si ha cioè il campo ) *
ax − bxy
v(x) = ,
cxy − dy
del quale la linearizzata è
) * ) *) *
u̇ a − by −bx u
u̇ = ∂v(x)u ovvero = (1.23)
ẇ cy cx − d w

Il campo si annulla in x0 = (0, 0) e in xe = (xe , ye ) := (d/c, /a b).

Note di Sistemi Dinamici


92 Capitolo 2. Sistemi differenziali lineari

Nell’intorno del primo equilibrio si ricava


) * ) *) *
u̇ a 0 u
= (1.24)
ẇ 0 −d w

del quale è soluzione la t &−→ (x(t), y(t)) = (eat x0 , e−dt y0 ) che mostra come, in prossimità di un disastro ecologico,
le prede siano insufficienti a sostenere i predatori: anche se x cresce, localmente y decresce.

Nell’intorno del secondo equilibrio si ricava


) * ) *) *
u̇ 0 −bd/c u
= (1.25)
ẇ ac/b 0 w

che rappresenta, come si è accennato nella Nota 2.1.3 più sopra, un caso in cui il sistema linearizzato non dà
sufficienti informazioni, per tempi grandi, sulle soluzioni del sistema iniziale. Per quanto possibile sarà allora
opportuno affrontarne lo studio tramite metodi qualitativi simili a quelli già visti per i sistemi conservativi. #

2.2 Sistemi differenziali lineari a coefficienti costanti, in R2


In questo paragrafo verrà considerato in dettaglio il caso dei sistemi lineari (reali) a coefficienti costanti di due
equazioni scalari del primo ordine in due incognite scalari. Il loro interesse risiede nel fatto che, malgrado la loro
estrema semplicità, possono essere usati come “caso guida” dei sistemi a coefficienti costanti e di ordine qualunque,
e in tal senso verrà sviluppato lo studio sistematico del procedimento di risoluzione.
È opportuno osservare preliminarmente che, cosı̀ come è stato possibile perfino nel caso non lineare ẋ =
v(x), v : R2 → R2 , trovare talvolta dei metodi particolari di risolubilità, anche nel caso lineare vi sono spesso
alternative al metodo generale. In particolare se il sistema è propriamente lineare, nel senso che ha (0, 0) come
punto di equilibrio, si possono usare i metodi visti nel § I.4 per cercare le soluzioni dell’equazione associata:
dx2 /dx1 = v 2 (x1 , x2 )/v 1 (x1 , x2 ) che, in tal caso, ha come campo una funzione omogenea di grado zero. Il caso
propriamente lineare, d’altra parte, non manca di generalità giacché è generalmente sufficiente operare con una
semplice traslazione di origine per ricondurvisi (si veda: Es. I.4.7). Tuttavia lo scopo di questo paragrafo è di
illustrare il metodo generale di risoluzione dei sistemi lineari a coefficienti costanti in modo tale che esso possa
essere esteso al caso di dimensione n qualsiasi, e di evidenziarne gli aspetti geometrici.
Sia allora dato un sistema, per il momento in R2 ,

ẋ = T x con x0 ∈ R2 , T ∈ R4 ; ovvero
) 1* ) * ) 1* ) 1*
ẋ a b x x0 (2.26)
= x0 = , a, b, c, d ∈ R .
ẋ2 c d x2 x20

Per poter fare uso del concetto di sistemi coniugati, e operare convenienti trasformazioni di coordinate, si
ricorrerà al fatto che l’equazione data può essere considerata come una particolare rappresentazione in coordinate
di un’equazione quale la
ẋ = T x , x0 ∈ V, T ∈ L(V), (2.27)

assegnata su uno spazio vettoriale (reale) V al quale, per esempio, può essere identificato lo spazio tangente Tx̄ M
relativo ad un punto x̄ di una varietà M di ugual dimensione n = 2 . Le coordinate scelte su M (o un’arbitraria
scelta) individuano su V una certa base e := {ei }i=1,...,n dalla quale esso è reso isomorfo a Rn . Su V si definisce
l’operatore lineare T ∈ L(V) come quello al quale la base e assegna la matrice T ∈ Rn .
2

Quando M ≡ V (e quindi per la (2.27) stessa) non lede la generalità identificare la famiglia dei {Tx̄ M}x̄∈M con un unico spazio
V al quale è stata identificata anche la stessa varietà delle fasi M (e cioè lo spazio delle condizioni iniziali u0 := x̄0 − x̄ =: x0 ); in
caso contrario l’isomorfismo dipenderà dal punto xe oltre che dalle coordinate scelte e le identificazioni dette saranno locali. Tuttavia,
fintanto che non viene variato il punto xe per il quale v(xe ) = 0 e v∗ (xe ) = T , e cioè a partire dal quale la (2.27) è l’equazione
variazionale in x(t) = xe di una qualche equazione non lineare ẋ = v(x) , le identificazioni dette rimangono valide. In particolare lo
saranno per tutto il resto di questo capitolo.
Una volta determinate le soluzioni t &→ φ(t, 0, x0 ) ≡ G t x0 dell’equazione ẋ = T x, la loro rappresentazione in
coordinate fornirà nelle coordinate assegnate le soluzioni del sistema dato.

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 93

G t determina T Come si è visto nel Cap.I, ogni gruppo a un parametro {G t }t∈R di trasformazioni, non
necessariamente lineari, determina un flusso g : (t, x) &→ g(t, x) ':= G t x (differenziabile rispetto a entrambe le sue
d '
variabili), che determina un campo vettoriale v : x &→ v(x) = dt t=0
G t x. Questo è tale che le funzioni φ : R → M,
definite per ciascun x ∈ M dalla t &→ φ(t, 0, x) := G x, sono soluzioni dell’equazione associata, e cioè: per ogni
t

τ ∈ R si ha
d ''
φ̇(τ ) := ' G t (G τ x) = v(φ(τ )) .
dt t=0
Se, in particolare, le trasformazioni G t : M → M sono lineari certo anche il campo v risulta lineare e, come si è già accennato, non
lede la generalità identificare (nell’intorno di un x̄ ∈ M fissato) le varietà M e Tx̄ M con un unico spazio vettoriale V di dimensione
n sul quale agiscono gli operatori G t .
Inoltre, la linearità degli operatori G t permette di raccogliere a fattore moltiplicativo la parte evolutiva rispetto
a quella attuale ) ' *
d '' t τ d ' t
' G (G x) = ' G G τ x =: T G τ x ; (2.28)
dt t=0 dt t=0
e cioè di operare la derivazione direttamente su L(V) anziché su V, (vedi oltre).
Riassumendo: un gruppo a un parametro di trasformazioni lineari su V determina univocamente un flusso ' g
d '
definito da g(t, x) := G t x il quale determina un campo lineare (e cioè un operatore T ) tramite la T := dt t=0
G t
.
Quest’ultimo è tale che il moto φ : R → V definito da φ(t, 0, x) := G t x è soluzione dell’equazione ẋ = T x. Per
ogni fissata base in V, al moto φ corrisponde, in coordinate, un vettore di funzioni x : t &→ x(t) 1 n
' :=7 (x (t), .t. .8, x (t))
d '
soluzione dell’equazione ẋ = T x, ove T = cost è definita in coordinate dalla T x := dt t=0
h (x) ◦ G x . #

T determina G t Inversamente: in dim = 1 ogni funzione lineare, e cioè ogni costante moltiplicativa k ,
determina l’equazione ẋ = kx, che a sua volta determina un flusso g(t, x) = ekt x che determina l’operatore ekt ,
lineare sulle x ed evolutore della soluzione uscente
9 : dal dato x0 = 1 . Pertanto essa determina il gruppo a un
parametro di trasformazioni lineari della retta ekt t∈R .
Si vuole estendere questa proprietà a un numero qualunque di dimensioni, tale estensione potendo essere ottenuta
in due modi, equivalenti nello stesso senso in cui la (2.27) è equivalente alla

X˙ = T X , X0 , T ∈ L(V) (2.29)

qualora questa si dimostri sensata.


Il secondo modo è il procedimento che verrà illustrato più avanti, date le sue doti di generalità e di sintesi. In
esso si ripete sulla (2.29) il ragionamento appena fatto per la ẋ = kx e se ne ricava il corrispondente flusso in
L(V), dal quale segue quello in V. Tuttavia, per far ciò, si ha bisogno di introdurre procedimenti di limiti e di
derivazioni nello spazio L(V).
Il primo modo, “per componenti”, viene qui riassunto per favorire l’interpretazione del secondo. Con esso si
potrebbe addirittura evitare il ricorso al sistema (2.27) giacché il sistema viene risolto direttamente in coordinate.
Si riconosce innanzi tutto che per ogni assegnata matrice T esiste unica in Rn la n-pla dei vettori soluzioni dell’e-
quazione ẋ = T x e uscenti da fissate condizioni iniziali (ad esempio dai versori di base). Ne risulta univocamente
determinata la matrice Ψ : t &→ Ψ(t) che ha per colonne le loro componenti (in quella base). Questa individua il
vettore t &→ x(t), soluzione uscente dal (arbitrario) dato iniziale x mediante l’operazione lineare x(t) = Ψ(t)x.
Se ne ricava G t x = h−1
(x) (Ψ(t)x) . L’unicità della soluzione e le sue proprietà di linearità (rispetto a x) e di com-
positività (rispetto a t) garantiscono che si è generata una famiglia a un parametro di operatori {G t }t∈R , ciascuno
dei quali:

• è rappresentato in quelle coordinate dalla matrice Ψ(t),

• appartiene a un gruppo rispetto al parametro, in quanto T non dipende da t,

• è definito su tutto V, in quanto x è arbitrario,

• è lineare, in quanto lo è T ,
d ''
• verifica l’equazione (2.28): ' G τ +t x = T G τ x giacché, in coordinate,
dt t=0
d '' '
'
' Ψ(t)x = T Ψ(t) x ' =T x,
dt t=0 t=0

Note di Sistemi Dinamici


94 Capitolo 2. Sistemi differenziali lineari

• in conseguenza di una qualsiasi trasformazione lineare di coordinate: x′ = P −1 x (e quindi con campo che
varia secondo la: T ′ = P −1 T P ) ha matrice che varia secondo la Ψ′ = P −1 ΨP , e ciò fornisce la soluzione
nelle nuove coordinate: x′ (t) = Ψ′ (t)x′ ,

• fra tutti i sistemi di coordinate (lineari) su V, resta allora possibile scegliere quello ottimale alla risoluzione
del dato problema cercandolo come quello per il quale la corrispondente matrice T ′ equivalente alla T risulta
particolarmente semplice.

Riassumendo: un campo lineare T x determina univocamente una famiglia {G t }t∈R di trasformazioni G t che è un
gruppo a un parametro; gli' operatori G t sono lineari su V e sono rappresentati, in coordinate, da una matrice
d '
Ψ : t &→ Ψ(t) tale che dt t=0
Ψ(t) = T . Tale matrice T rappresenta (in quelle coordinate) l’operatore di campo
T . Il sistema che si risolve è un conveniente ẋ′ = T ′ x′ .
L’unicità della soluzione di ẋ = T x per ciascun x0 garantisce anche che ogni gruppo a un parametro di
trasformazioni lineari su V è esprimibile in questo modo. Infatti l’equazione 7 da esso determinata è unica, ed è
unico il flusso g associato al8 gruppo. Ma il flusso generato dall’equazione o anche, per ogni dato iniziale x ∈ V,
la sua soluzione t &→ φ(t, x) è esso stesso unico e quindi, siccome anche il flusso associato al gruppo deve esserne
soluzione, essi non possono che coincidere.
In definitiva, conseguenza delle unicità della soluzione e del gruppo associato a un flusso è che: due gruppi a un
parametro di trasformazioni lineari V → V sono identici se e solo se hanno uguali generatori T . #

Si osservi che per determinare esplicitamente le rappresentazioni Ψ(t) degli operatori del gruppo, il metodo per
componenti passa necessariamente attraverso la soluzione esplicita corrispondente ai vari possibili sistemi lineari
(e cioè alle varie T ′ ), e non ne permette un’espressione generale, valida apriori dagli specifici dati iniziali e matrici
di campo.

Nell’illustrare il secondo dei due procedimenti citati sopra si farà riferimento alla più generale equazione lineare,
anche non autonoma:

ẋ = T (t) x, t0 , x0 ∈ R × V, T (t) ∈ L(V), t &→ T ∈ C r≥0 (R) (2.30)

e la discuterà in forma generale, anche se solo formale. In un secondo momento, e nel solo caso T = cost, si
esprimeranno le soluzioni in un qualche conveniente sistema di coordinate.
A tale scopo, innanzi tutto occorre attribuire significato all’operazione di derivazione in L(V). Verrà poi di-
scussa, direttamente in questo spazio, la soluzione Gtt0 dell’equazione X˙ = T (t) X . Infine, e solo dopo aver
fissate le coordinate e attribuita all’operatore T (t) una matrice T (t), verrà esaminato il problema di determinare
esplicitamente la matrice che quelle coordinate assegnano all’operatore Gtt0 .
La prima parte è introduttiva, e mostra come molte delle considerazioni fatte nel caso autonomo sussistono
anche in quello, più generale, di operatori di campo dipendenti dal tempo. In esse infatti si usa solo la linearità
dell’operatore T (t) e non la sua indipendenza o meno dal tempo.
Si danno le seguenti definizioni
Matrice fondamentale dell’equazione (2.30) := una matrice Φ(t, t0 ) che ha per colonne le coordinate di una
n-pla di vettori soluzioni linearmente indipendenti della (2.30). In tal modo essa fornisce il valore attuale x(t)
della “soluzione generale” secondo la x(t) = Φ(t, t0 ) c , ove c è un vettore numerico.
Matrice principale dell’equazione (2.30) := quella matrice fondamentale Ψ che ha per colonne le coordinate
degli n vettori, soluzioni della (2.30), che hanno come dati iniziali i versori della base dello spazio delle fasi. Essa
è pertanto la matrice Ψ = Ψ(t, t0 ) tale che Ψ(t0 , t0 ) = 1I , e fornisce il valore attuale x(t) che parte dal dato
iniziale x0 secondo la x(t) = Ψ(t, t0 ) x0 .

La matrice principale Ψ(t, t0 ) rappresenta, nella base scelta, l’operatore di evoluzione Gtt0 dell’equazione (2.30).
Infatti applicandola a un qualsiasi vettore x0 di Rn , che rappresenti le condizioni iniziali di un moto che evolve
secondo la (2.30), si ottiene la soluzione φ(t, t0 , x0 ) uscente da x0 .
In particolare, a partire da una n-pla di condizioni iniziali x1 |0 , x2 |0 , . . . xn |0 che siano vettori linearmente
indipendenti di Rn , e formata con essi la matrice (invertibile) (n × n) :
⎛ ⎞
.. .. ..
C ≡ Φ0 := ⎝x1 |0 .. x2 |0 .. .. xn |0 ⎠ ,
. . .
. . .

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 95

si riconosce che la matrice


⎛ ⎞
.. .. ..
Φ(t) := Φ(t, t0 , Φ0 ) = Ψ(t, t0 )Φ0 = ⎝x1 (t) .. x2 (t) .
..
. x (t)⎠
.. n
.
. . .
;
ha colonne che sono soluzioni indipendenti dell’equazione ẋ = T (t) x; esse sono gli n vettori φi (t, t0 , xi |0 ) ∈
< ; <
Rn che rappresentano in quelle coordinate gli n vettori φi (t, t0 , xi |0 ) ∈ V soluzioni della (2.30)
i=1,...,n i=1,...,n
che verificano gli assegnati dati.
Questi ultimi formano un
Sistema fondamentale Φ = {φi }i=1,..,n per l’equazione (2.30) := una n-pla di funzioni a valori in V: φi :
t &→ xi = φi (t, t0 , xi |0 ) ∈ V, i = 1, . . . , n, che siano soluzioni linearmente indipendenti della (2.30).
D’altra parte, come si è osservato nel § I.5, la più generale soluzione della (2.30) può essere scritta come
combinazione lineare di una n-pla di vettori soluzioni linearmente indipendenti della (2.30). Pertanto ogni sistema
fondamentale può essere ottenuto a partire da un altro mediante il prodotto per un operatore costante non singolare
C , e venire rappresentato (in componenti) mediante la

Φ(t, t0 , Φ0 ) = Ψ(t, t0 )C ove C ≡ Φ(t0 ) ≡ Φ0 ∈ L(Rn ).

Si può notare che ogni colonna della C è formata dalle componenti degli (arbitrari purché linearmente indipen-
denti) vettori numerici φ0 , condizioni iniziali dei vettori soluzioni φ che formano la Φ(t, t0 , Φ0 ); e anzi, le colonne
della C sono le n-ple dei coefficienti delle combinazioni lineari che si operano sui vettori colonne della Ψ(t, t0 ) (e
cioè le soluzioni uscenti dai versori di base) per ottenere i vettori colonne della Φ(t, t0 , Φ0 ).
Considerando che la matrice C ≡ Φ0 è non singolare se e solo se tale è la Φ, si conclude che tutte e sole le
matrici fondamentali sono esprimibili in questa forma purché C sia non singolare.
Osservazione importante. La matrice fondamentale Φ(t) ha derivata (fatta elemento per elemento) tale che
Φ̇(t) = T (t)Φ(t), essa ha quindi come colonne le derivate di altrettante funzioni vettoriali che sono soluzioni
della (2.30). Si vuole sfruttare la linearità dell’operatore di derivazione per interpretare una matrice che abbia
come colonne le derivate di altrettante funzioni vettoriali come derivata della matrice le cui colonne siano le
funzioni vettoriali stesse (il tutto naturalmente su una base che non dipenda dal parametro), e pensare a ciò
come alla rappresentazione in (quelle) coordinate di un procedimento fatto sull’operatore di cui quella matrice è
l’espressione in coordinate. Si vuole cioè interpretare la matrice Φ(t, t0 , Φ0 ) come la rappresentazione in coordinate
di quell’operatore lineare che verifica nello spazio L(V) l’equazione

Ẋ = T (t) X , t0 ∈ R, T (t) ∈ L(V), t &→ T ∈ C r≥0 (R) (2.31)

con condizioni iniziali (non singolari) X0 = X (t0 ), rappresentate da X0 = X(t0 ). Di questa equazione, la matrice
Ψ : t &→ Ψ(t, t0 ) esprime in particolare la soluzione uscente dal dato X0 = 1I .
Inoltre, la (2.31) è omogenea, e quindi se X = X(t) è soluzione uscente da X0 e se C è non singolare
allora anche X(t)C è soluzione uscente da X0 C . Ne segue che per ogni C ≡ Φ(t0 ) = Φ0 non singolare la
Φ(t) = Ψ(t, t0 )Φ0 è soluzione non singolare.
Infine, ogni soluzione non singolare della (2.31) è esprimibile in questo modo, infatti anche per essa vale il
teorema di unicità, e certo la Ψ(t, t0 )X0 è soluzione uscente dall’arbitrario dato X0 .
In definitiva, e sempre che si dia senso alla (2.31), si ha che le due equazioni:

ẋ = T (t)x con x0 ∈ V, (2.32)


X˙ = T (t)X con X0 ∈ L(V) (2.33)

sono equivalenti nel senso che le soluzioni non banali di questo sono i sistemi fondamentali di quello. Risolvere la
(2.32) equivale a trovare l’operatore Ψ che risolve la (2.33). #

Le proprietà che si sono appena riconosciute circa i sistemi fondamentali Φ della (2.32) non sono conseguenze
della particolare struttura dell’operatore T (diagonalizzabile o meno) né del fatto che esso dipenda o meno dal
tempo (e cioè che il sistema sia a coefficienti costanti), ma solo del fatto che è lineare. È tuttavia solo nel caso di
autonomia che il procedimento di costruzione esplicita dell’operatore di evoluzione (lineare) Ψ(t, t0 ) riesce in modo
semplice. Nel caso generale infatti, lineare non autonomo: ẋ = T (t)x, la determinazione esplicita della matrice
Ψ : t &→ Ψ(t, t0 ) è problema assai arduo, almeno in forma chiusa.

Note di Sistemi Dinamici


96 Capitolo 2. Sistemi differenziali lineari

Quando invece l’operatore di campo T , e quindi i coefficienti dell’equazione ẋ = T x, sono costanti, le matrici
t &→ Φ(t) soluzioni della X˙ = T X assumono una forma particolarmente significativa.
Nel caso scalare, l’unico operatore che agisce linearmente sui punti della retta e li trasforma in modo da avere
campo proporzionale al valore nel punto, ovvero tale che x(t) = G't x =⇒ ẋ = kx è l’operatore che moltiplica
d ' d t
per la funzione esponenziale: G t ≡ ekt . Per esso infatti si ha dt t=0
(G t x) = kx o anche dt G = kG t . Si
vuole generalizzare questa osservazione al caso dim V = n, e chiamare e Tt
la matrice Ψ(t) e interpretarla come
rappresentazione, nella base in cui T è rappresentato
' da T , dell’operatore G t
∈ L(V). Inoltre si vuole dare senso
d ' t
alla richiesta che questo abbia derivata tale che dt t=0 G = T , e confermare il fatto che esso appartiene a un gruppo
ad un parametro di trasformazioni lineari invertibili: G t+τ = G t G τ . Solo in tal caso esso potrà essere la soluzione
d t
uscente dalle condizioni iniziali X (0) = 1I dell’equazione Ẋ = T X , e quindi essere tale che dt G = T G t , G 0 = 1I .
Ciò giustifica indicarlo con e , e interpretare come flusso in L(V) l’espressione (t, X ) &→ G(t, X ) = eT t X .
Tt

Esempio pilota. Si consideri il caso dim = 2 . Sia T un operatore costante e con autovalori entrambi reali
e distinti. Dette P la matrice individuata dagli autovettori di T ed Ehi (t) = eλ(i) t δhi (non sommare su i ) si
riconosce facilmente che la matrice che rappresenta l’operatore G t è la matrice
) λt *
e 1 0
Ψ(t) = P E(t)P −1 = P P −1 . (2.34)
0 eλ2 t

Ne segue che la soluzione generale può essere scritta come x(t) = Φ(t)c con Φ(t) = P E(t)P −1 C , ove C = Φ0
è non singolare e P è individuata dagli autovettori di T .
L’espressione esplicita (2.34) permette innanzi tutto l’immediato controllo del fatto che Ψ(t) è soluzione della
(LO2) uscente dalle condizioni iniziali Ψ(0) = 1I : basta a tale scopo derivare direttamente (elemento per elemento)
la Ψ e ottenere @ A
λ1 ϵ11 eλ1 t . λ2 ϵ12 eλ2 t
Ψ̇(t) = . P −1 = P ΛE(t)P −1 = T Ψ(t) .
λ1 ϵ21 eλ1 t . λ2 ϵ22 eλ2 t
Allo stesso modo essa permette l’immediata verifica della proprietà di gruppo per la famiglia degli evolutori, e
cioè la
Ψ(t)Ψ(τ ) = P E(t)E(τ )P −1 = Ψ(t + τ ).
In altre parole si riconosce che l’operatore moltiplicativo Ψ(t) rappresentato dalla (2.34) ha tutte le proprietà
richieste qui sopra per un possibile operatore eT t : è lineare, è elemento di un gruppo a un parametro, assegna
velocità trasformata lineare della posizione secondo la moltiplicazione per T .
t
In più
) essa
λ1 t
mostra* che nella base propria di T , (in quanto esistente), la matrice di G è la matrice diagonale
e 0
E(t) := .
0 eλ2 t
Se allora, formalmente, si definisse
) λt * ) *
Λt e 1 0 λ1 0
e := , ancora con Λ := ,
0 eλ2 t 0 λ2

essa potrebbe a tutti gli effetti essere considerata come la matrice che rappresenta, in base propria, un operatore
avente alcune delle caratteristiche dell’operatore eT t esponenziale dell’operatore T t. Questo anche considerando
il fatto che, siccome la base {ϵi }i=1,...,n propria per T esiste ed è tale che Λ ≡ τ = P −1 T P se ϵi = Pei ,
i = 1, . . . , n, allora la eΛt si trasforma come deve, (si veda la Proprietà 2.2.1)

−1
la matrice e(P ΛP )t ≡ eT t := Ψ(t) = P eΛt P −1 che fa evolvere le
componenti x è la P -trasformata della matrice eΛt dei vettori espressi
mediante le loro componenti in base propria ξ(t) := P −1 x(t).

Tuttavia:

• affinché quella appena data sia una corretta definizione per un operatore esponenziale di un operatore T , cioè
non dipenda dal sistema di coordinate;
• affinché sia valida non solo per operatori diagonalizzabili, ma anzi assuma su tutto lo spazio L(V) le proprietà
della funzione esponenziale;

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 97

• affinché eT t rappresenti in L(V) la soluzione del problema di Cauchy: X˙ = T X , X0 = 1I ,


• affiché sia possibile estendere quanto visto sopra a un numero qualsiasi di dimensioni,

occorre che tale definizione coincida, ancheCper L(V) cosı̀ come è per R, con quella che si ottiene richiedendo che
uno sviluppo in serie di potenze X (t) = ∞ m
m=0 Cm t , Cm ∈ L(V), possa esprimere la soluzione in L(V) di
˙
X = T X . Dovrà esistere un C ∈ L(V) tale che:

= ∞
= Tm
mCm tm−1 = T C m tm ⇒ mCm = T Cm−1 ⇒ Cm = C0 .
m=1 m=0
m!
Se si introduce in L(V) un criterio di convergenza cheCrenda sensate le operazioni di derivazione e di somma
∞ Tm
di serie, e lo si usa per dimostrare la sensatezza della:
C m=0 m! , e cioè l’esistenza in L(V) di un operatore
∞ m
T
eT := m=0 m! , si dà significato all’affermazione secondo la quale

=∞
T m tm
eT t := è la soluzione della X˙ = T X con X0 = 1I .
m=0
m!

Successivamente se ne ricava che, nelle coordinate che danno a T la matrice T ,



= T m tm
x(t) = eT t x0 = x0 è la soluzione della ẋ = T x con x0 ∈ Rn .
m=0
m!

Si ottiene lo scopo proposto: o sfruttando il fatto che lo spazio L(V) degli operatori lineari a valori reali definiti
su V è esso stesso uno spazio vettoriale a dimensione finita (e quindi sommando mediante la convergenza elemento
per elemento) ma ciò è poco opportuno dato che gli elementi di T m non sono le potenze degli elementi di T
, oppure introducendo una norma ∥T ∥ specifica per lo spazio L(V), e converrà una norma piuttosto che una
metrica giacché lo spazio è lineare. Rispetto
;C ad essa <si potranno introdurre le operazioni di limite e di derivazione, e
k Tm
ci si potrà assicurare che la successione m=0 m! ammette limite in L(V). L’essere L(V) a dimensione
k=1,2,...
finita assicura l’equivalenza dei due procedimenti.
D’altra parte è certo conveniente, se possibile, introdurre una norma rispetto alla quale L(V) sia uno spazio
completo; in tal modo, infatti, si potrà decidere se il limite ?della successione
? esiste e appartiene allo spazio L(V)
?Ck Tm?
solo osservando il comportamento dei numeri ∥Sk − Sh ∥ := ? m=h m! ?, e cioè osservando delle somme finite.
L’essere L(V) a dimensione finita assicura che tutte le norme definite su di esso sono (uniformemente) equiva-
lenti, ed esso è completo rispetto ad ognuna (si veda: Appendice A.7). Tuttavia la più conveniente, perché di facile
interpretazione e uso, è la Norma spettrale, definita su L(V) da:

∥T ∥ := sup ∥T x∥2 .
∥x∥2 =1
?C ? Ck ?T m ?
? k Tm? ? ?
Servendosi poi della disuguaglianza ? m=0 m! ? ≤ m=0 m! , si osserva che l’assoluta convergenza di
? m?
una serie ne implica la convergenza; e cioè: la convergenza della serie delle norme degli addendi: ? T ? implica la
m!
m
convergenza in norma della serie degli addendi: Tm! . Ma la prima è una serie di numeri tutti non negativi, quindi
per il criterio di Weiestrass essa risulta convergente se tale è una serie di numeri ordinatamente maggiori dei suoi
addendi. In tal caso, anzi, la convergenza risulta assoluta e uniforme, e ciò permette di inferire utili conseguenze
quali, per esempio, l’esistenza dei prodotti fra serie di operatori:

= ∞
=
dati A := Ak e B := Bk entrambi in L(V)
k=0 k=0

= ∞ =
=
esiste C ∈ L(V) tale che C := A B := Ck := Aj Cl .
k=0 k=0 j+l=k

Ciò è quanto accade nel caso in esame. Essendo V a dimensione finita,


? m ? gli operatori in L(V) sono limitati, ed
m m
esiste un numero reale τ < ∞ tale che τ = ∥T ∥ . Risulta pertanto ? Tm! ? = m! 1 1
∥T m ∥ ≤ m! ∥T ∥ = τm! la cui
serie ha notoriamente somma finita il cui valore è exp(τ ).
Si garantisce cosı̀ l’esistenza in L(V) della somma della serie
=∞
T Tm
e :=
n=0
m!

Note di Sistemi Dinamici


98 Capitolo 2. Sistemi differenziali lineari

e di questa si indicherà con eT la matrice che la rappresenta nella stessa base nella quale T ha matrice T .

N.B. 2.2.1 Per controllo, si può anche operare direttamente sulle matrici:

Proposizione 2.2.1 Siano A, B, C, P matrici reali (n× n) e P non singolare. Se B = P A P −1 allora esiste

=∞ =∞
Bm Am −1
eB := =P P =: P eA P −1 ,
m=0
m! m=0
m!

qualora almeno una delle due serie converga in L(Rn ).

Dimostrazione P (A + C)P −1 = P A P −1 + P CP −1 , e inoltre P Ak P −1 = (P A P −1 )k . L’uniforme


convergenza implica

=∞ =∞ =∞
1 m −1 1 1 m
P eA P −1 = P ( A )P = (P A P −1 )m = B = eB .
m=0
m! m=0
m! m=0
m! "

Corollario 2.2.1 Ciò conferma che le precedenti definizioni sono ben date e indipendenti dalla base: se in una
certa base T ed eT sono rappresentati dalle matrici T ed eT , al cambio di base la trasformata della matrice
esponenziale è la matrice esponenziale della trasformata.

È opportuno poi verificare direttamente che l’operatore eT cosı̀ definito abbia tutte le proprietà necessarie
a poter essere l’evolutore dell’equazione ẋ = T x. In particolare, sugli operatori eT si assicurano le seguenti
proprietà.

Proposizione 2.2.2 Se due operatori A, B ∈ L(V) “commutano”, e cioè se AB = BA allora si ha che

eB ◦ eA = eA+B

Dimostrazione Stante l’assoluta convergenza si ha che


) * ) *
1 1
1I + A + A2 + . . . · 1I + B + B 2 + . . . =
2! 2!
) *
1 2 1 2
= 1I + (A + B) + A + AB + B + . . . . "
2! 2!

Corollario 2.2.2
etT · eτ T = e(t+τ )T , t, τ ∈ R, T ∈ L(V) .

Corollario 2.2.3
) * =∞
tT 1 hT 1
lim e (e − 1I ) = etT lim T T m−1 hm−1 ;
h→0 h h→0
m=1
m!

e siccome la serie a secondo membro è certo (assolutamente) convergente in quanto limitata da ehT , si possono inver-
tire il limite e la somma ottenendo per la serie il valore 1I , che dimostra la: d/dt(eT t ) = T eT t . Alternativamente
si può sfruttare l’assoluta convergenza delle

=∞ =∞
d 1 1
T m tm = T T m−1 tm−1 .
m=0
dt m! m=1
(m − 1)!

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 99

Riassumendo
C∞ si è mprovato che: fissato comunque T ∈ L(V) l’operatore eT t esiste, è ottenibile come somma
m
della serie: m=0 T t /m!, è elemento di un gruppo a un parametro di operatori lineari, ed è tale che

d Tt d ''
(e ) = T eT t o anche ' (eT t ) = T .
dt dt t=0

Ciò conclude il problema della risoluzione di un qualunque sistema di equazioni lineari a coefficienti costanti.
Rimane da risolvere quello di scrivere la matrice esponenziale di un dato operatore in almeno una base, magari
scelta convenientemente.
Esempio 2.2.2 Se esiste una
@ base {ϵi }i=1,...,n
A = {Pei }i=1,...,n rispetto alla quale l’operatore T è diagonale (reale)
λ1 0
e quindi ha matrice Λ = .. , e cioè se T ha un sistema di autovettori {ϵ1 , . . . , ϵn } sufficientemente
.
0 λn
ricco da essere V = span {ϵ1 , . . . , ϵn } allora è chiaro, per la definizione appena data e l’osservazione: T ϵ = λϵ ⇒
T k ϵ = λk ϵ , che eT ha matrice in quella base data da
@ λ1 A
e 0
Λ
e = . ..
0 eλn
e questo conferma la definizione formale data precedentemente. #

Nel seguito sarà assai utile la seguente estensione di tale proprietà.


Nota 2.2.1 Si osservi dapprima che se una matrice (quadrata) T è diagonale a blocchi:
⎛ ⎞
.. (
⎜ T1 . 0⎟ T1 = n1 × n1
T = ⎝· · · · · ·⎠ con
.. T2 = (n − n1 ) × (n − n1 )
0 . T 2

allora essa è tale da conservare invarianti i due sottospazi W1 = span {e1 , . . . , en1 } e W2 = span {en1 +1 , . . . , en } .
Infatti scomponendo il generico vettore x mediante la
) * ) * ) * =n1 =n
x1 x1 0
x= = + , con x1 = xi ei , x2 = xi ei ,
x2 0 x2
i=1 i=n1 +1

si vede facilmente che ) * ) * ) * ) *


x1 T1 x 1 0 0
T = ed T = .
0 0 x2 T2 x 2
Ne segue in particolare che
⎛ ⎞ ⎛ ⎞
.. k
..
⎜ T1 . 0⎟ ⎜ T1 . 0⎟
T = ⎝· · · · · ·⎠ implica T k = ⎝· · · · · ·⎠
.. ..
0 . T2 0 . T2k
e quindi, siccome un sottospazio è un sottoinsieme chiuso dello spazio che lo ospita, ed è completo se anche questo
lo è, si ha anche ⎛ ⎞
T1
..
⎜ e . 0 ⎟
eT = ⎝ · · · · · ·⎠
.. T
0 . e 2
L’essere W1 e W2 complementari in V e separatamente invarianti non solo rispetto ad T ma anche rispetto
ad eT (o,meglio, rispetto a T e ad eT ))permette * poi
) di * riconoscere che un’analoga scomposizione dell’arbitrario
x 1 |0 0
dato iniziale x0 nei suoi due addendi e assicura che l’evoluzione di x0 sarà, in ogni istante
0 x 2 |0
) Tt * ) *
e 1 x1 |0 0
e univocamente, decomponibile nei suoi due addendi e . La diagonalizzazione, anche
0 eT2 t x2 |0
parziale, dell’operatore T potrà allora essere risolta a passi successivi cercandone (se esistono) in cascata i sottospazi
invarianti, e la determinazione della matrice eT t potrà avvenire per blocchi cercandone l’espressione più conveniente
in ciascuno dei suoi sottospazi complementari e invarianti. (In ultima analisi, questa proprietà verrà anche sfruttata
per garantire che, in C Rn , un operatore reale conserva invarianti i sottospazi costruiti sulle sole parti reali e parti
puramente complesse dei vettori sui quali esso opera). ◃

Note di Sistemi Dinamici


100 Capitolo 2. Sistemi differenziali lineari

In taluni casi (si veda per esempio la Nota 2.2.7 più oltre) non è nemmeno necessario eseguire il calcolo in tutti
i suoi dettagli. Può essere infatti sufficiente fare uso della seguente osservazione che si limita a sfruttare l’esistenza
dei singoli sottospazi e le proprietà che l’operatore ha in essi e che non dipendono dalla particolare (sotto)-base
scelta nei sottospazi in questione.
Osservazione
Riconosciuta l’esistenza di (due) sottospazi W1 e W2 tali che V = W1 ⊕ W2 e invarianti rispetto a un operatore
T , e detta P∼ la e -matrice dell’operatore P∼ che cambia la base data: e = {ei }i=1,...,n in una (qualsiasi)
e& = {&ei}i=1,...,n fra quelle tali che W1 = span {&e1 , . . . , e&n1 } e W2 = span {&en1+1 , . . . , e&n } , mentre la
matrice T& = P∼−1 T P∼ è certo diagonale a blocchi ciò non accade in generale anche alla matrice T . Quest’ultimo
fatto, tuttavia, non preclude la possibilità, comunque lecita, di separare un qualsiasi vettore x ∈ V, e quindi anche
x0 , nella somma
=n1 n
= n
= n
=
x1 |0 + x2 |0 := &h1 e&h +
x &h2 e&h =
x xh1 eh + xh2 eh
h=1 h=n1 +1 h=1 h=1

con xi |0 ∈ Wi i = 1, 2 , con xhi }h=1,...,n tali


le {& che le = &12
x &22
= ··· = x
x &n2 1 = 0 , e analogamente le
n1 +1 n1 +2
&1
x =x &1 = ··· = x n
&1 = 0 , e con le {xhi }h=1,...,n
legate alle {& h
xi }h=1,...,n dalla x &hi = (P∼−1 )hk xki .
In altre parole, è sempre possibile separare uno stesso vettore: x0 mediante vettori: xi |0 ∈ Wi , i = 1, 2 , e si
ha x&0 = x& 1 |0 + x
&2 |0 (nelle coordinate x
& ) ed x0 = x1 |0 + x2 |0 (nelle coordinate x). #

La Nota 2.2.1 mostra che tale separazione rimane vera anche per gli evoluti dei vettori xi |0 , che si mantengono
indipendentemente e separatamente negli spazi Wi , e ciò è vero a prescindere dalla base scelta.
) * @ T& t A
&
x (t) e 1
&
x |
In particolare, l’espressione in base e
& del vettore x(t), e cioè la 1
= &
1 0
diviene, in base e ,
&2 (t)
x e T2 t x
& 2 |0
la seguente @ & A
e T1 t 0
x(t) = P∼ x&(t) = P∼ &
P∼−1 (x1 |0 + x2 |0 ) = eT t x1 |0 + eT t x2 |0
0 e T2 t
ove xi |0 = (x1i |0 , . . . , xni |0 ), i = 1, 2 , hanno coordinate generalmente tutte non nulle sebbene, come questa
stessa espressione conferma, i due vettori x1 e x2 appartengano per ogni t rispettivamente ai (due) sottospazi
W1 e W2 . Questi sottospazi infatti sono invarianti sia rispetto all’operatore T che all’operatore G t , e ciò a
prescindere dal particolare sistema di coordinate scelto. #

Il caso che si è esaminato all’inizio del paragrafo ha Wi = span {ϵi } per i = 1, 2 , e quindi
) 1* ) 1*
P1 2 P2
x = x1 |0 + x2 |0 = ξ01 ϵ1 + ξ02 ϵ2 = ξ01 + ξ = P ξ,
P12 0 P2
2

&1 |0 = (ξ01 , 0)T ,


nella quale: P∼ ≡ P è la matrice della base propria (che quindi ha come colonne gli ϵi ), e con x
2 T
&2 |0 = (0, ξ0 ) . Infatti si ha, per esempio:
e x
) λt * ) 1*
Tt 1 Tt 1 e 1 0 −1 ϵ1
e x1 |0 = ξ0 e ϵ1 = ξ0 P P
0 eλ2 y ϵ21
) λt *) * ) 1*
e 1 0 1 ϵ
= ξ01 P = ξ01 eλ1 t 12 = eλ1 t x1 |0 .
0 eλ2 t 0 ϵ1

Corollario 2.2.1 Se un operatore T in L(V ≡ Rn≥2 ) è diagonalizzabile, la soluzione dell’equazione ẋ = T x è


esprimibile mediante la
n
=
x : t &→ x(t) = ξ0k eλk t ϵk ove ξ0k ∈ R per k = 1, . . . , n ;
k=1

le costanti {ξ0k }k=1,...,n sono le componenti del dato iniziale in base propria: ξ0 = P −1 x0 , e gli ϵk = P ek sono
gli n autovettori distinti di T . Pertanto: Wi := span{ϵi } , i = 1, . . . , n, sono gli n sottospazi invarianti nei
quali V resta diviso da T . Le {e}-componenti di x(t) sono esplicitamente date (vedi anche la (2.38) più oltre)
da ⎛ λ1 t 1 ⎞ ⎛ ⎞⎛ 1⎞
e ξ0 .. .. ξ0
7 8 . .
x(t) = P eΛ t ξ0 = P ⎝ . . . ⎠ = ⎝eλ1 t ϵ1 .. · · · .. eλn t ϵn ⎠ ⎝. . .⎠ .
eλn t ξ0n .. .. ξ0n

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 101

Ulteriore conseguenza della Osservazione


Chiamate: e := {e1 , . . . , en } la base data, ed ε := {ϵ1 , . . . , ϵn } la base propria (si supponga qui che sia reale)
dell’operatore T , si consideri una base e & := {& en } tale che:
e1 , . . . , &

W1 := span{&
e1, . . . , e&n1 } = span{ϵ1, . . . , ϵn1 }
W2 := span{&
en1 +1 , . . . , . . . , e&n } = span{ϵn1 +1 , . . . , ϵn } .

Siano T , T& e τ e -matrice, la e& -matrice, e la ε -matrice dell’operatore T . Siano inoltre:


la
P∼ l’operatore che trasforma la base e nella e & con e -matrice P∼ , (ed e & -matrice: 1I );
P l’operatore che trasforma la base e nella ε , con e -matrice P , (ed ε -matrice: 1I );
Υ l’operatore che trasforma la base e & nella ε , con e -matrice Υ, ed e & -matrice Υ &.
Sussistono le:
ϵh = P eh e&h = P∼ eh ϵh = Υ e&h ϵh = Υ ◦ P∼ e h
x=P ξ &
x = P∼ x &=Υ
x & ξ & ξ
x = Υ P∼ ξ = P∼ Υ
& = P −1 Υ P∼ , e dalla: x = P∼ x
infatti dalla Υ & = P∼ Υ &ξ = Pξ si ricava facilmente che l’operatore

P = Υ ◦ P∼ ha e -matrice: P = P∼ Υ & = Υ P∼ e verifica la Υ−1 P = P Υ & −1 = P∼ . Inoltre, dalle

T eh = (P −1 )kh T ϵk , T eh = (P∼−1 )kh T e&k ,

e dalle
T eh = Thj ej , T ϵh = τ jh ϵj , T e&h = T&hj e&j ,
si ricavano le: 0 1
T = P τ P −1 = P∼ T& P∼−1 = P∼ Υ& τ Υ
& −1 P −1 .

Il fatto che l’operatore Υ trasformi le due sotto basi {ϵ1 , . . . , ϵn1 } , {ϵn1 +1 , . . . , ϵn } separatamente in altre due
sottobasi: {& e1 , . . . , e&n1 } e {& en1 +1 , . . . , e&n } degli stessi due sottospazi invarianti W1 e W2 rispettivamente fa sı̀
che la matrice Υ τ Υ
& & −1
sia anch’essa diagonale a blocchi.

Corollario 2.2.2 La matrice dell’operatore di evoluzione di un operatore T diagonalizzabile (nello spazio reale), e
quindi tale che τ ≡ Λ, può essere scritta come segue
@ & A
0 1 e T1 t 0
Λt
P e P −1 &
= P∼ Υ e Υ Λt & −1 −1
P∼ = P∼ P∼−1 .
&
0 e T2 t

ciò mostra ulteriormente che gli xi |0 , i = 1, 2 definiti come sopra, restano separatamente confinati nei due
sottospazi W1 e W2 .

Per mettere in atto quanto detto sopra, estenderlo al caso degli autovettori complessi, e rendersi conto di come
determinare la trasformazione di coordinate ottimale alla risoluzione del problema, verrà qui nuovamente usato
come esempio pilota il caso dim = 2 .
Esempio 2.2.4 Del sistema ẋ = T x si cercano soluzioni particolari del tipo: ! ϵ(t) = ξ(t)ϵ , con ξ(t) ∈ R. Per la
nota proprietà delle equazioni lineari scalari tali soluzioni dovranno necessariamente essere della forma

ϵ(t) = eλt!
ϵ : t &→ !
! ϵ(0) =: eλt ϵ, λ ∈ R, ϵ∈V, (2.35)

e quindi ) 1 * ) λt 1 * ) λt 1 *
!
ϵ (t) e !
ϵ (0) e ϵ
ϵ!(t) = eλt ϵ!(0) =: eλt ϵ o anche = λt 2 =: λt 2 .
ϵ2 (t)
! e !
ϵ (0) e ϵ
Qualunque sia il sistema di coordinate (e cioè la base e = (e1 , e2 )) adottato, una tale soluzione è rappresentata
da un vettore ϵ!(t) che evolve in R2 rimanendo in ogni istante parallelo al vettore ϵ!(0) = ϵ; in particolare esso
risulta identicamente parallelo alla sua velocità, e cioè al suo T -trasformato. In altre parole, si hanno soluzioni di
questo tipo se e solo se lo scalare λ e il vettore ϵ sono legati dall’equazione
) 1*
ϵ
(T − λ1I ) 2 = 0 ovvero ϵ ∈ Ker (T − λ1I )
ϵ

e quindi si avranno soluzioni non banali se e solo se Ker (T − λ1I ) ̸= {0} .

Note di Sistemi Dinamici


102 Capitolo 2. Sistemi differenziali lineari

Dovrà allora essere

Det (T − λ1I ) = λ2 − (a + d)λ + (ad − bc) =: λ2 − T r λ + Det = 0,

ove: T r := traccia di T , e Det := Det T . Seguono


T
Tr T r2 10 √ 1
λ1,2 = ± − Det =: Tr ± ∆ , (2.36)
2 4 2
e queste, (che nel seguito verranno regolarmente numerate in modo che sia ℜe λ1 ≤ ℜe λ2 ), risulteranno indipen-
denti dalla particolare scelta della base giacché Det (P −1 T P ) = Det T .

I risultati del precedente esempio possono essere usati come guida per la loro generalizzazione al caso n dimen-
sionale. A tale scopo, si ponga ∆ := T r2 − 4Det. Nel piano (T r, Det) la curva ∆ = 0 è dimensioni ovviamente
una parabola. A seconda dei valori dei suoi parametri, l’operatore T appartiene a una delle dieci zone indicate in
figura
Det

¢ 0
¢ =0
¢<

>0
IIIs VI IIIi

IIs Vs Vi IIi
IVs IVi Tr

Zona I (
λ1 < 0
Sia Det < 0 e quindi ∆ > 0 . Si hanno due radici reali distinte:
λ2 > 0.
L’operatore T ammette due autospazi distinti e non vuoti: span(ϵi ), i = 1, 2 , individuati dai due corrispondenti
autovettori ϵ1 ed ϵ2 che, essendo fra loro non linearmente dipendenti, possono formare una base nello spazio delle
fasi V, attualmente identificato con R2 , e permettono di concludere che (singolarmente) span(ϵi ) = Ker(T −λi 1I ),
i = 1, 2 .
N.B. 2.2.5 Il risultato che si è visto nell’Esempio 2.0 si estende anche a sistemi di dimensione n ≥ 2 purché
tutti gli autovalori {λ1 , λ2 , . . . , λn } dell’operatore T siano reali e distinti. Questa è infatti condizione sufficiente
(non necessaria) affinché gli autovettori di T formino una base in V: se un autovettore & ϵ , corrispondente a
&
un autovalore λ , fosse combinazione lineare di altri k < n autovettori, fraCloro indipendenti e corrispondenti
ad autovalori λ1 , . . . , λk tutti diversi da λ & , si avrebbe (T − λ1
& I )& & i , e ciò contraddice
ϵ = 0 = ki=1 ci (λi − λ)ϵ
l’indipendenza lineare dei k vettori {ϵ1 }i=1,...,k . Se ne deduce che un operatore reale Xn con tutti gli autovalori reali
distinti è diagonalizzabile, e ha Ker(T − λi 1I ) = span(ϵi ), i = 1, . . . , n, e V = i=1 (Ker(T − λi 1I )) . ♦

Giacché gli autovettori di T sono abbastanza numerosi da formare una base in V, la matrice P definita da tali
i
autovettori mediante la: ϵh =: Peh ≡ Phi ei , e cioè la matrice Phi := (ϵh ) , può individuare una trasformazione di
−1
coordinate (lineare, indipendente dal tempo) ξ := P x. Le ξ sono le componenti in base {ϵh }h=1,2 di quel vettore
che in base {ej }j=1,2 ha componenti x. Ad esempio la k -esima ϵ -coordinata del versore ϵh vale (P −1 )ki Phi = δhk .
N.B. 2.2.6 Nel seguito di questo capitolo non si userà alcuna struttura euclidea sullo spazio vettoriale, e i vettori di base non verranno
di conseguenza normalizzati. Tutti i risultati saranno validi a meno di una trasformazione omogenea della base che si intende fissata,
seppure in modo arbitrario. In tal senso si parlerà “degli n autovettori di T ” invece che: “di n , indipendenti, degli autovettori
di T ” (si veda il successivo N.B. 2.2.8). Inoltre, le componenti dei vettori saranno numerate mediante un esponente variabile in
{1, 2, . . . , n} , con n = dim V , e qualora ripetute (e senza parentesi) in una stessa espressione sottintendono l’operazione di somma
(righe per colonne). I deponenti invece sono degli ordinali per i vettori o per i loro coefficienti, mentre il deponente 0 indica il valore
relativo al dato iniziale. In tal senso una espressione del tipo x1 |0 indica il vettore numerico di componenti (x11 |0 , x21 |0 , . . . , xn
1 |0 ) ed
esprime il valore x1 (t0 ) dato al vettore x1 all’istante t0 . ♦

Si osservi che come versori della nuova base sono stati scelti proprio gli autovettori di T , dunque la matrice
nella quale la base {ϵ1 , ϵ2 } trasforma la T secondo l’espressione τ := P −1 T P è diagonale per costruzione:

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 103
) *
λ1 0
τ := Λ =
0 λ2
. In tal modo, l’equivalente equazione diviene (nel caso dim V = 2 )

) ) * ) ** ) * ) 1*
1 1 2 0 λ1 0 ξ
ξ̇ = Λ ξ = Λ ξ +ξ = ,
0 1 0 λ2 ξ2

e siccome questa fornisce un sistema di 2 = dim V equazioni disaccoppiate, se ne conclude che le ε -coordinate ξ
evolvono secondo le (non sommare su h)

ξ h (t) = ξ0h eλ(h) t h = 1, 2 .

N.B. 2.2.7 (si veda: Appendice A.4 N.B.1.4.15)


Una trasformazione di coordinate lineare, come quella qui usata: ξ = ϕ(x) = P −1 x, ha ∂ϕ ≡ P −1 . Pertanto
il campo lineare v(x) = T x si trasforma nel campo ν(ξ) = ∂ϕ v ◦ ϕ−1 (ξ) = P −1 T P ξ = τ ξ entrambi
corrispondenti al campo T x.
Resta cosı̀ provato che l’equazione ξ̇ = τ ξ con τ := P −1 T P è equivalente, data l’invertibilità della P ,
all’equazione ẋ = T x. ♦

) *
λ1 0
Con l’ipotesi che la matrice τ sia diagonale: τ ≡Λ=
0 λ2
risulta facile esprimere l’evoluzione delle
coordinate iniziali x0 = P ξ0 :
) 1 * ) 1 * ) λ t 1* ) 1*
x (t) ξ (t) e 1 ξ0 Λt ξ0
=P =P = Pe ,
x2 (t) ξ 2 (t) eλ2 t ξ02 ξ02
) λt *
Λt e 1 0
ove si è posto e := . Si ha in definitiva
0 eλ2 t

x(t) = P ξ(t) = P eΛt P −1 x0 =: Ψ(t)x0 . (2.37)

Da questa espressione si vede chiaramente che, in generale, ciascuna delle componenti x1 (t) e x2 (t) contiene sia
entrambe le componenti del dato iniziale x10 ed x20 , sia entrambe le funzioni eλ1 t ed eλ2 t che costituiscono
l’evolutore G t ≡ Ψ(t). Invece, per costruzione, ciò non accade alle componenti ξ 1 (t) e ξ 2 (t), ciascuna delle quali
contenente solo i corrispondenti ξ01 o ξ02 , ed eλ1 t o eλ2 t , rispettivamente.
Il caso n-dimensionale con tutti gli autovalori reali distinti è analogo: detta P la matrice le cui colonne sono
gli autovettori di T : Pji := (ϵj )i , si ha
@ A
eλ1 t 0
x(t) = P e P Λt −1
x0 con: e Λt
= .. . (2.38)
.
0 eλn t

L’arbitrarietà del vettore x0 implica che la (2.38) rappresenta, in coordinate e quando tutte le radici del-
l’equazione secolare sono reali distinte, la soluzione generale t &→ φ(t, 0, x0 ) ≡ x(t) = G t x0 , dell’equazione
(2.27).
N.B. 2.2.8 Come si è già accennato, la matrice T determina univocamente i numeri {λi }i=1,...,n (si suppongano
distinti fra loro) ma non univocamente la matrice P . Essa però determina univocamente la matrice Ψ(t) :=
P eΛt P −1 che esprime nelle coordinate assegnate l’operatore di evoluzione. Infatti se invece di scegliere un insieme
di autovettori {ϵi }i=1,...,n se ne fosse scelto un altro: {&
ϵi := k(i) ϵi }i=1,...,n , (non sommare su i ), si sarebbe trovato
& Λt &
che la matrice P∼ tale che x(t) = P∼ ξ(t) = P∼ e ξ0 = P∼ eΛt P∼−1 x0 ha la forma
@ A
k1
P∼ := P K := P . .. ,
kn

infatti eΛt è diagonale sia in base {ϵi }i=1,...n che in base {&
ϵi }i=1,...n . Pertanto si ha nuovamente

&
Ψ(t) = P∼ eΛt P∼−1 = P KeΛt K −1 P −1 = P eΛt P −1 = Ψ(t).

D’altra parte è noto che se più autovettori linearmente indipendenti corrispondono a uno stesso autovalore,
risultano autovettori ad esso corrispondenti anche tutte le loro combinazioni lineari, e viceversa. ♦

Note di Sistemi Dinamici


104 Capitolo 2. Sistemi differenziali lineari

Si osservi ora che la matrice


@ A ⎛ ⎞
ϵ11 eλ1 t ϵ12 eλ2 t ..
Φ(t) := P eΛt = .. = ⎝eλ1 t ϵ1 .. eλ2 t ϵ2 ⎠
ϵ21 eλ1 t . ϵ22 eλ2 t .
.
9 :
ha per colonne i vettori (di funzioni) ϵ!i : t &→ ϵ!i (t) = eλi t ϵ!i i=1,2 (si veda la (2.35)) essi stessi soluzioni della
(2.26) in quanto evoluti (paralleli) degli autovettori ϵ1 , ϵ2 . Di conseguenza, come si è visto, il vettore x(t) resta
espresso dalla somma
x(t) = P eΛt ξ0 = ξ01 eλ1 t ϵ1 + ξ02 eλ2 t ϵ2 = ξ01 ϵ!1 (t) + ξ02 ϵ!2 (t)
e questa mostra che i due vettori {! ϵi ( · )}i=1,2 rappresentati da {! ϵi ( · )}i=1,2 formano una base nello spazio delle
soluzioni. Essa, anzi, è una base ben speciale: è infatti costituita da vettori che evolvono rimanendo identicamente
paralleli a se stessi (si veda la (2.35)).
In modo analogo, si nota che le colonne della matrice
@ A@ A−1
1 λ1 t 1 λ2 t 1 1
ϵ 1 e . ϵ 2 e ϵ 1 . ϵ 2
Ψ(t) := P eΛt P −1 = 2 λ1 t .. 2 λ2 t .
ϵ1 e ϵ2 e ϵ21 . ϵ22
) * ) *
1 0
sono formate dagli evoluti {! ei (t)}i=1,2 delle particolari condizioni iniziali , e quindi dei vettori
0 1
e1 ed e2 .
Stante il fatto che P ed eΛt hanno rango massimo, tali vettori rimangono linearmente indipendenti in ogni
istante se tali sono stati all’istante iniziale, ed è Det Ψ(t) = Det eΛt = e(λ1 +λ2 )t ̸= 0 per qualsiasi t. D’altronde
l’indipendenza lineare per ogni t delle colonne della Ψ(t) è un’immediata conseguenza del teorema di unicità della
soluzione di (2.26). Sono però solo gli {! ϵi (t)}i=1,2 che, durante l’evoluzione, mantengono il parallelismo con i loro
dati iniziali.
Queste considerazioni permettono di considerare conclusa la determinazione di una matrice per eT qualora
l’operatore T sia diagonalizzabile in Rn , anche se con autovalori molteplici. Inoltre, e sempre in tal caso, permette
di riconoscere esplicitamente nell’operatore di evoluzione G t le caratteristiche di operatore esponenziale del suo
generatore T , attribuendogli inoltre nella base data la forma esplicita

Ψ(t, t0 ) ≡ Ψ(t − t0 , 0) = eT (t−t0 ) = P eΛ(t−t0 ) P −1 , t0 arbitrario in R


ove {ϵi =: Pei }i=1,...,n sono gli n autovettori reali indipendenti di T .

È ormai agevole concludere lo studio della prima delle zone considerate all’inizio del paragrafo per il caso
dimV = 2 , e cioè Det < 0, ∆ > 0 . Per disegnare il diagramma di fase si osserva che essendo ) 1P invertibile
* ) λ tesso *
ξ (t) e 1 ξ01
trasforma spazi trasversali in spazi trasversali, e quindi trasforma il diagramma standard di =
ξ 2 (t) eλ2 t ξ02
) 1 *
x (t)
in quello (omeo- e anzi diffeo-morfo) delle senza mutarne le caratteristiche topologiche. Il diagramma
x2 (t)
quindi consiste in quattro semirette distinte uscenti dall’origine, e in tutte le traiettorie che sono deformazioni
(lineari) dei semi-archi di iperboli
) 2 *k
ξ 1 (t) ξ (t) λ1
= , k := <0;
ξ01 ξ02 λ2
secondo quanto si è detto nel § II.3 un punto di equilibrio di questo tipo è un esempio di Sella standard.
²2
x = P»
e2 ²2

e1
²1

²1

Esempio 2.2.9 Discutere la linearizzata del pendolo fisico conservativo:


q̈ = − sin q, (q0 , q̇0 ) ∈ T × R ,

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 105

nell’intorno del punto (π, 0). (


) *
ẋ = y x0
L’equazione equivale alla: ∈ R2 ; pertanto la sua la linearizzata nel punto xe = (π, 0)
ẏ = − sin x y0
è *' ) ) *
0 1 '' 0 1
∂v(xe , ye ) = T =
− cos x 0 'x 1 0
e
) *
r
Segue λ2 = 1 e cioè λ1,2 = ±1 da cui, detto ϵ ≡ ∈ R2 , si ha
s
) *) * ) * ) * ) *
0 1 r1 r1 s1 r
=− =⇒ =− 1 =⇒ r1 = −s1
1 0 s1 s1 r1 s1
) *) * ) * ) * ) *
0 1 r2 r s2 r
=+ 2 =⇒ =+ 2 =⇒ r2 = +s2 ;
1 0 s2 s2 r2 s2

quindi in un intorno di (π, 0) si ha il seguente diagramma, come d’altronde già visto nel Cap.II.
x

#
( ) *
ẋ = x + y x0
Esempio 2.2.10 ∈ R2 ,
ẏ = 4x − 2y y0
) *
1 1
T = , λ2 − (−1)λ + (−2 − 4) = 0 =⇒ λ1,2 = (−3; 2).
4 −2
) *
r
Ancora con la notazione ϵ ≡ , si ha
s
) * ) *
1 1
r1 + s1 = −3r1 =⇒ ϵ1 = , r2 + s2 = 2r2 =⇒ ϵ2 =
−4 1

da cui ) *
) −3t *
1 1 e 0 Λt
P = , e = ,
−4 1 0 e2t
) * ) −3t *
.. λ2 t e e2t
Λt
P e = eλ1 t ϵ1
. e ϵ2 = ;
−4e−3t e2t
) * ) * ) *
ξ0 ξ0 x0
e quest’ultima viene applicata sul vettore soluzione di P = . #
η0 η0 y0

Esempio 2.2.11 ⎛ ⎞ ⎛ ⎞⎛ ⎞ ⎛ ⎞
ẋ 1 0 0 x x0
⎝ẏ ⎠ = ⎝1 2 0 ⎠ ⎝y ⎠ , ⎝ y 0 ⎠ ∈ R3 .
ż 1 0 −1 z z0
Si trovano λ1,2,3 = 1, 2, −1 . Poi, dalla seconda colonna segue ϵ2 = e2 e dalla terza ϵ3 = e3 . Per determinare
ϵ1 si ha ⎧ ⎛ ⎞

⎨ x=x 2
x + 2y = y e questa dà ϵ1 = ⎝−2⎠ .


x−z =z 1

Note di Sistemi Dinamici


106 Capitolo 2. Sistemi differenziali lineari

Infine, è conveniente chiamare ξ0 , η0 , ζ0 le tre componenti in base propria del dato iniziale, e usare la
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
ξ0 2ξ0 x0 2 0 0
P ⎝η0 ⎠ = ⎝−2ξ0 + η0 ⎠ = ⎝ y0 ⎠ per ricavare P −1 = ⎝−2 1 0 ⎠ .
ζ0 ξ0 + ζ0 z0 1 0 −1
#

Zone IIi e IIs


L’operatore T di campo dell’equazione √ (2.26) abbia Det > 0 e ancora ∆ > 0 . Ne seguono, anche in questo caso,
autovalori reali distinti: λ1,2 = 12 (T r ± ∆). Essi però hanno ora lo stesso segno, e cioè quello della traccia che è
2
8 > 0 ⇒ T r = ∆ + 4Det > ∆ > 0 . I due autospazi individuati dai due autovettori ϵ1 ed
non nulla.7 Infatti Det
ϵ2 : Ker T − λ(i) 1I , i = 1, 2 , sono anche in questo caso certamente non coincidenti, e pertanto formano una
base nello spazio V. Tutte le considerazioni fatte per il caso precedente rimangono valide nel caso Y attuale salvo la
forma delle traiettorie. Nella base propria esse sono date, oltre che dalle quattro semirette ξ01 ξ02 = 0 , dai rami
delle “parabole”
) 2 *k
ξ1 ξ λ1
= , k := > 0,
ξ01 ξ02 λ2
che ovviamente passano per l’origine e che in essa risultano tangenti all’asse ϵ1 (o ϵ2 ) qualora sia k < 1 (o,
rispettivamente, k > 1 ), e quindi

λ1 + λ2 = T r > 0 in IIi ⇒ 0 < λ1 < λ2 ⇒ tangenza lungo ϵ1


λ1 + λ2 = T r < 0 in IIs ⇒ λ1 < λ2 < 0 ⇒ tangenza lungo ϵ2 ;

la tangenza cioè si ha lungo l’autovettore corrispondente all’autovalore di minimo modulo. Un punto di equilibrio
di questo tipo si chiama
Nodo stabile se ℜe λ < 0 e Nodo instabile se ℜe λ > 0;
e non può presentarsi in sistemi che siano conservativi (si veda oltre).
²1 e2

²2 e1
²2

²1
Esempio 2.2.12 L’oscillatore lineare fortemente smorzato:

ẍ + k ẋ + x = 0, (x0 , ẋ0 ) ∈ R2
) * ) *) * ) *
ẋ 0 1 x x0
equivalente a = , ∈ R2 .
ẏ −1 −k y y0
1
L’equazione λ2 − (−k)λ + 1 = 0) fornisce
* ∆ =)k 2 −* 4 > 0 se |k| > 2 . Sia, per esempio, k = 3 + 3 . Se ne
1 3
ricava: λ1,2 = (−3; − 31 ); ϵ1 = , ϵ2 = e quindi
−3 −1
) * ) * ) * ) * ) −3t * ) 1*
x x0 x 1 3 e 0 c
= P eΛt P −1 ⇒ = .
y y0 ẋ −3 −1 0 e−t/3 c2

Dal diagramma di fase si vede subito che l’oscillatore fortemente smorzato ha al più una inversione di moto.
Si può anche osservare che le seconde componenti dei versori di base {ϵi }i=1,2 sono λi -volte le prime (cosa
questa già accaduta nell’Esempio 2.2 e che dipende dalla provenienza del sistema da una equazione di ordine
superiore).
È facile riconoscere che lo stesso diagramma di fase si ottiene per la soluzione locale nell’intorno della posizione
di equilibrio (stabile) di un pendolo fisico fortemente smorzato. #

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 107

Zone IIIi e IIIs


L’operatore T di campo dell’equazione (2.26) abbia ancora Traccia non nulla, ma ora sia ∆ < 0 , e quindi Det > 0 .
Ne seguono due autovalori complessi coniugati:
( ⎧
µ : = α + iβ ⎨ β : = 1 √−∆ = /Det − T r2 /4 > 0
con 2
µ̄ : = α − iβ ⎩
α : = T r/2 ̸= 0 ,

e quindi T non ha autovettori in V ≡ R2 .


Siano C T e C V i complessificati di T e di V rispettivamente, (si veda il successivo N.B.2.2.13 oppure l’Appendice
A.8). Siano ϵµ ed ϵµ̄ ≡ ϵ̄µ i due autovettori di C T ∈ L(C V), senz’altro C-linearmente indipendenti e fra loro
complessi coniugati, che corrispondono in C V ai due autovalori µ e µ̄ . Sia P∼ ∈ L(V) l’operatore che trasforma
i vettori della base e = {e1 , e2 } nei due vettori {xµ , yµ } , restrizione allo spazio reale V dei loro due complessificati
definiti da
1 i
xµ := (ϵµ + ϵ̄µ ) ed yµ := (ϵµ − ϵ̄µ ) . (2.39)
2 2
La e -matrice di P∼ è data da
) * ) *
.. ..
P∼ := xµ . yµ := ℜe ϵµ . − ℑm ϵµ . (2.40)

I vettori xµ e yµ sono in V, e di certo linearmente indipendenti e reali giacché β ̸= 0 . Data la loro indipendenza
lineare, e cioè dato che P∼ è non singolare, la coppia {xµ , yµ } può essere assunta come base: e & nel piano
V := R- span{xµ , yµ } . In tal modo un vettore x le cui e -componenti sono (x , x ) avrà e -componenti date da
1 2 &
)µ * ) 1*
ξ& x
:= P∼−1 . Il sistema coniugato dell’iniziale sistema (2.26) è allora
η& x2
) * ) * ) *
d ξ& −1 ξ& & ξ&
:= P∼ T P∼ =T (2.41)
dt η& η& η&

ed è anche ) *
α −β
T& = ΥΛ
& Υ& −1 = = Rµ
β α

ove, indicando con C


e& ≡ { C
xµ , C yµ } la base complessificata della e
& ≡ {xµ , yµ } , si hanno le
) *
& la e & =
& -matrice Υ 1 1
Υ dell’operatore Υ tale che: {ϵµ , ϵ̄µ } = Υ {C xµ , C yµ } ,
−i +i
) *
α −β
T& la e
& -matrice (reale) di C T : T& = ,
β α
) * ) *
µ 0 α + iβ 0
Λ la ε -matrice: Λ=
0 µ̄
=
0 α − iβ
di C T ,

T la e -matrice (reale) di T : & ΛΥ


T = P ΛP −1 = P∼ Υ & −1 P∼−1 ,

N.B. 2.2.13 Infatti: le (ξ, & η&), se considerate numeri complessi a parte immaginaria nulla, sono anche le com-
ponenti (reali) nella base e ≡ {(1 + i0)xµ , (1 + i0)yµ } ⊂ C V del vettore reale x ≡ x + i0 ∈ C V che in base
C &

e := {(1 + i0)e1, (1 + i0)e2 } ⊂ C V ha componenti (x1 , x2 ) ∈ C2 . Inoltre, stante la definizione (2.39) dei due
C &

vettori xµ e yµ , esistono:
Υ invertibile, tale che ε ≡ {ϵµ , ϵ̄µ } = Υ C {xµ , yµ } ≡ ΥC e
& , con e & ed e -matrice Υ = P∼ ΥP
& -matrice Υ & −1 ;

P invertibile, tale che {ϵµ , ϵ̄µ } = P {e1 , e2 } con e -matrice: P ;
C

P∼ invertibile, tale che {xµ , yµ } = P∼ {e1 , e2 } con e e C e -matrice: P∼ .


Pertanto

• P = Υ ◦ P∼ ha e ed C
e -matrice P &
= Υ P∼ = P∼ Υ;

Note di Sistemi Dinamici


108 Capitolo 2. Sistemi differenziali lineari

• il generico vettore x ∈ C V reale, e quindi tale che x̄ = x, ammette le seguenti rappresentazioni cartesiane

& µ + η&yµ
x = C x = x1 C e1 + x2 C e2 = ξx (2.42)
1 &0 1 1 0& 1
= η ϵµ +
ξ + i& η ϵ̄µ =: ξ 1 ϵµ + ξ 2 ϵ̄µ
ξ − i& (2.43)
2 2
1 1
=: z ϵµ + z̄ ϵ̄µ ≡ ℜe (z ϵµ ) , (2.44)
2 2
e quindi tali che
ξ& = P∼−1 x = Υ
& ξ, e z ≡ ℜe z + iℑm z := ξ& + i&
η.

Si osservi che siccome la base C e ⊂ C V2 è composta da vettori reali (in quanto a parte immaginaria nulla)
un vettore x è reale se e solo se ha in essa componenti reali: x = xi C ei = x̄ = x̄i C ei e, analogamente, un
vettore y = −ȳ implica C T y = C T y ; pertanto non solo le x ma anche le ξ& sono tutte reali;

• in quanto complessificato di un operatore reale T , l’operatore C T non modifica il carattere, se puramente reale
o puramente immaginario, del vettore sul quale opera: x = x̄ implica C T x = C T x̄ ≡ C T x e, analogamente,
y = −ȳ implica C T y = −C T y ;
'
• indicato con Vµ := R- span {xµ , yµ } e detto Tµ := C T 'V si ha
µ

⎧ 1 1

⎪ Tµ xµ = C Tµ xµ = C T (ϵµ + ϵ̄µ ) = (µϵµ + µ̄ϵ̄µ )

⎪ 2 2


⎨ = + ℜe (µϵµ ) = +αxµ + βyµ

⎪ i i

⎪ Tµ yµ = C Tµ yµ = C T (ϵµ − ϵ̄µ ) = (µϵµ − µ̄ϵ̄µ )

⎪ 2 2

= − ℑm (µϵµ ) = −βxµ + αyµ .
) * ) *
µ1 0 µ 0
Ciò conferma che se una matrice τ = è del tipo particolare: Λ = (questo è quanto
0 µ2 0 µ̄
avviene nella base propria di un operatore C T reale) allora la matrice ΥΛ & Υ& −1 è reale e ha la forma
) *) *) *
& & −1 1 1 1 µ 0 1 i
ΥΛΥ =
2 −i +i 0 µ̄ 1 −i
) *) * ) *
1 1 1 µ iµ α −β
= = = T& .
2 −i +i µ̄ −iµ̄ β α

In definitiva,)l’operatore
*
C
T , che ha autovalori α±iβ e che in base C e ha matrice reale T , in base C e
& ≡ C {xµ , yµ }
α −β
ha matrice , e questa stessa matrice compete all’operatore Tµ nella base e & ≡ {xµ , yµ } . ♦
β α

Si osservi che il piano (complesso) C Vµ ≡ C- span {xµ , yµ } , coincidente con il piano C- span {ϵµ , ϵ̄µ } può essere
decomplessificato in uno spazio reale a dimensione quattro, e ha come parte reale lo spazio Vµ ≡ R- span {xµ , yµ } ,
(e come parte immaginaria iVµ ). Infatti, se un vettore ς ∈ C2 ha espressione ς = x + iy con x, y vettori
reali, e se è anche ς = z1 xµ + z2 yµ con z1 , z2 ∈ C e con xµ e yµ anch’essi reali, allora si ha necessariamente
x = (ℜe z1 )xµ + (ℜe z2 )yµ e y = (ℑm z1 )xµ + (ℑm z2 )yµ . Pertanto, chiamati z r := ℜe z1 + iℜe z2 e
z i := ℑm z1 + iℑm z2 si nota che x = ℜe (z r ϵµ ) e che y = ℜe (z i ϵµ ), e quindi che ℑm ς = ℜe (z i ϵµ ) ∈ Vµ .
Tutto ciò mostra che il sottospazio Vµ di C Vµ formato della sole parti reali dei vettori è T -invariante giacché
su di essa agisce (un operatore reale T rappresentato da) una matrice reale T& . Esso quindi contiene tutta la
dinamica reale 0la cui1 forma esplicita si ricava dalla (2.41) scrivendo nella base e & l’espressione esplicita della
α −β
& t
matrice eT t = e β α , per esempio mediante la sua stessa definizione:
@∞ ) A
0
α −β
1
t = 0 −1*k β k tk
β α αt
e =e
1 0 k!
k=0
I∞ @∞ A) *J
= 2k 2k = 2k+1 2k+1
αt k β t k β t 0 −1
=e (−1) 1I + (−1)
(2k)! (2k + 1)! 1 0
k=0 k=0

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 109

N.B. 2.2.14 Alternativamente, ci si può servire della posizione (2.44) per riconoscere nuovamente che il piano
reale Vµ è il piano dei vettori (reali) di C V aventi la forma x = 12 (zϵµ + z̄ϵ̄µ ) = ℜe (zϵµ ), con z = ξ& + i&
η ∈ C, e
si riconosce che il sistema assegnato fà evolvere le coordinate scalari complesse z(t) e z̄(t) mediante le

ż = µ z, z̄˙ = µ̄ z̄, z0 , z̄0 ∈ C1 .

In particolare, ricordando la formula di Gauss per l’esponenziale complesso, ne segue che

z(t) = eµt z0 = eαt (cos βt + i sin βt)z0 .

Da questa è agevole ottenere l’evoluzione di & µ + η&yµ = (ℜe z)xµ + (ℑm z)yµ ; essa è data da
ℜe (zϵµ ) = ξx
µt µt µt
ℜe (z(t)ϵµ ) = ℜe (e z0 ϵµ ) = ℜe (e z0 ) xµ + ℑm (e z0 ) yµ con
7 8
ℜe eµt z0 = eαt cos βt ξ&0 − eαt sin βt η&0
7 8 ♦
ℑm eµt z0 = eαt sin βt ξ&0 + eαt cos βt η&0 .
In entrambi i casi si riconosce che, nella base {xµ , yµ } , si ha
) * ) * ) *) * ) *
&
ξ(t) & ξ& cos βt − sin βt ξ&0 cos(βt + θ0 )
= eT t 0 = eαt = eαt ρ0
η&(t) η&0 sin βt cos βt η&0 sin(βt + θ0 )

o anche, in coordinate polari ρ, θ ∈ R+ × R


(
ρ(t) = ρ0 eαt ,
θ(t) = θ0 + βt .
β
Nel piano (reale) Vµ la traiettoria è allora una spirale logaritmica: θ − θ0 = α [ln ρ − ln ρ0 ] , descritta in
senso antiorario, in quanto per definizione è β > 0 . Il caso β < 0 non è interessante perché comporta solo lo
scambio µ → µ̄, e cioè solo una nuova denominazione degli assi. Interessante è invece individuare l’orientamento
di (ℜe ϵµ , −ℑm ϵµ ) rispetto alla coppia (e1 , e2 ) per capire se la trasformata secondo la P & di questa spirale
conserva il verso antiorario oppure lo inverte. A tale scopo può essere utile all’occorrenza ricordare che ciò accade
se, con notazione in R3 , rispettivamente accade

(ℜe ϵµ ∧ (−ℑm ϵµ ))3 ≡ (ℜe ϵµ )1 (−ℑm ϵµ )2 − (ℜe ϵµ )2 (−ℑm ϵµ )1 ≷ 0 .

y¹ := -= m ²¹ y¹ := -= m ²¹
²¹ ²¹

x¹:= < e ²¹ x¹:= < e ²¹

²¹ ²¹

IIIi : ®> 0 IIIs : ®< 0


Se ne deduce che l’evoluzione t &→ x(t) delle coordinate originarie è data da
) 1 * ) * ) 1* ) 1*
x (t) αt cos βt − sin βt −1 x0 R µt −1 x0
= e P∼ P∼ = P∼ e P∼ ,
x2 (t) sin βt cos βt x20 x20

con P∼ definita nella (2.40) e µ = α + iβ uno dei due autovalori dell’operatore T .


Un punto di equilibrio nel quale l’operatore T ha autovalori complessi si chiama fuoco o spirale.
N.B. 2.2.15 Si osservi che un metodo semplice per trovare la matrice P∼ consiste nel risolvere il seguente sistema
rispetto a p3 , p4 , (dato che il coefficiente b è senz’altro non nullo: si veda la Nota 2.2.4):
) *) * ) *) *
a b 1 1 1 1 α −β
=
c d p3 p4 p3 p4 β α

ricavando ( ) *
a + bp3 = α + β 1 1
da cui P∼ = .
a + bp4 = α − β (α − a + β)/b (α − a − β)/b

Note di Sistemi Dinamici


110 Capitolo 2. Sistemi differenziali lineari

Equivalentemente si può risolvere sul piano complesso la


) *) * ) * ) *
a b r r α − a + iβ
= (α + iβ) che dà s= r
c d s s b
) *
1−i
e quindi, per esempio, ϵµ = . ♦
(α − a + β)/b − i(α − a − β)/b

Nota 2.2.2 Le considerazioni fatte nel N.B. 2.2.13 sono suscettibili di estensione al caso n-dimensionale quando
gli autovalori dell’operatore reale T , siano essi reali o complessi, sono tutti distinti. Infatti secondo quanto si è
visto sopra dall’essere x reale ed {ϵµ , ϵ̄µ } complessi coniugati segue che x = x1 C e1 + x2 C e2 = ξϵµ + ξ̄ϵ̄µ e ciò
) * ) *
ξ &
implica: x =: ℜe (zϵµ ) con z := 2ξ = ξ& + i η& e con ¯ = Υ & −1 ξ . D’altra parte, ciò sussiste per ciascuna
ξ η&
coppia distinta di autovalori complessi coniugati. Ne segue che, dette µh e µ̄h , con h = 1, . . . , τ , le coppie di
autovalori complessi, e λ1 , . . . , λk , con k = 1, . . . , ν quelli reali, e quindi con ν +2τ = n, si ha la semplice relazione
ν
@ τ A
= =
k λk t h µh t
x(t) = ξ0 e ϵk + ℜe z0 e ϵµh ,
k=1 h=1
Cν 7Cτ 8
ove x0 =: k
k=1 ξ0 ϵk + ℜe h
h=1 z0 ϵµh . ◃

Nota 2.2.3 Seguendo la traccia vista nell’Esempio 2.1, il problema si sarebbe potuto anche risolvere direttamente in C V , (si veda
anche il N.B.2.2.13). Indicate con C e:= {(1)+ i0)e1 , (1 + i0)e*2 } la base data, con ε
:= {ϵµ , ϵ̄µ } la base degli autovettori di C T ,
α + iβ 0
con Ue la base {ℜe ϵµ , −ℑm ϵµ } , e con Λ =
0 α − iβ
C
la matrice di T in base ε
, per la matrice T di C T in base data
si ha, con la consueta notazione, T = P Λ P −1 , ove: ε
=P . e
Come si è già accennato sopra, l’operazione P può essere suddivisa in un prodotto di operazioni. Sia Υ l’operatore che diagonalizza
in C V l’operatore C
) T a*partire dalla e
U . Essendo l’operatore che estrae i vettori {ϵµ , ϵ̄µ } dai vettori {ℜe ϵµ , −ℑm ϵµ } , esso ha U - e
& = 1 1
matrice: Υ . L’operatore Υ−1 è allora quello che estrae la parte reale xµ e l’opposto yµ di quella immaginaria dei
−i i
) * ) *
e
versori della base U ; di conseguenza esso ha ε
-matrice: Υ & −1 = 1 i −1 = 1 1 +i .
2i i +1 2 1 −i
) * ) 1* ) *
ξ& −1 x ξ
Corrispondentemente, un vettore (reale) x , che abbia U e
-componenti (reali)
η&
= P∼
x 2 , ha anche -componenti ε ξ̄
tali
che @ A
) * ) * ) 1* ) 1*
& &
ξ
=Υ & −1 ξ = 1 ξ + i& η
; o anche
ξ
= &
Υ −1 −1 x
P ∼
ξ̄ η& 2 ξ& − i& η ξ2 x2
dato che la base ε ha i suoi versori l’uno complesso coniugato dell’altro. Pertanto è possibile porre

1 &
[ξ(ϵµ + ϵ¯µ ) + i η&(ϵµ − ϵ¯µ )] = ξ& xµ + η& yµ
x = ξϵµ + ξ̄ϵ̄µ =
2
1
=: (z ϵµ + z̄ ϵ̄µ ) ≡ ℜe (zϵµ ) ,
2
e cioè @ A @ A
0 1 ) * ) * ) *
ξ& &
ξ1
& ξ = ξ + ξ̄ ℜe z
xU = =Υ =: Υ =: ,
e η& ξ2 ξ̄ −i(ξ − ξ̄) ℑm z
7 8
provando cosı̀ che, in tal caso, ξ& ed η& sono entrambe reali. (Si badi che le ε
-componenti del vettore x sono ξ, ξ̄ ≡ (z/2, z̄/2)
&
quando si chiama z = ξ + i& &
η , essendo (ξ, η&) le U e
-componenti dello stesso vettore x . )
Allo stesso modo si ha
) *
T = P Λ P −1 = P∼ T& P∼ −1
, con T& = Υ & ΛΥ & −1 ≡ P −1 T P∼ = α −β .
∼ β α

Dunque la soluzione resta espressa da


) 1 * ) 1* ) µ t * ) *
ẋ (t) x0 & e 1 0 & −1 P −1 x10
= P eΛt P −1 = P∼ Υ Υ . (2.45)
ẋ2 (t) x20 0 eµ2 t ∼ x20

Va tenuto presente tuttavia che in tal modo si ottengono le componenti di un vettore complesso a parte immaginaria nulla, e che
occorre servirsi delle considerazioni sulla evoluzione uscente da condizioni iniziali reali, o alla invarianza separata dei due piani Vµ ed
iVµ delle parti reale e immaginaria dei vettori in C - span {ϵµ , ϵ̄µ } , per poter ritornare alla sola parte reale di C V .
In modo analogo e sfruttando il fatto che un operatore reale ha complessificato che ammette autovettori a coppie complessi coniugati,
si può diagonalizzare in C Rn un qualunque operatore semisemplice, e cioè con autovalori anche non reali purché distinti, mediante un
operatore invertibile con matrice P = P∼ Υ & con P∼ quella che manda la base {(1 + i0)eh }h=1,...,n nella {(1 + i0)ϵλ1 , . . . , (1 +
& quella che esprime in tale base la {ϵλ , . . . , ϵλ , ϵµ , ϵ̄µ , . . . , ϵ̄µτ } .
i0)ϵλk , ℜe ϵµ1 , −ℑm ϵµ1 , . . .} e con Υ ◃
1 ν 1 1

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 111
) * ) *
ẋ −2y
Esempio 2.2.18 = , x0 , y0 ∈ R.
ẏ x + 2y
) *
0 −2
Essendo T = si ha λ2 − 2λ + 2 = 0 e quindi µ1,2 = 1 ± i . Ne segue il problema agli au-
) 1 * +2
) * ) * ) * ) *
0 −2 r r r 1−i
tovettori: = (1 + i) =⇒ −2s = r + ir =⇒ = da cui P∼ =
1 +2 s s s −1
) * ) *
+1 1 0 −1
, P∼−1 = . Di conseguenza:
−1 0 1 +1
) * ) *) *) *) *
x(t) t 1 1 cos t − sin t 0 −1 x0
=e .
y(t) −1 0 sin t cos t 1 1 y0

Eseguendo il calcolo in C R2 si verifica che:


) * ) *) *
1−i 1+i & = 1 1 1 1
P = = P∼ Υ ,
−1 −1 −1 0 −i i
) *
1 i −1 + i
P −1 =
2 −i −1 − i
) * + ) it * , ) *
x(t) t & e 0 & −1 −1 x0
= e P∼ Υ Υ P∼ ,
y(t) 0 e−it y0
) * ) *
x0 ξ&
dove P∼−1 = 0 sono le componenti del vettore in base e
& e dove
y0 η&0

) * ) * ) * @ A ) *
ξ0 −1 x0 &
&
−1 ξ0 1 ξ&0 + i&
η0 1 z0
=P =Υ = =
ξ¯0 y0 η&0 2 ξ&0 − i&
η0 2 z̄0
) *
x0 + i0
sono le componenti di
y0 + i0
in base ε.
Si può controllare esplicitamente che:
) * ) * ) * @ A
1 z(t) t eit 0 & −1 ξ0
& et eit (ξ&0 + i&
η0 )
=e Υ =
2 z̄(t) 0 e−it η&0 2 e−it (ξ&0 − i& η0 )
@ A
et (cos t + i sin t)(ξ&0 + i&
η0 )
=
2 (cos(−t) + i sin(−t))(ξ&0 − i& η0 )
@ A
et ξ&0 cos t − η&0 sin t + i(ξ0 sin t + η0 cos t)
=
2 ξ&0 cos(−t) + η&0 sin(−t) + i(ξ&0 sin(−t) − η&0 cos(−t))

e che ) * ) * ) *) * ) *
ℜe z(t) 1 & z(t) cos t − sin t ξ&0 &
ξ(t)
= Υ = et =
ℑm z(t) 2 z̄(t) sin t cos t η&0 η&(t)

è la somma di due vettori reali et (ξ&0 cos t − η&0 sin t)xµ + et (ξ&0 sin t + η&0 cos t)yµ . #

Esempio 2.2.19 L’oscillatore armonico debolmente smorzato:

ẍ + k ẋ + x = 0, x0 , ẋ0 ∈ R .
)*
1 0 /
Sia |k| < 2 . Si ha T = , con autovalori µ1,2 = α ± iβ := − k2 ± i 1 − k 2 /4. Dalla equazione agli
−k −1
) * ) *
1 1 0
autovettori: s = (α + iβ)r si ricava ϵµ = , e cioè P∼ = . Pertanto, il moto lineare con
α + iβ α −β
piccola dissipazione ha un numero infinito di inversioni, infatti la (2.45) fornisce:
) * ) *) *) *) *
x(t) 1 0 cos βt − sin βt 1 0 x0
= eαt .
y(t) α −β sin βt cos βt α/β −1/β y0

Note di Sistemi Dinamici


112 Capitolo 2. Sistemi differenziali lineari


y¹ #

Nota 2.2.4 Nel caso di un problema piano, il verso di rotazione si può trovare anche nel seguente modo.
Siano x, y, r, ϕ ∈ R; la trasformazione x = r cos ϕ e y = r sin ϕ dà
) *
1 cx2 + (d − a)xy − by 2 a b
ϕ̇ = (−y ẋ + xẏ) = ove = T.
r 2 r2 c d

Dalla ∆ = T r2 − 4Det = (a + d)2 − 4(ad − bc) = (a − d)2 + 4bc segue che se è ∆ < 0 allora è anche bc < 0 .
Siano, per esempio, b < 0 e c > 0 .
2
Per y = 0 è ϕ̇ > 0; né può annullarsi per alcun y ̸= 0 perché la condizione ϕ̇ = 0 implica la c (x/y) + (d −
a) (x/y) − b = 0 che ha discriminante (d − a)2 + 4bc < 0 . Pertanto ϕ̇ resta sempre strettamente positivo (sotto
l’ipotesi b < 0, c > 0 ) e quindi x, y cambiano segno infinite volte. ◃

Nota 2.2.5 Come si è accennato, l’intero procedimento di risoluzione avrebbe potuto trarre spunto dai risultati
visti nel Cap.I. Posto infatti, con x, y ∈ R, u := y/x, si ha xu′ = y ′ − u e la

cx + dy
y′ = =: f (x, y)
ax + by
diviene integrabile:
du dx
= .
f (1, u) − u x
Ad esempio nel caso
(
a=d=α
e cioè f (1, u) − u = (1 + u2 )/( α
β − u)
c = −b = β

α 1
si ottiene β arctan u − 2 ln(1 + u2 ) − ln x = cost ovvero

x2 + y 2 2α y
ln x2 + ln − arctan = cost,
x2 β x
e quindi
y
x2 + y 2 = cost · e2αθ/β , θ := arctan .
x
È chiaro però che in questo modo la complessità del calcolo è molto superiore, anche perché occorre tener presente
il cambio di carta ogni volta che la variabile a denominatore si annulla. ◃

Per esaurire lo studio dei diversi casi che si verificano sul sistema (2.26), al variare dei parametri T r e Det,
rimangono ancora da esaminare i casi non generici.

Zona V I
L’operatore T di campo nell’equazione (2.26), la cui matrice è T , abbia T r = 0 e ∆ < 0 ; e quindi Det > 0 .
L’operatore T ha ancora due autovalori complessi coniugati, ma ora essi hanno entrambi parte reale nulla:
(
µ := +iβ 1√ √
con β := −∆ = Det > 0 .
µ̄ := −iβ 2

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 113

Le considerazioni fatte per le Zone III rimangono valide per quanto riguarda la complessificazione e i seguenti
risultati algebrici: i due autovettori {ϵµ , ϵ̄µ } individuano il piano reale { 12 (ϵµ + ϵ̄µ ); 2i (ϵµ − ϵ̄µ )} sul quale però ora
le traiettorie non sono più trasformate lineari di spirali, bensı̀ di circonferenze concentriche nell’origine, dato che
α = ℜe µ = 0
) * ) *) *
&
ξ(t) cos βt − sin βt ξ&0
=
η&(t) sin βt cos βt η&0

Come si è detto nel § II.3 un tal punto di equilibrio si chiama centro.


(
ξ = q1 x + q2 y
Nota 2.2.6 Una trasformazione del tipo con x, y, ξ, η ∈ R e con q1 q4 − q2 q3 ̸= 0 , può
η = q3 x + q4 y
essere utile per controllare, mediante l’espressione canonica, che le trasformate lineari delle circonferenze sono ellissi.
Infatti la
ξ02 + η02 = ξ 2 + η 2 = (q12 + q32 )x2 + 2(q1 q2 + q3 q4 )xy + (q22 + q42 )y 2

individua un’ellisse poiché il suo Jacobiano vale q1 q4 − q2 q3 ̸= 0 ; e, d’altra parte,

(q1 q2 + q3 q4 )2 − (q12 + q32 )(q22 + q42 ) = −(q2 q3 − q1 q4 )2 < 0 .

Ciò è quanto accade mediante la ξ& = P& −1 x e la soluzione ξ& = ξ(t)


& che si è appena vista.
Alternativamente, in modo analogo a quanto fatto nella Nota 2.2.5, si sarebbe potuta risolvere la

dx du (u + ab )(−1)du
= c+du
= 7 8
x a+bu − u u2 − d−a b u − cb
(
a+d=0 1
che nella zona IV, e cioè con dà − ln x = 2 ln(u2 + 2 ab u − cb ) + cost ovvero:
∆<0

a c
y 2 + 2 xy − x2 = cost
b b
a2 c
e questa individua un’ellissi dato che b2 + b risulta negativo in conseguenza del fatto che la a2 = −ad fornisce
a2 + bc = −Det < 0 ◃

Conviene ricordare ancora una volta che nel caso in cui gli autovalori della matrice del campo abbiano parti
reali nulle (e immaginarie diverse da zero) la linearizzazione in generale non dà risultati attendibili sul sistema
non lineare di partenza. Talvolta però, per esempio nel caso di sistemi conservativi, l’informazione ottenuta dallo
studio del sistema lineare è sufficiente a tracciare un corretto diagramma di fase:

Esempio 2.2.23 Discutere la linearizzata del pendolo fisico conservativo:

q̈ = − sin q, (q0 , q̇0 ) ∈ T × R ,


* )
0 1
nell’intorno del punto (0, 0). Il sistema ha: ∂v(0, 0) = , e quindi, localmente, ha lo “stesso” diagramma
−1 0
2
di quello che si ottiene in modo esatto mediante la ẋ /2 − cos x = cost (si veda anche: Cap.III Esempio 5.1).
x

x = x¹

x¸1

y¹ #

Note di Sistemi Dinamici


114 Capitolo 2. Sistemi differenziali lineari

Zone IVi e IVs


Si noti innanzi tutto che in questo caso il rango della matrice T non è massimo, e quindi ci si deve aspettare un
punto di equilibrio diverso dai casi visti: in particolare si vedrà che esso non è isolato. √
Si ha T r ̸= 0 e Det = ad − bc = 0 e quindi ∆ > 0 : due radici reali distinte: λ1,2 = 12 (T r ± T r2 ) = (0; T r).
Gli autovettori si ottengono dalle due relazioni

ar1 + bs1 = 0 e ar2 + bs2 = (a + d)r2

e quindi ) *
b b
P =
−a d
certamente non singolare dato che T r = a + d ̸= 0 .
) *
d c ′
N.B. 2.2.24 Se fosse b = 0 basterebbe scambiare x ↔ y ottenendo T = mediante la quale, nell’ipotesi
) * b a
c c
c ̸= 0 , si ottiene P ′ = e i seguenti calcoli sarebbero analoghi. D’altra parte il caso b = c = 0 verrà
−d a
esaminato nelle Zone V, se a = d, oppure è già noto. ♦

Risulta evidentemente
) * ) *
1 d −b 0 0
P −1 = da cui P −1 T P =
b(a + d) a +b 0 k

ove si è posto
k := (a + d)−1 (a2 + bc + ad + d2 ) ≡ (a + d) .
Pertanto il sistema equivalente è ) * ) *
ξ̇ 0
=
η̇ kη
Le rette ξ = ξ0 , e cioè le rette dx − by = cost sono senz’altro linee che contengono traiettorie. Queste saranno
le due semirette e il punto di equilibrio individuati dalle intersezioni di queste rette con la (unica) η = 0 , ovvero la
ax + by = 0 .

d/b x
-a/b

»
#

Zone Vi e Vs
È questo il caso più difficile, sopratutto se si pensa al caso dei sistemi di dimensioni superiori a due. Nel caso
bidimensionale (2.26) si ha ∆ = 0 e l’operatore T ha autovalori (reali) coincidenti: λ1 = λ2 =: λ = T r/2 . D’altra
parte, siccome questa λ è soluzione dell’equazione Det (T − λ1I ) = 0 se ne conclude che il sistema omogeneo
(T − λ1I ) x = 0 ammette soluzioni reali non banali, e quindi che esiste in V almeno un autovettore di T : ϵ1 ∈
Ker (T − λ1I )\ {0} .
Si scelga un qualsiasi ϵ2 non parallelo a ϵ1 . Siccome si sta considerando il caso dim = 2 si avrà senz’altro

T ϵ 2 = c1 ϵ 1 + c2 ϵ 2
) *
λ c1
I due vettori {ϵ1 , ϵ2 } formano una base in V ≡ R e, rispetto a questa, l’operatore T ha matrice T =
2
. ′
0 c2
Ma il determinante dell’operatore non dipende dalla base, e quindi

λ2 = Det T = Det T ′ = λc2 ,

il che implica necessariamente c2 = λ; (il caso λ = 0 va trattato direttamente su T ′ x = 0 ).

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 115

Sottocaso 1 ϵ2 sia anch’esso autovettore di T , e cioè ϵ2 ∈ Ker (T − λ1I ) pur non essendo linearmente
dipendente da ϵ1 . Necessariamente c1 = 0 , e il Ker (T − λ1I ) coincide con tutto lo spazio delle fasi V. Inoltre
la base {ϵ1 , ϵ2 } disaccoppia le due equazioni e siccome la matrice 1I commuta con ogni altra, la matrice di T è in
questo caso diagonale in ogni base. L’uguaglianza degli autovalori fa sı̀ che il punto di equilibrio sia un particolare
nodo: e cioè una stella .
Ad esempio con λ > 0 si ha

Sottocaso 2 ϵ2 ̸∈ Ker (T − λ1I ) sebbene appartenente al Ker (T − λ1I )2 .


Infatti, rinominando eventualmente il vettore ϵ1 con c1 ϵ1 , la matrice dell’operatore T in base {ϵ1 , ϵ2 } risulta
) * ) *
λ 1 0 1
J≡ =: λ1I 2 + E2 , avendo posto E2 :=
0 λ 0 0
) * ) * ) * ) * ) *
1 1 0 0 1
e si ha: J =λ , ed J =λ + , e quindi:
0 0 1 1 0

(T − λ1I2 )ϵ1 = 0, ed (T − λ1I 2 )ϵ2 = ϵ1 .

Da queste si vede subito che

Ker (T − λ1I )2 = V mentre è Ker (T − λ1I ) ⊂ V .

In effetti si ha
ϵ2 ∈ Ker (T − λ1I )2 \Ker (T − λ1I )1
ϵ1 ∈ Ker (T − λ1I )1 \Ker (T − λ1I )0
e Ker (T − λ1I ) è l’unico sottospazio di V che sia T -invariante.
La matrice eJ t e la matrice eE2 t si calcolano agevolmente mediante la definizione stessa di esponenziale di un
operatore dopo aver osservato che E2n≥2 = 0 :
+) * ) * ,
(λ1I +E2 )t λt E2 t 1
λt 0 0 1
e = e e = e + t . (2.46)
0 1 0 0

Un’istruttiva interpretazione del comportamento di un operatore di questo tipo è fornita (si veda: [Arnold 1]), dal seguente:

Esempio 2.2.25 Sia Pn ([a, b]) lo spazio n -dimensionale dei polinomi di grado minore di n definiti su [a, b] ⊂ R :
n−1
(
= τ ∈ [a, b] ⊂ R
p = p(τ ) := p&h τ h
h=0
p h ∈ R, h = 0, . . . , n − 1 .

Una possibile base per tale spazio è ϵi }i=1,...,n := {1, τ, τ 2 , . . . , τ n−1 } .


{& Su Pn si definisca l’operatore

d
N : Pn → Pn dato da N p := p.

d
L’operatore è evidentemente lineare, ha immagine data da Pn−1 , ha un solo autovalore e un solo autovettore: p = λp ⇐⇒
( dτ
λ = 0,
Inoltre (con gli esponenti ad indicare potenze algebriche dello scalare τ ) si ha
p(τ ) = τ 0 .

Ker N ≡ span{τ 0 }
Ker N 2 ≡ span{τ 0 , τ 1 }
Ker N 3 ≡ span{τ 0 , τ 1 , τ 2 }
···
Ker N n ≡ span{τ 0 , τ 1 , . . . , τ n−1 } ≡ Pn .

Note di Sistemi Dinamici


116 Capitolo 2. Sistemi differenziali lineari

Si vede subito che la base {&


ϵi }i=1,...,n non è la più comoda per scrivere la matrice di N . risulta più agevole usare la
M Z
τ1 τ2 τ n−1
{ϵi }i=1,...,n := τ 0 , , , ..., , τ ∈R,
1! 2! (n − 1)!
infatti si ha
d τ i−1 τ i−2 d 0
N ϵi ≡ = ≡ ϵi−1 , N ϵ1 = τ =0.
dτ (i − 1)! (i − 2)! dτ
n−1
= τh
Su tale base risulta p = p(τ ) = ph ϵh ≡ ph e la matrice di N è
h=0
h!
⎛ ⎞
0 1 0 ··· 0
⎜ .. ⎟
⎜ ⎟
⎜0 0 1 0 .⎟
⎜ ⎟
En := ⎜ . .. .. ⎟ .
⎜ .. . . 0⎟
⎜ ⎟
⎝0 0 1⎠
0 0 0
#

Una matrice En avente questa struttura prende il nome di


Blocco elementare nilpotente di ordine n . Un qualunque operatore che, definito su uno spazio vettoriale V di dimensione n , abbia
rispetto a qualche base matrice data da En prende il nome di Operatore elementare nilpotente N di ordine n .
Questa proprietà viene messa chiaramente in luce dalle relazioni
N ϵn = ϵn−1
N 2 ϵn = N ϵn−1 = ϵn−2
...
N n−1 ϵn = N ϵ2 = ϵ1
N n ϵn = N ϵ1 =0
le quali implicano che la matrice (En )k che corrisponde ad N k ha la diagonale dei valori non-nulli spostata di k passi “verso Nord-Est”
rispetto alla diagonale principale, e che applicando l’operatore N a un qualunque vettore dello spazio e un numero di volte pari (al
più) al suo ordine si ottiene certamente il vettore nullo, mentre esistono certamente vettori x dello spazio per i quali N n−1 x ̸= 0
(tutti quelli che hanno xn ̸= 0 ). In particolare si ha N k ϵk = 0 per qualunque 1 ≤ k ≤ n e siccome è ϵ1 = N k−1 ϵk si riconosce anche
che ciascuno dei versori ϵk verifica la
ϵk = N n−k ϵn e quindi ϵk ∈ Ker N k \Ker N k−1 ∀k = 1, 2, . . . , n.

Più in generale, ancora con V uno spazio vettoriale di dimensione n , si chiama


Operatore nilpotente di ordine q ≤ n := un operatore Nq : V → V per il quale esistono q ∈ N e almeno un x̂ ∈ V tali che
(Nq )q−1 x̂ ̸= 0 , ma è (Nq )q x = 0 per ogni x ∈ V .
Per un qualsiasi operatore Nq nilpotente su V esiste (Teorema di Jordan) una base di V sulla quale esso ha matrice
⎛ ⎞
0 δ(1) 0 ··· 0
⎜ .. ⎟
⎜ ⎟
⎜0 0 δ(2) 0 . ⎟
⎜ ⎟
NJ := ⎜ . . . ⎟, δ(k) ∈ {0, 1}, k = 1, . . . , n − 1 .
⎜ .. .. ..
0 ⎟
⎜ ⎟
⎝0 0 δ(n−1) ⎠
0 0 0
Il numero q coincide con il massimo numero degli elementi δ(k) non nulli e adiacenti fra loro, e cioè con la dimensione del più grosso
blocco elementare nilpotente contenuto in NJ . Posto infatti (NJ )ij = δj−1
i δj−1 (con δji il simbolo di Kronecker, e non sommare su
j − 1 ), si ricava sommando su h e non su j :
(NJ )ih (NJ )h i h
j = δh−1 δj−1 δ(h−1) δ(j−1) , da cui (NJ2 )ij = δj−2
i
δ(j−2) δ(j−1) .

Esempio (seconda parte)Fissato t ∈ R , su Pn si definisca l’operatore

Ht : Pn → Pn dato da Ht p(τ ) := p(τ + t) .


Anche Ht è lineare, infatti @ n−1 A
= n−1
=
τh (τ + t)h
Ht (ph + qh ) = (ph + qh ) =
h=0
h! h=0
h!
n−1
= (τ + t)h (τ + t)h
= ph + qh = Ht p(τ ) + Ht q(τ ).
h=0
h! h!
'
dh '
Si calcoli ora lo sviluppo di Taylor del polinomio p(τ + t) rispetto al parametro t e di centro il punto τ . Essendo dth
p(τ + t)' =
t=0
N h p(τ ) e dato che N n = N n+1 = · · · = 0 tale sviluppo, in questo spazio, è senz’altro uno sviluppo in somme finite; per cui si
ha
n−1
= dh ' th
n−1
= th dh
'
Ht p(τ ) := p(τ + t) = h
p(τ + t) ' = p(τ )
h=0
dt t=0 h!
h=0
h! dτ h
n−1
= th = ) th
n−1 *
= N h (p(τ )) = Nh p(τ ) =: eN t p(τ )
h=0
h! h=0
h!

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 117

Pertanto l’operatore Ht : Pn → Pn coincide con l’esponenziale di N t . La sua matrice, in quella base {ϵi }i=1,...,n nella quale
l’operatore N ha matrice En , sarà eE n t , e questa la si può ricavare o calcolando direttamente le potenze della matrice En , oppure
osservando che la sua (j + 1) -esima colonna, j = 0, 1, . . . , n − 1, si può ricavare dalla espressione:
) * =j
τj (τ + t)j τ k tj−k
Ht = = =
j! j! k=0
k! (j − k)!
j+1
= j+1
= tj−i+1
τ (i−1) tj−i+1
= = ϵi
i=1
(i − 1)! (j − i + 1)! i=1
(j − i + 1)!
0 1i
=: eE n t ϵi ;
j+1

quindi si ha
⎛ ⎞
t2 tn−1
1 t 2!
··· (n−1)!
⎜ ⎟
⎜ .. ⎟
⎜0 1 t . ⎟
⎜ ⎟
⎜ ⎟ n−1 h
⎜ ⎟ = t
eE n t =⎜ .
⎜ .. .. t2
⎟=
⎟ (En )h .
⎜ . ⎟ h=0 h!
2!
⎜. ⎟
⎜. .. ⎟
⎜. . t ⎟
⎝ ⎠
0 ··· 0 1
#

A volte, quando si lavora sui polinomi, l’operatore N mantiene la sua notazione originaria d/dτ e il suo esponenziale viene scritto
d
con et dτ (l’operatore di derivazione è il generatore del gruppo delle traslazioni), ma è evidente che se, più in generale, un certo
operatore agisce su uno spazio vettoriale V a dimensione finita n in modo che in qualche base la sua matrice è En allora, come si è
già osservato, esso condivide tutte le caratteristiche dell’operatore N appena visto, e in quella stessa base il suo esponenziale eN t ha
matrice data dalla eE n t .
In tal modo si è risolto il problema della determinazione della matrice esponenziale di un operatore elementare nilpotente.
Esempio (terza parte)
Si fissi ora un numero reale λ ̸= 0 (o complesso, e allora lo spazio vettoriale qui di seguito è da intendersi complessificato di uno reale)
e si consideri lo spazio vettoriale APn
λ dei “quasi–polinomi” di esponente λ e grado minore di n , e cioè funzioni del tipo e
λτ p(τ ) con

p(τ ) ∈ Pn come sopra. Anche APn λ è uno spazio a dimensione finita n ; una sua possibile base è
M Z
τ τ2 τ n−1
{ϵi }i=1,...,n := eλτ , eλτ , eλτ , . . . , eλτ ,
1! 2! (n − 1)!

infatti eλτ p(τ ) = 0 ⇐⇒ p(τ ) = 0 ⇐⇒ pi = 0 ∀i = 1, . . . , n .


d
Si consideri su APn n
λ l’operatore T := dτ ; esso (è lineare ed) ha Im T ⊆ APλ . La sua matrice, nella base indicata, è detta
⎛ ⎞
λ 1 0 ··· 0
⎜ .. ⎟
⎜ ⎟
⎜0 λ 1 .⎟
⎜ ⎟
⎜. .. .. ⎟
Blocco elementare di Jordan := J := λ1I n + En := ⎜ .. . . 0 ⎟
⎜ ⎟
⎜. ⎟
⎜. ⎟
⎝. λ 1⎠
0 ··· 0 λ
d
(si noti che in questo spazio, a t e τ fissati, l’operatore t dτ è un operatore lineare a norma limitata, ma non più nilpotente se λ ̸= 0 ).
Allo stesso modo, si consideri su APn λ l’operatore (lineare) di traslazione:
0 1 0 1
Ht eλτ p(τ ) = eλ(τ +t) p(τ + t) = eλτ eλt p(τ + t) .

Ht manda APn λ in sé, infatti anche quest’ultimo è un quasi–polinomio in APλ e come tale ammette serie di Taylor di punto iniziale
n

τ , convergente assolutamente per ogni t e ogni τ . Pertanto è giustificata la


0 1 =∞
dk 0 λ(τ +t) 1' tk 0 1
' d
Ht eλτ p(τ ) = k
e p(τ + t) ' = et dτ eλτ p(τ )
k=0
dt t=0 k!

d
e cioè anche qui l’operatore di traslazione Ht : APn n
λ → APλ è l’esponenziale dell’operatore t dτ
.
D’altra parte il calcolo di eλ(τ +t) p(τ + t) è assai agevole:
n−1
= =j
τ k tj−k
eλ(τ +t) p(τ + t) = eλτ eλt pj
j=0 k=0
k! (j − k)!
n
= j
= tj−i τ i−1
= pj−1 eλt eλτ
j=1 i=1
(j − i)! (i − 1)!
n =
= n
=: pj−1 (eJ t )ij ϵi
j=1 i=1

Note di Sistemi Dinamici


118 Capitolo 2. Sistemi differenziali lineari

Le precedenti considerazioni mostrano esplicitamente che la matrice esponenziale eJ t relativa a un blocco


elementare di Jordan J = λ1In + En di dimensione n è data da
⎛ 2

tn−1 λt
eλt teλt t2! eλt · · · (n−1)! e
⎜ .. ⎟
⎜ λt λt ⎟
⎜0 e te . ⎟
⎜ ⎟ n−1
⎜ . .. .
.. ⎟ = λt th
eJ t = ⎜ ⎟= e (En )h .
⎜ ⎟ h!
⎜ .. .. ⎟ h=0
⎜ . . teλt ⎟
⎝ ⎠
0 ··· 0 eλt

Su questa si può controllare che, siccome λ1I n En = En λ1I n = λEn , si ha

eJ t = e(λ1In +En )t = eλ1In t eEn t . #

Si ricordino ora i noti risultati della teoria generale degli operatori lineari secondo la quale ciascun arbitrario
operatore T ∈ L(V) ammette altrettanti sottospazi Mj ⊂ V, T -invarianti, detti autospazi generalizzati, quanti
sono i suoi autovalori λ1 , . . . , λr distinti. Ciascuno degli Mj ha dimensione
' pari alla molteplicità algebrica a(λj )
del corrispondente autovalore λj , ed è tale che l’operatore (T − λj 1I ) 'M è nilpotente di ordine qj ≤ aj .
j
In virtù della Nota che segue l’Esempio 2.0 tali proprietà, unite a quanto fatto nell’esempio appena visto,
risolvono la determinazione della matrice esponenziale di un qualsiasi operatore T quando sia nota la base che gli
assegna la forma di Jordan TJ ; e cioè, quando sia nota la base che gli assegna una matrice avente non nulli solo
dei blocchi elementari di Jordan disposti lungo la diagonale principale.
Esempio 2.2.26 L’oscillatore ẍ + k ẋ + x = 0 al punto critico: |k| = 2 .
Si assuma k = +2 , il caso k) = −2 essendone
* diverso solo per il verso con il quale le traiettorie vengono descritte.
0 1
All’equilibrio si ha T = e quindi λ1,2 = −1 .
−1 −2
) *
1
Dalla prima equazione agli autovettori si ricava ϵ1 = e cioè un vettore nel Ker (T − λ1I ). Poi, dal fatto
−1
che per qualsiasi r, s ∈ R si ha
) * ) *) * ) *
r +1 +1 r 1
(T − λ1I ) = ≡ (r + s) , (2.47)
s −1 −1 s −1

si deduce che il Ker (T − λ1I ) ospita solo il versore ϵ1 e non altri ad esso linearmente
) * indipendenti.
0
Scelto per esempio come secondo versore di base il vettore ϵ2 ≡ e2 = dalla (2.47) si riconosce che
1
(T − λ1I 2 )ϵ2 = ϵ1 . Di conseguenza nella base {ϵ1 , ϵ2 } la matrice di T è proprio il blocco di Jordan J = λ1I2 + E2
che implica (T − λ1I )2 = 0 .
Si ha cioè ) * ) *
1 0 −1 −1 1
P = , P TP = = λ1I 2 + E2 .
−1 1 0 −1
Chiamate ξ, η le componenti del vettore x in base {ϵ1 , ϵ2 } , il sistema equivalente alla ẋ = T x nel caso di
radice doppia: λ è allora dato da: (
ξ˙ = λξ + η
η̇ = λη .
Come già visto nella (2.46) più sopra, in base {ϵ1 , ϵ2 } , l’evolutore eT t ha matrice data da
⎛ ⎞
) * ..
1 t ⎜ . ⎟
eJ t = eλt = eλt (1I2 + tE2 ) = eλt ⎝ϵ1 .. tϵ1 + ϵ2 ⎠ (2.48)
0 1 ..
.

da cui seguono, in particolare, le soluzioni


( ⎧
λt
ξ(t) = e (ξ0 + tη0 ) ⎨ ξ = η ln η + η ξ0
con traiettorie λ η0 η0
η(t) = eλt η0 ⎩
oppure η=0.

M. Lo Schiavo
2.2. Sistemi differenziali lineari a coefficienti costanti, in R2 119

L’origine è punto di equilibrio dal nome di Nodo improprio.


´


»

In definitiva, le oscillazioni lineari al valore critico k = 2 sono date da


) * ) * ) * ) *
x(t) λt −1 x0 −t 1 t −1 x0
= P e (1I + tE2 ) P = Pe P . (2.49)
ẋ(t) ẋ0 0 1 ẋ0

Nota 2.2.7 L’osservazione che ha portato alle (2.46), (2.48) si può perfezionare. Si può notare infatti la validità
dei seguenti passaggi:
P (1I + t E2 )P −1 = 1I + t P E2 P −1 = 1I + t (T − λ1I )
leciti in quanto l’anti–trasformata di E2 = J − λ1I 2 , in questo esempio, è proprio la matrice T − λ1I che esprime
nella base assegnata l’operatore T − λ1I elementare nilpotente di ordine q = 2 . ◃

In base alla Nota 2.2.7 la soluzione dell’oscillatore critico è data, più semplicemente della (2.49), dalla
) * +) * ) *, ) *
x(t) −t 1 0 1 1 x0
=e +t
ẋ(t) 0 1 −1 −1 ẋ0
) *) *
1+t t x0
= e−t
−t 1 − t ẋ0

Curiosità: Il versore ϵ1 coincide con il vettore ϵµ del caso |k| < 2 quando lo si calcoli per |k| = 2 , ed è
proporzionale a ciò che diviene il versore ϵ1 del caso k > 2 nel limite k → 2 .
Nota 2.2.8 Con lo stesso metodo visto nella Nota 2.2.4, e con x, y, ϕ ∈ R, si riconosce che ϕ̇ = 0 per i punti tali
che cx2 + (d − a)xy − by 2 = 0 , e cioè, siccome qui ∆ = (a − d)2 + 4bc = 0 , lungo le due semirette xy = − d−a
2c .
) *
r
D’altra parte l’autovalore λ = a+d2 fornisce per l’autovettore ϵ = la condizione cr = a−d
2 s. Se ne ricava
s
che ϕ̇ rimane strettamente diverso da zero, (positivo se c > 0 e b < 0 ), salvo che per i vettori paralleli ad ϵ . ◃

Con tale risultato si esaurisce lo studio dei i possibili equilibri per un sistema lineare a coefficienti costanti e
dimensione due. Essi possono essere ricordati mediante la figura qui di seguito disegnata sul piano (T r T , Det T )
dell’operatore T di campo.
In essa i diagrammi indicati sono globali per il sistema lineare; verrà poi ricordato (si veda: § IV.1 teor.2]) che
ad eccezione del caso ℜe λ = 0 essi sono anche “simili”, per ogni t, ma solo localmente intorno al punto di
equilibrio a quelli del sistema non lineare ẋ = v(x) con v(0) = 0, v∗ (0) = T . In tale affermazione si devono
considerare simili i nodi e le spirali; si tratta cioè di una semplice similitudine topologica.
Det

Tr

Note di Sistemi Dinamici


120 Capitolo 2. Sistemi differenziali lineari

2.3 Sistemi differenziali lineari a coefficienti costanti, in Rn


Lo studio dei sistemi lineari ẋ = T x in spazi reali a dimensione maggiore di due, ma ancora a coefficienti costanti,
non presenta difficoltà concettuali, salvo nel caso in cui l’operatore del campo abbia autovalori multipli. Cosı̀ come
si è fatto nel caso bidimensionale, il metodo di risoluzione infatti ricorre alla rappresentazione dei vettori rispetto
alla base propria dell’operatore. Quando essa non esista, e cioè quando l’operatore T non sia diagonalizzabile
né semisemplice, è conveniente far uso del teorema di Jordan, il quale dimostra l’esistenza di una base, che verrà
nel seguito chiamata anch’essa base propria per l’operatore, rispetto alla quale la matrice τ che gli corrisponde è
formata da tutti blocchi elementari di Jordan disposti lungo la diagonale principale, e nulla altrove:
⎛ ⎞
.. ..
⎜ τ 1 . 0 . ⎟
⎜· · · ··· ··· ⎟
⎜ ⎟
⎜ .. .. ⎟
⎜ 0 . τ2 . ⎟
⎜ ⎟
τJ =⎜ ⎜ · · · · · · · · · ⎟

⎜ . . . ⎟
⎜ .. .. .. ⎟
⎜ ⎟
⎜ · · ·⎟
⎝ ⎠
..
. τ r

con ⎛ ⎞
.. ..
⎜Jsj−1 +1 . 0 . ⎟
⎜ ··· ··· ··· ⎟
⎜ ⎟
⎜ .. .. ⎟
⎜ 0 . Jsj−1 +2 . ⎟
⎜ ⎟
τj =⎜
⎜ ··· ··· ··· ⎟

⎜ .. .. .. ⎟
⎜ . . . ⎟
⎜ ⎟
⎜ ···⎟
⎝ ⎠
..
. Jsj
nella quale si sono indicati, in modo analogo al precedente paragrafo,
⎛ ⎞
λj 1 0 0
⎜ 0 λj 1 ⎟
⎜ ⎟
⎜ .. .. ⎟
Jij := λj 1Ikij + Ekij ≡ ⎜
⎜ . . ⎟

⎜ .. ⎟
⎝ . 1⎠
0 λj
Cj−1
con: s0 := 0 , sj−1 := h=1 gh , ij ∈ {sj−1 + 1, sj−1 + 2, . . . , sj−1 + gj =: sj } , con kij ≤ qj ≤ aj ,
j = 1, . . . , r , e dove (si veda anche l’Appendice A.6 e la Nota 2.3.1 qui di seguito):
'
• qj ≤ aj := a(λj ) è l’ordine di nilpotenza dell’operatore (T − λ1I ) 'M ;
j

• Ekij il blocco elementare nilpotente di ordine kij ;

• a(λj ) la molteplicità algebrica di λj , e cioè la molteplicità dell’autovalore λj quale radice dell’equazione


Det (T − λ1I ) = 0 ;
• a(µj ) la molteplicità algebrica delle coppie di autovalori µj , µ̄j se presenti, e in tal caso le varietà invarianti
sono di dimensione due per ciascuna coppia di autovalori complessi coniugati;
• r ≤ n il numero totale di autovalori (o coppie di autovalori, se complessi) distinti;
• gj = dim Ker(T − λj 1I ) la molteplicità geometrica di λj (o della coppia µj , µ̄j );
C
• g := rj=1 gj il numero totale di autovettori (o coppie di autovettori) distinti;
• Mj := Ker(T −λj 1I )qj l’autospazio generalizzato corrispondente all’autovalore λj (o alla coppia di autovalori
µj , µ̄j );
Cs
• dim Mj = ijj=sj−1 +1 kij = aj = a(λj ) (oppure dim Mj = 2a(µj ) nel caso delle coppie µj , µ̄j ); la matrice
τ j è (aj × aj ), e se λj ̸= 0 è anche aj = Rank Tj ;
M. Lo Schiavo
2.3. Sistemi differenziali lineari a coefficienti costanti, in Rn 121

• almeno uno dei Jij nella rappresentazione di Jordan τ J , ha dimensione ki j uguale al corrispondente qj .

Nella stessa base l’esponenziale eT t ha matrice data da


⎛ ⎞
J1 t
.. ..
⎜e . 0 . ⎟
⎜··· ··· ··· ⎟
⎜ ⎟
⎜ .. J t .. ⎟
⎜ 0 . e 2 . ⎟
eτ Jt =⎜
⎜···


⎜ ··· ··· ⎟
⎜ .. .. J t ⎟
⎜ . . e 3 ⎟
⎝ ⎠
..
.

dove, con k := kij ,


⎛ ⎞
t2 λj t tk−1 λj t
eλj t teλj t 2! e ··· (k−1)! e
⎜ .. ⎟
⎜ ⎟
⎜ 0 eλj t teλj t . ⎟
⎜ ⎟
eJij t =⎜ .. .. ⎟,
⎜ . . ⎟
⎜ ⎟
⎜ .. .. ⎟
⎝ . . teλj t ⎠
0 ··· 0 eλj t

oppure, se sono presenti (coppie) di autovalori complessi µ, µ̄,


⎛ ⎞
t2 R µj t tk−1 R µj t
eR µj t teR µj t 2! e ··· (k−1)! e
⎜ .. ⎟
⎜ ⎟
⎜ 02 eR µj t teR µj t . ⎟
⎜ ⎟
eJij t =⎜ .. .. ⎟,
⎜ . . ⎟
⎜ ⎟
⎜ .. .. ⎟
⎝ . . teR µj t ⎠
02 ··· 02 eR µj t
) *
cos βj t − sin βj t
con eR µj t ≡ eαj t qualora vengano usate come direzioni proprie le corrispondenti coppie
sin βj t cos βj t
{ℜe ϵµj , −ℑm ϵµj } .

Nota 2.3.1 [importante] Se lo scopo è solo quello di risolvere l’equazione ẋ = T x e non quello di trovare
esplicitamente la base propria dell’operatore T , rappresentato dalla matrice T nell’assegnata base, non conviene
eseguire tutto il calcolo necessario ad individuare la base di Jordan. Infatti, dalla teoria è sufficiente estrarre i
seguenti risultati (si veda: Appendice A.6, e Nota 2.2.7). ◃

• Lo spazio vettoriale V si separa in una somma diretta

V = M1 ⊕ · · · ⊕ Mr , (3.50)

ove gli spazi Mj e cioè gli autospazi generalizzati sono definiti da

Mj : = Ker(T − λj 1I )qj
1 ≤ qj ≤ a(λj ) ≡ dim Mj
Ker (T − λj 1I )qj −1 ⊂ Ker (T − λj 1I )qj = Ker (T − λj 1I )qj +1 ;

• l’operatore (T − λj 1I ) è nilpotente di ordine qj su Mj ed è invertibile sul complementare V ⊖ Mj ;

• ciascuno degli Mj è invariante sia rispetto a (T − λj 1I ) che rispetto a T .

Note di Sistemi Dinamici


122 Capitolo 2. Sistemi differenziali lineari

Ciò permette di osservare che per la determinazione della dinamica sono questi sottospazi e non i singoli autovettori
generalizzati ad essere gli equivalenti degli autovettori di un operatore diagonalizzabile. Infatti, cosı̀ come nel caso
di diagonalizzabilità (e cioè di autovalori tutti divisori elementari semplici: gj = aj per ciascun j = 1, . . . , r ) per
scrivere la dinamica occorre e basta trovare gli autovettori dell’operatore, per scrivere la dinamica nel caso generale
occorre e basta la conoscenza degli Mj e di un’arbitraria base {& ϵsj−1 +i }i=1,...,aj in essi (e non necessariamente
quella di Jordan: (T − λj 1I )ϵj = ϵj−1 ). Ciò perché una volta individuati per ciascun j = i, . . . , r gli autospazi
generalizzati Mj e una base in essi, in virtù della (3.50) ciascun x ∈ V ammette un’unica rappresentazione come
combinazione lineare di altrettanti vettori: xj ∈ Mj , per j = 1, . . . , r ; e siccome Mj è un sottospazio T -invariante,
e quindi T k -invariante, se un x0 è in Mj anche il suo evoluto eT t x0 sarà in Mj

Nei dettagli ciò comporta:

• Decomporre il dato iniziale nei suoi addendi, uno per ciascuno degli spazi Mj :
r
=
x0 =: xj |0 , xj |0 ∈ Mj , j = 1, . . . , r .
j=1

A tale scopo si può cercare la matrice P∼ che esprime nella base data: {ei }i=1,...,n gli r gruppi di vettori:
{&ϵσj−1 +i }i=1,..,aj tali che: σ0 := 0 , σj = σj−1 + aj , e Ker (T − λj 1I )qj = span {&ϵσj−1 +1 , &
ϵσj−1 +2 , .., & ϵσj } ,
j = 1, . . . , r . Le colonne ϵ&h , h = 1, . . . , n, della P∼ sono composte dalle e -componenti dei vettori & ϵh ,
determinate in base alle corrispondenti (n − aj ) relazioni lineari su tali {e} -componenti che impongono
l’appartenenza del j -mo gruppo al sottospazio Mj . Si determinano cosı̀ le {& ϵ}-componenti (& x10 , . . . , x
&n0 ) dei
vettori xj |0 ∈ Mj mediante la
⎛ ⎞
r r hj
= = =
x j |0 = ⎝ &h0 ϵ&h ⎠ = x0 .
x
j=1 j=1 h=hj−1 +1

7 8
• Per ciascun xj |0 fare uso della nilpotenza di (T − λj 1I ) su Mj e dell’identità eλt x = eλt 1I x = eλ1I t x
per ottenere

= tk
eT t xj |0 = e(T −λj 1I )t xj |0 eλj t = (T − λj 1I )k xj |0 eλj t
k!
k=0
qj −1
= t k
= (T − λj 1I )k xj |0 eλj t .
k!
k=0

• Ricavare infine ⎧
r
Iqj −1 J

⎪ = = tk

⎪ x : t &→ x(t) = (T − λj 1I )k xj |0 eλj t

⎨ k!
j=1 k=0
(3.51)

⎪ r
=

⎪ x =: x j |0 , xj |0 ∈ Ker (T − λj 1I ) qj
=: Mj

⎩ 0
j=1

Si osservi che se aj > 1 e ciononostante qj = 1 , e cioè se T ha divisori elementari semplici in corrispondenza


a λj , il vettore xj |0 risulta anch’esso autovettore di T , in quanto combinazione lineare di più autovettori
relativi alla stessa λj .

In generale invece, c’è almeno un vettore del tipo


) *
tqj −1 (j) tqj −2 (j)
xqj (t) = ϵ1 + ϵ + . . . + ϵ(j)
qj eλj t
(qj − 1)! (qj − 2)! 2

(j)
e cioè il vettore soluzione uscente da xqj (0) = ϵqj primo vettore di una catena di lunghezza qj e certamente
esistente in Mj . #

M. Lo Schiavo
2.3. Sistemi differenziali lineari a coefficienti costanti, in Rn 123

In definitiva, per il sistema lineare omogeneo autonomo, dato in coordinate da

ẋ = T x x 0 ∈ Rn n>2 (3.52)

si ha che:
(• ) Se Det (T − λ1I ) = 0 ha tutte le radici {λi }i=1,...,n distinte (in Cn ), ogni soluzione è del tipo

x(t) = P eΛt P −1 x0 =
⎛ ⎞ ⎛ξ1 ⎞
.. .. .. 0
= ⎝eλ1 t ϵ1 .. eλ2 t ϵ1 .. .. eλn t ϵn ⎠ ⎜

.. ⎟ .
. . . .⎠
. . . ξn 0

Più esplicitamente: se Det (T − λ1I ) = 0 ha ν radici reali: {λk }k=1,...,ν , e τ coppie di radici complesse:
{µh , µ̄h }h=1,...,τ , e quindi ν + 2τ = n, allora:
ν
@ ν+τ A
= =
k λk t h µh t
x(t) = ξ0 e ϵk + ℜe z0 e ϵµh
k=1 h=ν+1
ν
= ν+τ
= 7 8 7 8
= ξ0k eλk t ϵk + ℜe z0 h eµh t xµh + ℑm z0 h eµh t yµh =
k=1 h=ν+1
ν
= ν+τ
= N
= ξ0k eλk t ϵk + eαh t (ξ&0h cos βh t − η&0h sin βh t)xµh +
k=1 h=ν+1
O
+ (ξ&0h sin βh t + η&0h cos βh t)yµh

ove le colonne della matrice P contengono le {e} -componenti dei vettori (reali, individuati da T ) {ϵk }k=1,...,ν
e {xµh , yµh }h=1,...,τ ; e dove {ξ0k , ξ0h , η0h } sono le n costanti (scalari) reali arbitrarie (le z0 h sono complesse)
corrispondenti alle condizioni iniziali.
(• ) Se Det (T − λ1I ) = 0 ha ν radici reali distinte {λk }k=1,...,ν , eventualmente con molteplicità a(λk ) ≥ 1 ,
e τ coppie di radici complesse distinte {µh , µ̄h }h=1,...,τ , eventualmente con molteplicità a(µh ) ≥ 1 , e allora è
ν + 2τ = r < n, ogni soluzione ha la forma

x(t) = P eτ J t P −1 x0 =
⎛ ⎞⎛ ⎞
.. .. .. ξ01
⎜ . . . ⎟⎜ . ⎟
⎜ λ1 t (1) .. λ t (1) (1) .. λ t 1 2 (1) (1) (1) .. ⎟⎝ . ⎠
⎝e ϵ1 . e 1 (tϵ1 + ϵ2 ) . e 1 ( 2 t ϵ1 + tϵ2 + ϵ3 ) . ··· ⎠ .
.. .. ..
. . . ξ0n

o, più esplicitamente, con ξh (t) = ℜe [1I + t (T − µh 1I ) + . . .] zh |0 , etc.,


ν
@ ν+τ A
= =
λk t µh t
x(t) = pk (t)e + ℜe zh (t)e
k=1 h=ν+1
ν
= ν+τ
= N
= pk (t)eλk t + eαh t ξ&h (t) cos βh t − η
&h (t) sin βh t
k=1 h=ν+1
O
+ ξ&h (t) sin βh t + η&h (t) cos βh t
j −1
ν q=
= tk
= (T − λj 1I )k eλj t xj |0
j=1 k=0
k!
ν+τ
@qj −1 A
= = tk
k µj t
+ ℜe (T − µj 1I ) e zj |0 .
j=ν+1
k!
k=0

Si nota che i vettori con componenti costanti (reali o complesse) arbitrarie del caso precedente vengono sosti-
tuiti da (certe) loro combinazioni polinomiali, di grado minore delle molteplicità algebriche, esse stesse combinate
linearmente con coefficienti arbitrari.

Note di Sistemi Dinamici


124 Capitolo 2. Sistemi differenziali lineari

Caso particolare è quello di un’unica equazione di ordine n in una variabile scalare x : t &→ x(t) e cioè,
dh
indicando con x[h] := dth x, l’equazione:

x[n] + a1 x[n−1] + . . . + an−1 x[1] + an x = 0 , x0 ∈ R . (3.53)

Le soluzioni di tale equazione consistono ovviamente in una famiglia di funzioni scalari ma, per poter usare
lo studio fatto finora, esse verranno cercate come componenti di vettori funzioni, in effetti speciali vettori: tali da
avere le componenti successive uguali alle derivate di quelle precedenti. Posto cioè

x[h] =: xh+1 : t &→ xh+1 (t) ∈ R, h = 0, . . . , n − 1 (3.54)

sulle componenti del vettore x si ricava dalla (3.53) la condizione necessaria

ẋn + a1 xn + . . . + an−1 x2 + an x1 = 0 , (3.55)

per cui: le funzioni che verificano la (3.53) sono tutte e sole quelle corrispondenti alla prima componente di un
vettore x := (x1 , . . . , xn ) ≡ (x[0] , . . . , x[n−1] ), e cioè x : t &→ x(t) ∈ V ≡ Rn , che verifica il particolare sistema
lineare omogeneo: ⎛ ⎞
0 1 0 ··· 0
⎜ 0 0 1 0 0 ⎟
⎜ ⎟
ẋ = T x ove T := ⎜ . . . ⎟ . (3.56)
⎝ .. .. .. 0 ⎠
−an −an−1 ··· −a1
Sistemi di questo tipo formano ovviamente solo un sottoinsieme dei possibili sistemi a dimensione n, e quindi
essi avranno proprietà speciali e caratteristiche. Per essi, per esempio, il polinomio caratteristico pT (λ) :=
Det (T − λ1I ) ha la speciale forma

pT (λ) = λn + a1 λn−1 + . . . + an−1 λ + an ; λ∈C. (3.57)

Infatti, se si pretende che il sistema (3.56) abbia soluzioni della forma ! ϵ(t) = eλt ϵ relative a un vettore
ϵ : t &→ !
d
ϵ ∈ C , sulle componenti del vettore !
n
ϵ occorre imporre la condizione, proveniente dalla (3.54), ϵh = !
dt ! ϵ h+1 ,
per h = 1, . . . , n − 1 , che fornisce le n − 1 condizioni necessarie
d 1 d n−1
! ϵ 1 (t) = !
ϵ (t) = λ! ϵ 2 (t), ..., !
ϵ ϵ n−1 (t) = !
(t) = λ! ϵ n (t), t ∈ R. (3.58)
dt dt
Pertanto le componenti del vettore ϵ (autovettore di T ) verificano necessariamente la condizione: ϵ = (ϵ1 , . . . , ϵn ) =
(1, λ, λ2 , . . . , λn−1 )κ, con κ ∈ R, e la (3.55) scritta per !
ϵ(t) fornisce subito la (3.57).
Viceversa, se una λ# esiste soluzione di pT (λ) = 0 , allora certo T ammette in sua corrispondenza almeno un
autovettore (magari complesso) ϵ . Data la forma della (3.56), questo risulta tale che nota la sua prima componente
risultano note tutte le altre e verificanti la relazione (3.58). Ciò implica, in particolare, che fissato un autovalore
λ# ∈ C, ad esso non possa che corrispondere un solo autovettore, infatti ogni altro vettore soluzione che si evolva
#
in modo parallelo al dato sarebbe ancora del tipo eλ t ξ0 e risulterebbe diverso dal primo per solo un’inessenziale
costante moltiplicativa presente in tutte le componenti.
Pertanto ad ogni autovalore λj corrisponde un solo blocco elementare di Jordan: Jj = λj 1Iaj + Eaj il quale
avrà dimensione uguale alla molteplicità algebrica dell’autovalore stesso, e cioè

qj = a(λj ) = dim Mj ove Mj = Ker (T − λj 1I )aj

mentre risulta
g(λj ) = 1 = n − rank (T − λj 1I ) .
La (3.53) avrà allora soluzioni (facendo le necessarie sostituzioni se qualche autovalore è complesso, e si ricordi
che qui la x è scalare) della forma
=r k −1
a=
λk t
x : t &→ x(t) = e pk,j tj
k=1 j=0

nella quale tutte le n costanti pk,j sono scalari arbitrarie, giacché all’interno dell’autospazio Mj ogni vettore
può essere un’accettabile dato iniziale. La linearità dell’operatore T implica quindi che ciascuna delle funzioni
tm eλk t , 0 ≤ m ≤ a(λk ), sia soluzione particolare dell’equazione. Si noti che queste affermazioni non sono vere
per ciascuna delle coordinate, separatamente, del generico vettore soluzione nel caso generale in quanto m può non
raggiungere a(λk ).
Il teorema di esistenza e unicità può essere invocato per concludere che:

M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 125

le n costanti scalari pk,j stabiliscono un isomorfismo fra lo spazio delle soluzioni x : t &→ x(t) di un’equazione di
ordine n quale la (3.53), che è a sua volta isomorfo a quello V ≡ Rn delle condizioni iniziali, e lo spazio APn
a
somma diretta degli spazi APλjj dei quasi-polinomi con esponenti λ1 t, . . . , λr t e gradi minori di a(λ1 ), . . . , a(λr );
i quali formano pertanto una base per lo spazio delle soluzioni dell’equazione (3.53).
Anche questa affermazione non è vera per il generico sistema di ordine n; per esempio una stessa funzione del
tipo ceλt può essere soluzione anche di tutte le equazioni “componenti”. Sono infatti, in questo caso, i possibili
vettori di base ad essere più diversificati di quelli di una equazione di ordine n, dato che le loro componenti non
devono verificare la condizione di compatibilità (3.58).
D’altro canto i vettori soluzione non hanno componenti arbitrarie nello spazio dei quasi-polinomi poiché devono
essere ottenuti, mediante una trasformazione invertibile P determinato da T , combinando linearmente i possibili K
vettori soluzione pk (t)eλk t che hanno i polinomi pk (t) fissati dalle colonne di P e dalla degenerazioneCn di T . Se
anche tutte le radici sono distinte e ogni componente di ciascun vettore soluzione è del tipo k=1 ck eλk t non è vero
che ogni n-pla di tali combinazioni
7 lineari8 è una possibile soluzione del sistema: essa deve essere una P -trasformata
di un vettore del tipo ξ01 eλ1 t , . . . , ξ0n eλn t con P invertibile fissato da T e ξ0j ∈ R per j = 1, . . . , n. Ad esempio,
tutteL le componenti potranno essere uguali fra loro: ceλj t solo se il vettore (1, . . . , 1) è autovettore di T relativo
a λj .
Si osservi infine che l’equazione (3.57) determina una sola equazione differenziale di grado n ma certo non un
solo sistema di grado n che la ammetta come equazione secolare. Essa infatti determina univocamente le sue
radici e la loro molteplicità, ma ciò non è sufficiente a determinare gli autovettori di una delle molte matrici T con
essa compatibili.

2.4 Sistemi differenziali lineari a coefficienti variabili, in Rn


In questo paragrafo verranno innanzi tutto riprese in esame, ed estese, le considerazioni fatte nel § I.5. In quello,
per semplicità, si erano considerate solo equazioni scalari del secondo ordine; in questo si vedrà che l’estensione al
caso generale n-dimensionale è del tutto naturale e non aggiunge difficoltà concettuali.
Sia I un intervallo chiuso in R. Si considera il sistema
ẏ = T (t)y + b(t), o, in coordinate, ẏ = T (t)y + b(t), con y0 ∈ V ≡ Rn ,
(4.59)
T : I → L(V), b : I → V, T , b ∈ C ℓ≥1 (I), t0 ∈ I ⊂ R .
Le sue soluzioni sono vettori con componenti che in generale non saranno più esprimibili come combinazioni lineari
di quasi-polinomi, e le applicazioni di avanzamento non saranno più elementi di un gruppo a un parametro {G t }t∈R
di diffeomorfismi dello spazio delle fasi in sé.
Al contrario esse formano una famiglia locale (si veda: Cap.I) di applicazioni {Gtt0 }t0 ,t∈I , tale che y : t &→
y(t) := Gtt0 y0 è il moto uscente da y0 all’istante t0 e che, ove siano definiti, risulti

Gtt13 = Gtt23 Gtt12 , t1 , t2 , t3 ∈ I.


La linearità implica “solo” che, presi comunque c1 , c2 ∈ R:
se y1 è soluzione della ẏ = T (t)y + b1 (t)
ed y2 è soluzione della ẏ = T (t)y + b2 (t)
allora c1 y1 + c2 y2 è soluzione della ẏ = T (t)y + b3 (t)
con b3 (t) := c1 b1 (t) + c2 b2 (t).
Ciò prova che lo spazio delle soluzioni dell’equazione (4.59) non è uno spazio lineare.
Si consideri dapprima l’equazione omogenea (già chiamata (2.32) nel § II.2):
ẋ = T (t)x, x0 ∈ V, o, in coordinate, ẋ = T (t)x, x 0 ∈ Rn , (4.60)
Per essa, invece, ogni combinazione lineare di soluzioni è soluzione.
Sussiste la seguente
Proposizione 2.4.1 (si veda anche: § I.5)
L’intervallo massimale JM ⊃ I di definizione della, esistente e unica per ciascun x0 , soluzione della (4.60) è
ampio (almeno) quanto quello di regolarità dei coefficienti.

Dimostrazione
• ∥T (t)∥ < c per un certo c dipendente da a, b, I , e certamente finito.

Note di Sistemi Dinamici


126 Capitolo 2. Sistemi differenziali lineari

• Lemma Se φ(τ, t0 , x0 ) è definita in [t0 , t] ⊆ I allora

|φ(t, t0 , x0 )| ≤ ec(t−t0 ) |φ(t0 , t0 , x0 )| .

• Dimostrazione (del Lemma)


La tesi è vera per φ(t, t0 , 0) ≡ 0 . Questa è soluzione; quindi φ(t0 , t0 , x0 ) ̸= 0 implica φ(t, t0 , x0 ) ̸=
0, ∀t ∈ JM .
2
Si chiami r2 : τ &→ |φ(τ )| = ⟨ φ(τ, t0 , x0 ), φ(τ, t0 , x0 ) ⟩ > 0 , ove il prodotto scalare è, ad esempio, quello
che vede la base data come ortonormale. Dall’ipotesi segue che ln r(τ ) è definita per τ ∈ [t0 , t], e in più
' ' ' '
' d ' ' '
' ln r2 ' = 1 ' d r2 ' ≤ 2 |T φ| |φ| = 2 ∥T (t)∥ ≤ 2c .
' dτ ' r2 ' dτ ' r2

Se ne deduce che ' 2 '


'ln r (t) − ln r2 (t0 )' ≤ 2 c |t − t0 | . "

• Il teorema sul prolungamento della soluzione permette di dire che la soluzione è definita almeno fino all’istante
t1 in cui (t1 , φ(t1 , t0 , x0 )) raggiunge la frontiera di un qualsiasi compatto di R1+n che, contenente (t0 , x0 ),
sia contenuto nel dominio D di regolarità del campo. Essendo poi questo lineare nella variabile spaziale
x, si ha che D può avere frontiera non vuota soltanto a causa di limitazioni dovute alla non regolarità dei
coefficienti: T (t), e quindi certo il dominio D di regolarità del campo contiene una striscia dello spazio delle
fasi ampliato di estensione infinita rispetto alla variabile spaziale e contenente il segmento I lungo quella
temporale.
• Siano: |x0 |2 =: ℓ > 0 ed
; ' <
'
K := (t, x) ∈ R1+n ' t ∈ I; |x|2 ≤ (1 + ε) ℓ e2c(b−a) , ε>0 .

Il Lemma afferma che il punto (t1 , φ(t1 , t0 , x0 )) non può essere sulla parete |x|2 = (1 + ε)ℓe2c(b−a) del
cilindro K , e quindi deve necessariamente essere t1 = t, che è qualunque in I . "

Una dimostrazione simile ma un pò più laboriosa (si veda: [Hale Cor.I.6.1]) assicura che se I è tale che entrambe
le funzioni T e b sono almeno continue su I allora è anche JM ⊃ I .
Come si è ricordato, in virtù della linearità del campo lo spazio di tutte le possibili soluzioni di (4.60) è
uno spazio funzionale lineare: una combinazione lineare di soluzioni è ancora soluzione, ed è uscente da quelle
condizioni iniziali che si ottengono operando la stessa combinazione lineare sulle rispettive
7 condizioni
8n iniziali. Tale
spazio lineare è in corrispondenza con quello delle fasi V mediante l’applicazione Bt : C 1 (JM ) → V che associa
a una soluzione φ : JM → V il suo valore attuale x := φ(t, t0 , x0 ) ∈ V. In effetti, per i teoremi visti nel Cap.I,
onto
tale corrispondenza è 1 ←→ 1 , in quanto l’immagine è tutto V per il teorema di esistenza, e il Ker è {0} perché,
per il teorema di unicità, alla condizione iniziale x0 = 0 corrisponde la sola soluzione φ(t, t0 , x0 ) = 0; inoltre
siccome entrambi gli spazi sono lineari essa è un isomorfismo: le combinazioni lineari commutano con l’evoluzione.
e3 G t0t e3 e3(t)

x0 e2 x(t)
e1(t) e2
e1 eb3 e1 e2(t)
B -1
t0
e2
b Bt

Ái : ebi bei (t)


eb1
Per esprimere la più generale soluzione della (4.60) sarà allora necessario e sufficiente procurarsi una base nello
spazio delle soluzioni. Come già fatto per i sistemi lineari a coefficienti costanti (si veda: § II.2), si definisce un:

M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 127

Sistema fondamentale Φ = {φi }i=1,...,n per l’equazione (4.60) := una n-pla di funzioni a valori in V: φi :
t &→ xi = φi (t, t0 , xi |0 ) ∈ V, i = 1, . . . , n, che siano soluzioni linearmente indipendenti della (4.60).
Il teorema di esistenza e unicità, ovvero l’esistenza dell’isomorfismo detto, assicura che n-pla di vettori (solu-
zione) {t &→ φi (t, t0 , xi |0 )}i=1,...,n uscenti dall’arbitraria n-pla di vettori: {xi |0 }i=1,...,n ⊂ V purché linearmente
indipendenti forma certamente una base nello spazio delle soluzioni. Ciò in particolare accade a quella uscente dai
versori {xi |0 := ei }i=1,...,n della base scelta in V; il problema è determinarli.
Quando sia noto un sistema fondamentale, e scelta una base in V, si definisce la corrispondente:
Matrice fondamentale per l’equazione (4.60) :=
la rappresentazione in coordinate di un sistema fondamentale
) *
.. ..
Φ; essa pertanto è una matrice Φ : t &→ Φ(t, t0 , Φ0 ) ≡ φ1 . · · · . φn avente per colonne i vettori φi =
φi (t, t0 , xi |0 ), i = 1, . . . , n, rappresentanti in quelle coordinate le funzioni {φi }i=1,...,n . Giacché Φ risolve in
L(V) l’equazione: Ẋ = T (t)X ed è uscente da un dato Φ0 non singolare, la matrice Φ verifica in L(Rn )
l’equazione
) *
. .
Ẋ = T (t) X , X(t0 ) = x1 |0 .. · · · .. xn |0 ≡ Φ0 , (4.61)

con Φ0 = Φ(t0 ) non singolare. Si ha cioè, (si veda anche: § II.2)


) * ) *
d .. .. .. ..
Φ(t) = φ̇1 (t) . · · · . φ̇n (t) = T (t)φ1 (t) . · · · . T (t)φn (t) = T (t)Φ(t).
dt

L’esistenza dell’isomorfismo detto assicura che per ogni coppia di matrici fondamentali esiste una matrice invertibile
C tale che Φ2 (t) = Φ1 (t)C , e viceversa: se C è costante, non singolare, e se Φ1 (t) è una matrice fondamentale
della (4.60) allora tale è anche la Φ2 (t) := Φ1 (t)C . In particolare ne segue che: non solo ogni sistema fondamentale
della (4.60) forma una matrice soluzione della (4.61), ma, viceversa, ogni soluzione della (4.61) uscente da un dato
non singolare è una matrice fondamentale della (4.60). Per ciascuna fissata base si ha quindi che: tutte e sole le
matrici fondamentali della (4.60) sono soluzioni non singolari della (4.61) e sono proporzionali fra loro mediante
delle matrici C non singolari:
Φ2 (t) = Φ1 (t) C . (4.62)
In particolare, per ciascuna scelta della base {ei }i=1,...,n dello spazio V, e cioè per ciascuna scelta delle coordinate
si può definire una:
Matrice principale del sistema (4.60) := la matrice Ψ : t &→ Ψ(t, t0 ) che ha per colonne le soluzioni uscenti
dai versori dello spazio, e quindi che vale 1In nell’istante t = t0 .
In quel che segue, salvo contrario avviso, la scelta della base verrà supposta eseguita una volta per tutte e non
più modificata. Ciò permetterà di limitare la notazione alle sole componenti.
Ad esempio, nel caso particolare dei coefficienti costanti risulta

Ψ(t, 0, 1I ) = P eTJ t P −1 = Φ(t)Φ−1 (0) = eT t ,

e i vettori φi (t) assumono valori in un conveniente spazio di quasi polinomi.


In conclusione, il vettore
n
=
x : t &→ x(t) = Φ(t) c = ci φi (t) (4.63)
i=1

è la soluzione generale del sistema (4.60) se e solo se i vettori φi = φi (t, t0 , xi |0 ) sono)le colonne di una*matrice
. ..
Φ = Φ(t, t0 , Φ0 ) che sia la soluzione Φ : I → L(Rn ) della (4.61), uscente dalla Φ0 = x1 |0 .. · · · .x |
n 0 scelta
non singolare.
Nota 2.4.1 Un sistema fondamentale non è una qualunque n-pla di vettori linearmente indipendenti nello spazio
funzionale; essa deve essere formata da vettori che siano vettori soluzione. Infatti:

Memento 2.4.1 m funzioni vettoriali {t &→ ψi (t)}i=1,...,m , ciascuna delle quali avente come componenti n fun-
1 m
zioni continue
Cmsu Ii , si dicono linearmente dipendenti se esistono m costanti reali α , . . . , α non tutte nulle tali
che risulti i=1 α ψi (t) = 0 per ogni t ∈ I .
Affinché n funzioni vettoriali siano linearmente dipendenti occorre quindi ma non basta che esista qualche istan-
te t∗ nel quale i vettori numerici {ψi (t∗ )}i=1,...,n siano linearmente dipendenti; né basta a garantire la dipendenza

Note di Sistemi Dinamici


128 Capitolo 2. Sistemi differenziali lineari

lineare dei vettori {t &→ ψi (t)}i=1,...,n il fatto che sia identicamente nullo il determinante
⎛ 1 ⎞
ψ1 ψ21 · · · ψn1
⎜ 2 .. ⎟
⎜ ψ1 ψ22 . ⎟
W : t &→ W (t) := Det ⎜ ⎜ .


⎝ .. .. ⎠
.
ψ1n · · · ψnn
) * )* ' '
1 t ' 1 t'
Esempio: e pur avendo '' ' ≡ 0 non sono linearmente dipendenti.
1 t 1 t'

Queste condizioni sono invece sufficienti, oltre che necessarie se, in più, si sa che i vettori in questione sono
soluzioni di un qualche sistema differenziale del tipo ẋ = T (t)x, e ciò ancora per l’unicità della soluzione identi-
camente nulla e per la linearità del sistema. Viceversa in ogni caso basta che i loro valori in un qualche istante
{ψi (t∗ )}i=1,...,n siano linearmente indipendenti per assicurare l’indipendenza lineare dei vettori {t &→ ψi (t)}i=1,...,n

Nota 2.4.2 Come si è visto, se T è una matrice costante, o addirittura se ha la forma semplice proveniente da
un’equazione di ordine n, la ricerca dei possibili vettori di base è molto facilitata. Con riferimento alla precedente
nota, se T è costante e, per esempio, con autovalori reali distinti, un sistema fondamentale di vettori è certamente
dato dagli evoluti ϵ!h (t) = eλh t ϵh . Più in generale, formano un sistema fondamentale gli evoluti

t &−→ xh (t) := P eTJ t ξh |0 h = 1, 2, . . . , n ,

di un sistema di vettori {ξ1 |0 , . . . , ξn |0 } che sia una base in Rn , per esempio i trasformati dei vettori di base
eh = (0, 0, . . . , 0, 1, 0, . . . , 0)T (e quindi colonne della matrice P −1 ). Se poi T proviene da un’equazione di ordine
n (con autovalori λh tutti reali distinti) allora si sa in più che la matrice P deve avere la speciale forma
⎛ ⎞⎛ 1 ⎞
1 1 ··· 1 P1 0 0
⎜ λ1 λ2 λn ⎟ ⎜ 2 ⎟
⎜ ⎟ ⎜ 0 P2 ⎟
P = ⎜ .. .. .. ⎟ ⎜ .. ⎟
⎝ . . . ⎠ ⎝ . ⎠
λn−1
1 λn−1
2 λn−1
n 0 Pnn

ove l’ultima matrice rappresenta un inessenziale coefficiente moltiplicativo.


D’altra parte, l’ipotesi che tutte le λ1 , . . . , λn siano radici distinte di un’equazione di ordine n a coefficienti
costanti implica che il Wronskiano della corrispondente matrice fondamentale sia
' '
' eλ1 t ··· eλn t ''
'
' λ1 eλ1 t ··· λn eλn t ''
'
W (t) = ' .. .. '
' '
' n−1. . '
'λ eλ1 t · · · λn−1 eλn t '
1 n

e quindi ' '


' 1 ··· 1 '
' '
' λ1 ··· λn '
' '
W (0) = ' . .. '.
' .. . '
' n−1 '
'λ ··· λn−1 '
1 n

L’essere quest’ultimo diverso da zero è allora equivalente a che le λ siano radici semplici di una equazione di
grado n e quindi è sempre non nullo purché le λ siano tutte distinte. ◃

Si osservi ora che la (4.62) mette in relazione le varie matrici fondamentali della (4.60) con i loro dati iniziali e
la matrice principale. Infatti (con t0 fissato, e per ogni t ∈ JM ) si riconosce che

Φ−1 −1
1 (t)Φ2 (t) = C = Φ1 (t0 )Φ2 (t0 ), da cui Φ(t)Φ−1 (t0 ) = Ψ(t, t0 ). (4.64)

Quest’ultima esprime la matrice che nelle coordinate scelte su V rappresenta l’operatore Gtt0 , e implica che
Det Gtt0 = Det Ψ(t, t0 ) = Det Φ(t)/Det Φ(t0 ). Infatti la x(t) = Φ(t)c permette il calcolo di c = Φ−1 (t0 )x0 con
x0 := x(t0 ), e in virtù della (4.63) la soluzione generale è data da

x : t &→ x(t) = Φ(t)Φ−1 (t0 )x0 ovvero: x = Gtt0 x0 .

M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 129

Un’altra interpretazione possibile è data dalla Gtt0 := Bt Bt−1


0
che mostra l’evolutore come prodotto dei due
morfismi: quello che dal vettore x0 fa passare alla soluzione che lo ammette come dato iniziale, e quello che
trasforma quest’ultima nel valore che essa assume all’istante t. Si vede comunque che per le equazioni lineari
l’evolutore Gtt0 è un operatore in L(V) ed è ovvio che esso non dipenda dalla particolare n-pla fondamentale Φ
usata.
Nota 2.4.3 Dall’espressione Ψ(t, t0 ) = Φ(t)Φ−1 (t0 ), o meglio dalla Gtt0 = Φ(t)Φ−1 (t0 ) di cui la prima è la
rappresentazione in coordinate, si riconosce immediatamente sui sistemi lineari omogenei la proprietà, conseguenza
dell’unicità delle soluzioni, che esprime il determinismo dei sistemi differenziali a campo liscio, e cioè: Gtt13 =
t3 t2
Gt2 Gt1 . Se poi il sistema è anche autonomo allora come già ricordato si ha

Ψ(t, t0 ) = P eTJ t e−TJ t0 P −1 = eT (t−t0 ) = Ψ(t − t0 ).


Il caso non omogeneo, espresso dalla (4.59), è solo di poco più complicato. Se y& : t &→ y&(t), y&(t0 ) = y&0 , è
una sua soluzione particolare, allora ogni altra si può esprimere, ed univocamente, mediante la
y : t &→ y(t) = x(t) + y&(t) , y(t0 ) = y0 ∈ V (4.65)
ove t &→ x(t) è la soluzione della (4.60) che in t0 verifica la x(t0 ) = x0 := y0 − y&0 . Se in special modo si riesce
a trovare come soluzione particolare proprio quella che ha y&(t0 ) = 0 allora la corrispondente x “assorbe” tutte
le condizioni iniziali: x0 = y0 ed è x(t) = Φ(t)Φ−1 (t0 )x0 ove t &→ Φ(t) è un qualsiasi sistema fondamentale di
soluzioni del sistema omogeneo associato: (4.60).
Ciò è quello che si fa regolarmente nel cosiddetto metodo della variazione della costante, che consiste nel cercare
la soluzione generale della (4.59) mediante la posizione:
y(t) = Φ(t)Φ−1 (t0 )(x0 + c(t)), con c(t0 ) = 0 ,
esso cioè consiste nel cercare la soluzione particolare della (4.59) sotto la speciale forma y&(t) = Φ(t)Φ−1 (t0 )c(t),
con c(t0 ) = 0 .
Si ricava la condizione necessaria
ẏ(t) = Φ̇(t)Φ−1 (t0 )(x0 + c(t)) + Φ(t)Φ−1 (t0 )ċ(t) = T (t)y(t) + b(t)
.t
che implica ċ(t) = Φ(t0 )Φ−1 (t)b(t) da cui c(t) = t0 Φ(t0 )Φ−1 (τ )b(τ )dτ e cioè
- t
y&(t) = Φ(t) Φ−1 (τ )b(τ )dτ.
t0

La soluzione y : t &→ y(t) ∈ V della (4.59) che vale x0 = y0 in t = t0 è allora data da (salvo esprimere il tutto
in coordinate)
y : t &→ y(t) = x(t) + y&(t)
- t
≡ Φ(t)Φ−1 (t0 )x0 + Φ(t) Φ−1 (τ )b(τ )dτ (4.66)
t0
[ \] ^ [ \] ^
risposta libera risposta della forzante

Nel caso particolare T (t) = T = cost la (4.66) si specializza nella


- t
y(t) = Φ(t − t0 )Φ−1 (0)x0 + Φ(t − τ )Φ−1 (0)b(τ )dτ
t0
- t
= eT (t−t0 ) x0 + eT (t−τ ) b(τ )dτ .
t0

Memento 2.4.1 Date m funzioni vettoriali {t &→ ξi (t)}i=1,...,m ,


ciascuna delle quali avente
) come componenti
*
. ..
n funzioni continue su I , alcuni autori chiamano Wronskiano della matrice Ξ : t &→ ξ1 (t) .. · · · . ξ (t) la
n

funzione W : t &→ W (t) := Det Ξ(t); per altri invece il Wronskiano è il determinante che cosı̀ si ottiene nel caso
particolare di una equazione di ordine n, e che quindi proviene da una matrice che ha le righe ciascuna uguale alla
derivata della riga precedente. Qui di seguito si userà la prima delle due definizioni.
Se Ξ = Ξ(t) è una matrice fondamentale di un sistema (4.60) allora W (t) o è identicamente nullo oppure
è identicamente non nullo. Infatti W (t) si annulla o se una delle equazioni è combinazione lineare delle altre,
e quindi una coordinata in ogni istante linearmente dipendente dalle altre; oppure se le colonne sono linearmente
dipendenti in un certo istante t∗ , ed essendo soluzioni di un sistema (4.60) lo rimangono per ogni t.

Note di Sistemi Dinamici


130 Capitolo 2. Sistemi differenziali lineari

Proposizione 2.4.1 Se Φ : t &→ Φ(t) è una matrice fondamentale di un sistema omogeneo (4.60) allora
)- t *
W (t) = exp T r T (τ )dτ W (t0 ).
t0

Dimostrazione Se W (t0 ) = 0 le colonne della matrice Φ, e cioè gli n vettori Cφ1 (t), . . . , φn (t) rimangono
n i j
linearmente dipendenti. Altrimenti, il calcolo del determinante fornisce W (t) = j=1 φj (t)Mi (t), avendo
indicato con φij la i -ma componente della j -ma soluzione fondamentale φj , e con Mij il complemento algebrico
(o cofattore) di φij nella matrice Φ. Derivando ambo i membri della relazione precedente si può notare che
Mij ≡ ∂W /∂φij . Si osservi ora che, in qualunque modo W dipenda da ciascuno dei φij , la derivata dt d
W (t) non
può che essere:
d = ∂W = j = j =
W = i φ̇ij = Mi φ̇ij = Mi Tki φkj =: Tki D ki
dt i,j
∂φj i,j i,j,k i,k

(k)
ove D ki è il determinante della matrice Ξ(i) ottenuta sostituendo nella Φ alla i -esima riga (φi1 , . . . , φin ) la k -esima
(k)
(φk1 , . . . , φkn ). Ne segue che gli unici scalari D ki a essere non nulli (in corrispondenza del fatto che la matrice Ξ(i)
non ha due righe proporzionali) sono i termini con k = i , che quindi valgono W . Per cui si ha
= =
Ẇ (t) = Tki (t)δik W (t) = Tii (t)W (t) = W (t) T r(T (t)).
i,k i

Una dimostrazione alternativa usa l’uguaglianza


W (t) Det Φ(t)
= = Det Ψ(t, t0 ) = Det Gtt0
W (t0 ) Det Φ(t0 )
e lo sviluppo: Φ(t) = Φ(t0 + ∆t) = Φ(t0 ) + T (t0 )Φ(t0 )∆t + o(∆t) . Queste danno Ψ(t, t0 ) := Φ(t)Φ−1 (t0 ) = 1I + T (t0 )∆t + o(∆t)
il cui determinante vale
_n
W (t)
Det Ψ(t, t0 ) = = (1 + λi ∆t + o(∆t)) = 1 + T r T (t0 )∆t + o(∆t)
W (t0 ) i=1
come si vede facilmente nella base in cui T (t0 ) assume la forma triangolare TJ . Ne segue

d '' Ẇ (t0 ) d ''


' Det Ψ(t, t0 ) = = ' (1 + T r T (t0 )∆t + o(∆t)) = T r T (t0 ).
dt t=t0 W (t0 ) dt t=t0 "

Nota 2.4.4 Il sistema ẏ + T ∗ (t)y = 0 si dice aggiunto del sistema ẋ = T (t)x quando T e T ∗ sono le matrici
che una stessa base {ek }k=1,...,n ⊂ V assegna all’operatore T e, rispettivamente, al suo aggiunto T ∗ rispetto a un
fissato prodotto scalare ⟨ ·, · ⟩ definito su V.
Sul sistema aggiunto è possibile ripetere quanto detto per l’equazione (4.60), e quindi: cosı̀ come alla (4.60)
(con arbitrarie condizioni iniziali) corrisponde l’equazione in L(Rn ) data da Ẋ = T X con X0 = 1I , all’equazione
aggiunta ẏ = −T ∗ y (e arbitrarie condizioni iniziali) corrisponde in L(Rn ) il sistema aggiunto Ẏ = −T ∗ Y con
Y0 = 1I .
Nell’ipotesi che base e prodotto scalare siano tali che ⟨ eh , ek ⟩ = δhk , il sistema aggiunto può anche essere
scritto nella forma:
Ẏ T = −Y T T con Y T0 = 1I .
T T
Una matrice fondamentale di un tale sistema è una matrice Y : t &→ Y (t) che ha le righe soluzioni
indipendenti dell’equazione (fra righe)
ẏ T = − y T T .
T
Limitandosi al caso reale, e chiamate X e Y matrici fondamentali dei due sistemi rispettivamente, si ha
allora che esse sono legate dalla relazione
d T T T T T
(Y X) = Ẏ X +Y Ẋ = −Y TX + Y TX = 0 ,
dt
dunque: esiste una matrice numerica C tale che Y T X = C −1 , e quindi tale che X −1 = CY T , e la matrice
C è non singolare perché tali sono entrambe le due matrici.
Viceversa: se X è una matrice fondamentale per il sistema (4.60) e se C è numerica non singolare, allora
la matrice Y := X −T C −T è matrice fondamentale del sistema aggiunto. Infatti si ha: Y T X = cost e quindi
ne segue Ẏ T X = −Y T T X che implica l’asserto, data l’invertibilità della X . In particolare: se X è una

M. Lo Schiavo
2.4. Sistemi differenziali lineari a coefficienti variabili, in Rn 131

matrice fondamentale per il sistema (4.60) allora X −T è matrice fondamentale per il sistema ẏ + T T y = 0 , e
quindi tale che: Ẋ −1 = −X −1 T .
Pertanto, ancora con Φ una matrice fondamentale dell’equazione omogenea associata, per la generica equazione
lineare non omogenea: ẏ = T (t)y + b(t) si ricava la relazione Φ−1 ẏ = Φ−1 T y + Φ−1 b. Questa, sommata alla
Φ̇−1 y = −Φ−1 T y , fornisce
d
(Φ−1 y) = Φ−1 b
dt
che conferma la (4.66):
- t
Φ−1 (t)y(t) = Φ−1 (t0 )x0 + Φ−1 (τ )b(τ )dτ .
t0 ◃

Un’importante caso particolare è quello (si veda anche: § I.5) di un’equazione scalare di ordine n; e cioè, con
y : t &→ y(t) ∈ R,
y [n] + a1 (t)y [n−1] + . . . + an (t)y = b(t), a1 , . . . , an , b ∈ C ℓ≥0 (I). (4.67)
È questo un sistema non omogeneo con la speciale matrice di campo T : t &→ T (t) ∈ L(Rn ) come nella (3.56), e
termine noto b = (0, 0, . . . , 0, b)T . Si definisce
7 8
Nucleo Risolvente dell’equazione (4.67) := l’elemento (1, n) della matrice Φ(t)Φ−1 (s) , ove Φ : t &→ Φ(t)
è una matrice fondamentale della equazione omogenea associata (4.60).

Si osservi che il nucleo risolvente e, tramite la (4.66), l’intera soluzione generale dell’equazione completa (4.67)
sono, almeno in linea di principio, totalmente determinati una volta che sia nota la matrice Φ, problema questo
non indifferente e che spesso non è risolubile in forma chiusa.
Dato che l’i -ma colonna della matrice Φ(t)Φ−1 (τ ) esprime la soluzione dell’equazione omogenea associata che
in t = τ vale ei , il nucleo risolvente è la soluzione t &→ x(t) ∈ R tale che x(τ ) = en . La sua espressione esplicita
è ⎛ ⎞
x1 (τ ) ··· xn (τ )
⎜ .. .. ⎟
7 81 1 ⎜ . . ⎟
Φ(t)Φ−1 (τ ) n = Det ⎜ ⎜

⎟ (4.68)
W (τ ) ⎝x[n−2] (τ ) [n−2] ⎠
1 · · · xn (τ )
x1 (t) ··· xn (t)
7 −1 8i 7 8 h 7 81
infatti Φ j
(τ ) = Mji (τ )/W (τ ) dà Φ(t)Φ−1 (τ ) k = φhm (t)Mkm (τ )/W (τ ), e si ottiene Φ(t)Φ−1 (τ ) n =
xm (t)Mnm (τ )/W (τ ) che è proprio lo sviluppo rispetto alla sua ultima riga del determinante nella (4.68).
Esempio 2.4.5 ÿ = y + b(t), con t0 , y0 , ẏ0 ∈ R.
) * ) *
0 1 0
Si hanno T = , b(t) = . Risultano, con la stessa notazione usata nella (4.66),
1 0 b(t)
) * ) t *
1 1 e e−t
λ1,2 = ±1; P = ; Φ(t) = P eΛt = t ;
1 −1 e −e−t
) * ) *
1/2 1/2 cosh t sinh t
eT t = P eΛt P −1 = Φ(t) = .
1/2 −1/2 sinh t cosh t
Queste, insieme con la Φ(t)Φ−1 (t0 ) = eT (t−t0 ) , forniscono
) *
y0 cosh(t − t0 ) + ẏ0 sinh(t − t0 )
x(t) =
y0 sinh(t − t0 ) + ẏ0 cosh(t − t0 )
- ) *) *) * - t) *
1 t et−τ eτ −t 1 1 0 sinh(t − τ )b(τ )
y&(t) = dτ = dτ.
2 t0 et−τ −eτ −t 1 −1 b(τ ) t0 cosh(t − τ )b(τ )
#

Esempio 2.4.6 ÿ + ω 2 y = b(t), con t0 , y0 , ẏ0 ∈ R.


) * ) *
0 1 1 1
Dalle: T = , con µ = α + iβ ≡ iω , si ha P = da cui
−ω 2 0 +iω −iω
) iω t *) * ) 1
*
1 e = e−iω t ω −i cos ω t ω sin ω t
Ψ(t, 0) = = ,
2ω iω eiω t −iω e−iω t ω +i −ω sin ω t cos ω t
e quindi la soluzione è data da:
- t
ẋ0
y(t) = x0 cos ω(t − t0 ) + sin ω(t − t0 ) + sin ω(t − τ )b(τ )dτ. #
ω t0

Note di Sistemi Dinamici


132 Capitolo 2. Sistemi differenziali lineari

(
t2 ÿ + tẏ − y = u(t)
Esempio 2.4.7 t0 , y0 , ẏ0 , ∈ R, u ∈ C 1 (R);
y(1) = 1, ẏ(1) = −1
) * ) *
0 1 0
ovvero T (t) = −2 , b(t) = ; e risulta JM = (0, ∞).
t −t−1 u(t)/t2
Prima parte: l’equazione omogenea associata.
Si suppongano soluzioni del tipo tα . Dovrà essere t2 α(α − 1)tα−2 + tαtα−1 − tα = 0 da cui α1,2 = ±1; pertanto si
chiamino x1 (t) := t, x2 (t) := t−1 .
Primo controllo: ' '
' t t−1 '
W (t) = '' ' = −2t−1 ̸= 0 in JM .
1 −t−2 '
Secondo controllo:
)- t *
−1 −1
T r T = −t ; e quindi: W (t) = c exp −t ∝ t−1 = c t−1 .

Ne segue ) * ) −2 * ) −1 *
t t−1 −1 1 −t −t−1 1 t 1
Φ(t) = e Φ (t) = = .
1 −t−2 −2t−1 −1 t 2 t −t2
Seconda parte: l’equazione completa.
) *T ) * ) *T - t ) *
1 1 1 u(τ ) 0
y(t) = Φ(t)Φ−1 (1) + Φ(t)Φ−1 (τ ) 2 dτ
0 −1 0 1 τ 1
) *T ) *) *) *
1 t t−1 1/2 1/2 1
= +
0 1 −t−2 1/2 −1/2 −1
) *T - t ) * ) −1 *) *
1 t t−1 τ /2 1/2 0
+ dτ
0 1 1 −t−2 τ /2 −τ −2 /2 1
) *T ) −1 * - ) *T ) *
1 t 1 t t 1
= + u(τ )dτ
0 −t−2 2 1 t−1 τ2
-
1 t
= t−1 + u(τ )(tτ −2 − t−1 )dτ
2 1
) *' '
u(τ ) 1 'τ τ −1 '
e nell’integrando si può riconoscere il nucleo: ' '. #
τ2 −2τ −1 ' t t−1 '

Esempio 2.4.8 ẍ = tẋ , con t0 , x0 , ẋ0 ∈ R.


) * ) *
0 1 1
Si ha T (t) = . Una soluzione è x1 (t) = . Un’altra si trova per integrazione semplice: x2 (t) =
0 t 0
). t *
exp(σ/2)dσ 2
. Queste hanno W (t) = et /2 ̸= 0 . Segue
exp(t2 /2)
@ 2 .t A @ 2 .t A
−1 1 −e−t /2 eσ/2 dσ 1 e−t0 /2 t0 eσ/2 dσ
Φ (t) = 2 e Ψ(t, t0 ) = 2 2 .
0 e−t /2 0 e(t −t0 )/2

2.5 La teoria di Floquet


Su uno spazio vettoriale reale V, rappresentato in coordinate da Rn , si consideri l’equazione

ẋ = Q(t) x, x0 ∈ V, Q ∈ Pert (L(V)) , (5.69)

ove si è indicata con Pert (L(V)) la famiglia delle funzioni Q definite su R e a valori nello spazio L(V) degli
operatori lineari su V, regolari e periodiche di (minimo) periodo T :

Q(t + T) = Q(t) ∀t ∈ R, Q(t1 ) ̸= Q(t2 ) se |t1 − t2 | < T, Q ∈ C ℓ≥1 (R).

M. Lo Schiavo
2.5. La teoria di Floquet 133

Innanzi tutto si osservi che non è detto che le sue soluzioni siano periodiche; ad esempio: ẋ = (1 + sin t)x ha
soluzioni x(t) = cet e− cos t che è periodica solo se c = 0 .
In virtù del teorema del prolungamento però si può affermare che le sue soluzioni esistono per ogni t reale.
Ciò inoltre permette, senza ledere la generalità, di fissare come istante di riferimento t0 un valore arbitrario in R,
ad esempio t0 = 0 .
Per facilitare lo studio della (5.69) è opportuno premettere il seguente:

Lemma 2.5.1 Un operatore C ∈ L(V) che abbia non nulli tutti i suoi autovalori {λj ∈ C}j=1,...,n individua
(almeno) un operatore B ∈ L(C V) tale che C = eB .

Dimostrazione Dato che l’esponenziale di un operatore è già stato definito, sarà lecito mostrare l’esistenza del
logaritmo in modo costruttivo e cioè, fissata un’opportuna base, producendo esplicitamente una matrice B la cui
esponenziale è uguale alla matrice C di C in quella base, e poi definendo logaritmo di C quell’operatore B che,
rappresentato in quella base dalla matrice B cosı̀ trovata, è in ogni altra base rappresentato dalla trasformata
di questa secondo la P BP −1 (ove P esprime il cambio di base in V e, come tale, un’arbitraria trasformazione
lineare di coordinate su V).
Che tale definizione per un operatore B = ln C sia ben posta è conseguenza della seguente osservazione:
−1
Siccome per P arbitraria non singolare si ha P −1 eT P = eP T P , se B è tale che eB = C e se C & = P CP −1
& −1 &
B &
allora certamente B := P BP è tale che e = C . Occorre tuttavia notare esplicitamente che con tale
definizione si rinuncia ad ogni forma di unicità del risultato: ciò che si mostra è l’esistenza di almeno un B il cui

esponenziale uguaglia l’operatore C dato: basta che B ′ sia tale che eB = 1I e che B B ′ = B ′ B per riconoscere che
B e B + B ′ hanno lo stesso esponenziale.
A prescindere dal come venga esplicitamente determinato, non lede la generalità cercare un B , del quale sia dato
l’esponenziale C , in modo che ne condivida la base propria (di Jordan). Infatti l’esponenziazione di un operatore
non ne muta i sottospazi invarianti. In particolare, le (5.70),..,(5.72) più oltre dimostrano l’esistenza di un B con
gli stessi spazi invarianti e gli stessi autovettori generalizzati di C .
In definitiva sarà sufficiente determinare una matrice B il cui esponenziale C abbia forma di Jordan: CJ =
diag (J1 , . . . , Jr ) con Jj = λj 1I aj + Nqj , ove Nqj è un nilpotente (non necessariamente elementare) di ordine
qj ≤ a(λj ) sull’autospazio generalizzato Mj = Ker (C − λj 1In )qj , la dimensione del quale, come è noto, è la
molteplicità algebrica a(λj ) dell’autovalore λj .
Anzi, siccome ciascuno dei blocchi elementari di Jordan lascia il proprio sottospazio7invariante,8 e siccome λj ̸= 0 ,
basterà far vedere che esiste B tale che C = eB per una sola matrice del tipo C = λ 1Im + Eλm con Em il blocco
elementare nilpotente di ordine m.
Si ottiene la tesi, e cioè che
) *
Em
C = λ1I m · 1Im + = eBλ · eBm = eB
λ
purché siano valide, in C
Rm , le

B : = Bλ + Bm (5.70)
Bλ : = (ln λ)1I m (5.71)
) * m−1
= (−Em )j
Em
Bm : = ln 1I m + := − . (5.72)
λ j=1
jλj

C∞ xk C∞ (−x)k
La (5.72) si giustifica osservando che, se si pone ex := k=0 x! e ln(1 + x) = − k=1 k
(con x qualsiasi tale che
|x| < 1 ), allora sussiste l’identità formale
0 2 3
1
(1 + x) = exp ln(1 + x) = exp x1 − x2 + x3 − . . . =
0 2 3
1 0 2 3
12
1 + x1 − x2 + x3 − . . . + 12 x1 − x2 + x3 − . . . +
0 2 3
13
1 x
+ 3! 1
− x2 + x3 − . . . + . . . .

Data l’assoluta convergenza delle serie qui coinvolte, l’uguaglianza fra primo e secondo membro può essere provata per componenti; e
siccome il primo membro ha componenti: 1, 1, 0, 0, 0, . . . tali devono essere quelle del secondo membro qualunque sia il valore della
indeterminata x , sia che essa appartenga ad R , sia che essa sia tale che: xm = xm+1 = · · · = 0 , cosa questa che ne trasforma tutte
le serie in semplici somme, e toglie quindi ogni dubbio circa la loro convergenza.
D’altra parte, la nilpotenza di Em e la commutatività di Em k con Eh permettono la sostituzione di x con E /λ . Quest’ultimo
m m
quindi verifica l’identità
⎛ ⎞k
) * m−1
= 1 m−1
= (−Em )j
Em ⎝ ⎠ .
1I m + = exp(Bm ) = − (5.73)
λ k=0
k! j=1
jλj

Note di Sistemi Dinamici


134 Capitolo 2. Sistemi differenziali lineari

Servendosi della (5.73) si prova direttamente che B , definito nella (5.70), verifica la
⎛ ⎞
=∞ k =∞ = k k−j j =∞ =∞ k−j j
B (ln λ) (Bm ) ⎝ (ln λ) ⎠ (Bm )
= =
k! j=0
(k − j)! j! j=0
(k − j)! j!
k=0 k=0 k=j

= )∞
= *
(Bm )j (Bm )j Em
= (exp ln λ) =λ· = λ 1Im + .
j=0
j! j=0
j! λ "

) * ) *
1 1 0 1
Esempio 2.5.1 C = 1I 2 + E2 = implica B = B2 = E2 = . #
0 1 0 0

Nota 2.5.1 Cosı̀ come l’operazione di estrazione del logaritmo di un numero complesso µ ∈ C\{0} non è univoca:

µ = ρeiθ =⇒ ln µ = ln ρ + i(θ + 2kπ), k∈Z arbitrario, (5.74)

anche la specifica costruzione del logaritmo di un operatore vista nel precedente lemma non determina un unico
B = ln C . Ad esempio, in virtù della (5.70), già si vede che ciascuno dei ln µ =: σ + i(θ + 2kπ), k = 1, 2, . . ., può
essere assunto come autovalore di altrettanti B , tutti aventi lo stesso esponenziale eB = µ1I e tali che

B := (σ + iθ)1I m + Bm + i 2kπ1Im ,

con θ := Arg µ e σ := ln |µ|.


D’altra parte un qualunque B che verifica la eB = C ha come autovalori numeri il cui esponenziale è necessa-
riamente uno degli autovalori di C , (per convincersene basta restringersi al corrispondente autospazio di B ). Ne
segue che tutti i B che hanno uno stesso esponenziale C , hanno anche in comune le parti reali di ognuno dei loro
autovalori giacché queste coincidono necessariamente con le parti reali: σ := ln |µ| dei logaritmi degli autovalori µ
di C , e che pertanto risultano univocamente determinate. ◃

Nota 2.5.2 Se C , che è reale, ha qualche autovalore complesso: µ = α + iβ esso ammette come autovalore anche il suo complesso
coniugato µ̄ = α − iβ . Ciò permette di assumere che B sia reale. Per convincersene, si supponga (come già accennato, e senza
perdita di generalità) che una tale coppia di autovalori abbia molteplicità geometrica uguale ad uno, molteplicità algebrica m ≥ 1 , e
che l’intero V sia autospazio generalizzato per la coppia (µ, µ̄) . Esiste allora una base reale per V che dà a C la matrice (2m × 2m)
⎛R ⎞
µ 1I 2 02 · · · 02
⎜ 02 R µ 1I 2 · · · ⎟
⎜ ⎟
⎜ .. .. ⎟
⎜ . . 0 ⎟
⎜ 2⎟
⎝ 1I 2 ⎠
02 02 R µ
con θ := Arg µ , σ := ln ρ ,ρ := |µ| , ed
) * ) * ) *
Rµ =
α −β cos θ − sin θ σ −θ − 2kπ R (ln µ)
=: ρ = exp =e .
β α sin θ cos θ θ + 2kπ σ
Nella stessa base si ricava allora, per la matrice B (2m × 2m) ,
⎛R ⎞
(ln µ) 02 ··· 02
⎜ 02 R (ln µ) 02 ··· ⎟
⎜ ⎟
B=⎜ .. . ⎟ + Bm,2
⎝ . .. ⎠
02 ··· R (ln µ)

e sono reali le matrici @ A


σ −θ − 2kπ
R (ln µ) = R (ln ρ + i(θ + 2kπ)) =
θ + 2kπ σ
e
m−1
= 1 7 8
Bm,2 = − R µ−j (−Em,2 )j ,
j=1
j
nella quale si è fatto uso delle matrici reali, (2m × 2m) ,
⎛ ⎞ ⎛ ⎞
02 1I 2 02 ··· R µ−j 02 ··· 02
⎜ 02 02 1I 2 ··· ⎟ ⎜ ⎟
⎜ ⎟ ⎜ 02 R µ−j 02 ··· ⎟
⎜ .. .. ⎟ 7 8 ⎜ ⎟
Em,2 =⎜ . . 02 ⎟ ; R −j
µ =⎜
⎜ .. .. ⎟

⎜ ⎟ ⎜ . . 02 ⎟
⎝ 1I 2 ⎠ ⎝ ⎠
02 ··· 02 02 02 ··· 02 R µ−j

M. Lo Schiavo
2.5. La teoria di Floquet 135

con
⎛ ⎞j
a b ) ) ** j
7 8 j ⎜ a2 + b2 a2 +b ⎟
2 R µ̄
R µ−j R
= µ −1
= ⎝ −b a ⎠ = 2
.
|µ|
a2 + b2 a2 + b2
Si osservi inoltre che è opportuno considerare come coppie di autovalori complessi a parte reale nulla le (eventuali) coppie di
autovalori negativi, uguali, e di uguali molteplicità. Ad esempio:
) * ) * ) *
−1 0 cos π 0 R 0 −π
−1I 2 = = = R (eiπ ) = e (iπ) = exp ;
0 −1 0 cos π π 0
) *
0 −π
tale matrice ha, correttamente, logaritmo reale dato da R (iπ) = .
π 0

Anche più semplicemente si nota che se C ha autovalori reali e positivi allora B è reale.
Ciò non accade invece se l’operatore C ha autovalori negativi, a meno dei casi accennati in quest’ultima osservazione. In tal caso
infatti, cosı̀ come ez = −1 implica z = iπ , la matrice B relativa al logaritmo di un tale operatore è, in generale, complessa anche
se in base reale. In particolare, l’operatore B può avere qualche autovalore complesso che (non proviene da una coppia di autovalori
complessi coniugati (µ, µ̄) e che) non fa parte di alcuna coppia di numeri complessi coniugati.
Tuttavia, l’essere C reale assicura non solo che l’operatore C! := C 2 è reale, ma in più che quest’ultimo ha autovalori
!
λ = λ2 >0 reali positivi se λ era autovalore reale di C;
!
µ = µ2 = ρ2 ei2θ se µ = ρeiθ era autovalore complesso di C, insieme con
!
µ = µ̄2 = ρ2 e−i2θ che ne è il corrispondente autovalore coniugato.

Pertanto, se anche C2può avere autovalori reali negativi essi sono presenti a coppie e vale l’osservazione qui sopra.
L’assenza di (un numero dispari di) autovalori negativi per l’operatore C 2 permette di concludere che: se C è reale esistono non
solo una matrice reale C! = C2 che rappresenta C! = C 2 nella base in cui C è rappresentato da C , ma anche una matrice B ! tale che
! ! = C2 che può essere scelta reale. La matrice B ! è data dalla (5.70) con λ
! al posto di λ qualora l’autovalore λ di C sia reale.
eB = C
Qualora invece C ammetta autovalori complessi coniugati µ, µ̄ ∈ C , la matrice B ! è data dalla
⎛ ⎞
2 R (ln µ) 02 ··· 02
⎜ ⎟
⎜ 02 2 R (ln µ) 02 ··· ⎟
⎜ ⎟
⎜ .. .. ⎟
! =⎜
B ⎜ . .
⎟ ! m,2
⎟ +B
⎜ ⎟
⎜ .. ⎟
⎜ . 02 ⎟
⎝ ⎠
02 ··· R
2 (ln µ)
C m−1 7 8
! m,2 la matrice
avendo chiamato B ! m,2 = −
B 1
!−j (−Em,2 )j ,
µcon ! := µ2 .
µ
j j=1
!
In definitiva è lecito assumere che il logaritmo B del quadrato di un operatore reale C è reale e quindi privo di “frequenze proprie”
non multiple di 2π .

Osservazione La matrice −1I 2 si può considerare come il quadrato, in C R2 , non solo degli operatori complessi +i1I2 e −i1I 2 , ma
anche degli operatori
) reali
* (entrambi
) aventi
* autovalori µ = i = eiπ/2 e µ̄ = −i = e−iπ/2 ) che nella base reale di partenza C {e1 , e2 }
0 −1 0 1
hanno matrici e . A loro volta, questi secondi hanno rispettivamente matrici +i1I 2 e −i1I2 nella base degli
1 0 −1 0
autovettori (complessi coniugati) {ϵµ = e1 − i e2 ; ϵ̄µ = e1 + i e2 } .
Corrispondentemente, come si è detto, il logaritmo di −1I 2 è (reale e) dato da:
) *
B! = 2 R (ln eiπ/2 ) = R (iπ) = 0 −π .
π 0 ◃

È possibile ora enunciare il seguente teorema, valido per sistemi lineari con operatore di campo Q : R → L(V)
regolare e T -periodico e agente su uno spazio vettoriale reale V, (ma il teorema vale, a fortiori, se V è complesso),
di dimensione n < ∞.

Teorema 2.5.1 (di Floquet) Ogni sistema fondamentale Φ dell’equazione

ẋ = Q(t)x , x0 ∈ V, Q ∈ Pert (L(V)) , (5.75)

può essere espresso, in coordinate, mediante una matrice Φ tale che

Φ : t &→ Φ(t) = PΦ (t)etBΦ ∈ L(Rn ) con


PΦ ∈ Pert (L(Cn )) non singolare, e BΦ ∈ L(Cn ) costante .

Note di Sistemi Dinamici


136 Capitolo 2. Sistemi differenziali lineari

Dimostrazione Sia Φ = Φ(t, t0 , Φ0 ) un sistema fondamentale di (5.75) e Φ = Φ(t, t0 , Φ0 ) la sua rappresen-


tazione in un arbitrario ma fissato sistema di coordinate. Come già ricordato all’inizio del paragrafo, esso è certo
definito su tutto R ed è quindi possibile calcolarne il valore in t + T

& t0 − T, Φ0 ) =: Φ(t,
Φ(t + T, t0 , Φ0 ) =: Φ(t, & t0 , Φ
& 0) .

D’altra parte, per ipotesi, il sistema Φ è soluzione per ogni t ∈ R della (5.75), e sono pertanto valide per ciascun
t ∈ R le seguenti identità (per semplicità, Φ(t, t0 , Φ0 ) verrà indicato con Φ(t))

Φ̇(t) = Q(t)Φ(t) e Φ̇(t + T) = Q(t + T)Φ(t + T) .

Ma Q(t + T) = Q(t), e quindi Φ(t + T)verifica la stessa equazione (5.75).


Siccome Φ(t) è non singolare per qualunque t, anche Φ(t + T) lo sarà, e se ne conclude che Φ(t + T) individua
un altro sistema fondamentale della (5.75): quello che all’istante t = t0 ha matrice

& 0 = Φ(t0 + T, t0 , Φ0 ) = Φ(t


Φ & 0 , t0 − T, Φ0 ) .

Esiste quindi una matrice numerica CΦ che prende il nome di


Matrice monodroma della (5.75) := una matrice CΦ ∈ L(Rn ) tale che

Φ(t + T) = Φ(t)CΦ e quindi CΦ = Φ−1 (t)Φ(t + T) = Φ−1 (t0 )Φ(t0 + T) .

Si ponga: etBΦ := CΦ . Risulta Φ(t + T) = Φ(t)etBΦ . Tale relazione, moltiplicata (a destra) per la matrice
non singolare e−(t+t)BΦ ∈ C2n , fornisce

Φ(t + T)e−(t+t)BΦ = Φ(t)e−tBΦ =: PΦ (t) ∈ C2n . (5.76)


"

Se ne conclude in particolare che è sufficiente conoscere la soluzione Φ in un solo periodo: t0 ≤ t ≤ t0 + T , anche


se non periodica, per ricavare la CΦ e di qui ottenere la soluzione generale, certamente definita su tutto R.
Nota 2.5.3 Entrambe le matrici CΦ (t) e BΦ (t) dipendono dalla scelta dell’istante t0 che, benché possa essere
scelto ovunque in R, va comunque fissato. Sia per esempio t0 = 0 . Esse, inoltre, dipendono dal sistema fondamentale
Φ scelto per esprimere la soluzione del sistema (si veda la Nota 2.5.6 più oltre).
Tuttavia né la matrice CΦ né la BΦ dipendono dal sistema di coordinate scelto su V. Infatti, una qualsiasi
trasformazione di coordinate purché lineare ed indipendente dal tempo: x′ = P x con P ∈ L(Rn ) (o al più T -
periodica, vedi oltre) agisce sulle matrici fondamentali Φ di uno stesso sistema fondamentale secondo la Φ′ = P Φ;
e pertanto si ha (Φ′ )−1 (0)Φ′ (T) = Φ−1 (0)P −1 P Φ(T) = CΦ , ovvero: la matrice monodroma CΦ (e quindi la
BΦ ) dipende solo dal sistema fondamentale scelto e non dalla sua rappresentazione.
Viceversa, la PΦ del Teorema di Floquet (definita nella (5.76)) dipende dal sistema di coordinate scelto su V
e si trasforma, al cambio di base: {e′ = P e} , come le matrici fondamentali: PΦ′ (t) = P PΦ (t).
Le due matrici PΦ (t) e BΦ (t) possono essere complesse anche se Φ e Q sono reali, e la matrice BΦ non è
determinata in modo univoco, ma lo è solo il suo esponenziale: CΦ = etBΦ . ◃

Nota 2.5.4 Nel caso dei sistemi a coefficienti costanti, e cioè se Q(t) = T = cost, si ha Φ(t) = Ψ(t)Φ(0) =
eT t Φ(0),
7 −1e quindi ogni
8 PΦ è Bcostante, e ogni BΦ è simile ad T . Infatti si può sempre porre eT t Φ(0) =
Tt t
Φ(0) Φ (0)e Φ(0) =: PΦ e Φ . In particolare BΦ è la matrice di Jordan TJ se Φ(0) ≡ P è la matrice
individuata dagli autovettori di T e cioè se il sistema fondamentale Φ è quello degli evoluti della base propria di
(ϵ)
T , e in tal caso si ha che PΦ (t) = 1I . ◃

Il teorema di Floquet si può cosı̀ rileggere: le soluzioni del sistema (5.75) sono le PΦ -trasformate delle soluzioni
di un associato sistema a coefficienti costanti:

ξ̇ = BΦ ξ , ξ0 ∈ Cn . (5.77)

Per enunciare in forma più generale questa proprietà si può anche introdurre la seguente relazione di equivalenza
fra sistemi a coefficienti T -periodici.

M. Lo Schiavo
2.5. La teoria di Floquet 137

Sistemi periodici equivalenti := due sistemi (5.75)

ẋ = Q(t)x, x0 ∈ V, Q ∈ Pert (L(C V)) (5.78)


ξ˙ = S(t)ξ, ξ0 ∈ V, S ∈ Pert (L( V)) ,
C
(5.79)

che abbiano operatori di campo Q, S periodici dello stesso periodo T , e siano tali da ammettere (in un qualche
sistema di coordinate) una coppia di matrici fondamentali: Φ : t &→ Φ(t) e Ξ : t &→ Ξ(t) rispettivamente, che
definiscono una stessa matrice monodroma:

Φ−1 (0)Φ(T) = CΦ = CΞ = Ξ−1 (0)Ξ(T) . (5.80)

Questa definizione implica che anche gli altri sistemi fondamentali di soluzioni dei due sistemi possono essere
resi corrispondenti a coppie: Φ# = Φ K e Ξ# = Ξ K rispettivamente, con K ∈ R2n non singolare, e ciascuna
coppia individua una stessa matrice monodroma:

CΦ# = K −1 Φ−1 (0)Φ(T) K = K −1 Ξ−1 (0)Ξ(T) K =: CΞ# . (5.81)

Lemma 2.5.1 Due sistemi lineari a coefficienti T -periodici (5.78) e (5.79) sono equivalenti se e solo se esiste un
(qualche) operatore non singolare Pt ∈ Pert (L(Cn )) tale che x = Pt (t)ξ , con t ∈ R; e cioè se e solo se esiste
un gruppo a un parametro di operatori invertibili: {Pt (t)}t∈R anch’esso T -periodico e tale che: Φ(t) = Pt (t) Ξ(t);
(o anche: . . . se e solo se esiste una trasformazione di coordinate lineare e T -periodica che collega i due sistemi).

Dimostrazione
(⇐)
CΦ = Φ−1 (t)Φ(t + T) = Ξ−1 (t)Pt−1 (t)Pt (t + T)Ξ(t + T)
= Ξ−1 (t)Ξ(t + T) = CΞ .

(⇒) La (5.80) implica Φ(t + T)Ξ−1 (t + T) = Φ(t)Ξ−1 (t) =: Pt (t). "

Scelto un sistema fondamentale Φ per l’equazione (5.78), e fissato il sistema di coordinate, si chiamino CΦ , BΦ ,
e PΦ le matrici del teorema. Restano garantite le ipotesi del Lemma 2.5.1 nel caso particolare in cui Pt e Ξ siano
rappresentati da PΦ ed etBΦ rispettivamente. Queste infatti verificano la: Φ(t) = Pt (t)Ξ(t) ≡ PΦ (t)etBΦ .
In un altro sistema di coordinate: x′ = P x, come si è visto, non muta la matrice BΦ
′ = B , e quindi invece dell’operatore B
Φ Φ
′ = P −1 B P .
viene usato l’operatore BΦ Φ
La matrice PΦ cambia come le componenti: PΦ′ = P PΦ e cosı̀ fanno anche le matrici Φ′ = P Φ che individuano il sistema
fondamentale Φ . Rimane tuttavia vera la relazione:

Φ′ = P Φ = P PΦ etB Φ = PΦ′ etB Φ ,

e le matrici Q e Ψ(t, t0 ) = Φ(t)Φ−1 (t0 ) si trasformano ancora secondo la: Ψ′ = P ΨP −1 .


Ciò permette di rifrasare ulteriormente il teorema di Floquet mediante il:

Corollario 2.5.1 Il sistema (5.75) è equivalente a un sistema (una famiglia di sistemi) a coefficienti costanti:
ξ˙ = BΦ ξ . L’operatore BΦ è quello che nel prescelto sistema di coordinate ha matrice BΦ .

Nota 2.5.5 L’equazione PΦ (t) = Φ(t)e−tBΦ implica che PΦ verifica l’equazione: ṖΦ = QPΦ − PΦ BΦ . ◃

Come si è visto, anche se la realtà dello spazio V e dell’operatore di campo Q(t) assicurano che anche il sistema
fondamentale Φ e quindi la matrice CΦ sono reali, ciononostante può accadere che la matrice BΦ := ln CΦ , e
quindi anche PΦ , siano complesse. Sussiste tuttavia la seguente

Proposizione 2.5.1 Se V è reale e quindi isomorfo ad Rn , se l’operatore di campo Q(t) dell’equazione (5.75) è
! := 2T , allora, qualunque sia il sistema fondamentale
reale, e se esso viene considerato periodico di periodo T
scelto Φ, in corrispondenza ad esso possono essere considerate reali: sia la matrice PΦ : t &→ PΦ (t) (considerata
2T -periodica) sia la matrice B! Φ ∈ L(Rn ) tale che e2tB̂Φ = C 2 .
Φ

Note di Sistemi Dinamici


138 Capitolo 2. Sistemi differenziali lineari

Dimostrazione Q reale e condizioni iniziali reali implicano Φ reale, e questa a sua volta implica CΦ reale.
Inoltre è
!Φ .
! ) := Φ(t + 2T) = Φ(t + T)CΦ = Φ(t)CΦ2 =: Φ(t)C
Φ(t + T
Ne segue che esiste B ! Φ tale che et̂B! Φ ≡ e2tB! Φ := C 2 ; e tale B ! Φ , come si è visto all’inizio del paragrafo, può
Φ

essere scelta reale. Inoltre e tB
è l’evolutore di ξ˙ = B!Φ ξ , che può allora essere considerato come un sistema
2T -periodico reale ed equivalente al sistema 2T -periodico: ẋ = Q(t)x. Dal teorema infine segue che PΦ (t) =
! !Φ .
Φ(t)e−tBΦ = PΦ (t + T ! ) è 2T -periodica e reale, perché tali sono Φ e B "

Nota 2.5.6 Siano Φ e Φ# due qualsiasi matrici fondamentali di una stessa equazione (5.75); e siano CΦ =
−1
Φ−1 (0)Φ(T) =: etBΦ e, rispettivamente, CΦ# = Φ# (0)Φ# (T) =: etBΦ# le due corrispondenti matrici
monodrome. Siccome senz’altro esiste K ∈ L(R ) non singolare e tale che Φ# (t) = Φ(t) K , se ne deduce
n

che:
−1
CΦ# = Φ# (0)Φ# (T) = K −1 Φ−1 (0)Φ(T)K = K −1 CΦ K , (5.82)
e cioè: tutte le matrici CΦ ≡ Φ−1 (0)Φ(T) pur dipendendo dai particolari sistemi fondamentali Φ che le definiscono,
sono però simili fra loro. In particolare hanno tutte gli stessi autovalori, mentre hanno come autovettori i K -
trasformati degli autovettori.
La stessa considerazione vale, modulo 2iπ , per le matrici BΦ e BΦ# .
Si ricordi, ora, che la matrice principale del sistema (5.75) relativa all’istante t0 è esprimibile mediante la Ψ(t, t0 ) := Φ(t)Φ−1 (t0 ) ≡
Φ(t, t0 , Φ0 )Φ−1
0 che rappresenta nelle coordinate scelte l’operatore di evoluzione Gtt0 del sistema (5.75). Se allora, nella (5.82) si sceglie
K = Φ (t0 ) =: Φ−1
−1
0 con t0 comunque fissato, e si ricorda che CΦ = Φ−1 (t, t0 , Φ0 )Φ(t + T, t0 , Φ0 ) , si riconosce che: la matrice
CΨ d’avanzamento di un periodo a partire dall’istante t0 resta individuata da
Φ C Φ−1 = Ψ−1 (t, t )Ψ(t + T, t ) = C = Ψ(t + T, t ) = etB Ψ .
0 Φ 0 0 0 Ψ 0 0

A sua volta, la matrice BΨ determina la matrice PΨ (t) = Ψ(t, t0 )e−tB Ψ .


Si osservi infine che la legge di composizione: Ψ(t, t′0 ) = Ψ(t, t0 )Ψ(t0 , t′0 ) =: Ψ(t, t0 )K permette di concludere che la scelta di
un altro t′0 fa mutare la CΨ solo all’interno della famiglia della sue equivalenti, e che è unico l’operatore CΨ al quale la scelta delle
coordinate e dell’istante t0 danno matrice Ψ(t0 + T, t0 ) , con Ψ(t0 , t0 ) = 1I . ◃

Si definiscono
Moltiplicatori (o numeri) caratteristici := gli autovalori µ1 , . . . , µn ∈ C, (eventualmente, reali) di una
(qualsiasi) delle matrici monodrome della (5.75).
Esponenti caratteristici := i numeri ηh ∈ C, h = 1, . . . , n, tali che

Tηh := ln µh ≡ ln |µh | + i(θh + 2kπ) =: σh + i(θh + 2kπ). (5.83)

Corollario 2.5.1 Per ciascuno degli autovalori distinti µ1 , . . . , µr ∈ C di una (qualunque) delle matrici monodrome
di (5.75): CΦ = Φ−1 (0)Φ(T), esiste (almeno) una soluzione non banale φ !j : t &→ φ
!j (t) di (5.75) tale che

!j (t + T) = µ(j) φ
φ !j (t), t ∈ R, j = 1, . . . , r .

Tali soluzioni, dette Soluzioni Normali, sono gli equivalenti delle autosoluzioni ϵ!(t) = ξ(t)ϵ(0), con ϵ ∈
Ker (T − λ1I ), dei sistemi a coefficienti costanti. Almeno una di esse esiste certamente in C Rn .
Dimostrazione Sia ϵµ ∈ C Rn un autovettore della CΦ corrispondente all’autovalore µ. ! := Φ(t)ϵµ
La φ(t)
è tale che
! + T) := Φ(t + T)ϵµ = Φ(t)CΦ ϵµ = µφ(t)
φ(t ! .

"

Se Q(t) è reale esistono coppie di soluzioni normali in corrispondenza a ciascuna coppia di moltiplicatori
complessi µ, µ̄ , e quindi coppie di soluzioni reali (ξ, η) ∈ R2n tali che, in R- span{ℜe ϵµ, −ℑm ϵµ } si ha
(
ξ(t + T) = αξ(t) − βη(t) = eσ (ξ(t) cos θ − η(t) sin θ) ;
η(t + T) = βξ(t) + αη(t) = eσ (ξ(t) sin θ + η(t) cos θ) .

In generale, non è detto che le soluzioni normali siano periodiche; lo sono se la corrispondente µ è una qualsiasi
radice dell’unità: µm = 1 , con m ∈ N, e cioè se µ = e2iπ/m con m ∈ N. La corrispondente soluzione normale
è allora periodica di periodo mT .

M. Lo Schiavo
2.5. La teoria di Floquet 139

In particolare si hanno soluzioni T -periodiche se µ = 1 è autovalore della matrice monodroma CΦ , ovvero se


CΦ ϵµ =: etBΦ ϵµ = ϵµ , e allora
! + T) = Φ(t + T)ϵµ = Φ(t)ϵµ = φ(t)
φ(t ! ,
mentre si hanno soluzioni 2T -periodiche (e non T -periodiche) se µ = −1 ∈ spct CΦ .
Se poi tutti i moltiplicatori caratteristici µ1 , . . . , µn sono distinti fra loro (o comunque di molteplicità algebrica
e geometrica uguali) le matrici CΦ = etBΦ , e quindi anche gli etBΦ , sono diagonalizzabili (in C Rn ). In questo
caso: le soluzioni normali sono sufficienti a formare un sistema fondamentale nello spazio delle soluzioni. Ciascuna
di esse ha la forma
φ!h (t) = ph (t)etηh , h = 1, 2, . . . , n , con ph ∈ Pert (C Rn ) , (5.84)
e cioè con ph = ph (t) un vettore (complesso) T -periodico, e Tηh := ln µh . (Basta moltiplicare, come fatto nel
! + T) = µh φ(t)
Teorema, per e−ηh (t+t) la relazione φ(t ! ). Viceversa, se una qualche soluzione dell’equazione
(5.75) ha la forma
! = p(t)etη ,
φ(t) con p ∈ Pert (C Rn ), η ∈ C,
allora essa è normale, ed esiste una qualche CΦ = etBΦ che ha µ = etη come autovalore.
!
Infatti: per il teorema di Floquet si ha φ(t) = PΦ (t)etB Φ x0 per qualche x0 ∈ Rn \{0} ed un qualche Φ . D’altra parte l’ipotesi
!
implica φ(t) ! + T)e−tη ; per cui risulta necessariamente
= φ(t
N O
PΦ (t)etB Φ x0 = PΦ (t + T)e(t+t)B Φ e−tη x0 e cioè PΦ (t)etB Φ 1I − et(B Φ −η1I ) x0 = 0.

Ma PΦ (t)etB Φ è non singolare e x0 non nullo; quindi 1 è autovalore di et(B Φ −η1I ) , il che comporta l’esistenza di un (auto)vettore
ϵ tale che etB Φ ϵ = etη ϵ =: µϵ, e cioè la tesi.

Nota 2.5.7 Gli esponenti caratteristici ηh := (ln |µh | + i(θh + 2kπ)) /T hanno solo le parti reali univocamente
determinate. Essi, come i µh , non dipendono dalla scelta del sistema fondamentale e, come si è visto nella Nota 2.5.1,
ciascuno di essi può essere considerato autovalore di un (qualche) BΦ . In loro corrispondenza si hanno le soluzioni
normali φ !h (t) = Φ(t)ϵh = PΦ (t)etηh ϵh .
Si osservi infine che, analogamente al caso dei coefficienti costanti, la periodicità di Q(t) assicura che ognuna
delle matrici Q(t) ha elementi limitati; e ciò implica che la crescita di ogni soluzione della (5.75) è limitata da una
funzione esponenziale, moltiplicata al più per un polinomio a coefficienti T -periodici. Infatti, anche nel caso in cui
qualche autovalore avesse molteplicità maggiore di uno, ricorrendo al sistema Φ che ha etBΦ in forma di Jordan
si trova che le matrici Φ(t) hanno colonne con elementi che sono combinazioni lineari di esponenziali moltiplicati
per polinomi in t, a coefficienti T -periodici.
È possibile allora (si veda: Cap V e [Hale § III.11]) associare ad ogni soluzione x = x(t) un numero λ detto
Esponente di Liapunov della soluzione := λ := lim supt→∞ 1t log |x(t)|;
esso ne caratterizza la crescita asintotica in |t| → ∞ . ◃

La proprietà vista in precedenza (si veda la Proposizione 2.4.1 § II.4) circa il Wronskiano
0. di una matrice
1
t
fondamentale , e cioè la Ẇ (t) = (T r Q(t)) W (t), o equivalentemente la Det Ψ(t, t0 ) = exp t0 T r Q(τ )dτ , dà
senz’altro )- t *
Det Φ(T)
exp T r Q(τ )dτ = Det Ψ(T, 0) = = Det CΦ = µ1 · · · µn ,
0 Det Φ(0)
ove i moltiplicatori µ1 · · · µn sono gli autovalori di una qualsiasi delle matrici CΦ := Φ−1 (0)Φ(T). Ne segue
-
1 t
T r Q(τ )dτ = η1 + . . . + ηn .
T 0

Un problema di Meccanica
Si consideri un pendolo semplice libero di oscillare in un piano verticale e vincolato ad un punto di sospensione che
si muove di moto periodico su un asse verticale di tale piano con legge nota: ζ = ζ(t) = ζ(t + T).

³(t)

l
µ
m
g
z

Note di Sistemi Dinamici


140 Capitolo 2. Sistemi differenziali lineari

Si hanno I) *2 ) *2 J
1 d d
T (t, θ, θ̇) = m (ζ(t) + l cos θ) + (l sin θ) ;
2 dt dt
V (t, θ) = −mg (ζ(t) + l cos θ) + c
L (t, θ, θ̇) = T (t, θ, θ̇) − V (t, θ),
d ∂L ∂L
− ≡ lθ̈ + (g − ζ̈(t)) sin θ = 0 .
dt ∂ θ̇ ∂θ
Supposto che sia ∥θ∥∞ = θmax ≪ π , e posto θ =: θmax x, si ricava (si veda: Cap. VI) che l’equazione per x è

g − ζ̈(t)
ẍ + x = 0.
l
Ad una equazione della stessa forma si giunge con un sistema che sia il modello per il moto di un’altalena:

l(t)
µ

m
g

per la quale un plausibile schema è quello di un pendolo semplice di lunghezza variabile: l = l(t) = l(t + T) e
quindi tale che:
1 0 1
T (t, θ, θ̇) = m l˙2 (t) + l2 θ̇2 , V (t, θ, θ̇) = −mgl(t) cos θ + c .
2
Ne segue ˙ θ̇ + g sin θ = 0 . Sommando e sottraendo il termine ¨lθ , e definendo x(t) := l(t)θ(t) e
l(t)θ̈ + 2l(t)
g−l̈(t)
c(t) := l(t) , si ricava un’equazione locale di moto simile alla (2.5)

ẍ + c(t)x = 0

Si noti che se l è T -periodica anche c è T -periodica.


In entrambi i casi l’equazione che si è ottenuta è del tipo
Equazione di Hill:
ẍ + (α + q(t)) x = 0 , x0 ∈ R, q ∈ Pert (R) (5.85)
equivalente al sistema
) * ) *) * ) *
ẋ 0 1 x x
= =: Q(t) , Q ∈ Pert (L(R2 )).
ẏ −α − q(t) 0 y y

Di questa si cercano soluzioni limitate per ogni t, in quanto si vedrà che sono anche quelle stabili. Visto il
teorema di Floquet, esse si avranno in corrispondenza a quelle limitate di un certo sistema a coefficienti costanti:
ξ̇ = BΦ ξ , e quindi necessariamente in corrispondenza ad esponenti caratteristici ηh con ℜe ηh ≤ 0 ovvero, essendo
T ℜe ηh = ln |µh |, a moltiplicatori caratteristici che abbiano |µh | ≤ 1. La condizione però non è sufficiente:
qualora si verifichi il caso µ1 = µ2 = 1 occorre l’ulteriore la richiesta che entrambe le soluzioni escano da autovettori
e non da autovettori generalizzati, ovvero che l’operatore BΦ abbia in loro corrispondenza divisori semplici.
L’equazione di Hill ha T r Q(t) = 0 , per cui è anche Det Ψ(t, 0) = 1 , e quindi

µ1 µ2 = Det Ψ(T, 0) = 1 .

Questa è l’unica relazione nota a priori sui moltiplicatori caratteristici, che tuttavia riduce il numero dei parametri
del sistema e permette lo svolgimento di una soddisfacente discussione qualitativa.
Qui di seguito verrà esaminato il caso particolare, e più semplice, della
Equazione di Mathieu:
) *
2πt
ẍ + α + β cos x=0, x0 , ẋ0 ∈ R, α, β ∈ R \ {0} , (5.86)
T

M. Lo Schiavo
2.5. La teoria di Floquet 141

e cioè una equazione lineare a parametri oscillanti con legge sinusoidale e pulsazione ωparm := 2π/T . Il caso della
(5.85) è, d’altronde, strettamente simile.
Per il teorema di Floquet, entrambe queste equazioni hanno soluzioni del tipo
t &→ x(t) = c1 p1 (t)eη1 t + c2 p2 (t)eη2 t
= c1 p1 (t)eσ1 t/t ei (θ1 +2k1 π)t/t + c2 p2 (t)eσ2 t/t ei (θ2 +2k2 π)t/t
dove c1 , c2 ∈ R, e dove si è usata la notazione
Tηh = ln µh = ln |µh | + i(θh + 2kh π) =: σh + i(θh + 2kh π), h = 1, 2, kh ∈ Z,
con le µ1,2 autovalori (ad esempio) di CΨ = etBΨ = Ψ(T, 0), e con le p1,2 funzioni a valori complessi T -periodiche
o eventualmente, se η1 = η2 , polinomi rispettivamente di ordine zero e uno a coefficienti T -periodici. Anzi, dalla
1 = µ1 µ2 = etη1 etη2 segue la forma speciale per le soluzioni dell’equazione di Mathieu
x(t) = c1 p1 (t)ei 2k1 πt/t e(σ+iθ)t/t + c2 p2 (t)e−i 2k2 πt/t e−(σ+iθ)t/t (5.87)
2
1 incognite!). Le µ1,2 sono radici della µ −
Si chiami ϱ(α, β) := T r Ψ(T, 0) = x1 (T) + ẋ2 (T)0 (evidentemente
/
ϱ(α, β)µ + 1 = 0 ; esse quindi sono date da µ1,2 = ϱ ± ϱ2 − 4 /2. Di conseguenza si riconoscono i seguenti
casi:

• ϱ > +2 . Le due radici µ1,2 sono reali, entrambe positive, diverse fra loro, e almeno una di esse: µ1 > 1 .
Ne segue θ = 0 e σ > 0 . La (5.87) diviene pertanto
x(t) =: c1 q1 (t)eσt/t + c2 q2 (t)e−σt/t c1,2 = cost , con
q1,2 (t) := p1,2 (t)ei 2k1,2 πt/t , funzioni T−periodiche reali.
Quando i parametri (α, β) danno luogo a questa eventualità, vi sono soluzioni non limitate e non vi sono
soluzioni periodiche.
• ϱ < −2 . Le due radici µ1,2 sono reali, entrambe negative: µh ≡ |µh |eiπ , diverse fra loro, e almeno una di
esse: µ1 < −1 . Ne segue θ = π , e σ > 0 . La (5.87) diviene pertanto
x(t) =: c1 q1 (t)eσt/t + c2 q2 (t)e−σt/t c1,2 = cost , con
i(2k1,2 +1)πt/t
q1,2 (t) : = p1,2 (t)e , funzioni 2T−periodiche reali.
Anche in questo caso vi sono soluzioni non limitate e non vi sono soluzioni periodiche.
• ϱ = 2 . Si presenta una radice doppia µ1 = µ2 = 1 e quindi Tη1 = Tη2 = 0 + i 2kπ . Pertanto, almeno una
soluzione è T -periodica, e come tale può essere considerata anche 2T -periodica, mentre le altre soluzioni sono
o non sono anch’esse periodiche a seconda che la Ψ(T, 0) sia 1I oppure sia simile a un blocco elementare di
Jordan (si può mostrare che per “quasi tutti” i valori dei parametri (α, β) per i quali ϱ = 2 le soluzioni sono
non periodiche).
• ϱ = −2 . Si presenta una radice doppia µ1 = µ2 = −1 = eiπ e quindi Tη1 = Tη2 = 0+i (2k+1)π . Almeno
una soluzione è 2T -periodica, e non può essere considerata anche T -periodica, mentre le altre soluzioni
possono o meno essere 2T -periodiche (ma certo non possono essere T -periodiche) a seconda che la Ψ(T, 0)
sia −1I oppure simile a un blocco elementare di Jordan; anche qui si può mostrare per quasi tutti i valori
dei parametri (α, β) per i quali ϱ = −2 esse saranno non periodiche.
• −2 < ϱ < 2 . Le due radici µ1,2 sono complesse coniugate: µ1 = µ̄2 ̸∈ R, semplici e diverse fra loro.
Insieme con la µ2 = µ−1
1 queste forniscono µ1 = µ̄−1
1 da cui: σ + iθ + i 2kπ = −σ + iθ + i 2kπ con θ/π ̸∈ Z,
e quindi: σ = 0 e θ ∈ (0, π). Le due radici cadono sul cerchio unitario, fuori dall’asse reale, e simmetriche
rispetto ad esso. Posto allora ω = θ/T ne segue che Tη1,2 = 0 ± i (ω T + 2kπ) e la (5.87) diviene
x(t) =: c1 q1 (t)ei ω t + c2 q2 (t)e−i ω t c1,2 = cost , con
q1,2 (t) := p1,2 (t)ei2kπt/t , funzioni (complesse) T−periodiche.
Le soluzioni sono tutte limitate, non T -periodiche né 2T -periodiche, e neppure periodiche di periodi superiori
a 2T , a meno che sia θ = Arg µ = 2kπ/n, o anche ω = (k/n)(2π/T), con k, n ∈ Z, n > 2 . Si hanno cioè
due pulsazioni (in generale non razionalmente dipendenti fra loro): la ωparm := 2π/T propria dei coefficienti,
e la ω := θ/T propria della dinamica.
Il moto è per definizione quasi-periodico.

Note di Sistemi Dinamici


142 Capitolo 2. Sistemi differenziali lineari

Osservazione. Se un numero complesso µ, eventualmente a parte immaginaria nulla, ha modulo maggiore di


uno, il numero complesso µ̄−1 lo ha senz’altro minore di uno.
Im
¹
¹1
1/¹{
Re

1/¹
¹2 {
¹

Le seguenti considerazioni e definizioni hanno carattere generale e si riferiscono a un qualsiasi sistema lineare a
coefficienti periodici.

Sistema reciproco := un sistema ẋ = Q(t) x, Q ∈ Pert (L(V ≡ Rn )) il cui insieme di moltiplicatori


caratteristici {µ1 , . . . , µn } contiene per ciascun moltiplicatore µ anche il suo reciproco: µ̄−1 ≡ µ/|µ|2 .
Il corrispondente operatore Q si dice, anch’esso, Reciproco.
Esempio 2.5.9 Per α, β ∈ R il sistema ẍ + (α + β cos(2πt/T)) x = 0 , è reciproco. La matrice Ψ(T, 0) ha
infatti dimensione due e autovalori µ1 = µ−1 2 , e quindi verifica le condizioni di reciprocità sia nel caso in cui essi
siano entrambi reali, sia nel caso in cui siano entrambi complessi, coniugati data la realtà della Ψ(T, 0). #

Quando l’operatore di campo Q : t &→ Q(t) è reale, anche ogni matrice monodroma C = etB è reale, ed entrambi µ e µ̄
sono moltiplicatori. La condizione di reciprocità consiste, in questo caso, nel richiedere che l’insieme dei moltiplicatori coincida con
l’insieme dei loro inversi, e cioè che etB ed e−tB abbiano uguali autovalori. Ciò accade per esempio se le corrispondenti matrici
C := etB e C−1 := e−tB sono simili, o anche se una delle due è simile alla trasposta dell’altra. Sussiste inoltre il seguente:

Lemma 2.5.1 Sia Q(t) reale, e si indichi con Ψ : t &→ Ψ(t, 0) la matrice principale ( Ψ(0) = 1I ) del sistema ẋ = Q(t)x. Se esiste
F ∈ L(Rn ) non singolare e tale che:
(i) F Q(t) = −Q(−t) F , t ∈ R; oppure tale che
(ii) F Q(t) = −QT (t) F , t ∈ R;
allora il sistema ẋ = Q(t)x è reciproco, in quanto nei due casi detti si ha rispettivamente
(i’) Ψ−1 (−t, 0) F Ψ(t, 0) = F , t ∈ R;
(i”) ΨT (t, 0) F Ψ(t, 0) = F , t ∈ R.

Dimostrazione Si ricordi (si veda: Nota 2.4.4 § II.4) che, nell’ipotesi che base e prodotto scalare siano tali che ⟨ eh , ek ⟩ = δhk e
detta Y T (t) la soluzione dell’equazione aggiunta Ẏ T = − Y T Q(t) , sussiste la Y T (t)Ψ(t, 0) = cost = Y T (t0 ) quando . In
particolare, la matrice Ψ−1 (t, 0) verifica tale equazione: Ψ̇−1 (t, 0) = −Ψ−1 (t, 0)Q(t) .
Se sussiste la (i) , anche Ψ−1 (−t, 0)F è soluzione dell’equazione aggiunta, infatti

Ψ̇−1 (−t, 0)F = Ψ−1 (−t, 0)Q(−t)F = −Ψ−1 (−t, 0)F Q(t) .
Se ne ricava la relazione Ψ−1 (−t, 0)F Ψ(t, 0) = cost = F e questo implica che Ψ(T, 0) e Ψ(−T, 0) sono simili e in particolare che
hanno gli stessi autovalori.
In modo analogo, dalla Ψ̇ + T = ΨT QT segue che se sussiste la (ii) allora si ha che
Ψ̇T (t, 0) F = ΨT (t, 0) QT (t) F = −ΨT (t, 0) F Q(t) .

Se ne ricava la ΨT (t, 0) F Ψ(t, 0) = cost = F . Da qui segue la similitudine fra ΨT (t, 0) e Ψ−1 (t, 0) , e va tenuto presente che
una matrice e la sua trasposta hanno gli stessi autovalori. "

Esempio 2.5.10 Si consideri un (qualsiasi) sistema Hamiltoniano linearo periodico, e cioè


@ A @ A @ 2 2 A@ A @ A@ A
q̇ + ∂H∂p
+ ∂∂p∂q
H
+ ∂∂p∂p
H
q +C A−1 q
= = 2 2 = ;
ṗ − ∂H∂q −∂ H −∂ H p −B −C p
∂q∂q ∂p∂q

1
7 8
con H (q, p) = pA−1 p +
2) *
qBq + 2pCq ed A, B, C, D ∈ Pert (L(Rn )) regolari e T -periodiche.
q
Ponendo x := , e chiamate
p
) * ) *
0 +1I B C
I := = −I T = −I −1 , H(t) := = HT (t)
−1I 0 C A−1

M. Lo Schiavo
2.5. La teoria di Floquet 143
) *
C A−1
e QH (t) := I H(t) = , tali sistemi si possono porre sotto la forma:
−B −C

ẋ = QH (t)x = I∇H x, con I QH (t) = −H(t) = −QT


H (t) I .

La parte (ii) del Lemma 2.5.1 conferma che QH è reciproca e quindi che la sua matrice principale ΨH è I -ortogonale:
ΨT
H (t, 0) I ΨH (t, 0) = I .

Una matrice che verifichi quest’ultima condizione, con I definito come sopra, si dice appartenere al gruppo simplettico reale. Ne
segue che: un operatore Hamiltoniano QH (t) lineare e periodico è reciproco, e ha come matrice principale di avanzamento su un periodo
etB H = ΨH (T, 0) una matrice reale simplettica, (e cioè I -ortogonale). #

In base all’Osservazione fatta più sopra si riconosce che per sistemi (periodici, lineari) reciproci: le soluzioni sono limitate per
t → ±∞ se e solo se tutti i moltiplicatori caratteristici hanno |µ| = 1 e divisori elementari semplici. D’altra parte si vedrà nel
seguito che per sistemi genuinamente lineari, e cioè lineari omogenei, non necessariamente autonomi, (tutte) le soluzioni limitate sono
(tutte) stabili, e viceversa. Pertanto si conclude che: per sistemi reciproci la limitatezza delle soluzioni equivale alla loro stabilità
(semplice, in quanto |µ| = 1 ). Questa osservazione fa sı̀ che qui di seguito si possa ugualmente parlare di soluzioni stabili, malgrado
non se ne sia ancora introdotta la definizione generale, pur di limitarsi alle soluzioni limitate di sistemi reciproci. Anzi, su questi si
potrà riconoscere una proprietà anche più forte della stabilità.
Si premetta la seguente nozione, che si riferisce alla stabilità di (tutte) le soluzioni di sistemi lineari a coefficienti regolari e periodici,
diversi da un certo 7assegnato 8sistema ma opportunamente “vicini” ad esso.
Si indichi con Qt , ∥·∥∞ lo spazio di Banach delle funzioni Q ∈ Pert (L(V)) (reali, regolari, T -periodiche, a valori in L(V) )
dotato della norma ∥·∥∞ := supt∈[0,t] ∥·∥ , ove ∥·∥ è la norma spettrale.

Lemma 2.5.1 Per ogni fissato t ∈ R , il sistema fondamentale ΨQ (t, 0) dell’equazione ẋ = Q(t)x è funzione continua di Q ∈ Qt in
quanto lo è la matrice ΨQ (t, 0) ∈ L(Rn , ∥·∥)

Dimostrazione Siano ẏ1 = Q1 (t)y1 e ẏ2 = Q2 (t)y2 . Posto u := y1 − y2 si ha ovviamente u̇ = Q1 (t)u + (Q1 (t) − Q2 (t)) y2 .
Si valuta allora - t
|u(t)| ≤ |u0 | + (∥Q1 (τ )∥ |u(τ )| + ∥Q1 (τ ) − Q2 (τ )∥ |y2 (τ )|) dτ
0
e mediante la disuguaglianza generalizzata di Gronwall (si veda: Appendice A.9) si ottiene
- t
|u(t)| ≤ |u0 | exp ∥Q1 (τ )∥ dτ
0
- t 0 1) - t *
+ ∥Q1 (τ ) − Q2 (τ )∥ |y2 (τ )| exp ∥Q1 (σ)∥ dσ dτ .
0 τ

Quest’ultima, per u0 = 0 , y0 := y2 |0 , e ΨQ1 (0) = ΨQ2 (0) = 1I dà


) - t * -
7 8 t ? ?
| ΨQ1 (t) − ΨQ2 (t) y0 | ≤ exp ∥Q1 (τ )∥ dτ · ∥Q1 (τ ) − Q2 (τ )∥ ? ΨQ2 (τ )? |y0 |dτ ,
0 0

che implica ) - * -
? ? ? ? t t
? ΨQ (t) − ΨQ (t)? ≤ sup ? ΨQ (ξ)? exp ∥Q1 (τ )∥ dτ · ∥Q1 (τ ) − Q2 (τ )∥ dτ .
1 2 2
ξ∈[0,t] 0 0
.t
Pertanto,
? siccome ?è 0
∥Q1 (τ ) − Q2 (τ )∥ dτ ≤ t ∥Q1 − Q2 ∥∞ , a t fissato e per ∥Q1 − Q2 ∥∞ convenientemente piccola si ha che
? ΨQ (t) − ΨQ (t)? è arbitrariamente piccola. "
1 2

Corollario 2.5.1 La matrice monodroma CΨ = ΨQ (T, 0) dell’equazione (5.75) è funzione continua di Q ∈ Qt .


Di conseguenza sono continui rispetto a Q anche la sua traccia: T r ΨQ (T, 0) =: T r etBΨ e i suoi autovalori
(Q) (Q)
µ 1 , . . . , µn .

Un sistema ẋ = Q(t)x del tipo (5.75), (o il suo operatore Q ∈ Qt ) , si dicono


Fortemente Stabile su (−∞, +∞) relativamente a un certo sottoinsieme Q′ ⊂ Qt se esiste δ > 0 tale che risultano
stabili (tutte) le soluzioni di ogni sistema ẋ = Q(t)x che abbia Q′ ∈ Q′ e ∥Q − Q′ ∥∞ < δ . [In particolare, vedi
oltre, Q è fortemente stabile se è stabile e strutturalmente stabile su (Q′ , ∥·∥∞ ) ].

Sia (Rt , ∥·∥∞ ) ⊂ (Qt , ∥·∥∞ ) lo spazio degli operatori in Qt e reciproci.

Teorema
; < 2.5.1 Se R ∈ Rt è reciproco e se una sua matrice monodroma CR := ΨR (T, 0) ha tutti i moltiplicatori
(R) (R)
µh semplici e di modulo unitario: |µh | = 1 per ogni h = 1, . . . , n, allora R è (stabile e) fortemente
h=1,...,n
stabile rispetto ad Rt .

Note di Sistemi Dinamici


144 Capitolo 2. Sistemi differenziali lineari

Dimostrazione Sia R verificante l’ipotesi. È possibile scegliere ε > 0 sufficientemente piccolo e, per l’enunciata
continuità, determinare in sua corrispondenza un δ > 0 tali che, per ogni Q ∈ Rt che verifichi ∥R − Q∥ < δ , accada
che in ciascun disco sul piano complesso: Bε (µR ) cade uno e un solo moltiplicatore µQ relativo alla ΨQ (T, 0).
Ma Q ∈ Rt implica che anche µ̄−1 −1
Q è un moltiplicatore, e questo dovrà appartenere a Bε (µ̄R ). D’altra parte se R
−1 2
ha autovalori (semplici e) di modulo unitario si ha µ̄R = µR /|µR | = µR . Per cui, affinché in Bε (µR ) vi sia un
solo moltiplicatore µQ , è necessario che anche Q abbia autovalori semplici e tali che µ̄−1
Q = µQ ; ciò che implica
|µQ | = 1 e quindi la stabilità di Q e la tesi. "

Corollario 2.5.2 Nell’ultimo dei casi considerati per i valori dei parametri dell’equazione di Mathieu tale equazione
è fortemente stabile rispetto all’insieme Rt . Pertanto se un qualunque sistema in Rt è prossimo nel senso della
∥·∥∞ a uno di Mathieu che abbia valori dei parametri come nel quinto dei casi considerati sopra, esso ne condivide
le proprietà di stabilità.

Dalle precedenti considerazioni si ricava che, sul piano (α, β) relativo all’equazione di Mathieu, le zone di
stabilità e di non stabilità (ovvero di limitatezza o non limitatezza delle soluzioni) sono dominii regolari sepa-
rati fra loro dalle regioni (varietà unidimensionali): ϱ(α, β) = ±2 , che contengono i valori di “separazione”
corrispondenti a soluzioni, rispettivamente, T -periodiche e 2T -periodiche. In più, le soluzioni T -periodiche e
2T -periodiche possono aversi solo in queste regioni, giacché per |ϱ| > 2 si hanno ℜe (ln µ) ̸= 0 , e per |ϱ| < 2 si
hanno ℑm (ln µ) ̸= kπ .
Per determinare esplicitamente queste zone sarà allora conveniente imporre l’esistenza di soluzioni rispettiva-
mente T -periodiche e 2T -periodiche.
C∞Affinché il’equazione
2nπt/t
di Mathieu ẍ + (α + β cos(2πt/T))x = 0 abbia come soluzione la funzione x(t) =
n=−∞ c n e è necessario che sia

= + 2
,
2 π β
− 4n cn + αcn + (cn+1 + cn−1 ) ei 2nπt/t = 0,
T2 2
n=−∞

dalla quale segue la successione di condizioni


) *
β 4n2 π 2 β
cn+1 + α − 2
cn + cn−1 = 0, n = 0, ±1, ± . . . . (5.88)
2 T 2
L’equazione (5.88) è un sistema omogeneo di infinite equazioni. Esso ha soluzione non banale qualora, per
β ̸= 0 e α ̸= (2nπ/T)2 , sia nullo il
Determinante di Hill:
' '
'. . '
' . '
' '
'. . .. '
' . . 0 '
' '
' γ−2 1 γ−2 '
' '
' γ0 1 γ0 ' =: ∆H = 0
' '
' γ2 1 γ2 '
' '
' .. . . ''
' 0 . .'
'
' . . ''
' .
β
ove γ2n := .
2(α − (2nπ/T)2 )
C∞ i mπt/t
Allo stesso modo, affinché m=−∞ dm e sia soluzione, è necessaria la condizione, valida per β ̸= 0 ,
2
α ̸= (2(n + 1)π/T) , e con d2n = 0 ,
' '
'. . '
' . '
' '
'. . .. '
' . . 0 '
' '
' γ−3 1 γ−3 '
' '
' γ1 1 γ1 &H = 0
' =: ∆
' '
' γ3 1 γ3 '
' '
' .. . . ''
' 0 . .'
'
' . '
' . .'

M. Lo Schiavo
2.5. La teoria di Floquet 145

β
ove γ2n+1 := .
2(α − 2(n + 1)π/T)2

Sfruttando relazioni di ricorrenza sui troncamenti dei ∆H , ∆ & H (si veda: [Jordan]) si riesce, numericamente, a
valutare le coppie (α, β) che annullano, in via approssimata, i determinanti di Hill; queste individuano le regioni
del piano (α, β) caratteristiche dei valori dei parametri per i quali esistono soluzioni T -periodiche o 2T -periodiche.
Per la continuità della traccia T r ΨQ (T, 0) rispetto all’operatore di campo Q, queste zone arrivano a toccare i
punti corrispondenti alle soluzioni T -periodiche e 2T -periodiche del “caso limite”: β = 0 , e cioè: ẍ + αx = 0 .
È chiaro che su questo ultimo caso si sa dire
√ tutto: ci sono soluzioni periodiche se α è (reale) positiva; in tal
caso esse hanno pulsazione ωnat := ω(α, 0) = α , e si ha
@ √ √ A
cos α t √1 sin α t
α
Ψnat (t, 0) = √ √ √ .
− α sin α t cos α t
√ B √ √
ϱ ϱ2
Inoltre: T r Ψnat (T, 0) =: ϱ(α, 0) = 2 cos α T , e quindi µnat 1,2 = 2 ± 4 − 1 = cos α T ± i sin α T e

±i α t
ne segue: µnat1,2 = e .
Esse
√ sono soluzioni T -periodiche, o 2T -periodiche (ma non T -periodiche), se e solo se accade rispettivamente
che α T è un multiplo intero positivo (rispettivamente pari o dispari) di π ; e cioè quando ωnat T = 2nπ ,
oppure ωnat T = 2(n + 1)π , con n in N+ .
In definitiva, il caso limite β = 0 ha


⎨ϱ = +2 per ωnat T = 2nπ, e cioè ωnat /ωparm = n
ϱ = −2 per ωnat T = (2n + 1)π, e cioè ωnat /ωparm = (2n + 1)/2


ϱ ∈ (−2, 2) negli altri casi.

Se ne deduce che i punti dell’asse β = 0 sono tutti corrispondenti a soluzioni limitate e, come tali, fortemen-
te stabili, qualunque siano le loro condizioni iniziali e in particolare quindi le soluzioni statiche, salvo quelli in
corrispondenza ai valori
ωnat ωnat 2n + 1
=n oppure = , n ∈ N.
ωparm ωparm 2

Nell’intorno di tali punti si hanno soluzioni T -periodiche (rispettivamente: 2T -periodiche) insieme a soluzioni non
limitate giacché i moltiplicatori sono non semplici.
instabili
¯ fortemente stabili
2T- periodiche
T - periodiche

!nat/!
parm
1/2 1 3/2 2 5/2
Si vede quindi che è possibile rendere instabile la posizione di riposo di un’altalena mediante una pur piccola
variazione periodica della sua lunghezza (equivalente) purché il periodo dei parametri sia proporzionale a un numero
semi-intero di periodi naturali.
Fenomeni di questo tipo sono noti con il nome di Risonanza parametrica, e non vanno confusi con quelli di
Risonanza forzata, presente in sistemi non omogenei.

Si possono paragonare questi risultati con quelli (si veda: [Arnold 1]) che si ottengono per l’equazione

ẍ + (ω 2 + ε2 sin t)x = 0

qualora si “rettifichi” il campo:



⎪ 2 2
⎨ω+ := (ω + ε) per t ∈ (0, π],
2 2
(ω + ε sin t) −→

⎩ 2
ω− := (ω − ε)2 per t ∈ (π, 2π],

Note di Sistemi Dinamici


146 Capitolo 2. Sistemi differenziali lineari

e si consideri l’evoluzione G02π come composta dalle due Gπ2π e G0π . Si ha


) 1 *) 1 *
2π cos πω− ω sin πω− cos πω+ ω+ sin πω+
G0 = −
−ω− sin πω− cos πω− −ω+ sin πω+ cos πω+

che ha traccia tale che


' ) * '
' ω+ ω− '
|T r G02π | = ''2 cos πω+ cos πω− − + sin πω− sin πω+ '' .
ω− ω+
ω+ ω− 2
Siccome ε ≪ 1 si può porre ω− + ω+ ≃ 2 + 4 ωε 2 , e un semplice calcolo (si veda: [Arnold 1]) assicura che la
traccia vale ±2 a seconda che
ε2 1 ε
ω =n± + o(ε2 ) oppure ω =n+ ± + o(ε) .
n2 2 (n + 12 )π

Per la discussione del caso generale dell’equazione di Hill si veda [Hale]. Questa non è comunque concettual-
mente diversa da quella più semplice vista qui, né dà risultati qualitativamente diversi.

M. Lo Schiavo
Capitolo 3

Equazioni Differenziali Ordinarie:


Metodi Qualitativi

3.1 Il piano delle fasi


Un metodo molto diverso da quelli visti fino ad ora, e particolarmente utile per ottenere risultati qualitativi sulle
equazioni differenziali autonome, specialmente se di ordine due, è quello che fa ricorso all’esame del comportamento
geometrico delle traiettorie, o meglio della struttura topologica della famiglia delle traiettorie, nello spazio delle
fasi.
Sia assegnato un campo autonomo v : x &→ v(x) ∈ Rn , e si consideri il problema
ẋ = v(x), v ∈ C r (D), r ≥ 1, e x 0 ∈ D ⊂ Rn . (1.1)
Verrà dato per scontato il fatto che il campo è regolare su un aperto D ∈ Rn almeno quanto basta per assicurare
i teoremi di esistenza, unicità, dipendenza continua dal dato, prolungamento fino alla frontiera di un qualunque
compatto contenente il punto iniziale e contenuto in D .
Più in generale, il problema (1.1) può essere pensato con x0 ∈ U ⊂ M, v(x) ∈ Tx M, e v ∈ C r (U ), ove
M è una varietà n-dimensionale, ma in tal caso i risultati che si otterranno in questo capitolo si intendono validi
limitatamente (si veda Appendice A.4) ad una carta (U, h), salvo poi estenderli ad altre coordinate.
Si indicherà con x! : t &→ φ(t, t0 , x0 ) ∈ M, o anche con x stessa, la soluzione massimale della ẋ = v(x) che
passa per (t0 , x0 ) : φ(t0 , t0 , x0 ) = x0 .
Detto (m1 , m2 ) =: JM l’intervallo di definizione della φ, con l’aggettivo massimale si intende richiamare il fatto
che essa non solo è tale che su tutto JM risulta: φ̇(t) = v(φ(t)), ma in più che tale identità non può sussistere per
alcuna altra funzione con le stesse proprietà della φ e definita su un intervallo propriamente contenente JM .
d
Nota 3.1.1 Se φ : t &→ φ(t, t0 , x0 ) è soluzione di un’equazione (non autonoma) del tipo dt x = v(t, x) con intervallo
massimale JM = (m1 , m2 ) allora, fissato un qualsiasi c ∈ R, è evidente che la funzione
ψ : τ &→ ψ(τ, τ0 , x0 ) := φ(τ + c, τ0 + c, x0 ), con τ0 + c := t0
d (c)
è soluzione della dτ x = v(τ + c, x) sull’intervallo JM := (µ1 , µ2 ) := (m1 − c, m2 − c).
Si ha infatti: ψ(τ0 , τ0 , x0 ) := φ(t0 , t0 , x0 ) = x0 , e
'
d ''
ψ′ (τ ) = φ(η) = v(τ + c, φ(τ + c)) = v(τ + c, ψ(τ ))
dη '
η=τ +c
K
purché sia τ + c ∈ (m1 , m2 ) , e cioè τ ∈ (m1 − c, m2 − c) . Si tenga presente la notazione usata: il secondo argomento della funzione
φ è relativo al parametro il cui valore numerico
L è stato fissato affinché, quando viene assunto dal primo argomento, il valore della
funzione coincide con il terzo argomento . ◃

In generale però questo non implica che la funzione


ψ : t &→ ψ(t, τ0 , x0 ) ≡ φ(t + c, t0 , x0 )
d
sia soluzione anche dell’equazione dt x = v(t, x).
Viceversa, il calcolo appena eseguito dimostra la
Proposizione 3.1.1 Se un’equazione ha campo autonomo, e cioè tale che
v(t + c, x) = v(t, x) = v(x) per ogni costante reale c e per ogni t,
e se φ : t &→ φ(t, t0 , x0 ) è soluzione dell’equazione ẋ = v(x) con intervallo massimale JM = (m1 , m2 ) allora,
comunque scelta la costante c ∈ R, la funzione
t &→ ψ(t, t0 − c, x0 ) := φ(t + c, t0 , x0 ) (1.2)
(c)
è soluzione della stessa equazione di cui è soluzione la φ, ma ciò solo se si considera JM := (m1 − c, m2 − c)
quale intervallo massimale della ψ essendo JM := (m1 , m2 ) quello della φ.

147
148 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Esempio 3.1.2 ẋ = x2 , t0 , x0 ∈ R, x0 > 0 .


Sia
φ(t0 + c, t0 , x0 ) = ψ(t0 , t0 − c, x0 ) =: ψ(t0 , t0 , y0 ) = y0 ;

si ha
) *−1
1 1
φ(t, t0 , x0 ) = − t − t0 − su JM (x0 ) = (−∞, t0 + ),
x0 x0
) *−1
1 (c) 1
ψ(t, t0 − c, x0 ) = − t + c − t0 − su JM (x0 ) = (−∞, t0 − c + ).
x0 x0

M
y0
0)
{c, x ,x 0)
t
à (t, 0 x0 Á (t,t 0
t
t0{c t0 t0{c+1/x0 t0+c t0+1/x0

N.B. 3.1.3 Se due soluzioni, qualunque e distinte, φ e ψ di un’equazione autonoma sono tali da assumere
uno stesso valore x0 := φ(t0 , t0 , x0 ) = ψ(t1 , t1 , x0 ) in due diversi istanti t0 ̸= t1 allora: siccome la ψ& definita da
& t1 , x0 ) := φ(t + c, t0 , x0 ) è anch’essa soluzione dell’equazione, e siccome scelto c tale che t1 + c = t0 si ha
t &→ ψ(t,
& 1 ) = x0 , dal teorema di unicità si deduce che la ψ è identica alla ψ& , e cioè che la ψ è necessariamente ottenuta
ψ(t
dalla φ tramite un semplice incremento dell’ascissa temporale.
Il caso particolare in cui una stessa soluzione (massimale) ammetta uno stesso valore in due diversi istanti, e
cioè il caso in cui fin dall’inizio si abbia φ ≡ ψ , verrà esaminato più avanti. ♦

Al variare del valore della costante c in R si ha evidentemente che le corrispondenti curve integrali sono le
traslate le une delle altre lungo l’asse dei tempi. Al variare invece del valore della costante c in (m1 − t0 , m2 − t0 ),
con un fissato t0 , il punto iniziale varia in tutti i modi possibili lungo una stessa traiettoria.
Per un sistema autonomo la dinamica non dipende dallo specifico valore assunto dalla variabile indipendente,
ma solo dalla differenza fra questo e quello iniziale: l’evoluzione di un dato punto è la stessa sia che lo si consideri
punto iniziale in un particolare istante sia che lo si consideri tale in un istante che disti dal primo un arbitrario
intervallo di durata c.
Le precedenti considerazioni sono equivalenti ad osservare che l’autonomia (e la regolarità) del campo comportano che esso individui
una famiglia {Gtt0 }t∈(m1 ,m2 ) di evolutori Gtt0 : M → M dati da Gtt0 x0 := φ(t, t0 , x0 ) , che è un gruppo, locale, ad un parametro. Infatti,
ove definiti, gli evoluti di x0 verificano la

Gtt00 +τ x0 = G0τ x0 =: G τ x0 , con G 0 = 1I , per τ ∈ (m1 − t0 , m2 − t0 ) ;

in quanto risulta
Gtτ0 −c x0 = ψ(τ, t0 − c, x0 ) = φ(τ + c, t0 , x0 ) = Gtτ0+c x0 per τ + c ∈ (m1 , m2 ).

Inoltre, se per un certo c ∈ [0, m2 ) e un certo t ∈ [0, m′2 ) esistono entrambi

y0 = G c x0 = φ(c, 0, x0 ), ed & 0, y0 ) ,
y& = G t y0 = φ(t,

allora esiste anche y = G t+c x0 (si hanno cioè t+c ∈ [0, m2 ) , e: −c ∈ (−m′1 , 0] ) e risulta coincidere con y& = G t (G c x0 ) = φ(t+c, 0, x0 ) .
Infatti la funzione ⎧
⎨ φ(t + c, 0, x0 ) per t ∈ [−c, 0]
t &→ ψ(t, −c, x0 ) :=
⎩ φ(t,
& 0, y0 ) pert ∈ [0, m′2 )

è soluzione dell’equazione per t ∈ [−c, m′2 ) , e vale y0 per t = 0 . Ciò mostra che ψ(t, −c, x0 ) esiste almeno su [−c, m′2 ) . Se allora si
considera, per t ∈ [0, m′2 + c) , la funzione ψ& : t &→ ψ(t
& + c, 0, x0 ) := φ(t, −c, x0 ) , si osserva che essa è soluzione dell’equazione e vale
y0 in t = 0 . Pertanto la ψ& necessariamente coincide con la φ e ne garantisce la definizione almeno su [0, m′2 + c) .

M. Lo Schiavo
3.1. Il piano delle fasi 149

0)
,x
0)

c,0
,y
M

+
,0

(t

(t

y
e
G t y0 G t+cx0
y0
G cx0
)
à (t,-c,x 0 x0
)
Á(t,0,x 0
t
-c 0 t c t+c
In definitiva, la soluzione generale di un sistema autonomo verifica la relazione

φ(t + c, 0, x0 ) = φ(t, 0, y0 ) = φ(t, 0, φ(c, 0, x0 ))

da intendersi come funzione della sola variabile t, nella quale senza ledere la generalità si è posto t0 = 0 e nella
quale c è fissato tale che φ(c, 0, x0 ) esista; (si veda anche [Hirsh Teor. VIII.7.2]).

N.B. 3.1.4 Come si è visto nel N.B. 3.1.3, l’uguaglianza φ(t2 ) = ψ(t1 ) implica che le due soluzioni sono diverse
solo per una traslazione dell’origine dei tempi. Ne segue che due qualunque moti di un’equazione autonoma che
passino per uno stesso punto (anche se in istanti diversi), hanno la medesima traiettoria:

{ φ (t)}t∈(m1 ,m2 ) = { ψ (t)}t∈(m1 −c,m2 −c) .

Per ogni punto dello spazio delle fasi di un sistema autonomo passa quindi una e una sola curva di fase massimale;
(questa proprietà è posseduta dalle curve integrali nello spazio delle fasi ampliato, in virtù del determinismo).
Nel seguito quando si dirà traiettoria si intenderà sempre l’immagine di uno qualunque dei moti massimali
passanti per uno qualunque dei suoi punti. In tal senso il teorema del prolungamento si può anche ricordare
dicendo che: se una traiettoria è interamente contenuta in un compatto contenuto nel dominio di regolarità del
campo allora la funzione moto è definita per ogni t ∈ R, infatti essa risulta definita per ogni t ∈ [a, b] qualunque
siano a, b ∈ R.
Da ciò segue anche che, a parte possibili differenze nei comportamenti dinamici dovute solo ad una diversa
parametrizzazione dell’ascissa temporale rispetto all’ascissa curvilinea lungo la traiettoria, sono le traiettorie nello
spazio delle fasi più che le curve integrali in quello ampliato che ben rappresentano l’evoluzione del sistema auto-
nomo, ed è per questo che spesso lo studio di tali sistemi si intende esaurito quando se ne dia il grafico di fase.
Occorre tuttavia ricordare che sono le traiettorie, e non altre curve che le contengano, gli oggetti che descrivono il
sistema. ♦

Ancora per un sistema autonomo, si consideri ora il caso particolare φ = ψ , e cioè il caso in cui esistano
t1 , t2 ∈ R tali che risulti φ(t2 , 0, x0 ) = φ(t1 , 0, x0 ). Ne segue che esiste c ∈ R per il quale

per ogni t in R si ha : φ(t + c, 0, x0 ) = φ(t, 0, x0 ) .


Infatti la funzione
t &→ ψ(t, −c, x0 ) := φ(t + c, 0, x0 ), con c = t1 − t 2
è soluzione e vale φ(t1 ) in t1 ; come tale, essa è identica alla φ(t, 0, x0 ).
Se ne deduce che la corrispondente traiettoria, nello spazio delle fasi, necessariamente contiene almeno un arco
chiuso, o curva di Jordan.
N.B. 3.1.5 Questo caso non si può verificare se la varietà è unidimensionale: infatti affinché la variabile possa
riassumere lo stesso valore sarebbe necessario un campo (autonomo) non ad un solo valore. ♦

N.B. 3.1.6 Siccome φ è definita in (m1 , m2 ) mentre ψ lo è in (m1 − c, m2 − c) e giacché i due intervalli devono
coincidere malgrado c sia strettamente positiva, si ha che l’unica possibilità lecita in questo caso è che entrambi
gli intervalli coincidano con tutto l’asse reale. In particolare ne segue che se c verifica l’assunto, anche −c lo fa.♦

Note di Sistemi Dinamici


150 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

N.B. 3.1.7 L’insieme dei possibili numeri c forma un sottogruppo (additivo) G di R, ed è un sottoinsieme chiuso
di R. Infatti φ(t + c1 ) = φ(t) e φ(t + c2 ) = φ(t) danno φ(t ± c1 ± c2 ) = φ(t); e inoltre, siccome φ è continua,

lim φ(t + cn ) = φ(t + lim cn ).


n→∞ n→∞

N.B. 3.1.8 Il sottoinsieme degli elementi positivi del sottogruppo ammette un estremo inferiore T detto
Periodo del moto, che per la chiusura appartiene esso stesso a G, e che non può essere nullo a meno che la funzione
φ sia la funzione costante. Infatti, se l’estremo inferiore fosse nullo potrebbero esistere c ∈ G comunque piccoli.
Ma, considerato che per ciascun c che appartiene a G anche mc appartiene a G per un qualunque m ∈ Z, dati
arbitrariamente k, ε > 0 , potrebbe esistere un elemento c̄ ∈ G tale che |k − mc̄| < ε . La chiusura di G implica
che anche k dovrebbe appartenere a G che allora, data l’arbitrarietà di k , dovrebbe coincidere con R. ♦

N.B. 3.1.9 Ogni altro elemento di G è un multiplo intero del periodo T . Infatti se vi fosse un c ∈ G non multiplo
intero di T , esisterebbe m ∈ Z tale che mT < c < (m + 1)T , ovvero tale che 0 < c − mT < T malgrado il fatto
che anche c − mT debba essere un elemento di G. ♦

N.B. 3.1.10 Il punto precedente esclude che una traiettoria possa ammettere punti doppi o contenere archi che
non siano chiusi. In definitiva: i moti periodici soluzioni di una equazione autonoma sono tutti e soli quelli che
ammettono come traiettorie, nello spazio delle fasi, delle curve di Jordan. ♦

In R1 la famiglia dei diagrammi di fase è assai esigua; data la ridotta dimensione dello spazio delle fasi, ciascun
punto di equilibrio è estremo (non contenuto) di solo due traiettorie, rispetto alle quali esso è: o attrattivo per
entrambe (“pozzo”), o repulsivo per entrambe (“sorgente”), o attrattivo per l’una e repulsivo per l’altra (“sella”),
a meno che esso sia contenuto in un intervallo fatto tutto da punti di equilibrio.

Questa affermazione, naturalmente, sfrutta il fatto che diagrammi di fase omeomorfi danno identiche informa-
zioni qualitative, a meno di una diversa parametrizzazione delle traiettorie stesse.
Già nel caso di sistemi a due gradi di libertà, invece, l’insieme delle possibili traiettorie è estremamente più ricco.
È però vero che non ogni curva, anche se regolare, può essere traiettoria di un sistema differenziale regolare. Per
esempio un cammino può entrare (o avvicinare) un punto di equilibrio soltanto per t → ∞ cioè con un “estremo”,
e più in generale non può tendere verso un punto di una traiettoria (regolare) per alcun t → t1 < ∞. Si deve tener
presente che un punto di equilibrio è esso stesso una traiettoria, e non appartiene quindi ad alcuna delle eventuali
traiettorie che gli si avvicinano.
Esempio 3.1.11 Nella figura sono accennati tre diagrammi di fase ottenuti per tre distinti valori di un parametro di
controllo di un sistema 2 -dimensionale che, malgrado siano localmente uguali, danno luogo a dinamiche totalmente
diverse.

M. Lo Schiavo
3.1. Il piano delle fasi 151

N.B. 3.1.12 Sulle traiettorie viene generalmente indicato il verso naturale di crescita del parametro tempo, che
naturalmente coincide con il verso del vettore tangente v(x) ♦

Esempio 3.1.13 Un caso analogo al precedente:

In definitiva, gli elementi con cui si costruiscono i diagrammi di fase in R2 sono:


(i) punti, che rappresentano soluzioni di equilibrio;
(ii) curve semplici chiuse, o curve di Jordan, che come si è visto rappresentano moti periodici;
(iii) archi semplici, che non si intersecano, che possono divergere, oppure che possono incidere (uscenti o entranti)
solo in punti necessariamente di equilibrio.

Lo studio dei diagrammi di fase comincia di regola con la ricerca dei punti di equilibrio e con l’esame locale
delle traiettorie in prossimità di questi; ciò sempre dal punto di vista qualitativo, e quindi identificando fra loro
diagrammi che, seppure diversi, sono tuttavia fra loro omeomorfi, (cfr. oltre). Pertanto generalmente questo studio
consiste innanzi tutto nel tracciare, localmente intorno a ciascun equilibrio, il diagramma di fase di un più semplice
sistema (possibilmente lineare) che sia “equivalente” a quello dato. Successivamente, con l’aiuto dello studio diretto
del campo vettoriale assegnato, si raccordano fra loro i vari diagrammi trovati. Purtroppo questa tecnica non
sempre determina il diagramma completo, e si deve far ricorso a teoremi e metodi di natura globale per eliminare
le possibili ambiguità. È questa la parte più difficile degli studi qualitativi e per la quale sono spesso utili metodi
numerici.
Lo stabilire possibili equivalenze fra flussi è già argomento di profondo interesse (si veda anche l’Appendice A.4).
Ad esempio, con equivalenza “topologica” fra due sistemi si intende che esiste un omeomorfismo f : U ⊂ M → M
che coniuga fra loro due possibili evolutori G t e I τ di M in sé secondo la
f −1 ◦ I τ ◦ f = G t con U ∋ x0 , t ∈ N (t0 ), τ = τ (t, x0 ) invertibile rispetto a t.
In tal caso, le due evoluzioni su M sono dette topologicamente equivalenti: il omeomorfismo f e la funzione invertibile
τ assicurano che per ogni t ∈ N (t0 ):
(
ξ0 = f (x0 )
⇐⇒ ξ := I τ ξ0 = f ◦ G t x0 ≡ f (x).
τ = τ (t, x0 )
Più in generale (si veda: [Wiggins 1 p.24; Guckenheimer p.38]) si definiscono:
v, w campi vettoriali C k - coniugati := due campi per i quali esiste un C k - diffeomorfismo: f : M → L che
trasforma le soluzioni φ dell’equazione ẋ = v(x) nelle soluzioni ψ dell’equazione ẏ = w(y) secondo la
ψ◦f =f ◦φ ovvero ψ(t, t0 , f (x0 )) = f (φ(t, t0 , x0 )) .
A tale proposito, sussiste la
Proposizione 3.1.1 (fondamentale) Siano D un aperto di M, v : M → T M un campo in C r (D), ed f : M → L
un diffeomorfismo C r+1 .
Dato comunque x0 ∈ D , l’equazione ẋ = v(x) ha soluzione
φ : I → M data da: x = x(t) := φ(t, t0 , x0 ) su I ∈ R aperto contenente t0 ,
se e solo se posto w = f∗ v|f −1 , l’equazione ẏ = w(y) ha soluzione
ψ : I → L data da: y = y(t) := ψ(t, t0 , y0 ) su I ∈ R aperto contenente t0 ,
7 7 88
ed allora ψ è tale che ψ(t, t0 , y0 ) ≡ f φ t, t0 , f −1 (y0 ) e y0 = f (x0 ).

Note di Sistemi Dinamici


152 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Dimostrazione Dato che v è regolare su D , ed f è un diffeomorfismo, si ricavano facilmente i seguenti punti:


(i) x ∈ D ⇐⇒ f (x) ∈ int (f (D));
(ii) x ∈ ∂D ⇐⇒ f (x) ∈ ∂f (D);
(iii) K compatto ∈ D ⇐⇒ f (K) compatto ∈ f (D)
(iv) sia {G t }t∈I la famiglia di evolutori dell’equazione ẋ = v(x). Per ciascun t ∈ I sia G t x0 il punto x =
φ(t, t0 , x0 ); e sia y0 = f (x0 ) ∈ f (D) l’f -trasformato di x0 . L’f -trasformato del punto x è univocamente
definito dalla
y = f ◦ G t x0 , e cioè dalla y = y(t) := f (φ(t, t0 , f −1 (y0 ))).
Resta in tal modo definita una famiglia {I t }t∈I di evolutori tali che
I t y0 := y(t) = y := f ◦ G t ◦ f −1 (y0 ) .
Il moto t &→ y(t) che le corrisponde individua la richiesta soluzione ψ mediante la ψ(t, t0 , y0 ) := y(t). Esso
infatti verifica la
d 7 t 8 d 7 8 d 7 t 8 7 8
I y0 = f ◦ G t x0 = f∗ G x0 = f∗ v G t x0 =
dt dt 7 8 dt
= f∗ v f −1 (y) = w(I t y0 ) ;
quindi {I t }t∈I coincide con l’evoluzione, che sotto tali ipotesi esiste ed è unica, dell’equazione ẏ = w(y).
(Qui si sono indicati gli evolutori e non le funzioni del tempo solo per motivi di snellezza nella notazione).
(v) Il viceversa segue dalla invertibilità delle f ed f∗ , e cioè dal fatto che f è un diffeomorfismo.

f
Á Gt Ã
It y
x
x0 y0
f{1

v(x) w(y)

"

N.B. 3.1.14 Si osservi che nella letteratura la notazione f∗ può avere significato leggermente diverso da quello
qui usato. Di frequente infatti (si veda ad esempio [Abraham-Marsden]) il campo w è di per sé indicato con f∗ v ;
l’operazione f∗ è allora chiamata “push forward” dal campo v al campo w ed è definita solo per diffeomorfismi
f. ♦

Ne segue in particolare che la coniugazione fra due campi v e w è assicurata dall’esistenza di un diffeomorfismo
f tale che
w(y) = [f∗ v(x)]x=f −1 (y) .
In tal caso, le traiettorie del flusso individuato da v , e in particolare i punti fissi o le orbite periodiche, vengono
trasportate dal morfismo f in quelle del flusso di w , o anche: i due flussi sono C k - coniugati.
Più debolmente si possono considerare sistemi che condividono solo le traiettorie nello spazio delle fasi e non
anche le curve integrali, o solo luoghi di punti che contengono traiettorie; per essi la parametrizzazione non è la
stessa. Come si è accennato si tratta allora solamente di
v, w campi vettoriali C k - equivalenti := campi vettoriali per i quali accade che
ψ(τ (t, x0 ), τ0 , f (x0 )) = f (φ(t, t0 , x0 ))
per un qualche diffeomorfismo f : M → L e una qualche funzione τ : R × M → R monotona rispetto a t (in
generale: non decrescente).
In questi casi ad esempio le orbite periodiche, pur essendo conservate, possono non mantenere lo stesso periodo,
(si vedano gli esempi più oltre).

M. Lo Schiavo
3.1. Il piano delle fasi 153

v, w campi vettoriali topologicamente equivalenti := individuano flussi che sono solo topologicamente equiva-
lenti, e cioè la mappa f è un omeomorfismo.
v, w campi vettoriali linearmente equivalenti := la mappa f è lineare.
N.B. 3.1.15 Nel seguito, quando sia fissato un sistema di coordinate, l’equazione
ẋ = v(x) , (1.3)
con campo definito sulla varietà M, e valida nel fibrato tangente T M, verrà generalmente scritta “per coordinate”:
ẋ = v(x) := X v(x) ≡ X [φ]x ,
ed anzi si riserverà la notazione x, v a corrispondenti grandezze scalari: in R1 .
D’altra parte, se nella Proposizione Fondamentale 3.1.1 si intende f come la funzione identità sulla varietà M,
7 8−1
rappresentata dalle h(ξ) ◦ h(x) , e della quale la ΞX −1 rappresenta la tangente, allora è lecito concludere che il
N O
∂ξ
sistema ẋ = v(x) resta trasformato nel sistema ξ̇ = ν(ξ) con ν(ξ) = ∂x v(x) −1
entrambi rappresentanti
x=ξ (ξ)
su due diverse carte la stessa equazione: ẋ = v(x)
In definitiva è possibile scegliere, per ciascuna classe di coniugio di campi (secondo la definizione data qui sopra),
un solo sistema del tipo (1.3) da trattarsi risolvendo una qualunque delle sue rappresentazioni in coordinate. Tale
soluzione va poi interpretata sulla varietà, e trasformata mediante la Proposizione Fondamentale.
In definitiva non è troppo restrittivo pensare al diffeomorfismo f della Proposizione Fondamentale come ad
una qualsiasi trasformazione di coordinate fra sistemi del tipo ẋ = v(x), e che non lede limitarsi alla notazione
per coordinate purché si tenga presente che essa può rappresentare anche intere classi di sistemi. ♦

Nota 3.1.2 Se v e w sono coniugati da un diffeomorfismo f , e se v(x0 ) = 0 , allora la matrice ∂v(x0 ) risulta
simile alla ∂w(f (x0 )) := ∂w(y)|y=f (x0 ) . Le due matrici sono solo proporzionalmente simili in caso di semplice
equivalenza.
'
'
Infatti la (T C ′ ) implica: w(f (x)) = f∗ ' v(x) dalla quale si ricava
x
' ' ' '
' ' ' '
w∗ ' f∗ ' = f∗∗ ' v(x) + f∗ ' v∗ (x),
f (x) x x x

o anche, in coordinate, w(f (x)) = ∂f (x)v(x) ed


∂w(f (x))∂f (x) = ∂ 2 f (x)v(x) + ∂f (x)∂v(x).
Ne segue che due sistemi con uno stesso punto fisso possono essere C k - coniugati con k ≥ 1 solo se gli
autovalori delle linearizzate siano gli stessi. È questa una richiesta molto forte, in particolare se quelle che si
vogliono studiare sono solo le proprietà qualitative del sistema. Per tale tipo di studio è generalmente sufficiente
limitarsi a considerare casi di semplice equivalenza topologica. ◃

Si noti d’altra parte che la condizione di avere uguali gli autovalori delle linearizzate non è sufficiente per un
C k - coniugio; occorre infatti che esse condividano anche la ricchezza dei loro rispettivi autospazi.
Esempio 3.1.17 Con x0 , y0 ∈ R si ha che
( M
ẋ = x ẋ = x + y
è topologicamente equivalente a
ẏ = y ẏ = y

ed entrambi hanno ) gli stessi


* autovalori; )
i due sistemi
* però non sono linearmente (e quindi differenziabilmente)
1 0 1 1
coniugati poiché non è simile a . #
0 1 0 1

Tuttavia si vedrà nel seguito che per la sola equivalenza topologica fra due sistemi lineari che abbiano tutti gli
autovalori con parti reali non nulle basta che esse abbiano la stessa segnatura.

Nei seguenti esempi verrà usata la familiare notazione delle coordinate cartesiane sul piano: (x, y), (ξ, η) ∈ R2
e polari: (ρ, θ) ∈ R+ × R1 .
(
ẋ = y
Esempio 3.1.18 x0 , y0 ∈ R.
ẏ = x,

Note di Sistemi Dinamici


154 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Sia ) * ) * ) * ) *) *
x ξ x+y 1 1 x
f: &→ = = .
y η x−y 1 −1 y
) *
1 1
Come ci si aspetta, si ricava ∂f = , che dà, in coordinate,
1 −1
) * ) *
x+y ξ
w(f (x)) = ∂f (x)v(x) = e quindi w= .
y−x −η

È quindi facile calcolare ξ(t) = ξ0 e+t , η(t) = η0 e−t , e se ne conclude


) * ) * ) *) * ) *
x(t) −1 ξ(t) 1 −1 −1 ξ(t) 1 ξ0 et − η0 e−t
=f =− = .
y(t) η(t) 2 −1 +1 η(t) 2 ξ0 et + η0 e−t

#
(
ẋ = y
Esempio 3.1.19 x0 , y0 ∈ R.
ẏ = −x,
) * ) * )/ *
x ρ x2 + y 2
Sia f: &→ = , per x > 0 e θ ∈ (−π/2, +π/2).
y θ arctan xy
Dato che ∂ arc tan α = (1 + α2 )−1 , risulta (in coordinate):
@ x y A
√ 2 2 √
∂f = x +y x2 +y 2
−y x
x2 +y 2 x2 +y 2

e quindi ) * ) *) * ) *
ρ̇ cos θ sin θ ρ sin θ 0
= ∂f v(f −1 (ρ, θ)) = − sin θ cos θ =
θ̇ ρ ρ −ρ cos θ −1
da cui, localmente, ρ(t) = ρ0 , θ(t) = −t + θ0 .
Al crescere di t occorrerà cambiare carta. Ad esempio, si può introdurre la coordinata: θ1 ∈ (−π/2, π/2) data
da θ1 := arctan −x/y per y > 0; per cui nel primo quadrante) ) θ1 = θ − π/2*. La ∂f rimane la stessa e
*risulta
−1 ∂ ρ cos θ cos θ −ρ sin θ
definita; in effetti essa è l’inversa della ∂f = ∂(ρ,θ) = e cioè della tangente della
ρ sin θ sin θ ρ cos θ
) * ) * ) *
ρ x ρ cos θ
trasformazione f −1 : &→ = che, per la periodicità delle funzioni seno e coseno, è definita
θ y ρ sin θ
su (0, +∞) × (−∞, +∞) ma che è invertibile solo su striscie di larghezza minore di 2π .
La trasformazione prosegue con θ2 := arctan y/x per x < 0; e la θ2 = θ1 − π/2 può essere usata per definire
θ = θ2 + π = arctan y/x + π nella striscia x < 0 . Questa, con la θ := π/2 per x = 0 , genera una corrispondenza
continua fra i punti del piano tagliato in {x = 0, y < 0} e i valori ρ ∈ (0, +∞), θ ∈ (−π/2, 3π/2). (Di qui in
poi: se si prosegue si ha la continuità perdendo la biunivocità; se si smette si ha la biunivocità a scapito della
continuità). #

Esempio 3.1.20
⎧ η
⎨y = + x tan α
cos α con x, y ∈ R ,
⎩ ξ = x + η tan α
cos α
e con α fissato e indipendente da t.
y
»
´

® x

M. Lo Schiavo
3.1. Il piano delle fasi 155

La trasformazione è quindi, in coordinate,


) * ) * ) *) *
x ξ cos α sin α x
ℓ: &→ =
y η − sin α cos α y

e pertanto ) *
cos α sin α
∂ℓ = ,
− sin α cos α
come deve visto che la trasformazione è lineare. #

Nel Capitolo II si è visto come tutti gli esempi qui sopra facciano parte di una stessa forma generale: l’equazione
ẋ = T x con T ∈ L(V).
Nota 3.1.3 È bene osservare esplicitamente che non è certo sufficiente che due sistemi abbiano le stesse traiettorie,
o addirittura traiettorie che appartengano a medesime curve, per far sı̀ che i sistemi siano coniugati o equivalenti.

Esempio 3.1.22 (continua l’Esempio 3.1.19).


Si è visto nella prima parte dell’esempio che, (eventualmente cambiando carta per quanto riguarda la definizione
della funzione θ ) la trasformazione (di coordinate, ma solo se locale)
) * ) * )/ * @ x A
x ρ x2 + y 2 √ 2 2 √ 2y 2
f: &→ = ha ∂f = x +y x +y .
y θ arctan xy −y
x2 +y 2
x
x2 +y 2

Pertanto, l’oscillatore lineare: ẋ = y , ẏ = −x, è equivalente a


) * ' ) *) * ) *
ρ̇ ' cos θ sin θ ρ sin θ 0
= ∂f v ' −1 = − sin θ cos θ = .
θ̇ f ρ ρ −ρ cos θ −1

In modo del tutto analogo, e con la stessa trasformazione f , per i sistemi:


( ( (
ẋ = xy, ẋ = +y(x2 + y 2 ), ẋ = −y/(x2 + y 2 ),
ẏ = −x2 ; ẏ = −x(x2 + y 2 ); ẏ = +x/(x2 + y 2 );

si ottengono rispettivamente i trasformati:


( ( (
ρ̇ = 0, ρ̇ = 0, ρ̇ = 0,
θ̇ = −ρ cos θ; θ̇ = −ρ ; 2
θ̇ = ρ−2 .

Si osserva che tutti e quattro tali sistemi hanno traiettorie appartenenti alle circonferenze concentriche (x2 +
y ) = (x20 + y02 ). Tuttavia essi non possono certo essere coniugati giacché il secondo ha fissi tutti i punti dell’asse
2

delle y , gli ultimi due hanno periodi dipendenti dal raggio, cioè dalle condizioni iniziali, e l’ultimo ha campo non
definito nell’origine.
Può essere interessante notare che le trasformazioni che portano direttamente l’oscillatore armonico lineare negli
altri (ancora in coordinate cartesiane) possono tutte essere espresse da
) * ) * ) *
x ξ ρ(x, y) cos ϕ(x, y)
h: &→ =
y η ρ(x, y) sin ϕ(x, y)
/
ove ρ(x, y) := x2 + y 2 e dove ϕ = ϕ(x, y) è rispettivamente nei vari casi, e con θ := arctan y/x:
) *
exp(ρ(x, y)θ(x, y)) − 1
ϕ1 (x, y) = θ(x, y) ϕ2 (x, y) = +2 arctan
exp(ρ(x, y)θ(x, y)) + 1
ϕ3 (x, y) = +ρ2 (x, y)θ(x, y) ϕ4 (x, y) = −ρ−2 (x, y)θ(x, y)

con Jacobiani J = x∂y ϕ(x, y) − y∂x ϕ(x, y) ≡ ∂ϕ/∂θ rispettivamente dati da

J1 (x, y) = 1 J2 (x, y) = ρ(x, y) cos ϕ2 (x, y)


J3 (x, y) = ρ2 (x, y) J4 (x, y) = −ρ−2 (x, y)

Note di Sistemi Dinamici


156 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Per rendersene conto si chiamino


) * @/ A ) * )/ *
ρ ξ 2 + η2 r x2 + y 2
:= η ed := y ,
ϕ arctan ξ θ arctan x

e, scelti due dei quattro sistemi dati, si distinguano come segue:


) * ) ξ * ) * ) x *
ξ̇ ν (ξ, η) ẋ v (x, y)
= η ed = y .
η̇ ν (ξ, η) ẏ v (x, y)

Si operino poi le due trasformazioni nei corrispondenti due equivalenti sistemi


) * ) ρ * ) * ) r *
ρ̇ ω (ρ, ϕ) ṙ w (r, θ)
= ed = .
ϕ̇ ω ϕ (ρ, ϕ) θ̇ θ
w (r, θ)
) * ) *
r ρ
Su questi ultimi è agevole determinare la trasformazione f& : &→ tale che
θ ϕ
) ρ * ) r *'
ω (ρ, ϕ) w (r, θ) ''
= ∂ f& ,
ϕ
ω (ρ, ϕ) w (r, θ) 'f˜−1 (ρ,ϕ)
θ

e mediante la f& determinare la f . Ad esempio mediante il terzo e primo dei casi visti si ottiene
) * ) * ) *' ) *
0 ρr ρθ 0 '' −ρθ
= =
−ρ 2 ϕr ϕθ −1 'f˜−1 (ρ,ϕ) −ϕθ

che si risolve nelle ρ(r, θ) = ρ!(r) e ϕ3 (r, θ) = ρ2 (r)θ + ϕ(r)


! . Ne segue, ad esempio,
⎧ 2 2 2 2
⎨ ξ + η = ρ(x + y )
η y
⎩ arctan = ρ(x2 + y 2 ) arctan + ϕ(x2 + y 2 )
ξ x
ed il fatto che sia ṙ = 0 fornisce, ad esempio, ξ 2 + η2 = x2 + y 2 = cost , insieme con ξ = ρ cos ρ2 θ ed η = ρ sin ρ2 θ , nelle quali
ρ2 = x2 + y 2 e tan θ = y/x .
In modo analogo, nel caso (2) si ha ρ cos ϕ3 = ∂ϕ3 /∂θ , che fornisce c exp(ρθ) = (1 + tan ϕ2 /2)/(1 − tan ϕ2 /2) .

Il precedente esempio mostra che trasformare le coordinate dipendenti può non essere il metodo migliore per
disegnare un diagramma di fase. Spesso, cambiare parametrizzazione risulta più conveniente.
Esempio 3.1.23 Sia D un dominio di Rn , e sia data, in coordinate, la

dx
= v(x) κ(x) ; x 0 ∈ D ⊂ Rn , v : D → Rn , κ:D→R, (1.4)

con κ ∈ C 1 (D) e κ = 0 al più nei punti in cui v(x) = 0 .
Le traiettorie individuate dalla (1.4) sono le stesse di quelle della:

dx
= v(x) ; x 0 ∈ D ⊂ Rn , v : D → Rn ; (1.5)
dt
l’unica loro differenza è che esse corrispondono ad una diversa parametrizzazione. Per rendersene conto, si consideri
la soluzione φ : t &→ x = φ(t) della (1.5) che vale x0 in t0 . L’ipotesi sulla κ permette (in linea di principio) di
risolvere la - t
dτ 1 dη
= ovvero la τ − τ0 =
dt κ(φ(t)) t0 κ(φ(η))

nella t = β(x0 ) (τ ) =: β(τ ). Per esempio, nel caso dell’Es.3.1.22 questo metodo fornisce subito la relazione
ρ cos ϕ = ∂ϕ/∂θ , in cui θ gioca il ruolo di τ e ϕ quello di t. È importante osservare che in tal modo è possibile
ottenere le soluzioni di (1.4) a partire da quelle di (1.5). Infatti la funzione ψ := φ ◦ β è tale che
' N O
dψ dφ '' dβ
= = v(φ(t)) κ(φ(t)) = v(ψ(τ )) κ(ψ(τ )).
dτ dt 't=β(τ ) dτ t=β(τ )

Il procedimento poi si può estendere, ad esempio per le curve contenenti più di una traiettoria, nei casi in cui
la funzione κ si annulla anche in altri punti oltre che gli equilibri, e ciò pur di suddividere i cammini in archi
aventi per estremi le loro intersezioni con la Superficie singolare κ(x) = 0 . (Come si è visto, le funzioni ϕi
dell’Esempio 3.1.22 possono anche essere trovate in questo modo, in coordinate polari). #

M. Lo Schiavo
3.1. Il piano delle fasi 157

Un ulteriore caso di trasformazione della variabile indipendente è quello nel quale il sistema iniziale è il (1.5), e
quello che viene discusso o risolto è il sistema (1.4) nel quale come funzione κ viene scelta una specifica, comoda,
funzione.
È di interesse il caso in cui come funzione κ sia scelta l’inverso di una delle componenti del campo v . Nel-
l’ipotesi che in x0 sia v n (x0 ) ̸= 0 , si consideri, ad esempio, κ := 1/v n . Chiamando anche in questo caso
φ : t &→ φ(t) la soluzione (incognita) della (1.5) tale che x0 = φ(t0 ), e ψ : τ &→ ψ(τ ) la soluzione (nota) della (1.4)
−1
con κ(x) := (v n (x)) , si vede che il legame fra i due sistemi è dato dalla
dxn
ẋn (t) = v n (φ(t)) =: 1/κ (φ(t)) =: τ̇ ovvero =1,

- t - t
dt′
e quindi dalla τ − τ0 ≡ xn − xn0 =: v n (φ(t′ )) dt′ =: ′
.
t0 t0 κ(φ(t ))

Il procedimento consiste in definitiva nello scegliere una delle componenti della variabile dipendente come
indipendente (localmente dove ciò sia possibile: se è v n (x0 ) ̸= 0 si può scegliere xn (τ ) = τ + c, o anche
xn ≡ τ ), e fornisce, con la notazione usata in questo esempio, la
Equazione differenziale associata:
dxi v i (x1 , . . . , xn ) dxn
= con i = 1, . . . , n − 1, e con = 1. (1.6)
dxn v n (x1 , . . . , xn ) dτ
Si paragoni questa equazione con la 4.35 del §I.4: il metodo di risoluzione è lo stesso.
Come si è detto, la particolare scelta della n-ma coordinata è conseguenza dell’assunto che nel punto x0 il
campo sia “trasverso” al piano xn = xn0 , e cioè che sia v n (x0 ) ̸= 0 . Tale ipotesi assicura che la (incognita)
funzione φn : t &→ xn = φn (t) che, in virtù della (1.5), verifica l’identità: φ̇n (t) = v n (φ(t)), sia localmente
invertibile nella t = β(x0 ) (xn ) =: β(xn ). Quest’ultima è allora tale che
dβ dφn dβ n
t0 = β(xn0 ) con 1= n
= v (φ(t)) .
dx dt dxn
Si ritrova cosı̀ che la soluzione ψ = ψ(xn ) dell’equazione associata (1.6), tale che ψ(xn0 ) = x0 e che esiste per
l’ipotesi di trasversalità e di regolarità locale vicino a xn0 , è legata alla soluzione φ della (1.5) dalla relazione
ψ = φ ◦ β e cioè ψ(xn ) := φ(β(xn )); infatti, per costruzione, è φn (t0 ) = xn0 , e inoltre
'
dψ i dφi dβ v i (x) '' dψ n
= = ' , i = 1, . . . , n − 1, := 1 .
dxn dt dxn v n (x) x=φ◦β dxn
La curva integrale dell’equazione associata, o parte di essa, coincide con la traiettoria del sistema di partenza
(1.5) parametrizzata con xn . La xn &→ ψ(xn ) è, semplicemente, la rappresentazione cartesiana (locale) della curva
t &→ φ(t) soluzione della (1.5).
Ovviamente si deve essere pronti a cambiare i ruoli della xn con una delle altre quando ci si avvia verso
punti in cui v n = 0 ; inoltre in tal modo si è anche perso l’orientamento sulla traiettoria che va deciso osservando
direttamente il verso del vettore v(x).
I quattro i sistemi dell’Esempio 3.1.22 danno tutti luogo alla stessa Equazione associata, benché con diverse
vn .
Nota 3.1.4 Non ci si deve aspettare che qualora anche si riesca, spesso per pura fortuna, a risolvere implicitamente
l’equazione associata (per esempio se n = 2 per separazione di variabili) il problema sia risolto esplicitamente.
Ciò che infatti si trova è una relazione ad esempio del tipo f1 (y) = f2 (x) + cost che in generale non si riesce ad
esplicitare rispetto ad una delle variabili. Se però ciò che si vuole è solo l’andamento qualitativo di questa funzione,
allora può essere d’aiuto il Metodo di Volterra (si veda: [Simmons p.286]), o, meglio, un comodo computer.
y
y) 1
f 1(
v=

2 2
3 3
2 2

1
v x
c =c1

w = f 2(x) c =c2
w
=

v
w {c

Note di Sistemi Dinamici


158 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Quando invece la funzione ψ : xn &→ ψ(xn ), soluzione dell’equazione associata, sia esplicitamente nota può
accadere che sia anche possibile determinare esplicitamente (in linea di principio lo è) la funzione φn : t &→ xn =
φn (t). Essa infatti è, necessariamente, soluzione della
7 8
ẋn = v n (φ(β(xn ))) ≡ v n ψ 1 (xn ), . . . , ψ n−1 (xn ), xn ; xn (t0 ) = xn0 .

Quest’ultima, sempre risolubile (in forma implicita) per separazione di variabili, con la sua soluzione t &→ xn = φn (t)
(inversa della β ) assegna finalmente tutte le altre xi = φi (t) ≡ ψ i (φn (t)), i = 1, . . . , n − 1 . È questo il caso che
si presenta quando una delle equazioni è disaccoppiata dalle altre.
) * ) *
ẋ x2
Esempio 3.1.25 = , x0 , y0 ∈ R.
ẏ y(2x − y)
Si può notare che l’equazione associata è una particolare equazione di Riccati, e cioè del tipo: y ′ + p(x)y =
q(x)y 2 + r(x) che in questo caso specifico può addirittura essere risolta analiticamente con il metodo visto nel
Capitolo I, (Es.1.4.25). Posto infatti
dy 2 y2
− y=− 2
dx x x
una soluzione è senz’altro y1 (x) = x. D’altra parte, il metodo visto a suo tempo porta a cercare v tale che
y = y1 + 1/v . Si ottiene
1 dv 2 1 2 dv 1
+ = 2 2+ e cioè = 2
v 2 dx vx x v vx dx x
da cui v(x) = −1/x + 1/k per un’opportuna costante k ∈ R ∪ {∞} , e quindi

kx x
y(x) = x + = .
x−k 1 − k/x

A sua volta, la soluzione della ẋ = x2 è nota. Si ricava quindi, se x0 ̸= 0 ,




⎪ x20
⎨ x(t) =
1 − x0 (t − t0 )

⎪ x0
⎩ y(t) = , .
(1 − x0 (t − t0 )) (x0 − k(1 − x0 (t − t0 )))

Infine, il caso x0 = 0 va risolto separatamente osservando che la y(t) è allora soluzione della ẏ = −y 2 . Si ricava
cosı̀ y(t) = y0 /(1 + y0 (t − t0 )). #

Talvolta, a prescindere dalla sua esplicita risoluzione, il ricorrere all’equazione associata è di aiuto immediato
nello studio della geometria del sistema. Ad esempio, il seguente metodo è del tutto diverso dal ricercare la
soluzione esatta del problema, come si è fatto nell’esempio precedente, ma raggiunge se non lo stesso risultato
almeno una sufficiente idea del come sia tracciato il diagramma di fase del sistema.
A partire dal fatto che [φ]x contiene senz’altro x + vt, si osserva che: nello spazio delle fasi M, ed in ogni sua
rappresentazione in coordinate, le rette parallele al campo dell’equazione associata coincidono con quelle parallele
al campo del sistema di partenza e sono pertanto tangenti sia alla curva φ che alla curva ψ nel loro (generico)
punto x. In particolare, nel caso bidimensionale x ≡ (x, y) ∈ R2 , le rette individuate dalla direzione del campo
sono quelle con coefficiente angolare v x (x, y)/v y (x, y) . Si definiscono
Isocline := le curve, nel piano delle fasi R2 , lungo le quali v x (x, y)/v y (x, y) = cost .
Isocline principali := le curve, nel piano delle fasi R2 , lungo le quali è rispettivamente v x (x, y) = 0 oppure
v y (x, y) = 0 .
Le intersezioni delle isocline principali sono i punti di equilibrio del sistema.
Esempio 3.1.26 (continuazione dell’Esempio 3.1.25) Si osserva che:

(i) c’è un solo equilibrio: (0, 0);

(ii) v(x, y) = v(−x, −y) pertanto le traiettorie saranno curve simmetriche rispetto all’origine e basta studiarle
nel semipiano x ≥ 0 ;

M. Lo Schiavo
3.1. Il piano delle fasi 159

(iii) l’isoclina ẋ = 0 è proprio l’asse delle y . Questo potrà allora contenere archi di traiettorie. Anzi, essendo su
di esso ẏ = −y 2 ̸= 0 se fuori dell’equilibrio, tale asse è costituito da tre traiettorie, e i due semiassi |y| > ε
sono percorsi in un tempo finito se ε > 0 ;

(iv) le altre isocline sono√y(2x − y)/x2 = cost =: tan θ , o anche x2 − (x − y)2 = c x2 da cui necessariamente
c ≤ 1 e y = x(1 ± 1 − c). Ma c esprime l’inclinazione del campo v sull’asse delle x. In particolare,
c = 0 sulle y = 0 e y = 2x; c = 1 su y = x; c = 0.5 su y = (1 ± √12 )x; e cosı̀ via.

c= 2
c ={3

/
c=

c= 0

1
+1
c=

+
{3
c=
{2

c =0
1/2
c =+

Il passaggio poi dalla prima alla seconda di queste figure è conseguenza della proprietà (si veda §3) che, lontano
dagli equilibri, il flusso si può “pettinare”.

Esempio 3.1.27 ẍ − (x2 + ẋ2 − 1)ẋ + x = 0 , t0 , x0 , ẋ0 ∈ R.


Il sistema equivalente è
(
ẋ = y
con t0 , x0 , y0 ∈ R,
ẏ = −x + (x2 + y 2 − 1)y,
dy dy
e da questa si ha l’equazione associata dx = − xy + x2 + y 2 − 1 . Ora, siccome dx = − xy ha curve integrali sulle
circonferenze con centro nell’origine, si nota che l’equazione data, nell’intorno della curva x2 + y 2 = 1 , ha campo
come in figura:

La cosa si può formalizzare. Sia dato il seguente esempio “accademico”:


Esempio 3.1.28
(
ẋ = +y + (x2 + y 2 − 1)x,
x0 , y0 ∈ R .
ẏ = −x + (x2 + y 2 − 1)y,

Si osserva che il sistema è della forma:


(
ẋ = v x (x, y) − f (x, y)v y (x, y) =: vfx (x, y),
ẏ = v y (x, y) + f (x, y)v x (x, y) =: vfy (x, y)),

Note di Sistemi Dinamici


160 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

e quindi chiamando
v y (x, y) vfy (x, y)
tan θ := x ; tan θf := tan α := f (x, y) ,
v (x, y) vfx (x, y)
l’equazione associata risulta
y
v (x,y)
ẏ v x (x,y) + f (x, y) tan θ + tan α
tan θf = = v y (x,y) = = tan (θ + α) .
ẋ 1 − f (x, y) vx (x,y) 1 − tan θ tan α

Se, come in questo caso, si conoscono le isocline del sistema “ridotto”


(
ẋ = v x (x, y) ≡ y
ẏ = v y (x, y) ≡ −x
è facile ricostruire il campo vf del sistema assegnato in quanto esso è “ruotato di α ” rispetto a quello v del sistema
noto. D’altra parte quest’ultima osservazione si sarebbe anche potuta ricavare subito dalla:
) x* ) * ) x* ) * ) x*
vf 1 −f v 1 cos α − sin α v
= ≡ ,
vfy f 1 vy cos α sin α cos α vy
e ciò mostra che il campo è ruotato di α := arctan(x2 + y 2 − 1) rispetto alle isocline y = cx e che inoltre esso è
allungato di 1/ cos α .
In questo particolare esempio, il risultato si può ottenere in modo esatto esprimendo il sistema in coordinate
polari: ) * ) *) * ) 2 *
ρ̇ cos θ sin θ ρ sin θ + ρ(ρ2 − 1) cos θ ρ(ρ − 1)
= − sin θ cos θ = .
θ̇ ρ ρ −ρ cos θ + ρ(ρ2 − 1) sin θ −1
d 2
Si determinano cioè θ(t) = −t + c e dt ρ = 2ρ2 (ρ2 − 1) da cui
1
− log(ρ2 ) + log(ρ2 − 1) = −2(θ − θ0 ) ovvero ρ = (1 − ce−2θ ) 2 ,

e questo mostra ulteriormente che il diagramma di fase è simile (a meno del verso dei tempi) a quello del precedente
esempio. Per entrambi, esso è un “deformato” di quello dell’oscillatore lineare che è, infatti, il sistema ridotto sia
dell’uno che dell’altro. #

Per il campo dell’Esempio 3.1.27 si sarebbe ottenuto, in modo analogo,


1
ρ̇ = ρ(ρ2 − 1) sin2 θ; θ̇ = −1 + (ρ2 − 1) sin 2θ ,
2
che per ρ ∼ 1 dà risultati qualitativamente simili:

1 3 2

C:/Mauro/note/testo/cap3/esIII1.eps

Per entrambi questi esempi si ha che la curva ρ = 1 , e cioè una curva semplice e chiusa, non solo risulta essere
una traiettoria ma in particolare è un

M. Lo Schiavo
3.2. Gli integrali primi 161

Ciclo limite := una traiettoria chiusa e tale che tutte le traiettorie passanti per punti sufficientemente vicini
ad essa si avviano definitivamente verso di essa per t → +∞ oppure (anche) per t → −∞. (Una definizione più
rigorosa verrà data nel seguito)

3.2 Gli integrali primi


Sia M una varietà di dimensione n. Siano fissati x ∈ M e v ∈ Tx M individuata mediante una curva φ : I → M
tale che φ(0) = x e φ̇(0) = v . Sui funzionali f : M → R reali, differenziabili nel prefissato punto x, si definisce
la:
Derivata direzionale di f nella direzione del vettore v := il valore che la derivata di f ◦ φ : I → R assume nel
punto, e cioè
' d ''
'
Lv f ' := ' f ◦φ
x dt t=0
ovvero, in coordinate,
d '' ∂f (x) i
' h(y) ◦ f ◦ φ = Y[f ◦ φ]f (x) = · v = ∇f (x) · v(x) .
dt t=0 ∂xi
'
Tale valore coincide con ciò che si ottiene applicando sul (particolare) vettore [φ]x la mappa tangente f∗ 'x (che
nel caso scalare viene chiamata Gradiente di f ), se questa esiste. Tuttavia quando esso viene considerato come
valore assunto nel punto x ∈ M dalla funzione Derivata direzionale (si veda qui di sotto) è opportuno indicarlo in
modo diverso. In effetti esso può perfino essere indicato (si veda [Abraham 2.4.15]) con df (v).
N.B. 3.2.1 Si osservi che quella qui sopra è una estensione del comune concetto di derivata direzionale, in quanto qui
non si richiede che il vettore v abbia lunghezza unitaria. Si osservi anche che qualora la f non fosse differenziabile,
e cioè
' (per quanto detto circa l’indipendenza della derivazione dal sistema di coordinate) qualora non esista la
f∗ 'x , tuttavia la Lv può esistere anche per ogni v ∈ Tx M. Come è noto, infatti, l’ipotesi di differenziabilità
della f non è necessaria per poter definire la derivata direzionale (si veda §III.1 e [Apostol
' III]). Se però la f è
differenziabile esistono le Lv f per ogni v ∈ Tx M ed il loro valore eguaglia il valore f∗ v 'x . ♦

Più in generale, si consideri assegnato un campo v : M → T M, differenziabile in un aperto D ⊂ M, che per


x ∈ D assume il valore v(x) ∈ Tx M. Data una f : D → R, f ∈ C 1 (D), si definisce la:
Derivata direzionale di f lungo il campo v := la funzione scalare di punto Lv f : D → R che ad ogni x ∈ D
associa il valore della derivata direzionale di f nella direzione del valore del campo v in x, e cioè relativa al vettore
v(x):
Lv f : x &→ (Lv f ) (x) ≡ f∗ v(x).

N.B. 3.2.2 La funzione Lv f è indipendente dalla particolare scelta della φ nel vettore [φ]x in quanto, dato un
=m
∂f i
certo sistema di coordinate, il suo valore si esprime con la Lv f = i
v che non dipende dalla φ. Al cambio
i=1
∂x
di coordinate, sia le ξ = ϕ−1 (x) su D sia la η = η(y) su R, tale valore muta (si veda Appendice A.4 N.B.1.4.15)
∂η ∂f ∂xi j '
secondo la: i j
ν (ξ) essendo ν(ξ) = ∂ϕ−1 v 'ϕ(ξ) il trasformato di v . Nelle nuove coordinate il valore
∂y ∂x+ ∂ξ ,
& ∂η ∂f i
di Lv f è Lν f = v . ♦
∂y ∂xi x=ϕ(ξ)

N.B. 3.2.3 La funzione Lv f Derivata direzionale di f è definita sulla varietà M, diversamente dalla f∗ che è
d
definita sullo spazio tangente, dalla Lv che è definita su C 1 (D) (cfr. oltre), o dalle dt f ◦ φ che sono definite su un
qualche intervallo I ⊂ R.
La f∗ è, per ciascun x, un operatore lineare tra Tx M e Tf (x) L e cioè agisce linearmente sui vettori. La funzione
Lv f non è in generale lineare rispetto ad x; e, d’altra parte, v è un ben preciso e fissato campo vettoriale. La
funzione Lv : C k≥1 → C k−1 è però lineare sulle f ∈ C k , (e di qui la notazione Lv ); inoltre sui prodotti di funzioni
agisce come un operatore di Leibniz: Lv (f g) = f Lv g + gLv f (e di qui il nome di derivata). ♦

C 0 1
N.B. 3.2.4 Come si è detto, fissate le coordinate la Lv f ha in x valore (Lv f )(x) = m i=1 v i ∂f /∂xi (x); e
∂ ''
cioè, nel sistema di vettori ' , la funzione Lv : C ∞ → C ∞ ha componenti date da v i In questo senso i campi
∂xi x
vettoriali possono essere considerati come degli operatori di derivazione lineari sulle “funzioni prova” f ∈ C ∞ . In
tal caso a volte (Lv f )(x) si indica con vx (f ), o addirittura con v(f ), lineare su f . ♦

Note di Sistemi Dinamici


162 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Sia ancora v : x ∈ M &→ v(x) ∈ Tx M un campo vettoriale (autonomo) liscio su un aperto D ⊂ M. Si definisce:
Integrale primo del campo autonomo v := una funzione F : x ∈ D &→ F (x) ∈ R che sia in C 1 (D) e la quale,
pur non essendo una funzione costante: F (D) = c, è tale che Lv F (x) = 0 per ogni x ∈ D .

N.B. 3.2.5 Si noti che l’ipotesi che sia F ∈ C 1 (D) è molto forte. Sono possibili, e si trovano in letteratura,
ipotesi anche più deboli e generali di questa. Tuttavia, per semplicità, nel seguito di queste note si manterrà questa
richiesta, seppure leggermente limitativa. ♦

Sia assegnato un campo autonomo v liscio su D ⊂ M, e si consideri l’equazione ẋ = v(x). Se in qualche punto
x ∈ D si ha che Lv F (x) = 0 , allora senz’altro la soluzione φ che in t ha valore x e derivata v(x) (che appartiene
al vettore v ) è tale che Lv F (φ(t)) = 0 . Quando ciò accade per tutti i punti di D la Lv(x) F (x) è nulla per ogni
x ∈ D , ed allora il campo ammette su D l’integrale primo F . In tal caso, fissato arbitrariamente x0 ∈ D , e detti
F 0 := F (x0 ) il valore che la F assume in x0 , e φ : I ⊆ JM → M, φ : t &→ φ(t, 0, x0 ) la soluzione, uscente
da x0 , dell’equazione ẋ = v(x), si potrà affermare che sussiste l’uguaglianza

d per ogni t ∈ JM
(Lv F ) (φ(t)) ≡ (F ◦ φ) ≡ (F ∗ v) (φ(t)) = 0
dt ed ogni x0 = φ(t0 ).

Infatti il valore φ(t) individua l’evoluto x = G t x0' ∈ M del punto x0 all’istante t, e quindi se per ciascun punto
x della traiettoria {G t x0 }t∈JM la derivata Lv F 'x viene calcolata (ad esempio) mediante la curva φ : I → M, e
se cosı̀ si accade per ogni altro x0 e corrispondente traiettoria in M, si riconosce che l’uguaglianza detta sussiste
lungo una qualsiasi traiettoria soluzione dell’equazione considerata.
Se ne conclude che
x∈D
(Lv F ) (x) ≡ 0 , con F ∗ = ̸ 0, se e solo se
0 d 1 '
'
(Lv F ) = (F ◦ φ) ' φ(t)=x = 0 per ogni soluzione φ : φ(t) = x,
dt φ̇(t)=v(x)

e quindi se e solo se (F ◦ φ)(t) = F (x0 ) per ogni x0 ∈ D : φ(t0 ) = x0 .


'
Memento 3.2.1 Data una qualsiasi funzione f : X → Y, si indica con f −1 (y) l’insieme {x ∈ X ' f (x) = y} . In
tal senso, risulta senz’altro x ∈ f −1 ◦ f (x) per ogni x sul quale f è definita.

Pertanto, (F ◦ φ) (t) = F 0 implica che φ(t) ∈ F −1 (F 0 ) per ogni t ∈ JM , o anche [φ]x ∈ Tx {F −1 (F 0 )} per
ogni x ∈ M ∩ F −1 (F 0 ) tale che x = φ(t, 0, x0 ).
In definitiva, la definizione data è equivalente alla:
Integrale primo del campo autonomo v := -2pt una funzione F : x ∈ D &→ F (x) ∈ R che sia in C 1 (D) e la
quale, pur non essendo una funzione costante su D : F (D) = c, sia però tale che ne rimane costante il valore
F (φ(t)) assunto lungo ciascuna soluzione del sistema ẋ = v(x).
Sussiste cioè il
Teorema di conservazione ogni curva di fase di un sistema ẋ = v(x) che ammetta un integrale primo F
necessariamente appartiene (in D ) ad una e una sola superficie di livello della F :

F (G0t x0 ) = F (x0 ) per ciascun t ∈ JM , ed ogni x0 ∈ D .

Corollario 3.2.1
x∈D
(Lv F ) (x) ≡ 0 se e solo se v(x) ∈ Tx {F −1 (F 0 )} ∀x ∈ M ∩ F −1 (F 0 ).

La seguente osservazione vuole chiarire la notazione.


Si supponga che f : M → R sia una qualsiasi funzione in C 1 (D) tale che per qualche x0 ∈ D ⊂ M si abbia f∗ v(x0 ) = 0 con
∥f∗ ∥ ∥v(x0 )∥ ̸= 0 . Detta φ una delle curve per x0 che individuano il vettore v(x0 ) := [φ]x0 certo si ha che [f ◦ φ]f (x0 ) = 0 e quindi
che [φ]x0 ∈ Tx0 f −1 (f0 ) . Tuttavia, ovviamente, ciò non implica (f ◦ φ)(t) = cost . In parole: un vettore ortogonale al gradiente una
superficie in un certo suo punto è tangente la superficie senza necessariamente provenire da un moto che si svolga tutto sulla superficie
stessa.

Si definisce

M. Lo Schiavo
3.2. Gli integrali primi 163

Sistema conservativo := un sistema ẋ = v(x) che ammette almeno un integrale primo (pleonastici: globale,
non banale, indipendente dal tempo).

N.B. 3.2.6 Si osservi che la condizione di esistenza di un integrale primo e la sua definizione sono date direttamente
sulla varietà M. Ciò è per rimarcare, in base al N.B. 3.2.2, che se una funzione F è tale che Lv F ≡ 0 , ciò
sussiste in ogni sistema di coordinate.
Si può infatti fare la seguente osservazione. Si supponga che, nel sistema di coordinate h(x) , la relazione
F ◦ φ = F 0 dia luogo all’identità F (φ(t)) = F (x0 ), ove t &→ x = φ(t) è la soluzione in coordinate del sistema
ẋ = v(x), e si denoti con ξ = ϕ−1 (x) una trasformazione
' di coordinate (differenziabile) per la quale il nuovo
sistema di equazioni è ξ̇ = ν(ξ) := ∂ϕ−1 v(x) 'x=ϕ(ξ) di cui è soluzione la t &→ ψ(t, t0 , ξ0 ) = ϕ−1 (φ(t, t0 , ϕ(ξ0 ))).
Allora è anche

F (ϕ (ψ(t, t0 , ξ0 ))) = F (ϕ(ξ0 )) per ciascun arbitrario ξ0 ∈ ϕ−1 (D).

In effetti, la funzione FU := F ◦ ϕ ha valore costante lungo ciascuna delle soluzioni dell’equazione ξ̇ = ν(ξ)
giacché
) k *
d '' ∂F ∂ϕ ∂F ∂xi ∂ξ h
' (F ◦ ϕ ◦ ψ) = ν(ξ) = v (ϕ(ξ))
dt ψ̇(t)=ν(ξ)
ψ(t)=ξ
∂x ∂ξ ∂xi ∂ξ k ∂xh
' '
∂F h '' d '' '
'
= v (x)' = ' ϕ̇(t)=v(x) (F ◦ φ).'
∂xh x=ϕ(ξ) dt φ(t)=x
'
x=φ(ξ)

Sostanzialmente lo stesso calcolo conferma che se due sistemi sono diffeomorfi secondo un morfismo ϕ −1 :
x ∈ M → ξ ∈ L, e se uno di essi ammette un integrale primo F , allora anche l’altro ammette l’integrale primo:
U := F ◦ ϕ .
F ♦

L’esistenza di una o più funzioni integrali non banali dipende naturalmente dalle proprietà globali in D del
campo. Le curve di fase hanno in generale una struttura ben più complicata di quella delle linee di livello di una
funzione C 1 su tutto D . Questo accade, per esempio, se tutte le traiettorie “entrano” in un punto o si avviano
definitivamente verso un qualche sottoinsieme di traiettorie di D ; in tal caso la continuità di F impone che il
valore che F assume sul punto, o sulle traiettorie in questione, sia lo stesso ovunque in D : se il flusso ammette
qualche insieme che globalmente attrae tutte le traiettorie questo non può essere un sistema conservativo.
D’altra parte sussiste il:

Teorema 3.2.1 (rettificazione delle coordinate) ([Arnold 1], [Pontryagin])


Sia dato un sistema autonomo ẋ = v(x) con campo v regolare su un insieme aperto D di una varietà n-
dimensionale M. Su ogni intorno U ⊂ D sufficientemente piccolo e non contenente punti di equilibrio è sempre
possibile definire (n − 1) integrali primi non banali e funzionalmente indipendenti; si parla in tal caso di integrali
primi locali.

Dimostrazione Sia x0 ∈ U ⊂ D ⊂ M con v(x0 ) non banale, e sia data una carta tale che, ad esempio,
v n (x0 ) ̸= 0 . Chiamato H il piano (n − 1)-dimensionale xn = xn0 , esiste certamente un aperto S ⊂ H ∩ U , e
contenente x0 , che è trasverso al campo, e cioè tale che v(x̄) ̸∈ H per alcun x̄ ∈ S (qui si è identificato H con il
suo spazio tangente).
xn

x x0 S H

t (x,t) ' x

Detto I ⊆ R un intorno di t0 contenuto nell’intervallo JM di definizione della soluzione per x0 , si consideri


l’applicazione ϕ : S × I → M definita dalla ϕ : (x̄, t) &→ x con x = ϕ (x̄, t) := g t x̄ , o, in coordinate:
7 8 ϕ 7 8
x̄1 , . . . , x̄n−1 , t &−→ x := x1 (t, 0, x̄), . . . , xn (t, 0, x̄)
7 8
ove x̄ := x̄1 , . . . , x̄n−1 ; xn0 .

Note di Sistemi Dinamici


164 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

La ϕ è differenziabile se tale è v (cfr. Arnold 1). In particolare essa ha derivata in (x̄, 0) che è rappresentata,
nella carta detta, dalla matrice ⎛ ⎞
..
1
I
⎜ n−1 . ⎟
⎜ .. ⎟
∂ϕ(x̄, 0) = ⎜ · · · . v(x̄)⎟
⎝ ⎠
..
0 .
Infatti: indicata con hi la i− ma funzione coordinata, i = 1, . . . , n, per j = 1, . . . , n − 1 si ha
' ) ' *
∂ i t ' ∂ i ' ∂ x̄i
j
h (G x̄) ' = j
x ' = = δji .
∂ x̄ (x̄,0) ∂ x̄ (0,0,x̄) ∂ x̄j
'
D’altra parte è chiaro che ∂t x '(x̄,0) = v(x̄).
N.B. 3.2.7 Nel caso non autonomo, detti D l’aperto di regolarità del campo v(x, t) e U0 × I ⊂ D un intorno
di (x0 , t0 ), la corrispondente
) applicazione
* è ϕ : M × R → D ⊆ M × R definita su U0 × I da (x̄, t) &→ (Gtt0 x̄, t).
1In v
Quest’ultima ha derivata e mostra come il caso autonomo “sopprima” una coordinata: x̄n = xn0 e la
0 1
sostituisca con quella temporale usando in tal modo come spazio delle fasi ampliato quello delle fasi.
Si noti che in entrambi i casi l’applicazione ϕ non modifica il valore della ascissa t, cosa che fa, invece,
l’applicazione G&tt0 introdotta alla fine del paragrafo I.3 : quest’ultima la si ottiene infatti come composizione, a
t, t0 fissati: di quella (banale) che trasforma in (x̄, t0 ) il punto (x, t0 ) tale che x = Gtt00 x̄, di quella che lasciando x̄
invariato fa evolvere t0 fino a t, e di questa, infine, che porta (x̄, t) in (x, t) essendo x = Gtt0 x̄ .
L’autonomia del sistema fa solo sı̀ che, fissando x̄ su un certo insieme trasversale al campo, la t stessa possa
essere usata come variabile di stato, e quindi che la mappa ϕ sia definita nello spazio delle fasi non ampliato:
(x̄, t) &→ x. ♦
'
Dato che la matrice ∂ϕ trasforma linearmente en := (0, . . . , 0, 1) in v(x̄), l’operatore ϕ ∗ '(x̄,0) del quale
la matrice ∂ϕ è la rappresentazione in coordinate trasforma linearmente en in v(x̄). Inoltre esso è l’identità
su H ≡ Tx̄ S , S ∋ x̄ , che è un sottospazio (n − 1)-dimensionale di V := Tx̄ M trasverso sia allo span(en ) che
allo span(v(x̄)). Ne segue che ϕ ∗ (x̄, 0) trasforma i sottospazi trasversi (H, span(en )) nei sottospazi trasversi
(H, span(v(x̄))). Essendo un operatore lineare con Jacobiano J = |v n (x̄)| ̸= 0 , essa è allora un isomorfismo da
V in sé. In particolare ciò è valido nel punto (x0 , 0). Il teorema del Dini assicura allora che la mappa ϕ , di cui
esso è la derivata, è un diffeomorfismo da S × I a tutto un intorno V ⊂ U ⊂ M contenente G t x0 , e ciò comporta
che le curve di fase che passano per i punti di S risultano iniettive su V e cioè hanno solo la base x̄ in comune
con S e non hanno punti uniti. Di conseguenza risulta definito, inversamente, a partire da un qualunque x ∈ V
e in modo univoco, il punto
x̄ ∈ S = V ∩ H tale che x̄ = x̄(x) := G −t(x) x ,
ove t = t(x) è il punto in I tale che x = G t(x) x̄ . Restano in tal modo definite le funzioni ξ i : V → R date da

⎪ ξ 1 (x) : = h1 ◦ x̄(x) = x̄1 (x),


⎨ ...
ξ = ϕ−1 ◦ x ovvero n−1


⎪ ξ (x) : = hn−1 ◦ x̄(x) = x̄n−1 (x),

ξ n (x) : = t(x).
Per come sono state costruite, queste funzioni sono un sistema di coordinate su V dette: Coordinate adattate
al flusso. Le prime (n − 1) coincidono con le coordinate nello spazio H del punto x̄ , unico punto che nell’aperto
S trasversale al campo corrisponde al punto x, e l’ultima rimane ovviamente t = t(x1 , . . . , xn ).
Le coordinate (ξ 1 , . . . , ξ n ) := (x̄1 , . . . , x̄n−1 , t) hanno la importante e particolare caratteristica di evolvere in
modo banalmente semplice: rispetto ad esse il flusso è rettilineo. Infatti l’iniziale sistema ẋ = v(x) resta trasformato
dal cambio di coordinate x &→ ξ = ϕ−1 (x) nell’equivalente sistema
'
'
ξ̇ = ν(ξ) con ν(ξ) = ∂ϕ−1 v ' = en (ξ) e cioè
x=ϕ(ξ)

ξ˙1 = 0 , . . . , ξ˙n−1 = 0 , ξ˙n = 1 .

Si osservi che per conoscere esplicitamente le funzioni ξ i = ξ i (x), i = 1, . . . , n, e cioè la trasformazione ϕ,


occorre conoscere il moto: le funzioni ξ i per i ≤ (n − 1) sono quelle che assegnano le x̄i = x̄i (x) e vanno trovate
invertendo il sistema xj = xj (t, x̄), j = 1, . . . , n, rispetto a (t, x̄1 , . . . , x̄n−1 ) a fissato x̄n = xn0 .

M. Lo Schiavo
3.2. Gli integrali primi 165

Le funzioni ξ i = ξ i (x) con i ≤ (n − 1) sono un esempio di Integrali primi locali, funzionalmente indipendenti
per costruzione, ma dallo scarso uso pratico a causa di quest’ultima osservazione.
N.B. 3.2.8 (continuazione del 3.2.6).
Naturalmente, una qualunque funzione F U ∈ C 1 (V ) delle (ξ 1 , . . . , ξ n−1 ), e cioè indipendente dalla ξ n , fornisce un
altro integrale primo locale. Infatti una tale funzione ha valore costante lungo le soluzioni dell’equazione trasformata,
che sono: ξ j = cost, per j = 1, . . . , n − 1 , ed ξ n = t; quindi la sua rappresentante in coordinate: F := F& ◦ ϕ−1
è integrale primo del sistema ẋ = v(x).
Ragionando nel secondo dei modi visti, e cioè introducendo un diffeomorfismo x &→ ξ = ϕ −1 (x), si nota che
per il sistema trasformato la condizione Lv F = 0 equivale alla Len (F ◦ ϕ ) = ∂ F& /∂ξ n = 0 , dove F& := F ◦ ϕ
rappresenta la F ◦ ϕ nelle coordinate ξ .
In definitiva, il valore di ogni integrale primo F si mantiene costante sulla intersezione {ξ 1 = cost} ∩ · · · ∩
n−1
{ξ = cost} delle n − 1 sottovarietà {ξ i = cost} adattate al flusso. Tali intersezioni sono le linee ξ n =
ξ (ξ0 , . . . , ξ0n−1 , t) con tangente nel punto zero il vettore con componenti v i (0) = 0, i = 1, . . . , n − 1.
n 1

La conoscenza di (n − 1) integrali primi funzionalmente indipendenti permette di ricondurre alle quadrature


la determinazione delle curve integrali del campo. Se infatti si conoscono n − 1 funzioni F j tali che F j (x) =
cj , j = 1, . . . , n − 1 , si possono ricavare, almeno in linea di principio, ad esempio le prime n − 1 coordinate in
funzione: dei parametri {cj }j=1,...,n−1 e dell’ultima coordinata xn , e cioè definire n funzioni

xi = ψ i (xn ; c1 , . . . , cn−1 ), i = 1, . . . , n − 1 , ψ n = 1I1

mediante le quali il sistema dato: ẋ = v(x) diviene


7 8
ẋ = v ψ(xn ; c1 , . . . , cn−1 ) =: w(xn ) .

La n-esima di queste equazioni è disaccoppiata dalle precedenti ed è quindi risolubile per quadrature mediante
separazione di variabili. Di qui seguono tutte le altre per integrazione semplice. Naturalmente anche la conoscenza
di k < n − 1 integrali primi è d’aiuto: si ottiene infatti un sistema ad un ridotto numero di dimensioni: n − k .
Nel caso di campi non autonomi può anche venire introdotta la nozione di integrali primi dipendenti dal tempo,
che sono poi gli integrali primi del sistema
( ) *
ẋ = v(t, x) x
∈M×R
ṫ = 1 , t

e cioè (si veda [Hartman V.12]) funzioni F = F (t, x) soluzioni dell’equazione

v · ∇x F + ∂t F = 0 .

Localmente ne esistono sempre n indipendenti fra loro. Come accennato nel N.B.3.2.7 ne sono un esempio le
funzioni x0 = x0 (t, x). In tal senso, la ricerca della più generale soluzione dell’equazione v(t, x)∇F + ∂t F = 0
“equivale” alla risoluzione della ẋ = v(t, x) = 0 .
Nota 3.2.1 Si osservi che le due precedenti considerazioni implicano che per risolvere almeno in forma implicita
il caso non autonomo a dimensione n = 1 :
dx
= u(x, y), x, y ∈ R ,
dy

basta trovare una funzione da R2 in R che si continuerà ad indicare con F = F (x, y) tale che
∂F ∂F
u(x, y) (x, y) + (x, y) = 0 . (2.7)
∂x ∂y
D’altra parte, con la notazione u(x, y) =: −ν(x, y)/µ(x, y), si riconoscerà nella (2.7) la richiesta che sia: ∂y F =
(ν/µ) ∂x F =: ν ϖ , e cioè che sussistano
∂F ∂F
µ(x, y) ϖ(x, y) = (x, y) e ν(x, y) ϖ(x, y) = (x, y) ,
∂x ∂y
che come si è visto nel §I.4 è la condizione affinché la forma
µ
ϖµ dx + ϖν dy , o anche dx + dy
ν

Note di Sistemi Dinamici


166 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

sia esatta ed ammetta come funzione invariante proprio la F . L’esistenza locale di quest’ultima equivale all’e-
sistenza locale del fattore integrante ϖ e risolve l’equazione in forma implicita assegnando le curve cui devono
appartenere le traiettorie di fase di un possibile sistema associato, ad esempio:
(
ẋ = v x (x, y) v x (x, y) ν(x, y)
y con := u(x, y) = − ,
ẏ = v (x, y) v y (x, y) µ(x, y)

per il quale la funzione F è integrale primo locale e indipendente dal tempo.


Si è già detto però che non esistono metodi generali per trovare il fattore integrante cosı̀ come non ne esistono
per trovare gli integrali primi. ◃

(
ẋ = x,
Esempio 3.2.10 x, y ∈ R;
ẏ = y,
segue xdy = ydx che non ammette integrali primi globali, malgrado localmente equivalga a d(x/y) = 0; le
traiettorie infatti sono i raggi per l’origine. #

Esempio 3.2.11 Sistemi conservativi di enorme importanza sono i Sistemi Hamiltoniani autonomi, e cioè quelli
con ∂H /∂t ≡ 0 :
∂H ∂H
q̇ = , ṗ = − ; con q, p ∈ Rn ;
∂p ∂q
un loro integrale primo è certo la funzione H = H (q, p). #

Esempio 3.2.12 L’oscillatore armonico scalare:


) * ) *
ẋ y
= , con t0 , x0 , y0 ∈ R . (2.8)
ẏ −x

y0 H
x
µ0 x

Come coordinata hn si scelga la: y := ẋ, e lo spazio H sia il piano y = y0 . Si ottengono allora (per x̄ ̸= 0 )
( (
x = +x̄ cos t + y0 sin t cos t = (x̄2 + y02 )−1 (+xx̄ + yy0 )
=⇒
y = −x̄ sin t + y0 cos t sin t = (x̄2 + y02 )−1 (−x̄y + xy0 )

che (localmente) forniscono


⎧ B

⎪ 1
x2 + y 2 − y02
⎨ y (x) ≡ x̄(x, y) =
+ , (2.9)
⎪ 2 −x̄y + xy0
⎩ y (x) ≡ t(x, y)
⎪ = arctan
+xx̄ + yy0 x̄=√x2 +y2 −y2
0

/ /
Si osservi che ad esempio la r = x2 + y 2 , se intesa come funzione di x̄ : r = x̄2 + y02 , è anch’essa un integrale
primo locale, e che t = t(x, y) è il tempo che, sulla circonferenza passante per (x̄, y0 ), è necessario per passare dal
punto (x̄, y0 ) al punto (x, y); infatti, dividendo la seconda delle (2.9) per x̄ x, si riconosce subito che essa fornisce
⎧ 0y 1

⎨ θ0 (x, y) := arctan
0
,
t = t(x, y) = (θ0 − θ), ove x̄
0y 1

⎩ θ(x, y) := arctan .
x

M. Lo Schiavo
3.2. Gli integrali primi 167

L’equazione associata all’oscillatore armonico è


d
x′ = −y/x ovvero (x2 + y 2 ) = 0 ,
dy
la cui soluzione è B
y &→ x(y) = x̄2 + y02 − y 2 =: x(y; x̄, y0 ) .
D’altra parte, ponendo fin dall’inizio
⎧ B
( ⎪
x = r cos(θ0 − t) ⎨ r := x̄2 + y02
con
y = r sin(θ0 − t) ⎩ θ0 = arccos x̄ ∩ arcsin y0

r r
si ritrova la relazione già indicata
y
t = θ0 − arcsin / = θ0 − θ .
x̄ + y02
2

Quest’ultima mostra inoltre che la t = t(x, y) si riduce alla t = β(x0 ) (y) del precedente paragrafo quando si calcoli
t = t(x(y;
/ x0 , y0 ), y). Infatti lı̀ si considerava la (sola) traiettoria per (l’unico fissato) punto (x0 , y0 ), di equazione
x = x20 + y02 − y 2 .
Si noti infine che tutto quanto si è detto vale localmente dove le inversioni sono lecite. #

Anche per punti x distanti da H , la funzione t(x) introdotta nel Teorema 1 è una funzione continua fintanto
che il flusso è continuo, e in particolare finché non ci sono equilibri; sussiste infatti il seguente

Teorema 3.2.1 ((di primo ritorno)) Sia dato un sistema autonomo ẋ = v(x) con campo v regolare su un insieme
aperto D di una varietà n-dimensionale M. Per x0 ∈ D e, ad esempio, con ! t > 0 , sia t &→ φ(−t, 0, x!) la
soluzione del sistema tale che φ(−! ! = x0 , e si indichi con γ l’arco di traiettoria {φ(−t, 0, x
!) = G −t̂ x
t, 0, x !)}t∈[0,t̂]
che unisce x0 con x !.
Se esiste un intorno aperto U ⊆ D di γ che non contiene equilibri, esistono: una sezione S ⊂ U, S ∋ x0 ,
di dimensione n − 1 e trasversa a v(x0 ), un intorno V! di x ! contenuto in U , e una funzione t : V! → R regolare
quanto v , tali che t(! !
x) = t e G −t(x)
x ∈ S per ogni x ∈ V . !

Dimostrazione Sia h : U → R, h ∈ C 1 (D), tale che h∗ v(x0 ) ̸= 0 e cioè tale che il campo sia trasverso al
−1
piano Tx0 (h (cost)). Nel caso del teorema appena visto si ha h ≡ hn .
'
Si ricordi che, per definizione di piano tangente, h∗ [φ]x = 0 con h∗ 'x ̸= 0 se e solo se [φ]x ∈ Tx {h−1 (cost)} . Per cui, quando
h∗ v(x0 ) ̸= 0 , si ha che H := h−1 (cost) è (localmente) trasverso a v in x0 ∈ H , ed equivale a dire che H non è tangente alle superfici
equipotenziali di alcun integrale primo (locale) del sistema, o anche che h ◦ φ non è stazionario in x0 .

x V
en

x0 S °
H

La funzione f : R × 'D → R data da (t, x) &→ f (t, x) := h ◦ G −t x − h(x0 ) è in C 1 (N (!


t) × U ), è tale che
' '
f (! !) = 0 , e che − ∂t ' = h∗ 'x φ̇(−!
t, x ∂f
t) = h∗ v(x0 ) ̸= 0 . Pertanto si può applicare il teorema del Dini, per il
t̂,x̂ 0

quale esiste un intorno V! ⊂ Rn , V! ∋ x


! , sul quale è definita la funzione t : V! → R tale che t ∈ C 1 (V! ), x) = !
t(! t,
ed f (t(x), x) = 0 per ogni x ∈ V! .

x 0
x f=

t t

Note di Sistemi Dinamici


168 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Per ogni x ∈ V! si ricava allora x̄ := G −t(x) x ∈ H ⊂ Rn−1 , e qualora V! sia abbastanza piccolo addirittura
G−t(x)
x ∈ S . Esiste cioè un cilindro di traiettorie con “asse” γ := {G −t x
!}t∈[0,t̂] e “base” contenuta in H , lungo
il quale individuare i punti mediante: il punto base x̄ := G −t(x) x ∈ H e l’ascissa t = t(x) ∈ N (! t) ⊂ R. "

3.3 Il Teorema di Poincaré - Bendixon


La teoria di Poincaré - Bendixon si applica unicamente a sistemi autonomi in dimensione due. Per tali sistemi non
solo sussistono tutte le proprietà già valide in Rn , ed anzi molte di queste risultano di assai più facile interpretazione,
ma in più essi si giovano di speciali proprietà geometriche valide solo in spazi bidimensionali.
Anche per introdurre la notazione, è opportuno iniziare con l’adattamento al caso dim = 2 del precedente
Teorema 1 e, per maggiore semplicità, se ne tratterà direttamente la rappresentazione in coordinate (peraltro
arbitrarie).
Proposizione 3.3.1 Siano D un aperto di R2 , v un campo regolare su D , e γ̀ := {φ(−t, 0, x !)}−t∈I⊂JM un
arco di traiettoria del sistema ẋ = v(x). Sia x = ψ(u), con x ∈ D e u ∈ R, l’espressione parametrica di una
curva ψ regolare su un aperto U ⊆ D , e cioè tale che su U risulti ∥Dψ∥ ̸= 0 . Se γ̀ e ψ si intersecano
in x0 = φ(−! !) = ψ(u0 ) e sono ivi trasverse (per cui v(x0 ) e ψ ′ (u0 ) sono non paralleli), e se U non
t, 0, x
contiene equilibri allora: esiste un intorno V! di x ! contenuto in U e due funzioni regolari t, u : V! → R tali che:
x) = !
t(! t , u(! x) = u0 , e che su V! si abbia φ(−t(x), 0, x) = ψ(u(x)) = x̄.
7 8
Si osservi che lo scalare u corrisponde alla n -pla x̄1 , . . . , x̄n−1 del teorema 1, nel quale si era posto x̄ := G −t(x) x .

°b
°
U x x0
Ã
x x V

Dimostrazione ! l’asserto è vero per ipotesi. Successivamente si osserva che il sistema φ(−t, 0, x)−
Per x = x
ψ(u) = 0 ha determinante Jacobiano di rango due in (! !), infatti è
t , u0 , x
' 1 '
' ∂φ dψ '
1
' ∂t − du '
' ∂φ2 dψ 2 ''
= |v(x0 ) ∧ ψ ′ (u0 )| .
' − du
∂t

Ne segue che se x è sufficientemente prossimo ad x ! allora la γ := {φ(t, 0, x)}t∈I e la ψ si intersecano necessa-


riamente in x̄ prossimo ad x0 , e le t, u possono essere espresse in funzione del punto x. Inoltre |t(x) − ! t| ed
!| piccolo, anzi le funzioni t e u sono regolari quanto lo sono le φ e ψ .
|u(x) − u0 | sono piccoli per |x − x
Nell’ Esempio 3.1.18 la ψ è la curva y = y0 sulla quale si è scelto il parametro u = x̄1 = x. "

Sempre limitandosi a sistemi bidimensionali, si deve esaminare il caso, assai importante anche se particolare,
in cui la curva ψ è un segmento (chiuso) e trasverso ad un’orbita γ chiusa percorsa con periodo T : φ(t + T) =
φ(t), ∀t ∈ [0, T].
Siccome l’orbita γ interseca in x0 la sezione ψ negli istanti t = 0 e t = T , dato x1 ∈ ψ sufficientemente
vicino a x0 si avrà che l’orbita uscente da x1 nell’istante t1 = 0 dovrà intersecare il segmento ψ anche in t2 ∼ T
e non in altri istanti intermedi; in più, essa lo dovrà fare in un punto x2 prossimo ad x0 data la continuità delle
due curve.
u
x1 x2
x0

M. Lo Schiavo
3.3. Il Teorema di Poincaré - Bendixon 169

Inoltre u = u(x2 ), e cioè la coordinata di x2 lungo ψ , è funzione continua (per il teorema di dipendenza
continua) e monotona (per il teorema di unicità e giacché la dimensione dello spazio è due) di u(x1 ). In tal modo,
dalla x2 = G t2 x1 con t2 = t(x1 ) ∼ T , si ricava u2 = χ(u1 ) con χ continua, monotona, e tale che u0 = χ(u0 ). Si
definisce:
Ciclo isolato := un’orbita chiusa e tale che, detta u0 la sua intersezione con una qualsiasi sezione ad essa
trasversa, si abbia che in un intorno di u0 l’unica soluzione della χ(u) = u è u0 stessa.
Si supponga che il ciclo in esame sia isolato. Su ciascuno dei due lati di x0 , localmente lungo ψ , è possibile
una sola delle: χ(u) < u oppure χ(u) > u .
ui+1=Â(ui)
u1
u2
u0
instabile
stabile Âs
Âu ui
u0 u1
Sul lato di ψ esterno al ciclo sia ad esempio il primo caso, e sia ψ orientata in maniera tale che le u > u0
individuino punti x ∈ ψ esterni al ciclo. La successione delle uk definite da φ(tk , x(uk−1 )) = xk = ψ(χ(uk−1 ))
i
è monotona decrescente e inferiormente limitata da u0 ; e dato che ui+1 = χ(ui ) −→ u∗ = χ(u∗ ) (necessariamente

(+)
esistente), per l’unicità locale di u0 si ha che u∗ ≡ u0 ; inoltre ciò accade qualunque sia x1 ∈ ψ := {x ∈
'
ψ ' u(x) > u0 } e cioè x1 esterno al ciclo ma convenientemente vicino ad esso. Pertanto, (cambiando t in −t
(−) '
nell’altro caso: χ(u) > u e ripetendo il discorso nella parte interna al ciclo e cioè sull’arco ψ := {x ∈ ψ ' u(x) <
u0 } ) si è provato che:
Per sistemi autonomi a dimensione due ogni orbita chiusa isolata è anche un ciclo limite; inoltre le traiettorie
vicine ad esso “spiralizzano” infinite volte.
L’essere γ un ciclo limite, in dim=2 lo si può allora anche controllare mostrando che esiste ε0 ∈ R+ tale che, per ogni x che
abbia dist(x, γ ) < ε0 si ha che φ(t, x) è non periodica.
Âu
ui+1
u0
instabile
Âs
stabile
ui
u0
Ragionamenti qualitativi dello stesso genere di quello appena visto permettono, sempre in dimensione due, di
riconoscere la presenza di cicli, come verrà mostrato nel teorema di Poincaré-Bendixon.
Si premettano, innanzi tutto, le seguenti definizioni valide anche a dimensioni superiori.
Punto ω -limite per una traiettoria γ := {φ(t)}t∈R+ := un punto p ∈ M per il quale esiste una successione
di istanti {t0 = 0, t1 , t2 , . . .} tali che:
i i
ti < ti+1 , ti −→ ∞ , e φ(ti ) −→ p .
∞ ∞

Insieme ω -limite per una traiettoria γ := la totalità dei punti ω -limite per la traiettoria stessa.
N.B. 3.3.1 Se la traiettoria viene indicata con un suo punto x, ad esempio il punto iniziale, si parla di punto
ω -limite per x; l’insieme ω -limite si indica con ω (x). ♦

N.B. 3.3.2 Non è difficile rendersi conto che la definizione data per l’insieme ω -limite equivale alla ω (x) :=
∩τ ≥0 [∪t≥τ φ(t, 0, x)], ed è quindi l’intersezione totale della chiusura delle code, nel futuro, delle traiettorie. ♦

Quando queste proprietà risultano valide per t′ := −t in luogo di ω (x) si parla di α -limite: α (x). Analoghe
evidenti sostituzioni vanno anche fatte, in questo caso, nelle definizioni qui seguenti.

Note di Sistemi Dinamici


170 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

N.B. 3.3.3 Un insieme limite, che sia α ovvero ω o entrambi (a seconda dei punti x), non è necessariamente
costituito da una sola orbita, come si vede dalle seguenti figure:

N.B. 3.3.4 La definizione data alla fine del §2 per un ciclo limite è consistente con il fatto che esso sia un insieme
limite. ♦

Insieme positivamente invariante rispetto ad un flusso g := un sottoinsieme


K ⊂ M tale che la semiorbita γ + := {G t x}t≥0 uscente da un qualsiasi punto x ∈ K è definita per ogni t ≥ 0 e
appartiene all’insieme K .
La definizione di negativa invarianza è analoga.
Insieme invariante rispetto ad un flusso g := un sottoinsieme I ⊂ M che è sia positivamente sia negativamente
invariante.
Si noti che se il sistema ẋ = v(x) che individua il flusso è autonomo, e se t &→ φ(t, t0 , x0 ) ≡ Gtt0 x0 è definita
per ogni t ≥ t0 , allora la stessa semiorbita γ + è un insieme positivamente invariante, infatti per ogni y0 :=
φ(t0 + c, t0 , x0 ) ∈ γ + la funzione t &→ ψ(t, t0 , y0 ) := φ(t + c, t0 , x0 ) è soluzione ed è definita per ogni t ≥ t0 .
N.B. 3.3.5 Se K è limitato e interno al dominio di definizione del campo, l’essere K positivamente invariante
equivale alla condizione: Gtt0 K ⊆ K per ogni t ≥ t0 . ♦

Insieme attrattivo Ad := un insieme chiuso, invariante, che può essere decomponibile, tale da ammettere un
intorno positivamente invariante e del quale contenere l’insieme ω -limite. Esiste cioè un qualche intorno U ⊃ Ad
per il quale: preso comunque x ∈ U si ha che φ(t, 0, x) ∈ U per un qualsiasi t > 0 , e ω (x) ⊂ Ad .
Qui con decomponibile si intende che non è necessariamente “non decomponibile”, proprietà questa che si richiede
invece agli attrattori, (si veda: Cap. V).
Bacino di attrazione di un insieme attrattivo Ad := l’insieme BA dato da BA := ∪t≤0 φ(t, U ) ove U è
uno qualunque degli intorni definiti qui sopra. L’insieme BA è l’unione al variare di x ∈ Ad dei punti x !∈M
che hanno x ∈ ω (! x).
N.B. 3.3.6 Un bacino di attrazione BA è senz’altro un insieme aperto e invariante. Infatti, per ogni x ∈ U ,
esiste tutto un intorno N (x) positivamente invariante, per cui dato y ∈ N (x) si ha non solo che G τ y ∈ N (x)
per ogni τ ∈ R+ ma anche, per costruzione, che ∪t≤0 G t y ∈ BA e pertanto G −τ (N (x)) è un aperto contenuto nel
bacino. In definitiva, il bacino di attrazione di un Ad coincide con il più grande insieme invariante i punti del
quale hanno insiemi ω -limite in Ad . ♦

Corollario 3.3.1 Se lo spazio è connesso esso stesso non può essere unione di due o più bacini di attrazione; inoltre
devono esistere soluzioni (sulle frontiere di ciascun bacino) che non sono convergenti verso i punti che attraggono
il bacino.

Esempio 3.3.7 (si veda: [Guckenheimer])


(
ẋ = x − x3
x, y ∈ R .
ẏ = −y ,

Ne segue
) *1/2
y x20 (1 − x2 )
= e−(t−t0 ) =
y0 x2 (1 − x20 )
e si vede che il segmento [−1, 1] × {0} è fatto quasi tutto da punti erratici, è decomponibile nei tre insiemi
[−1, 0) × {0} , (0, 0), (0, 1] × {0} , è attrattivo, e contiene due attrattori: i punti (±1, 0) (si veda oltre per queste
definizioni).

M. Lo Schiavo
3.3. Il Teorema di Poincaré - Bendixon 171

N.B. 3.3.8 La considerazione fatta a proposito dei valori degli integrali primi si può ora dare in forma generale:
un sistema conservativo in dimensione due non può ammettere cicli limite, né insiemi limite, né insiemi attrattivi.

N.B. 3.3.9 I risultati visti per i sistemi bidimensionali si possono rienunciare: un ciclo limite di un sistema
bidimensionale è un’orbita chiusa che appartenga, (e quindi coincide, come si vedrà), all’insieme ω -limite o all’in-
sieme α -limite di un qualche punto x esterno al ciclo. Si noti che un ciclo limite può non essere né attrattivo
né repulsivo. ♦

Il teorema del prolungamento sui compatti implica poi (si veda: [Hale § I.8]) che per sistemi autonomi di
dimensione qualunque n ≥ 1 sussiste la

Proposizione 3.3.1 Se una semi-traiettoria γ + := {φ(t, 0, x0 )}t≥0 di un sistema autonomo appartiene ad un


compatto K ⊆ M per ogni t > 0 allora il suo insieme ω (x), x ∈ γ + , è non vuoto, chiuso, limitato, connesso.
Esso, inoltre, contiene intere le traiettorie uscenti dai suoi punti, ovvero: ω (x) è un sottoinsieme invariante di
K.

Dimostrazione
i
(• ) ω (x) è chiuso. Infatti: se ω (x) ∋ {pk }k∈N → p& esiste una sottosuccessione &tk : φ(&tk ) −→

i p& e quindi
i

p& ∈ ω (x). Inoltre, siccome γ appartiene a K che è compatto, si ha che p& ∈ K , e che ω (x) ⊂ K è limitato.
+

(• ) ω (x) è connesso. Altrimenti potrebbero esistere due aperti disgiunti U1 e U2 tali che ω (x) ⊂ U1 ∪ U2 ,
e almeno una successione {φ(tk )}k∈N necessariamente contenuta nell’insieme K\(U1 ∪ U2 ). Ma questo è com-
patto e non contiene punti di ω (x), in contraddizione con l’esistenza di almeno una sottosuccessione {φ(tki )}i∈N
convergente.
(• ) ω (x) verifica la seguente proprietà. Se p ∈ ω (x) allora G t p ∈ ω (x), ∀t ∈ R; e cioè: l’intera orbita
γ p := {φ(t, 0, p)}t∈R è definita per ogni t ∈ R, e appartiene ad ω (x). Infatti: se p appartiene ad ω (x) è anche,
necessariamente, p = limk→∞ φ(tk , 0, x). Ma allora, come si è visto, φ(t + c) è definito per c > 0 comunque
grande, e appartiene a γ p . Segue che G t̄ φ(tk ) è definito per qualunque t̄ > 0 e quindi, detti x &k := G t̄ φ(tk ), per

il teorema di dipendenza continua si ha che: limk→∞ x &k = G p. Ciò significa che φ(t, 0, p) esiste per ogni t > 0
ed è G t p ∈ ω (x) per t > 0 .
D’altra parte, dato t̄ ∈ [−tk , 0], con k = 1, 2, . . ., è anche definito (si veda § III.1) l’evoluto G t̄ φ(tk ) = φ(t̄+tk ).
Anche per ogni t < 0 si ha allora che φ(t, 0, p) esiste ed è in ω (x). "

Con queste premesse si può finalmente enunciare il seguente celebrato teorema valido, si noti bene, per sistemi
bidimensionali autonomi e almeno Lipschitz: (si veda: [Michel 7.2], o anche [Hartman], [Pontryagin], [Coddington])

Teorema 3.3.1 ((Poincaré-Bendixon)) Sia D un aperto di una varietà M bidimensionale; sia v un campo
regolare su D , e sia t &→ φ(t, 0, x) la soluzione del sistema ẋ = v(x) uscente da x ∈ D .
Se la semiorbita γ + := {φ(t, 0, x)}t≥0 è contenuta in un compatto K ⊂ M allora il suo insieme ω -limite:
ω (x) o contiene almeno un punto di equilibrio oppure è una (sola) orbita chiusa: γ 0 .
Un enunciato alternativo è ([Hirsh §XI.4]):
Un insieme ω -limite compatto non vuoto di un sistema piano e C 1 , che non contenga equilibri, è un’orbita
chiusa γ 0 . Tale orbita chiusa è un ciclo limite per γ + , oppure coincide con γ + stessa.

Note di Sistemi Dinamici


172 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Dimostrazione Per la Proposizione che segue, basta notare che se ω (x) non contiene equilibri, e se γ + ̸⊂
ω (x), allora ω (x) è un ciclo limite. Siano p0 ∈ ω (x), φ non periodica, ψ una sezione chiusa trasversale a
v(p0 ) e sufficientemente piccola da essere trasversale alle traiettorie in ogni suo punto. È chiaro allora che queste
traiettorie la attraversano tutte nello stesso verso.
à Á(t)
Vb
!(x)
p
b
p0

Visto che p0 è un punto di ω (x) ⊂ D e non di γ + , e che ψ è trasversa al campo, si può ricorrere al Teorema
2 nel quale si considerino: come traiettoria di riferimento la traiettoria per p0 (la quale come si è visto appartiene
tutta ad ω (x)), come centro dell’intorno V! un punto p! = G δ p0 , con δ > 0 convenientemente piccolo e, come
evoluti di altrettanti punti {x̄k }k∈N sulla sezione trasversa ψ , una successione {! xk := φ(tk , 0, x)}k∈N convergente
a p!. Se ne ricava che esistono infiniti istanti ti > ti−1 , con i = 1, 2, . . ., tali che i punti xi := φ(ti , ti−1 , xi−1 )
sono dei particolari punti x̄k ∈ ψ e sono distinti dato che φ è non periodica e γ + ̸⊂ ω (x).
Inoltre, per ψ opportunamente piccola, dati due successivi xi , xi+1 possono accadere solo le due eventualità
descritte in figura, e ciò perchè p0 è in ω (x) e la regione racchiusa dal “segmento” [xi , xi+1 ] ⊂ ψ e dall’arco
{φ(t, ti , xi )}t∈[ti ,ti+1 ] ⊂ γ + è positivamente invariante:
p0
xi xi+1
xi+1
xi
p0
G G

Si proseguirà qui nel primo di questi casi, ma l’altro si tratta in modo del tutto analogo.
Si vede in definitiva che gli xi sono ordinati (non solo sulla traiettoria γ := {φ(t, 0, x)}t∈R ma anche) sulla
sezione ψ , e quindi sono tutti dallo stesso lato, su ψ , rispetto a p0 . Inoltre, siccome ψ stesso è chiuso, essi
ammetteranno limite: p& ∈K ψ . Ma p& non può che appartenere a ω (x), infatti la successione {tk }k∈N necessaria-
mente tende a infinito Infatti: se fosse tk → τ < ∞ si avrebbe lim φ(ti , ti−1 , xi−1 ) = φ(τ, τ, p&) = p& = lim xi , e quindi
0 1 L
tangente a ψ dando luogo ad una contraddizione. Pertanto p
φ(τ )−φ(tk )
v(&
p) = limk→∞ τ −tk
risulterebbe & coincide con p0 se
questo è l’unica intersezione di ψ con ω (x).
D’altra parte:

Proposizione 3.3.2 L’insieme ω -limite ω ( γ ) (compatto non vuoto) di una traiettoria γ di un sistema che
verifichi le ipotesi del Teorema 3 non può contenere alcuna traiettoria γ 0 (contenuta in un compatto) che non sia
chiusa o che abbia insieme ω -limite ω ( γ 0 ) privo di punti di equilibrio.

Infatti: γ 0 e l’insieme ω ( γ ) avessero punti in comune si è visto che tutta l’orbita γ 0 apparterrebbe
se una tale traiettoria
`
a ω ( γ ) . Di conseguenza sarebbe possibile trovare una sezione ψ distinta da γ 0 e trasversa ad essa in un punto p! ∈ ω ( γ 0 ) ,
e su di essa si potrebbero trovare i punti {x̄0i }i∈N = γ +
0 ∩ ψ , come fatto precedentemente, che non sono equilibri. Essi però, in tal
caso, risulterebbero ciascuno punto di accumulazione di punti {xi,k }k∈N di γ , i quali pertanto darebbero un insieme non ordinato
`
su ψ .
Questo ragionamento assicura anche che un insieme ω -limite taglia in al più un punto ogni sua sezione trasversa (e sufficiente-
mente piccola da essere trasversale al campo in ogni suo punto). #

Assumendo che γ 0 sia la traiettoria {φ(t, 0, p0 )}t≥0 si ha, in particolare che: giacché la traiettoria γ 0
appartiene ad un insieme ω (x) non vuoto limitato e senza equilibri, non può che essere chiusa, ed intersecare ψ
solo in p0 .
Il teorema è dimostrato quando si provi che: se ω (x) contiene un’orbita chiusa γ 0 e punti regolari, allora
ω (x) ≡ γ 0 .
Infatti: se ci fossero altri punti inω (x) oltre quelli diγ 0 , non potendo essi essere isolati dato che ω (x) è connesso, si avrebbe
che γ 0 dovrebbe contenere un loro punto limite sulla cui sezione trasversa si avrebbero le intersezioni di tutta la successione di orbite
ad esso convergenti, e comunque tutte appartenenti ad ω (x) che avrebbe allora molte intersezioni con la sezione trasversa stessa. "
M. Lo Schiavo
3.4. La discussione sul piano delle fasi 173

3.4 La discussione sul piano delle fasi


Si è già detto, e si ritornerà sull’argomento, che l’esistenza di un integrale primo limita drasticamente i possibili
aspetti dei diagrammi di fase: per esempio un punto di equilibrio di un sistema conservativo non può appartenere
all’insieme ω -limite di un insieme troppo ricco (denso in un aperto che lo contiene) di traiettorie. D’altra parte
la sua conoscenza è di tale aiuto che spesso si trascurano volontariamente termini del sistema pur di renderlo conser-
vativo. Purtroppo nel seguire questo procedimento ciò che si ottiene quasi mai rappresenta bene, topologicamente,
il sistema iniziale, e ciò proprio per le limitazioni di cui sopra.
Verrà qui esaminato il caso dei Sistemi Meccanici posizionali scalari

q̈ = f (q) , q ∈ L, dim L = 1, f ∈ C 1 (U ), U aperto ⊆ L .

Identificata con un unico V := R la famiglia {Tq L}q∈U , e chiamate x e y le coordinate su U ⊂ L e V,


rispettivamente, il sistema dato può essere localmente descritto da
( ) *
ẋ = v x (x, y) := y x
con x = ∈ D aperto ⊆ R2 .
ẏ = v y (x, y) := f (x) y

Un tale sistema è sempre conservativo, infatti senz’altro ammette come integrale primo la funzione Energia:
E ∈ C 1 (D) definita da - x
1 2
E (x, y) := T (y) + V (x) := y + (−f (ξ)) dξ .
2
Per rendersene conto basta calcolare la

Lv E = v x ∂x E + v y ∂y E = y(−f ) + f y = 0 .

È questo il più facile esempio di sistema hamiltoniano, con H = E , si ha infatti


(
ẋ = +∂y E
ẏ = −∂x E .

D’altra parte, qui la funzione x &→ V (x) rappresenta un caso particolare (dimensione 1 ) della funzione energia
potenziale q &→ Π(q) che si definisce per un generico sistema meccanico strettamente conservativo (si veda il §.II.1).

Si esamini dapprima il caso generale di un sistema bidimensionale ẋ = v(x) con x ∈ R2 , conservativo e


non necessariamente meccanico. Come tale esso ammette un integrale primo non banale F = F (x, y) e cioè (si
veda il § 2) una funzione F : D → R tale che v x ∂x F + v y ∂y F = 0 . La funzione F assume quindi valore
costante lungo ciascuna soluzione del sistema le quali, allora, appartengono alle superfici equipotenziali della F ,
e cioè agli insiemi di livello ΓF 0 := F −1 (F 0 ). D’altra parte, nell’intorno di ciascun punto (x, y) ∈ D tale che
∥∇F (x, y)∥ ̸= 0 , dal teorema della funzione implicita e dal fatto che il sistema è bidimensionale segue che gli
insiemi di livello ΓF 0 := F −1 (F 0 ) sono (localmente) archi semplici e lisci con tangente univocamente definita,
e quindi parallela al campo valutato in quel punto; è infatti ∇F · v = v x ∂x F + v y ∂y F = 0 . In particolare,
nell’intorno di tali punti le equipotenziali hanno tangente parallela all’asse delle x lı̀ dove ∂x F = 0 , e cioè dove
un’espressione esplicita x = x(y) cadrebbe in difetto, o parallela all’asse delle y lı̀ dove ∂y F = 0 , e allora è la
y = y(x) a non essere definita.
D’altra parte, la regolarità del sistema garantisce che nell’intorno di ogni punto non di equilibrio la soluzione
esiste regolare, e siccome essa deve conservare il valore della funzione F , l’arco di traiettoria per quel punto
necessariamente appartiene, e anzi7 coincide, con
8 l’arco di curva di livello per quel punto. Anche se cade in difetto
la rappresentazione x = x(y) o la y = y(x) non cade in difetto quella parametrica (x(t), y(t))
Inoltre l’unicità della traiettoria passante per ciascun punto implica che ciascuna delle linee di livello della
funzione F è formata da archi semplici, e che questi si possono incontrare solo nei punti di equilibrio del sistema.
Questi ultimi, infatti, sono gli unici punti che possono corrispondere a punti di non regolarità delle linee F (x, y) =
cost, e cioè punti (x, y) ∈ R2 nei quali il vettore ∇F (che esiste per le ipotesi fatte, si veda il N.B. 3.2.5) è tale
che ∥∇F (x, y)∥ = 0 .

Le precedenti affermazioni sussistono per un qualsiasi sistema bidimensionale conservativo di integrale primo
F = F (x, y). Nel caso particolare, invece, in cui il sistema è un sistema scalare meccanico conservativo l’integrale
primo F = F (x, y) ha la particolare espressione: E (x, y) = T (y) + V (x) := y 2 /2 + V (x). In questo caso la
specifica forma di tale funzione permette una discussione dei diagrammi di fase ben più dettagliata di quella fatta
finora. Ancora per semplicità, si supporrà V ∈ C 2 (D).

Note di Sistemi Dinamici


174 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

(1) Un tale sistema ha equilibri nelle intersezioni di y = 0 ed f (x) = 0 (isocline principali), e solo in questi punti.
Quindi gli equilibri non solo appartengono tutti all’asse delle x ma anche, in quanto zeri della f = −dV /dx,
essi corrispondono ai punti di stazionarietà, o: punti critici, del potenziale V .

(2) Sia xm un punto di minimo relativo proprio della funzione V = V (x). Dato che il primo addendo della
E := T + V = y 2 /2 + V (x) è essenzialmente positivo, localmente le linee di livello ΓE 0 sono definite dalla
E (x, y) = E 0 solo per E 0 ≥ V (xm ) Sia, ad esempio, xm = 0 . Non lede la generalità scegliere V (0) = 0 e
limitarsi quindi a considerare E 0 ≥ 0 .

(3) La regolarità del sistema garantisce che la soluzione t &→ x(t) dell’equazione del moto esiste regolare (e
conserva il valore della funzione E ). Si fissi un (arbitrario) dato iniziale (x0 , y0 ) ∈ D , e sia E 0 = E (x0 , y0 )
il valore della funzione E nel punto (x0 , y0 ). La soluzione uscente da (x0 , y0 ) individua (localmente) un
insieme di punti {(x(t), y(t))}t∈J0 ove J0 è un intervallo che contiene t0 e sul quale la soluzione t &→ x(t) è
definita. Per la regolarità del moto, tali punti riempiono localmente un arco di linea regolare e questo, come
si è detto, necessariamente appartiene alla linea di livello ΓE 0 definita dalla equazione E (x, y) = E 0 .
D’altra parte, in un qualsiasi punto (x, y) ∈ D esterno all’asse y = 0 si ha ∂E /∂y = y ̸= 0 , e quindi in esso
si ha ∇E ̸= 0 ; e anche sull’asse y = 0 si ha ∂E /∂x ≡ dV /dx ̸= 0 a meno che tali derivate siano calcolate in
qualcuno dei punti critici xc della funzione V (x). Se ne traggono i seguenti risultati che specificano quelli
del caso generale discusso sopra.

(3.1) Nell’intorno di punti (x, y) ̸= (xc , 0), e cioè in punti nei quali si ha |∇E | ̸= 0 , il teorema della funzione
implicita assicura che ciascun insieme di livello E (x, y) = E 0 è una linea semplice e liscia, la cui
tangente è univocamente definita e parallela a (y, f (x)) in quanto ortogonale al vettore (non nullo)
d
∇E = ( dx V (x), y). Tali linee contengono, interi, gli archi {(x(t), y(t))}t∈J0 corrispondenti a moti con
condizioni iniziali (x0 , y0 ) scelte su di essi. La tangente a una qualunque di tali linee in un suo qualsiasi
punto di regolarità, in quanto parallela a (y, f (x)) è parallela alle velocità (ẋ, ẏ) ≡ (y(t), f (x(t))) assunta
all’istante t.
(3.2) L’unicità della soluzione passante per ciascun dato iniziale implica che le curve {x(t), y(t)}t∈J0 non
si possano intersecare. Quindi, le soluzioni sono tutte rappresentazioni parametriche di archi semplici.
Questi si possono intersecare (senza essere il prolungamento l’uno degli altri) al più nei punti (xc , 0).
I punti di equilibrio del sistema sono allora necessariamente gli unici punti che possono corrispondere ai
punti di non regolarità delle linee E (x, y) = cost, e cioè i punti (xc , 0) nei quali |∇E | = 0 .
(3.3) Sia (x̄, 0) ∈ D con x̄ non critico per la V (supposta derivabile due volte). In esso si ha f (x̄) ̸= 0 e
quindi ∇E ̸= 0 . Tale stato corrisponde ad un istante di arresto in un punto x̄ che non è di equilibrio.
Pertanto, pur essendo un punto singolare per la rappresentazione esplicita y = y(x) delle curve di livello
ΓE 0 , esso è invece ordinario sia per quanto riguarda la loro rappresentazione x = x(y), sia per quanto
riguarda la rappresentazione parametrica del moto. Sebbene y(x̄) risulti nullo, il tempo necessario a
raggiungere lo stato (x̄, 0) è finito, e il moto percorre in tale intervallo di tempo l’arco della linea ΓE 0
che congiunge (x0 , y0 ) con (x̄, 0).
In (x̄, 0) il campo v = (0, f (x̄)) è non nullo, pertanto la traiettoria per (x̄, 0) attraversa l’asse delle x
con tangente definita e parallela a quello delle y ; e sempre per il fatto che il punto non è di equilibrio
essa stessa prosegue nel semipiano opposto, unica per il teorema di unicità dato che v ̸= 0 . L’istante t̄
in cui x(t̄) = x̄ e y(t̄) = 0 è di arresto per la x(t) ma non lo è per la φ(t) = (x(t), y(t)) .
Ancora per il fatto che x̄ non è critico per la V , la traiettoria si allontana poi dall’asse delle x tanto
più quanto più diminuisce il valore della energia potenziale V (x) a favore della cinetica.
(3.4) Congiungendo fra loro i vari segmenti (locali) che vengono in tal modo descritti al variare di t nel-
l’intervallo massimale di definizione, si ha che per ogni fissato E 0 := E (x0 , y0 ) la corrispondente linea
ΓE 0 consiste o di archi semplici, o di linee chiuse (non necessariamente regolari). Ciascuna di tali li-
nee individua, in quanto contiene, l’intera famiglia {x(t), y(t)}t∈JM dei punti che una qualche soluzione
φ(t, t0 , x0 ), con x0 tale che E 0 = E (x0 ), descrive al variare di t ∈ JM . Tale soluzione riempie un intero
arco regolare della linea ΓE 0 ed è individuata da una qualsiasi delle condizioni iniziali che, compatibili
con quel valore E 0 , appartengono a quello stesso arco della linea ΓE 0 .
Si noti che altri x0 , pur appartenenti alla stessa linea ΓE 0 , se non appartengono anche allo stesso arco
regolare non individuano la stessa soluzione in esso contenuta. La linea E = E 0 può infatti contenere
anche molte diverse traiettorie, tutte relative a condizioni iniziali che danno luogo allo stesso valore E 0 .

(4) In particolare, in virtù della speciale forma delle funzioni T (x) = y 2 /2 e E = E (x, y), qualunque linea ΓE 0
(e cioè qualunque sia il valore E 0 che la individua) è composta da due rami simmetrici rispetto allo scambio

M. Lo Schiavo
3.4. La discussione sul piano delle fasi 175

y ↔ −y e dai punti nei quali essi raggiungono l’asse y = 0 . Per ogni x tale che y(x) ̸= 0 , essi consistono
evidentemente nei grafici delle due funzioni
/ /
y(x) = + 2(E 0 − V (x)) e y(x) = − 2(E 0 − V (x)) , (4.10)

che, per il punto (3), sono archi regolari.

(5) I due rami y(x) < 0 e y(x) > 0 si congiungono in punti (x̄, 0) dove la corrispondente linea ΓE 0 raggiunge
l’asse y = 0 . I punti x̄ sono quelli nei quali la funzione ẋ(t) si annulla e quindi, necessariamente, per essi
V (x) = E 0 .
V (x) dV (x)
= {f(x)
dx
E0
E0 {V (x)

x
x x
y

2 (E0 {V (x)) x
x
f(x)

Detti x̄1,2 due zeri distinti successivi di E 0 − V (x), eventualmente comprendendo x̄1,2 = ∞, all’interno
dei quali risulti : (E 0 − V (x)) > 0 , per ciascuno di essi si danno solo due casi possibili:

(5.1) la funzione E 0 − V (x) si annulla in modo tangente e quindi x̄1 (o x̄2 ) è anche un punto critico xc
per la V (x) (massimo locale o flesso), e come tale è di equilibrio per il sistema;
(5.2) la funzione E 0 − V (x) non solo tocca, ma attraversa l’asse E 0 = V (x).
Nel primo caso, e cioè se in x̄ ≡ xc la V (x) è stazionaria, il punto xc è un punto di equilibrio, e la
soluzione non prosegue per il teorema di unicità: la linea di livello ΓE 0 può anche proseguire al di là del
punto critico, ma i vari rami incidenti il punto corrispondono a soluzioni diverse, nel senso che non si
raccordano per tempi finiti, anche se tutte con la stessa energia E 0 .
Nel secondo caso, la curva di livello per (x̄, 0) – e la soluzione cui essa corrisponde – attraversa
l’asse y = 0 con tangente definita e parallela all’asse x = 0 giacché la prima componente del vettore
tangente è y che è ivi nulla. Sempre per il fatto che il punto non è di equilibrio la stessa soluzione
φ(t) = (x(t), y(t)) prosegue nel semipiano opposto descrivendo (localmente) un arco simmetrico a
quello ottenuto scambiando y ↔ −y , e si allontana dall’asse delle x tanto più quanto più diminuisce il
valore dell’energia potenziale V (x).
Ancora, per il teorema di unicità relativo al dato iniziale (x̄, 0) , la stessa soluzione prosegue nel
semipiano opposto fino a raggiungere l’altro punto: x̄1,2 nel quale è nuovamente E 0 = V (x).

(6) Fuori dall’asse delle x ciascun


9 ramo' di curva di livello individua un unico ramo di soluzione. Queste raggiun-
gono il bordo della striscia (x, y) ' x̄1 ≤ x ≤ x̄2 } soltanto in corrispondenza ai punti (x̄1,2 , 0) giacché solo
in essi si ha E 0 − V (x) = 0 , (e sempre che essi non siano punti di equilibrio, altrimenti solo la linea di
livello li raggiunge, ma non la soluzione).
9 '
In entrambi i casi, comunque, ciascuna soluzione appartiene ad una (sola) striscia (x, y) ∈ R2 ' x̄1 ≤ x ≤
x̄2 } , infatti nel primo caso una soluzione non può “attraversare” un punto critico e, nel secondo, la linea di
livello non può varcare l’asse x = x̄ visto che nell’adiacente striscia si ha E 0 − V (x) < 0 , cosa questa non
compatibile con una y reale.

A sostegno e ulteriore specifica della discussione appena fatta, è utile notare che l’equazione ẋ = y permette,
almeno in linea di principio, di risolvere (totalmente, anche se in forma implicita e per quadrature) l’equazione

Note di Sistemi Dinamici


176 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

assegnata. In particolare, è possibile calcolare il tempo necessario affinché il sistema passi dalla configurazione x̄1
a quella x̄2 :
- x̄2

T/2 := / ,
x̄1 2(E 0 − V (ξ))
K
e l’integrale è convergente se |x̄1,2 | < ∞ e se questi non sono equilibri infatti, in tal caso, il denominatore è diverso da
L
zero fuori da x̄1,2 , e siccome V ′ (x̄1,2 ) ̸= 0 , i poli x̄1 ed x̄2 sono solo dell’ordine di ξ −(1/2) , e quindi l’integrale (improprio) converge.
L’area racchiusa tra i due rami y > 0 e y < 0 della traiettoria {x(t), y(t)}t∈J è
- x̄2 / dS
S=2 2(E 0 − V (ξ))dξ , che implica T = .
x̄1 dE 0

Se 2
invece una o entrambe le due intersezioni x̄1,2 sono di equilibrio, o all’infinito, allora o l’integrale
. x̄2 /
x̄1 dξ 2(E 0 − V (ξ)) o la traiettoria stessa sono necessariamente divergenti.
In definitiva, se esistono entrambi x̄1 e x̄2 tali che V (x̄1,2 ) = E 0 con f (x̄1,2 ) ̸= 0 , e se V (x) > −∞ per
ogni x ∈ [x̄1 , x̄2 ], allora l’equipotenziale E (x, y) = E 0 = V (x̄1,2 ) è una curva chiusa che non contiene equilibri;
come tale essa è una traiettoria, percorsa in senso orario, che rappresenta un moto periodico. In particolare, se
. x̄ 2 /
la traiettoria chiusa racchiude l’origine, e se V è una funzione pari, allora: T = 4 0 dξ 2(E 0 − V (ξ)) .
V (x) .
x

x x
x1 xc x2 x1 xc x2

Qualora invece una o entrambe le due radici x̄1,2 corrispondano a punti di equilibrio o siano all’infinito, allora
. x̄2 2 /
risultano necessariamente divergenti o l’integrale x̄1 dξ 2(E 0 − V (ξ)) o la traiettoria stessa.
.
V (x) x

V = E0

x x

Esempio 3.4.1 Il Pendolo fisico conservativo:

q̈ = −k 2 sin q , (t, q) ∈ R × T .

h
In coordinate: (q, q̇) &−→ (x, y) ∈ R2 si ha ovviamente Π(q) ≡ V (x) = −k 2 cos x + V& e si riconosce che il sistema
è Hamiltoniano:
ẋ = v x (x, y) = ∂y E = y , ẏ = v y (x, y) = −∂x E = −k 2 sin x ,
con Hamiltoniana E (x, y) := T (y) + V (x), integrale del moto,

1 2 1
E (x, y) = y − k 2 cos x + V& = y02 − k 2 cos x0 + V& =: E 0 .
2 2
Dato il significato della funzione

1 2 1 E0
2
y (x) = 2 (E 0 − V (x)) := 2 + cos x =: E& 0 + cos x,
2k k k
i valori della costante E 0 , e di conseguenza delle condizioni iniziali, possono essere suddivisi in cinque distinti
insiemi:

M. Lo Schiavo
3.4. La discussione sul piano delle fasi 177

V (x)
(4)
(5)

(3)
x
(2)
{¼ x1 0 x2 +¼
(1)

(1) È vuoto l’insieme dei dati iniziali per i quali E& 0 < −1 .

(2) Se (x0 , y0 ) è tale che E& 0 = −1 , non può che essere (x0 , y0 ) =: (xc,s , 0) = (0, 0) e la soluzione è la quiete in
(x0 , y0 ). Ma xc,s è di minimo per l’energia potenziale V (x) quindi, per la discussione appena fatta, (xc,s , 0)
è un punto circondato da traiettorie chiuse e risulta pertanto di equilibrio stabile, (si veda oltre).

(3) Se (x0 , y0 ) è tale che E& 0 ∈ (−1, +1) l’equazione (nella variabile x̄ )
1 2
y − cos x0 = E& 0 = − cos x̄
2k 2 0
ammette due soluzioni: x̄1,2 , distinte, simmetriche rispetto all’origine, appartenenti all’intervallo aperto
(−π, +π), e tanto più lontane da essa quanto maggiore è il valore E 0 . In tale intervallo, la funzione
x &→ V (x) = −k 2 cos x non ha punti critici diversi dall’origine, e quindi nessuno dei due punti (x̄1,2 , 0) è un
punto di equilibrio. La traiettoria, attraversando l’asse delle x, lo fa in punti non di equilibrio e quindi essa
prosegue nel semipiano in cui y ≡ ẋ ha il segno opposto. La coordinata x rimane limitata fra i due valori
x̄1 e x̄2 e la traiettoria è chiusa. In definitiva risulta E 0 − V (x) = k 2 (cos x − cos x̄), con x̄ una delle
radici x̄1 , x̄2 sopra dette e che individuano l’ampiezza1massima dell’oscillazione. Per quanto detto, il moto è
. x̄ 2 0/
periodico di periodo T = 4 0 dx 2(E 0 − V (x)) .

(4) Se y0 è cosı̀ grande che E& 0 > +1 allora |ẋ| è sempre strettamente positivo, e il moto non ha istanti di arresto:
le traiettorie non attraversano mai l’asse delle x e la “striscia” corrispondente a queste condizioni iniziali è
tutto il piano. La coordinata x cresce in R, mentre il punto q descrive infinite volte il toro T. In particolare:
. 2π
La coordinata x cresce non limitata e tale che x(t + T) = x(t) + 2π per ogni t ∈ R e con T := 0 dx/h(x),
/
nella quale si è posto h(x) = 2(E 0 − V (x)) .
K .x
Infatti: La funzione h è 2π -periodica, mai nulla. Quindi, la t(x) − t(x0 ) = x dσ/h(σ) è funzione monotona ed invertibile.
0
Pertanto si trova - x+2π - 2π
t(x + 2π) − t(x) = dσ/h(σ) = dσ/h(σ) =: T
x
L 0
ovvero: t(θ + 2π) = t(θ) + T , la cui inversa dà θ(t + T) = θ(t) + 2π .

(5) Se (x0 , y0 ) è tale che E& 0 = +1 = − cos xc,u , allora xc,u è un punto critico: di stazionarietà per la funzione
x &→ V (x), ma non di minimo; e possono darsi i due sotto-casi:

(5.1) (x0 , y0 ) = (xc,u , 0), e cioè xc,u = +π , oppure xc,u = −π solo fisicamente coincidenti, (e cioè coincidenti
solo sul toro T); e allora il moto è la quiete nel punto iniziale (xc,u , 0) che, per la discussione appena
fatta, è un punto di equilibrio instabile.
(5.2) (x0 , y0 ) ̸= (xc,u , 0) e y0 ̸= 0 ; e allora il moto si svolge lungo la corrispondente (parte di) Separatrice.

A tale proposito si danno le seguenti definizioni:


Separatrice := un luogo di punti di D tali che la dinamica del sistema ha proprietà strutturali del tutto diverse
se uscenti da stati iniziali presi da bande opposte di esse per quanto vicini fra loro.
In questo esempio sono separatrici le linee E (x, y) = E (xc,u , 0), ove xc,u è un punto di stazionarietà, ma non di
minimo, per la V (x).
Traiettorie eterocline := traiettorie che connettono due punti di equilibrio.
In questo esempio: (xc,u , 0) := (−π, 0), e (xc,u , 0) := (π, 0), e che quindi verificano la 2k12 y 2 − cos x = +1 .
Traiettorie omocline := traiettorie che connettono uno stesso punto (xc,u , 0) di equilibrio (instabile); si veda
l’Esempio 3.4.4.

Note di Sistemi Dinamici


178 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Il punto (3) può essere ulteriormente approfondito. Si osservi innanzi tutto che il valore indicato per il periodo
- x̄
4 dx
T = /
k 0 2(cos x − cos x̄)
è un valore esatto. Tuttavia può essere di interesse valutarlo in casi particolari nei quali le condizioni iniziali siano speciali. Uno di
questi si presenta quando il valore x̄ è molto piccolo rispetto al suo possibile massimo: π . In tal caso, dalla
/ B
ẋ(x) = 2 (E 0 − V (x)) = 2k 2 (cos x − cos x̄)
e con le seguenti posizioni:
) * 0
x̄ x x1 7 8
2(cos x − cos x̄) = 4 sin2 − sin2 =: 4 a2 − sin2 =: 4a2 1 − sin2 ψ ,
2 2 2
1 x 1 x dx dψ
sin =: sin ψ, cos dx = cos ψ dψ, / = / ,
a 2 2a 2 2a 1 − sin2 ψ 1 − a2 sin2 ψ
nell’ipotesi di piccoli valori per l’ampiezza massima x̄ dell’oscillazione, e quindi per a := | sin x̄/2| ≪ 1 , si ottiene successivamente:
-
4 x̄ dx
T = /
k 0 2(cos x − cos x̄)
-
4 π/2 dψ
= / , (per la (4.11) qui appresso);
k 0 1 − a2 sin2 ψ
- ) *
2 π a2 sin2 ψ
≃ 1+ dψ , (per la (4.12) qui appresso);
k 0 2
) *
2π a2
= 1+ , (per la (4.13) qui appresso);
k 4
) *
2π x̄2
≃ 1+ , (per la (4.14) qui appresso),
k 16
che, contrariamente a quanto accade per l’oscillatore lineare, evidentemente dipende dall’ampiezza massima dell’oscillazione e cioè
dall’energia iniziale.
Nei passaggi qui sopra sono state usate le seguenti relazioni, (delle quali la (4.12) e la (4.14) sono tanto più vere quanto più ε > 0
è vicino allo zero, e quindi, in questo caso, quanto più è piccola l’ampiezza massima dell’oscillazione):
- x̄ - π/2
dx dψ
B = / ; (4.11)
0 4(a2 − sin2 x2 ) 0 1 − a2 sin2 ψ
) *'
1 1 ' ε
√ ≃ 1 + ε − (1 − ε)−3/2 (−1) ' =1+ ; (4.12)
1−ε - π
2 ε=0 2
π
sin2 ψdψ = ; (4.13)
0 2
ε 2 ε 3
sin ε ≃ 0 + ε − 0+ . (4.14)
2 6
Il cosiddetto Integrale ellittico di prima specie che compare nella (4.11), convergente quando a := | sin x̄/2| < 1 , si sarebbe potuto
esprimere anche con l’aiuto delle funzioni ipergeometriche, (si veda § I.6):
- π/2 ) * ∞
dψ 1 1 π = (1/2)n (1/2)n 2n
/ =: K(a) ≡ F , , 1; a2 := a , (4.15)
0 1 − a2 sin2 ψ 2 2 2 n=0 n!(1)n
7 8
e fornisce il valore esatto del periodo del pendolo fisico T = 4K(a)/k . Il valore che si è stimato: 2π k
1 + x̄2 /16 ne è una prima
approssimazione valida solo nel caso in cui l’ampiezza massima dell’oscillazione: N x̄ sia piccola
O (e ciò accade quando è piccola l’energia
2
E 0 ). In tal caso sin x̄/2 ∼ x̄/2 e i primi due termini della serie (4.15) sono 1 + ( 12 )( 12 ) x̄4 .

k2 2
N.B. 3.4.2 Il caso lineare q̈ = −k 2 q (si veda l’Esempio 3.2.12) è ben diverso da questo. Per esso si ha V (x) = 2
x + V& e quindi
1 2 k2 k2
E 0 − V (x) = y + (x2 − x2 ) =: (x̄2 − x2 ) ,
2 0 2 0 2
che dà - - -
4 x̄ dx 4 1 dη 4 π/2 d sin ψ 2π
T= √ = / = =
k 0 x̄2 − x2 k 0 1−η 2 k 0 cos ψ k
indipendente dall’ampiezza massima e, più generalmente, dai dati iniziali. ♦

. .
µ µ

µ µ
{¼ +¼

pendolo fisico oscillatore armonico

M. Lo Schiavo
3.4. La discussione sul piano delle fasi 179

Esempio 3.4.3 L’equazione di Duffing con potenziale attrattivo debole:

ẍ = −k 2 x + εx3 con t0 , x0 , ẋ0 ∈ R, ε>0.


k2 2
K
Si ha evidentemente V (x) = 2 x − 4ε x4 + V& .
è interessante confrontare quest’ultima con lo sviluppo, valido per piccole
0 1
2 4
ampiezze, della precedente energia potenziale: Vp (x) = −k 2 cos x ≃ k 2 −1 + x2 − x4! . Tuttavia va detto (si veda § VI.2) che la
similitudine fra i due sistemi non è sufficiente a provare che l’uno “approssimi” l’altro. Tale approssimazione infatti va esaminata in
modo più preciso e solo dopo aver dimostrato che anche per l’equazione di Duffing l’ampiezza massima delle soluzioni che partono
vicine all’origine rimane piccola. Solo in tal modo i due sistemi risultano “prossimi”, con ε = k 2 /3! , e con entrambi i valori che rendono
/ √
massima la V , e cioè k 2 /ε ≡ 3! e π , che restano definitivamente lontani dall’insieme dei valori possibili per la x , e cioè
L
l’insieme |x| ≤ x̄ ≪ 1 . .
/ √
I punti critici sono xc,s := 0 e xc,u = x± := ± k 2 /ε = ± 6 , e quindi la separatrice ha equazione:

1 2 k2 2 ε 4 k4
y + x − x = E (x± , 0) = , con V& := 0.
2 2 4 4ε
Essa contiene anche in questo caso due eterocline ma, oltre ad esse e ai due punti di equilibrio, ora contiene anche
quattro traiettorie “aperte” verso infinito.
2
Le varie altre evenienze si presentano a seconda dei diversi valori della costante E 0 = 12 y02 + k2 x20 − 4ε x40 . Esse
si possono suddividere nei seguenti casi (sempre con V& = 0 ) e in corrispondenza ad altrettanti gruppi di valori
iniziali. Si chiamino x̄− + +
1 e x̄2 la minore e la maggiore delle soluzioni (se reali) della E 0 − V (x) = 0 , e x̄1 < x̄2

quelle intermedie (se reali). Si ha:

(1) E 0 ∈ (−∞, 0). In tal caso, se x0 < x̄− + − +


1 (o, rispettivamente x0 > x̄2 ) si avrà x(t) < x̄1 (oppure x(t) > x̄2 )
per ogni t. Si presentano cioè due famiglie di traiettorie per le quali la x presenta una e una sola inversione
di moto.
(2) E 0 = 0 . Lo stesso come (1). In più, se x0 = xc,s = 0 , si ha la soluzione x(t) = xc,s .
(3) E 0 un valore nell’intervallo aperto (0 , k 4 /4ε). Lo stesso come (1). In più, per condizioni x0 tali che
− −
x0 ∈ (x̄+ +
1 , x̄2 ), si hanno moti periodici con x(t) ∈ (x̄1 , x̄2 ), e quindi per essi infinite inversioni di moto.

(4) E 0 > (k 4 /4ε). Qualunque sia il valore di x0 si hanno moti progressivi con nessuna inversione.
(5) Risultati analoghi all’esempio precedente qualora E 0 = k 4 /4ε.

V (x) y

x x

x{ xc,s x+
x1{ x{ xc,s x+ x2+ x1{ x1+ x2+
x2{

Esempio 3.4.4 L’equazione di Duffing con potenziale a due pozzi:

ẍ = +k 2 x − εx3 con t0 , x0 , ẋ0 ∈ R, ε>0.


y
V (x)

x
x

x{ xc,u x+ x{ xc,u x+

Note di Sistemi Dinamici


180 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Esempio 3.4.5 L’Equazione del pianeta:

c2
ρ̈ − = −φ(ρ) con (t0 , ρ0 , ρ̇0 ) ∈ R × R+ × R .
ρ3
Per scrivere tale equazione si è riconosciuto che il moto, nello spazio fisico, di un elemento soggetto ad una forza
−−→ −− ¨→
centrale, in particolare Newtoniana, è piano e tale che ρ2 θ̇ = cost =: c. Infatti: dalla OP × OP = 0 se ne trae
−−→ −−→ ˙ −−→
facilmente la OP × OP = ⃗k0 = cost ≡ c⃗n , che fornisce ⃗n · OP (t) = 0 . Pertanto, con la notazione usuale in R3 :
(
−−→ ⃗ϵ = + cos θ⃗e1 + sin θ⃗e2 ,
OP = ρ ⃗ϵ con
⃗τ = − sin θ⃗e1 + cos θ⃗e2 ,

e indicato con ⃗ϵ × ⃗τ = ⃗n il versore rispetto al quale θ è positivo se contato in senso antiorario, ne seguono le
( ⎧
⃗ϵ˙ = +θ̇⃗τ ⎨− −→˙
OP = ρ̇⃗ϵ + ρθ̇⃗τ
ed
⃗τ˙ = −θ̇⃗ϵ ⎩ −− ¨→
OP = (ρ̈ − ρθ̇2 )⃗ϵ + (ρθ̈ + 2ρ̇θ̇)⃗τ

L’espressione f⃗ = −(km/ρ2 ) ⃗ϵ per l’attrazione Newtoniana fornisce quindi, sulla varietà L := R+ , l’equazione:

k c2 c2 /2 k
ρ̈ = − + che ha V (ρ) = + − .
ρ2 ρ3 ρ2 ρ
Al crescere dell’energia iniziale si riconoscono, nello spazio fisico,

(1) una traiettoria stazionaria circolare, con ρ = ρc,s , stabile ma non attrattiva;

(2) traiettorie periodiche descritte con θ̇ = c/ρ2 e comprese fra un afelio e un perielio ;
(3) traiettorie che provenienti dallo spazio vi tornano dopo essere passate all’interno delle possibili orbite stazio-
narie.
1
1.5
1 0.5
0.5 %s
0
2 4 6 8 10
-0.5
-0.5
-1

-1
2 4 6 8
%s
Si osservi che la “quiete” in ρc,s non individua posizioni di equilibrio!
N.B. 3.4.6 Sia ρ = ρ(t) funzione a valori reali, T -periodica mai nulla; risulta T -periodica e mai nulla anche la
.t
funzione θ̇(t) = c/ρ2 (t) =: λ(t); entrambe definite per ogni t ∈ R. Pertanto, la funzione θ(t) − θ0 = t0 λ(σ) dσ
è funzione monotona crescente, invertibile, e tale che
- t - t0
θ(t) − λ(σ) dσ = θ(t0 ) − λ(σ) dσ per ogni t0 ∈ R .

Da questa si ricava, scegliendo in particolare t0 = t + T , la


- t+t
θ(t + T) = θ(t) + λ(σ) dσ . (4.16)
t

Ma è - - - t -
t+t 0 t+t
λ(σ) dσ = λ(σ) dσ + λ(σ) dσ + λ(σ) dσ,
t t 0 t
. t+t .t
e la periodicità di λ impone che sia t λ(σ) dσ = 0
λ(σ) dσ ; pertanto si ha
- t+t - t
λ(σ) dσ = & .
λ(σ) dσ =: Θ
t 0

M. Lo Schiavo
3.4. La discussione sul piano delle fasi 181

Dalle (4.16) segue &,


θ(t + T) = θ(t) + Θ e da questa la
- t
&
t(θ) + T = t(θ + Θ) con & :=
Θ λ(σ) dσ . (4.17)
0

Tuttavia la grandezza Θ & potrebbe non essere commensurabile con π . Ciò implica che l’essere ρ una funzione T -
periodica, e il sussistere della legge delle aree, non bastano ad assicurare che il moto (fisico) sia periodico. Infatti,
&
dalla 2π -periodicità del versore ⃗u segue che se Θ/2π ̸ non è un numero razionale, certo non può esistere alcun
tempo finito dopo il quale la traiettoria (nello spazio fisico) si possa chiudere. Se invece esistono n, m ∈ N tali che
.
& = t λ(σ) dσ = 2π n allora le due condizioni precedenti implicano il chiudersi della traiettoria e la periodicità
Θ 0 m
del moto. Si può dimostrare che questo è ciò che in effetti accade ai moti di un corpo soggetto ad una forza di tipo
gravitazionale. ♦

Qualora, a causa di eventuali altri effetti secondari da parte del resto del sistema gravitazionale, a questo schema
ε2 ρ
si aggiunge un termine del tipo Vep (ρ) = ε+(ρ−ρ +)
2 , con ε > 0 , si ottiene un sistema con traiettorie come le
(1), (2), (3) e in più: (4) traiettorie che tornano allo spazio dopo essere passate all’esterno delle possibili orbite
stazionarie; (5) un’orbita stazionaria (circolare) instabile e tre (aperte) che le sono asintotiche.
1
1.5
1 0. 5

0.5
0
2 4 6 8 10
-0.5
-0.5
-1

% %+ -1
2 4 6 8
% %+ #

Allo scopo di studiare il comportamento dei sistemi conservativi nell’intorno dei loro punti di equilibrio è
conveniente premettere (si veda: [Arnold 1]) la seguente discussione:

Lemma 3.4.1 (di Hadamard) Sia κ : R → R, κ ∈ C r≥1 (N (0)), e κ(0) = 0 . Per ciascun x ∈ N (0) si può
porre
- x - 1

κ(x) = κ (ξ)dξ = xκ′ (tx)dt =: xρ(x) con ρ ∈ C r−1 (N (0)) .
0 0

.1
In particolare si ha che ρ(0) = κ (0) ≡ 0
κ′ (0)dt.

. Sia V : R → R, V ∈ C r≥2 (N (0)), e si assuma che essa rappresenti una funzione energia potenziale V (x) =
x
− f (ξ)dξ di un sistema: ẍ = f (x). Si assuma anche che essa abbia un punto di stazionarietà il quale, senza
ledere la generalità, si porrà nell’origine; si abbia cioè V (0) = V ′ (0) ≡ f (0) = 0 . Si ponga poi:
- 1 - 1
V (x) = xV ′ (tx)dt , insieme con V ′ (tx) = txV ′′ (σtx)dσ .
0 0

Per ogni x ∈ N (0) risulta pertanto


- 1 - 1
V (x) = x2 ϕ(x) := x2 t V ′′ (σtx) dσ dt ,
0 0

ed è ϕ ∈ C r−2 (N (0)) con


- 1 )- 1 * + 2 ,1
t 1
ϕ(0) = t V ′′ (0) dσ dt = V ′′ (0) = V ′′ (0) .
0 0 2 0 2

Sia V ′′ (0) ̸= 0 ; il punto di equilibrio xe = (0, 0) dell’equazione ẍ = f (x) si definisce allora di equilibrio regolare
o iperbolico, e la funzione x &→ f (x) = −V ′ (x) risulta (nulla in zero ed) invertibile in un conveniente intorno N (0).
Si osservi, a questo riguardo, che i risultati che seguono sono validi localmente, ma ciò solo nella misura in cui è locale l’invertibilità
della f e cioè la permanenza del segno della V ; l’intorno N (0) non è necessariamente “piccolo”, ed i risultati non sono tanto più veri
quanto più N (0) è piccolo, come viceversa accade nel caso dei procedimenti di linearizzazione.

Note di Sistemi Dinamici


182 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Sotto le dette ipotesi, e posto


V ′′ (0)
σ := sign ϕ(0) = ,
|V ′′ (0)|
si osserva innanzi tutto che la funzione
ξ 2 : x &→ ξ 2 (x) := 2σV (x) ≡ 2σx2 ϕ(x)
è continua, nulla in x = 0 , e positiva in N (0)\{0} . In secondo luogo, si riconosce facilmente che la funzione
/ /
ξ : x &→ ξ(x) := x 2σϕ(x) ≡ (sign x) 2σV (x)
ha lo stesso segno della x ed è derivabile e invertibile in N (0). Essa infatti, e altrettanto accade alla σV ′ = −σ f ,
ha derivata strettamente positiva:


⎪ d / σ V ′ (x) −σ f (x)

⎨ (sign x) 2σV (x) = / = per x ̸= 0,
dξ dx (sign x) 2σV (x) ξ(x)
= /
dx ⎪
⎪ ξ(x) − ξ(0) x 2σϕ(x) /

⎩ lim = lim = σV ′′ (0) per x = 0.
x→0 x x→0 x
N.B. 3.4.7 Dato che (sign x) σ V ′ (x) = |V ′ (x)|, risulta:
a Ia J
dξ (V ′ (x))2 x V ′ (x)V ′′ (x) /
= .x −→ = σV ′′ (0)
dx 2σ 0 V ′ (ξ) dξ 0 σV ′ (x)
0

Posto allora U := N (0, 0), la trasformazione


) * ) * ) / *
x ψ −1 ξ x 2σϕ(x)
ψ −1 : U → R2 data da &−→ :=
y η y

rappresenta un diffeomorfismo locale di classe C r−2 : ψ : U ⊂ R2 −→ W ⊂ R2 , con W a sua volta aperto


e contenente l’origine (0, 0). Infatti ψ −1 trasforma (0, 0) in (0, 0), e ha derivata non singolare in (0, 0), in
quanto vale ) *' )/ *
−1 ∂x ξ ∂y ξ '' σV ′′ (0) 0
∂ψ (0, 0) = = .
∂x η ∂y η '(0,0) 0 1
Inoltre, in base al N.B. 3.2.6, il sistema trasformato è ancora conservativo con energia potenziale data da
ξ2
V&(ξ) = V (x(ξ)) = σ .
2
) *
−σf (x)/ξ(x) 0 '
Alternativamente, ci si può servire della ∂ψ−1 (x, y) = per calcolare il campo ν(ξ) := ∂ψ−1 v 'x=ψ (ξ) e
0 1
riconoscere che ) * ) * ) * ) *
ẋ y ξ̇ −ση/ξ
= è equivalente a = f (x(ξ)) ,
ẏ f (x) η̇ 1
per il quale è facile constatare che ) 2 * ) *
η ξ2 η
Lν +σ = η − σ2 ξ f (x(ξ)) ≡ 0 .
2 2 ξ
Si osservi che il sistema equivalente, non lineare, ha la stessa equazione associata del sistema (lineare)
ξ̇ = + η
η̇ = − σξ
e quindi (si veda l’Esempio 3.1.22) ha localmente le stesse traiettorie di questo.
/
Si noti anche che la linearizzazione adopera la variabile ξ lin := x σV ′′ (0) .

In definitiva in U , e cioè localmente vicino ad un punto di equilibrio regolare xe =: (xc , 0), le curve di livello
della E (x, y) = 12 y 2 + V (x) sono diffeomorfe a:
η2 ξ 2
(i) Ellissi: + =E0 se V ′′ (0) > 0 , e cioè se xc = xc,s = 0 è un punto di minimo relativo proprio per
2 2
V (x);
η2 ξ2
(ii) Iperboli: − =E0 se V ′′ (0) < 0 , e cioè se xc = xc,u = 0 è un punto di massimo relativo proprio
2 2
per V (x).

M. Lo Schiavo
3.4. La discussione sul piano delle fasi 183

Nel secondo caso gli asintoti dell’iperbole sono individuati dalla relazione:
@ A) * ) *
' ) * ) * √ 1′′ 0
−1 ' u± ±1 |V (0)| ±1 u±
∂ψ ' := e quindi dalla = .
0 w± 1 0 1 1 w±

Ne segue che essi hanno equazione


/ B
± V ′′ (0) u± = w± ovvero y=± |V ′′ (xc,u )| (x − xc,u ) .

´ 0

0
E0

0
=

<
>
= E0

E0
0

E0
»
0

0
<

>
E0

E0

N.B. 3.4.8 Il risultato (i) conferma il più generale:


Un sistema conservativo bidimensionale ha periodiche tutte le orbite vicine ad un punto di equilibrio stabile
isolato. Quest’ultimo prende il nome di Centro.
Infatti: (si veda: [Hale p.177]) sia U := N (0, 0) un intorno di (0, 0) tale che [U ]\{(0, 0)} non contiene equilibri.
Data la stabilità, esiste un altro intorno U ′ tale che (0, 0) ∈ U ′ ⊂ U e che [U ] contiene l’insieme ω -limite di
ogni punto x ∈ U ′ . Per il teorema di Poincaré-Bendixon ciascuno di tali insiemi ω -limite è un’orbita periodica
o contiene il punto (0, 0). La conservatività, d’altra parte, esclude che possa essere un ciclo limite o che l’origine
possa essere attrattivo. ♦

N.B. 3.4.9 Se V è definita su tutto R ed è inferiormente limitata, non lede la generalità supporla ovunque
positiva o nulla, e quindi ogni valore T0 + V0 = E/ 0 risulta positivo o nullo. Si supponga che la soluzione sia
definita per |t − t0 | ≤ τ ∈ R. In virtù della y = ± 2(E 0 − V (x)) si ha allora che per |t − t0 | ≤ τ risulta anche
√ √ √ .t .t
|y(t)| ≤ 2E 0 . Pertanto |x(t) − x0 | ≤ 2E 0 |t − t0 | ≤ 2E 0 τ , in quanto è | t0 ẋ(ρ)dρ| ≤ t0 |y(ρ)|dρ. Il teorema
del prolungamento sui compatti garantisce allora che la soluzione t &→ x(t) è definita e limitata per ogni t ∈ R. Il
risultato sulla limitatezza si può anche estendere al caso: V definita e inferiormente limitata su D ⊂ R connesso.

N.B. 3.4.10 Ancora nel caso (i), sia xc,s il punto di minimo per V , e si chiami Vs il valore
7 minimo V (xc,s ) ≥
0 . Per E 0 sufficientemente 8prossimo a Vs l’area della corrispondente curva di fase, che è diffeomorfa alla
circonferenza ξ 2 + η 2 = 2E 0 è prossima a

π( 2E 0 )2 2πE 0
S(E 0 ) = = / .
det( ∂ψ|xc,s ) |V ′′ (xc,s )|

Pertanto
/ il periodo delle piccole oscillazioni intorno ad una posizione di equilibrio stabile è dato da T =
2π/ |V ′′ (xc,s )| . Per il pendolo, V ′′ = k 2 cos x implica T = 2π/k . ♦

Si osservi che il caso (ii) è un caso particolare, in quanto il sistema ha dimensione due ed è xe := (xc,u , 0), della
più generale definizione che qui segue e che è valida per sistemi di dimensione n ≥ 2 .
Sella standard := un punto di equilibrio xe , isolato sulla varietà delle fasi M, che ammette un intorno N (xe ) ⊆
M nel quale si possono definire due sottovarietà (non vuote) Wloc
s
, Wlocu
con le seguenti caratteristiche:

s u
(i) Wloc , Wloc sono trasversali in xe , e lo sono in modo tale che
s u s u
Wloc ∩ Wloc = {xe } ; Txe Wloc ⊕ Txe Wloc = Txe M ;

Note di Sistemi Dinamici


184 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

s u
(ii) Wloc è positivamente invariante, Wloc è negativamente invariante, ovvero:
( s
x ∈ Wloc ⇒ G t x ∈ Wloc
s
per ogni t ≥ 0,
u
x ∈ Wloc ⇒ G t x ∈ Wloc
u
per ogni t ≤ 0,

s u
(iii) Wloc (rispettivamente Wloc ) è l’unico sottoinsieme di N (xe ) che sia positivamente (risp. negativamente)
s u
invariante, e cioè ogni orbita uscente da punti non appartenenti a Wloc (rispettivamente Wloc ) esce prima
o poi da N (xe ), (risp. proviene dal complementare di N (xe )); in sintesi:
( t s
G x ∈ N (xe ) , ∀t > 0 ⇒ x ∈ Wloc ,
G t x ∈ N (xe ) , ∀t < 0 ⇒ u
x ∈ Wloc ,

(iv) il punto xe è l’insieme ω -limite della s


Wloc e l’ α -limite della Wloc
u
; e cioè

⎪ s t
⎨ x ∈ Wloc ⇒ G t x −→ xe ,
+∞
⎪ u
⎩ x ∈ Wloc ⇒
t
G t x −→ xe ,
−∞

Più in generale, si chiama:


(
u
k = dim Wloc
Sella (k) := un punto di equilibrio xe ∈ M tale che: s
n−k = dim Wloc

con k ≥ 0 , e dove n = dim N (xe ) ≥ 2 è la dimensione della varietà delle fasi M.

Si noti che le due varietà sono locali; risultano infatti definite (come grafico di funzioni regolari di punti nei
corrispondenti spazi Es ed Eu ) solo su N (xe ).
Nel Cap. II si è visto che per un campo lineare: T (x − xe ), con T ∈ L(V), il punto di equilibrio xe è una
sella (k) quando l’operatore T ha autovalori tutti con parti reali non nulle e, di queste, k positive ed n − k
negative. Nel Cap. IV si ricorderà (teorema di persistenza delle selle o della varietà stabile) che ciò accade anche
per punti di equilibrio di sistemi non lineari (autonomi) se aventi derivata v∗ (xe ) con le stesse proprietà enunciate
per l’operatore T .
Si definiscono poi le corrispondenti varietà globali (non necessariamente sottovarietà regolari di M) prolungando
l’unione delle traiettorie uscenti dai punti di quelle locali, considerati come punti iniziali:

W u (xe ) = ∪t≥0 G t (Wloc


u
(xe ))
W s (xe ) = ∪t≤0 G t (Wloc
s
(xe )) .

(
ẋ = x
Esempio 3.4.11 x0 , y0 ∈ R.
ẏ = x3 − y,
Si ha subito x(t) = x0 et e quindi
)- t *
1 3 3t 1
y(t) = e−t x30 e4σ dσ + y0 = x0 e + (y0 − x30 )e−t .
0 4 4
' '
Pertanto: s
Wloc {(x, y) ' x = 0} e u
Wloc = {(x, y) ' y = 14 x3 }. Infatti:

x0 = 0 ⇒ x(t) = 0, ed y0 = 14 x30 ⇒ y(t) = 14 x3 (t);


t t
x0 ̸= 0 ⇒ x(t) −→ ∞, ̸ 14 x30 ⇒
ed y0 = y(t) −→ ∞;
∞ −∞
t t
x0 = 0 ⇒ (x2 + y 2 ) −→ 0, ed y0 = 14 x30 ⇒ (x2 + y 2 ) −→ 0.
∞ −∞

Anzi le due varietà trovate in questo esempio sono globali, in quanto definite ovunque e verificanti (i)–(iv) anche
fuori da N (0, 0). Come si è accennato, la parte' lineare del sistema ha anch’essa
' due varietà (anzi due spazi)
trasversali nel punto di equilibrio: Vs = {(x, y) ' x = 0} , e Vu = {(x, y) ' y = 0} ; quest’ultimo è tangente,
u
nell’equilibrio, alla Wloc del sistema non lineare e in questo senso, per ∥x∥ convenientemente piccoli, può essere
u
considerata come deformata della Wloc del sistema.

M. Lo Schiavo
3.4. La discussione sul piano delle fasi 185

Si può notare che il sistema è hamiltoniano con H = H (x, y) := xy − 14 x4 + c pur non essendo un sistema
meccanico con l’hamiltoniana canonica H = T + V .
Quelle in figura sono le linee H = cost

y
=

4
3
x
y= x

Esempio 3.4.12 ẍ = 24x − 6x2 , t0 , x0 , ẋ0 ∈ R,


(si veda: [Andronov p.34]), ovvero:
(
ẋ = v x (x, y) := y
ẏ = v y (x, y) := 24x − 6x2 .

Gli equilibri sono (0, 0) e (4, 0); il potenziale V (x) = −12x2 + 2x3 + V& , e la separatrice per (0, 0) :
1 2 2 3
2 y + (−12x + 2x ) = 0 .
V (x)
y

x
4 6

La separatrice è costituita da quattro orbite, tutte di periodo infinito, delle quali una: l’omoclina è la traiettoria
che parte e arriva in (0, 0). I moti uscenti da condizioni iniziali all’interno dell’omoclina sono tutti periodici. Le
traiettorie vicine all’omoclina hanno periodi
- x̄2 - x̄2 - x̄2
dx dx dx
T =2 / ≃2 √ =2 √ ,
x̄1 2(E 0 − V (x)) x̄1 12x2 − 2x3 x̄1 2x 6 − x

purché siano x̄1 ≃ ε, x̄2 ≃ 6/− ε , con 0 < √


ε ≪ 1 . Le traiettorie vicine all’equilibrio: x = 4 hanno invece
periodo T stimato da T ≃ 2π/ |V ′′ (4)| = 2π/ 24.

(
ẋ = −4x + y + x2
Esempio 3.4.13 x0 , y0 ∈ R .
ẏ = (1/6) y − 6x(x − 4),
Posto f := 1/6 , e chiamato (v x , v y ) il campo dell’Esempio 3.4.12, si nota che quello del presente esempio si può
riscrivere nella forma (
ẋ = v x (x, y) − f v y (x, y) := y − f · (24x − 6x2 ) ,
ẏ = v y (x, y) + f v x (x, y) := (24x − 6x2 ) + f y .

In modo analogo a quanto fatto nell’Esempio 3.1.28, si riconosce che il sistema ha campo ruotato di θf = arctan 16
rispetto a quello definito nel precedente esempio. I cammini chiusi di quello sono quindi trasversi ai cammini
di questo e individuano regioni positivamente o negativamente invarianti a seconda del verso del campo, e cioè a
seconda del segno di f . Nel caso f > 0 si ha:

Note di Sistemi Dinamici


186 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

le traiettorie subiscono una “corrente al traverso” diretta verso quelle traiettorie dell’Esempio 3.1.25 che hanno
energia maggiore. Viceversa, come verrà dimostrato più diffusamente nel seguito, nella regione in cui queste ultime
curve sono tutte cicli non isolati, si ha che le traiettorie del presente esempio contraggono e spiralizzano verso il
punto di equilibrio da esse racchiuso.

#
(
ẋ = y
Esempio 3.4.14 t0 , x0 , y0 ∈ R.
ẏ = 8x − 8x3 ,
Come si è già visto questa è una particolare equazione di Duffing, con potenziale V (x) = −4x2 + 2x4 + V& e
separatrice 12 y 2 −4x2 +2x4 = 0 (si veda l’Esempio 3.1.20). Essa può allora servire di “riferimento” per l’equazione,
con µ ∈ R, ⎧ ) *
⎪ 1 2 2 4

⎨ ẋ = y − µ y − 4x + 2x (8x − 8x3 )
2
) * (4.18)

⎪ 1 2
⎩ ẏ = (8x − 8x3 ) + µ y − 4x2 + 2x4 y
2
Infatti, stante il fatto che la funzione F = F (x, y) = 12 y 2 − 4x2 + 2x4 è integrale primo del sistema assegnato, e che
è ad esso che il sistema (4.18) si riduce quando il dato (x0 , y0 ) è tale che F (x0 , y0 ) = 0 , l’omoclina F (x, y) = 0 è
costituita da traiettorie anche di (4.18); per esse la F è un invariante. Pertanto, per µ > 0 , e rispettivamente
µ < 0 , si hanno i due seguenti casi:

in cui appare evidente l’esistenza di insiemi limite che non sono cicli limite.
Un altro esempio dello stesso tipo è ẍ + (x2 + ẋ2 − 1)ẋ + x = 0 , in cui si ha
1 2
E (x, y) = (x + y 2 ) , Lv E (x, ẋ) = −ẋ2 (x2 + ẋ2 − 1) .
2
Si hanno orbite (entranti) uscenti dalle circonferenze con centro in (0, 0) solo se si è (all’esterno) all’interno del
cerchio unitario. La circonferenza x2 + y 2 = 1 , che è una orbita possibile, risulta cosı̀ un ciclo limite. #

In effetti, negli ultimi due esempi si è considerato il campo assegnato come “variato” di un campo conserva-
tivo. Si è già detto che questo metodo è spesso usato per intuire in primissima approssimazione l’andamento del
diagramma di fase:
Esempio 3.4.15 ẍ + κ(x, ẋ) + g(x) = 0 , t0 , x0 , ẋ0 ∈ R,
e si assuma che κ non contenga termini additivi dipendenti solo dalla x. Si ponga, “arbitrariamente”,
- x
1
E (x, y) = y 2 + g(ξ)dξ , y := ẋ .
2
In generale questa funzione non è un integrale primo; infatti Lv E := y∂x E + (−κ − g)∂y E = −yκ(x, y) ̸= 0 .
Tuttavia è talvolta possibile stimare il segno della Lv E in particolari regioni dello spazio delle fasi, e da ciò risalire,

M. Lo Schiavo
3.4. La discussione sul piano delle fasi 187

conoscendo la forma delle equipotenziali E (x, y) = cost, al diagramma di fase del sistema (non conservativo)
assegnato. Dalla definizione di Lv E si deduce infatti (si veda anche § IV.2) che nei punti in cui è Lv E > 0 , le linee
di flusso del sistema non conservativo sono trasverse (e quindi attraversano) le linee E = cost, puntando verso la
regione nella quale le altre equipotenziali corrispondono a valori della costante maggiori di quello in esame. #

Un procedimento analogo si può seguire con sistemi del tipo:


(
ẋ = y + εf1 (x, y)
Esempio 3.4.16 t0 , x0 , y0 ∈ R ,
ẏ = g(x) + εf2 (x, y),

con ε ≪ 1, f1,2 ∈ C r≥1 (D) , g ∈ C 1 . .x


Si ponga anche in questo caso E (x, y) := 12 y 2 − g(ξ)dξ . Si ricava facilmente: Lv E = ε(f2 y − f1 g), il che
mostra, come c’era da aspettarsi, che il divario fra l’arbitrario sistema “conservativo” e quello assegnato è piccolo
quanto più è piccolo ε . #

I precedenti esempi tuttavia dimostrano palesemente che non è detto che due sistemi con campi “vicini” abbiano
anche diagrammi di fase “simili”. Per convincersene ulteriormente, si considerino ancora i seguenti tre esempi.

Esempio 3.4.17 ẍ + µ|ẋ|ẋ + x = 0 , t0 , x0 , ẋ0 ∈ R, µ > 0.

Con E (x, y) := 12 (x2 + y 2 ) risulta Lv E (x, y) = −|y|3 µ ≤ 0 . Si ha allora che, per quanto piccolo sia il valore
di µ, le traiettorie sono trasversali non uscenti dalle circonferenze con centro l’origine. In effetti sono entranti
ovunque ad eccezione dei punti sull’asse delle x, nei quali esse sono tangenti alle circonferenze. Ma allora, siccome
questi non sono equilibri, il teorema di unicità assicura che la stessa traiettoria prosegue nel semipiano opposto
e, per continuità, non può che definitivamente entrare nella circonferenza cui era tangente sull’asse. Inoltre la
traiettoria non può terminare in alcun punto diverso dall’origine, perché è definita e finita per ogni t. Pertanto
è non vuoto il suo insieme ω -limite. D’altra parte non può ammettere un ciclo limite, perché non essendo le
circonferenze orbite possibili si avrebbero delle curve chiuse almeno parzialmente uscenti da qualche circonferenza.
Una dimostrazione più semplice e generale verrà data nel capitolo sulla stabilità, (si veda: [Hale cap. X Teor 1.3]).
In definitiva il punto di equilibrio attrae tutte le orbite, cosı̀ come le respingerebbe se fosse µ < 0 , e ciò a
prescindere dal suo valore assoluto, seppur piccolo.
Il metodo però non permette di stabilire il numero di giri che la traiettoria compie intorno al punto fisso. #

Esempio 3.4.18 Il pendolo con attrito.

q̈ = −k 2 sin q − µq̇ (t0 , q0 , q̇0 ) ∈ R × T × R, µ>0.

Scelte delle coordinate tali che (q, q̇) &→ (x, y) ∈ R2 , e posto

1 2
E (x, y) := ẋ − k 2 cos x + V& ,
2
si ha:
Lv E (x, y) = (k 2 sin x)ẋ + ẋ(−k 2 sin x − µẋ) = µẋ2 ≤ 0 .

Questa proprietà, come si vedrà nel citato teorema di stabilità, è sufficiente anche in questo caso a dimostrare che
il diagramma del pendolo fisico si modifica, e diviene il seguente:
y

{¼ 0 +¼

Note di Sistemi Dinamici


188 Capitolo 3. Equazioni Differenziali Ordinarie:Metodi Qualitativi

Esempio 3.4.19 L’equazione di Duffing smorzata.

ẍ = k 2 x − x3 − δ ẋ , con δ>0.

È chiaro che, malgrado tali accorgimenti, non sempre la discussione è agevole:


Esempio 3.4.20 ẍ + f (x)ẋ + g(x) = 0, t0 , x0 , ẋ0 ∈ R,
x
Siano g(x) dispari, xg(x) > 0 se x ̸= 0 , f (x) pari e tale che f (0) < 0 , f (x) −→ +∞.

Un caso particolare ne è la preclara
Equazione di Van der Pol: ẍ + e(x2 − 1)ẋ + x = 0 , con t0 , x0 , ẋ0 ∈ R, ed e > 0 .
1 2
.Sex fosse f = 0 , siccome la g è dispari il suo integrale è pari, e si avrebbe con semplicità che: E (x, y) = 2 ẋ +
g(ξ)dξ ha equipotenziali diffeomorfe ad ellissi o a curve chiuse regolari. Con f ̸= 0 , invece, si ha Lv E (x, ẋ) =
−f (x)ẋ2 che, nelle ipotesi dette, risulta negativo fuori da una certa striscia (−& &) e positivo in una qualche altra
x, x
striscia interna ad essa. Pertanto anche se le curve E = cost sono chiuse, l’informazione fornita dalla funzione E
e dal segno della sua derivata direzionale non basta a trarre conclusioni sull’andamento delle traiettorie. (Diverso
sarebbe il caso in cui fosse f = f (x, ẋ) con f positiva fuori da qualche rettangolo contenente l’origine, e negativa dentro, sul quale
magari poter usare il teorema di Poincaré-Bendixon). Nelle ipotesi dette si ha infatti bisogno di un teorema specifico, e
affatto banale: il teorema di Lienard, [Guckenheimer
.x Cap.II], [Jordan], per provare che questa equazione ammette
un (solo) ciclo limite purché la funzione f (ξ)dξ (che è dispari) si annulli (solo) nei punti {−a, 0, +a} , con
a>x &.
Questo particolare esempio comunque verrà ripreso nel seguito e discusso anche con altri metodi.

M. Lo Schiavo
Capitolo 4

Cenni di stabilità

4.1 La stabilità lineare


Le possibili forme di stabilità relative ad una qualche soluzione di un sistema del tipo ẋ = v(t, x) con campo liscio
in un aperto D ∈ R × M sono molteplici. Nessuna di esse però va confusa con la proprietà di dipendenza continua
rispetto alle condizioni iniziali, che risulta posseduta da ogni soluzione regolare di un tale sistema. Il teorema di
dipendenza continua infatti, (si veda Cap.I, teor.3) si applica ad ogni soluzione x̂ : t &→ x̂(t) := φ(t, t̂0 , x̂0 ) uscente
da condizioni iniziali (t̂0 , x̂0 ) ∈ D e, sotto l’ipotesi che questa esista fino all’istante t̂0 + T < ∞, esso non solo
assicura l’esistenza almeno fino allo stesso istante t̂0 + T di ogni altra soluzione x : t &→ x(t) := φ(t, t0 , x0 ) abbia
condizioni iniziali (t0 , x0 ) vicine alle (t̂0 , x̂0 ), ma in più assicura la vicinanza di x(t) ad x̂(t) per ciascun t in
[t̂0 , t̂0 + T]. Tutto questo però per tempi non superiori al prefissato valore t̂0 + T . Di conseguenza, se anche la
soluzione di riferimento x̂ fosse definita per ogni t, si deve comunque fissare la lunghezza T , arbitraria ma finita,
dell’intervallo di definizione, anche se solo per poter assicurare l’esistenza fino a t̂0 + T della soluzione “variata”
t &→ x(t).
x

"
x0 ±
t

t0 t0+T

Esempio 4.1.1 ẋ = x2 con x0 ∈ R, t0 = t̂0 = x̂0 = 0 .


La soluzione t &→ x̂(t) := φ(t, 0, 0) = 0 esiste per ogni t ∈ R. D’altra parte, siccome il campo è liscio, la generica
soluzione
x0
t &→ x(t) := φ(t, 0, x0 ) =
1 − x0 t
esiste localmente, unica, continua rispetto a t, x0 . Tuttavia essa non esiste per ogni t: fissato T comunque grande,
e supposto x0 > 0 , essa è definita in [0, T] solo se x10 > T . Inoltre, essendo monotona crescente rispetto a t, essa
c ε
assume valore massimo in t = T . Ma la relazione < ε equivale alla c < , (se cT < 1 ed ε > 0 ),
1 − cT 1 + εT
ε
per cui se x0 < δ(ε) := il punto x(t) := φ(t, 0, x0 ) è sı̀ ε -vicino ad x̂(t) = 0 , e quindi x ed x̂ vicine nella
1 + εT
norma ad esempio del sup , ma ciò non è vero per ogni t, bensı̀ solo fino al prefissato valore T .

x0

t0 t0+T

In definitiva la continuità rispetto ai dati iniziali risulta dare informazioni significative solo per tempi finiti, e
cioè informazioni “locali” in t; (naturalmente la qualità di tali informazioni e la durata degli intervalli dipende dal
sistema in esame e dalla particolare soluzione prescelta, ma sono comunque informazioni esclusivamente locali).

189
190 Capitolo 4. Cenni di stabilità

L’esame globale rispetto a t dei divari fra le soluzioni, e del come essi dipendano dalle condizioni iniziali, è
argomento della stabilità (rispetto alle condizioni iniziali).
Si noti che la stabilità è una proprietà del tutto eccezionale per una soluzione: quasi sempre i sistemi non lineari
mostrano una sensibile dipendenza dalle condizioni iniziali, come si vedrà nel seguito.

In tutto questo capitolo si supporranno assegnati sistemi del tipo ẋ =


v(t, x) con campi v : (t, x) &→ v(t, x) lisci su [t̂0 , ∞) × M per un qualche
t̂0 ∈ R. Inoltre si supporrà che la soluzione di riferimento sia definita
per ogni t > t̂0 . Infine si assumerà fissata una metrica su M, ricava-
ta per esempio a partire da una norma: | · | definita sullo spazio Rn ,
che localmente rappresenta M, quando si sia scelta una carta (U, h(x) )
(vedi Appendice II). La rappresentazione in coordinate definirà anche le
differenze fra i punti su M.

Una prima forma di stabilità che si adatta bene ai sistemi autonomi, o all’equazione variazionale di un sistema
autonomo calcolata rispetto ad una soluzione di riferimento x̂ che sia periodica [Coddington 13.2], è la Stabilità
orbitale, e cioè puramente geometrica. In particolare, quindi, essa trova la sua utilità per lo studio della stabilità
di soluzioni di equilibrio e di cicli limite
N.B. 4.1.2 Fintanto che per valutare la stabilià di una soluzione x̂(t) = φ(t, t̂0 , x̂0 ) dell’equazione: ẋ = v(t, x)
ci si serve del valore del divario puntuale: |x(t) − x̂(t)| fra essa ed una sua “variata”: x(t) = φ(t, t0 , x0 ), è chiaro
che lo studio della stabilità su [t̂0 , ∞) della soluzione x̂(t) è del tutto equivalente a quello della stabilità della
soluzione nulla della seguente equazione, nella variabile u := x − x̂(t),

u̇ = v(t, φ(t, t̂0 , x̂0 ) + u) − v(t, φ(t, t̂0 , x̂0 )) =: w(t, u) . (1.1)

Infatti studiare l’andamento di |x(t) − x̂(t)| equivale a studiare quello di |u(t) − 0|.
Da un lato, il campo w dell’equazione (1.1) è generalmente altrettanto complicato di quello dell’equazione di
partenza; ed inoltre, siccome esso dipende dal dato (t̂0 , x̂0 ), il risultato che cosı̀ si ottiene si può applicare al solo
divario x(t) − x̂(t), e cioè allo studio della stabilità della sola specifica soluzione φ̂ : t &→ φ(t, t̂0 , x̂0 ).
Dall’altro, per enunciare
K i vari teoremi sulla stabilità è spesso più conveniente riferirsi ad equazioni scritte
nella forma L(1.1), ed in più questo modo di riscrivere il problema è già a metà strada nell’uso dello sviluppo
di Taylor... . Pertanto, in generale, gli enunciati dei teoremi sono relativi alla stabilità della soluzione nulla
t &→ φ(t, t̂0 , x̂0 ) = φ(t, t̂0 , 0) = 0 (che si suppone esistere per ogni t a partire almeno da t̂0 ) dell’equazione

ẋ = v(t, x), v ∈ C ℓ≥1 (D), D ⊆ R × M aperto, v(t, 0) = 0, per t ≥ t̂0 .

Tuttavia ciò non avviene, in particolare, per la seguente forma di stabilità, che viene valutata a partire da
una forma di divario diversa da quello detto sopra. Per essa, verrà data la definizione di stabilità relativa ad una
qualsiasi soluzione, non necessariamente la quiete). ♦

N.B. 4.1.3 Generalmente si è interessati a studiare la stabilità “in avanti”, e cioè per tempi t successivi ad un
certo prefissato t0 . È pertanto naturale fare riferimento alle
Semiorbite := γ + = γ + (t0 , x0 ) := {φ(t, t0 , x0 )}t≥t0 .
A questo proposito si ricordi che la loro appartenenza ad un insieme compatto dello spazio delle fasi M è condizione
sufficiente affinché la corrispondente soluzione t &→ φ(t, t0 , x0 ) di un’equazione autonoma esista per ogni t > t0 ,
(vedi la seconda proposizione del §III.4]). Tuttavia può essere di interesse anche lo studio della stabilità di
soluzioni le cui semiorbite γ + siano non limitate, e la cui esistenza globale sia quindi provata in altro modo. ♦

Fissata una distanza nello spazio delle fasi M, ad esempio la distanza euclidea standard, per ogni ε > 0 resta
+ +
definito un intorno Bε ( γ̀ ) della semiorbita γ̀ := {φ(t, t̂0 , x̂0 )}t≥t̂0 mediante la:
'
+ ' +
Bε ( γ̀ ) := {x ∈ Rn ' d(x, γ̀ ) < ε},

ove si è indicata con d : M × 2M → R+ ∪ {0} , data da d(x, Γ) := inf y∈Γ d(x, y), la distanza di un punto x ∈ M
da un insieme Γ dello spazio delle fasi.
Si definisce:

M. Lo Schiavo
4.1. La stabilità lineare 191

Stabile secondo Poincarè (o orbitalmente) := una soluzione x̂ : t &→ x̂(t) := φ(t, t̂0 , x̂0 ), esistente per ogni
+
t ≥ t̂0 , e la cui semi-orbita γ̀ := {φ(t, t̂0 , x̂0 )}t≥t̂0 è tale che, dato ε > 0 , esiste un δ(ε) > 0 per il quale la
soluzione x : t &→ x(t) := φ(t, t0 , x0 ) uscente da un qualsiasi x0 ∈ Bδ (x̂0 ) esiste per ogni t > t0 ed ha semiorbita
γ + := {φ(t, t0 , x0 )}t≥t0 contenuta in Bε ( γ̀ + ) .
°+
x0
°b+
x0
b
x
²
y

In questa definizione, gli istanti t0 e t̂0 hanno il solo scopo di individuare l’insieme Bδ (x̂0 ) e quindi le
+
semiorbite γ + ed γ̀ ; in più, nel caso di sistemi autonomi, essi possono essere fissati arbitrariamente.
Le condizioni richieste dalla definizione data si possono agevolmente verificare se si introduce la seguente nozione
di Divario fra due insiemi
D (A, B) := sup d(x, B) := sup inf d(x, y), A, B ∈ 2M .
x∈A x∈A y∈B

N.B. 4.1.4 Si noti l’asimmetria della funzione D : generalmente D (A, B) ̸= D (B, A) e ciò implica che D non
sia una distanza, (potrebbe esserlo l’inf{D (A, B), D (B, A)} ). Essa inoltre è diversa da altre, più usuali, nozioni
di divario fra insiemi. Ad esempio due rette non parallele hanno D = ∞ anche nel caso in cui esse siano incidenti.
°1
°2
D (°1 ,°2)

D (A,B)
D (B,A)
D(
°2
,° 1

A
)

Affinché γ̀ + sia orbitalmente stabile deve avvenire che, dato ε esista δ tale che
+
x0 ∈ Bδ (x̂0 ) =⇒ D ( γ + , γ̀ ) < ε ,
+
e quindi che per ogni x ∈ γ+ si abbia d(x, γ̀ ) < ε , ciò che comporta l’esistenza di almeno un x̂ ∈ γ̀ + tale che
x̂ ∈ Bε (x).
Per verificare tale condizione, dato x0 ∈ Bδ ( γ̀ +
) ed assegnate le due curve + e γ γ̀ +
ad esempio in forma parametrica e
tale da preservare il verso dei tempi crescenti: x = x(t), x̂ = x̂(τ ) , si dovrà innanzi tutto trovare, per ciascun t , il valore
' '
∆(t) := inf d(x(t), x̂(τ )) ≡ inf 'x(t) − x̂(τ )' ,
τ >t̂0 τ >t̂0

e poi, di questo, calcolare il sup per t > t̂0 . A tale scopo, se possibile, potrà essere utile trovare: τ = τ (t) tale che
) *
d d
(x(t) − x̂(τ ))2 = 0 o anche x̂(τ ) · (x(t) − x̂(τ )) = 0 ,
dτ dτ
e cioè quel valore per il quale il vettore differenza x(t) − x̂(τ ) risulta ortogonale alla tangente a (e non a γ̀ γ) nel punto x̂(τ (t)) .
Successivamente, occorre controllare che:
' '
γ γ̀
D ( +,
+
) ≡ sup ∆(t) = sup 'x(t) − x̂(τ (t))' sia minore di ε .
t>t̂0 t>t̂0

N.B. 4.1.5 In breve: la definizione di stabilità orbitale è equivalente alla:


+
x0 ∈ Bδ ( γ̀ ) ⇒ γ + ∈ Bε ( γ̀ + ) .

Note di Sistemi Dinamici


192 Capitolo 4. Cenni di stabilità

) *
x
I seguenti esempi si riferiscono ad equazioni autonome in R ; in essi si indicherà con x :=
2
il vettore
y
in R2 che, rispetto all’assegnata base, ha componenti x, y ∈ R. Si indicherà poi con t &→ x̂(t) := φ(t, 0, x̂0 ) la
soluzione di riferimento (non necessariamente nulla) della quale si studierà la stabilità orbitale, con la particolare
scelta t0 = 0 .
) * ) * ) *
ẋ x x0
Esempio 4.1.6 ẋ := = =: v(x) ; x0 := ∈ R2 , a > 0.
ẏ ay y0
) * ) * ) t*
x0 et x̂0 x̂0 e
Le soluzioni sono: x(t) = . Si consideri x̂0 = con x̂0 > 0 . Risulta x̂(t) = , e quindi
y0 eat 0 0
) *
'
γ̀ + = {(x̂, y(x̂)) ' x̂ ≥ x̂0 , ŷ = 0} . Si consideri poi la la semi traiettoria che evolve da un generico x0 = xy0
' 0
con x0 > 0 . Posto c := y0 /xa0 essa ha equazione γ + = {(x, y) ' x > x0 ; y = cxa }. Per ciascuna curva di tale
famiglia risulta inf x̂≥x̂0 |x(x) − x̂(x̂)| = |cxa | e quindi si vede che, dato ε > 0 , non esiste alcun δ > 0 tale che
|x0 − x̂0 | < δ possa implicare |cxa | < ε per ogni t > 0 (e cioè per ogni x > x0 ).
y

#
) * ) * ) * ) *
ẋ y x0 r cos ϕ0
Esempio 4.1.7 ẋ := = ; x0 := =: 0 ∈ R2 .
ẏ −x y0 r0 sin ϕ0
) * ) *
+r0 cos(t − ϕ0 ) r̂ cos ϕ̂0 +
Le soluzioni sono: x(t) = . Si consideri x̂0 := 0 ; le curve γ + e γ̀ sono
−r0 sin(t − ϕ0 ) r̂0 sin ϕ̂0
circonferenze concentriche. In base alla ortogonalità dei raggi alle circonferenze, la funzione τ = τ (t) è quella per
la quale si ha t − ϕ0 = τ (t) − ϕ̂0 e quindi
') *'
' (r0 − r̂0 ) cos(t − ϕ0 ) '
sup |x(t) − x̂(τ (t))| = '' ' = |r0 − r̂0 |
t>0 (r0 − r̂0 ) sin −(t − ϕ0 ) '

che è indipendente da t. Basta allora porre |x0 − x̂0 | < ε per riconoscere che la soluzione x̂ (che, si noti, è
qualsiasi) è orbitalmente stabile. #

) * ) * ) *
ẋ +y(x2 + y 2 ) r0 cos ϕ0
Esempio 4.1.8 ẋ := = ; x 0 := ∈ R2 .
ẏ −x(x2 + y 2 ) r0 sin ϕ0
) * ) *
+r0 cos(r02 t − ϕ0 ) r̂0 cos ϕ̂0 +
Le soluzioni sono: x(t) = . Si consideri x̂ 0 := ; le curve γ + e γ̀ sono
−r0 sin(r02 t − ϕ0 ) r̂0 sin ϕ̂0
circonferenze concentriche. In base alla ortogonalità dei raggi alle circonferenze si ha r02 t − ϕ0 = r̂02 τ (t) − ϕ̂0 e
quindi ') *'
' (r0 − r̂0 ) cos(r02 t − ϕ0 ) '
sup |x(t) − x̂(τ (t))| = ' ' ' = |r0 − r̂0 |
t>0 (r0 − r̂0 ) sin −(r02 t − ϕ0 ) '
che è indipendente da t. Basta allora porre |x0 − x̂0 | < ε per riconoscere che la soluzione x̂ (che è qualsiasi) è
orbitalmente stabile. #
) * ) * ) *
ẋ c x0
Esempio 4.1.9 ẋ := = ; x0 := ∈ R2 .
ẏ 0 y0
) * ) *
ct + x0 x̂0 +
Le soluzioni sono: x(t) = . Si consideri x̂0 := ; le curve γ + e γ̀ sono rette parallele.
y0 ŷ0
Affinché x(t) − x̂(τ (t)) sia ortogonale a tali rette è necessario che ct + x0 = cτ (t) + x̂0 e cioè inf τ |x(t) − x̂(τ )| =
|y0 − ŷ0 | che è indipendente da t. Basta allora porre |x0 − x̂0 | < ε per riconoscere che la soluzione x̂ (che è
qualsiasi) è orbitalmente stabile. #

M. Lo Schiavo
4.1. La stabilità lineare 193
) * ) * ) *
ẋ y x0
Esempio 4.1.10 ẋ := = ; x0 := ∈ R2 .
ẏ 0 y0
) * ) *
y0 t + x0 x̂0 +
Le soluzioni sono: x(t) = . Si consideri x̂0 := ; le curve γ + e γ̀ sono rette
y0 ŷ0
parallele. Affinché x(t) − x̂(τ (t)) sia ortogonale a tali rette è necessario che y0 t + x0 = ŷ0 τ (t) + x̂0 e cioè
inf τ |x(t) − x̂(τ )| = |y0 − ŷ0 | che è indipendente da t. Basta allora porre |x0 − x̂0 | < ε per riconoscere che la
soluzione x̂ (che è qualsiasi) è orbitalmente stabile. #

) * ) * ) *
ẋ −x x0
Esempio 4.1.11 ẋ := = ; x0 := ∈ R2 .
ẏ +y y0
) −t * ; <
x0 e '
+t , e si hanno γ = (x, y) ' xx0 =
+ y0
Le soluzioni sono: x(t) = , oppure uno dei quattro semiassi
y
y0 e
) *
x̂0
coordinati. Si noti che le x decrescono al crescere del tempo. Si consideri x̂0 := , per esempio nel
ŷ0
primo quadrante. Anche se si usa la coordinata x come parametro per esprimere le traiettorie, la distanza
a ) *2
+ y0 x0 ŷ0 x̂0
∆(x) = d(x(x), γ̀ ) = inf 2
(x − x̂) + −
x̂<x̂0 x x̂

non ha una espressione


) * agevole. Conviene ricorrere alla disuguaglianza triangolare con un terzo punto; ad esempio
x(t)
con σ(t, τ ) := . Ciò equivale a riconoscere che la norma del valore assoluto è maggiore o uguale di quella
ŷ(τ )
euclidea, e permette di ottenere:

∆(t) := inf |x(t) − x̂(τ )| ≤ inf (|x(t) − σ(t, τ )| + |σ(t, τ ) − x̂(τ )|)
τ ≥0 τ ≥0

≤ inf (|y(t) − ŷ(τ )| + |x(t) − x̂(τ )|) .


τ ≥0

Successivamente si osserva che l’ inf τ ≥0 è a sua volta minore o uguale del particolare valore che si ottiene calcolando
l’argomento per un opportuno valore di τ ≥ 0 , per esempio quella che si ottiene scegliendo τ̃ tale che y0 et = ŷ0 eτ̃ ,
e cioè τ̃ (t) = t + ln(y0 /ŷ0 ), [ovvero
' anche x̂(x) =' ŷ0 x̂0 x/(y0 x0 ) purché
'0 y0 abbia 1 ' lo stesso segno di ŷ0 ]. Si ottiene
' −t x̂0 ŷ0 −t ' ' ŷ0 x̂0 '
cosı̀ ∆(t) ≤ |x(t) − x̂(τ̃ (t))| = 'x0 e − y0 e ' , ovvero ∆(x) = ' 1 − y0 x0 x' . Queste ultime decrescono al
crescere di t. Ne segue che tutte le traiettorie sono orbitalmente stabili ad eccezione di quelle contenute nella
retta y = 0 , ed in particolare che è instabile la quiete nell’origine.
y

¢(t)
b
x(¿)
e
x(t)
¾(t,¿) b
x(¿)

) * ) / * ) *
ẋ +y − x sin /x2 + y 2 x0
Esempio 4.1.12 ẋ := = ; x0 := ∈ R2 .
ẏ −x − y sin x2 + y 2 y0
In coordinate polari si ha che
1 d d
(ρ2 ) = −ρ2 sin ρ θ = −1 ,
2 dt dt
pertanto ρ̇ cambia segno per ρ = kπ , con k ∈ N, il che significa che si hanno cicli limite per questi valori di ρ;
essi saranno stabili se k è pari, ed instabili se k è dispari; tutte le altre traiettorie sono orbitalmente stabili. #

Si esaminino ora i seguenti grafici, nello spazio delle fasi ampliato, relativi ai precedenti esempi.

Note di Sistemi Dinamici


194 Capitolo 4. Cenni di stabilità

y y

t t
x x
Esempio 3 Esempio 4
x x

t t
y y
Esempio 5 Esempio 6
x

y Esempio 7
È facile convincersi che la stabilità orbitale è per molti aspetti troppo debole. Se si vuole che i punti rappre-
sentativi di x(t), x̂(t), e cioè i due stati relativi ad un medesimo istante, siano vicini fra loro e che ciò accada in
ogni medesimo istante è necessario ricorrere ad una forma più forte di stabilità.
Esempio
) *4.1.13
) (continua*l’esempio 4.1.8)
) *
ẋ +y(x2 + y 2 ) r0 cos ϕ0
ẋ := = ; x 0 := ∈ R2 .
ẏ −x(x2 + y 2 ) r0 sin ϕ0
) * ) *
+r0 cos(r02 t − ϕ0 ) r̂0 cos ϕ̂0
Le soluzioni sono: x(t) = . Si consideri x̂0 := e si scelgano, per semplicità,
−r0 sin(r02 t − ϕ0 ) r̂0 sin ϕ̂0
ϕ̂0 = 0 = ϕ0 . Ne segue che il divario fra i due stati relativi ad un medesimo istante è dato da
') *'
' +r0 cos r02 t − r̂0 cos r̂02 t '
|x(t) − x̂(t)| = '' '
−r0 sin r02 t + r̂0 sin r̂02 t '
B
= |(r0 − r̂0 )2 + 2r0 r̂0 (1 − cos(r02 − r̂02 )t)|

che è dipendente da t. Se ne conclude che per riuscire a limitare il divario per t > 0 e considerare x̂ stabile non
basta porre |x0 − x̂0 | < ε , a meno che sia r0 = r̂0 . In ogni altra eventualità, infatti, per piccolo che sia il divario
iniziale |xo − x̂0 |2 dopo un tempo sufficientemente lungo: T ∼ π(r02 − r̂02 )−1 , esso diviene dell’ordine di grandezza
di (r0 + r̂0 )2 . Ciò può essere accettabile solo se r̂0 ∼ 0 e cioè se si studia la stabilità della soluzione identicamente
nulla. #

Questo comportamento è ben diverso da quello dell’oscillatore armonico lineare (Esempio 3) per il quale la
frequenza non dipende dalle condizioni iniziali; è invece analogo a ciò che accade per il pendolo fisico. Analogamente,
per l’Esempio 5 si ha |x(t) − x̂(t)| = |x0 − x̂0 |, mentre per l’Esempio 6 è
/
|x(t) − x̂(t)| = (y0 − ŷ0 )2 (1 + t2 ) + 2(x0 − x̂0 )(y0 − ŷ0 )t + (x0 − x̂0 )2

che cresce con il tempo a meno che y0 = ŷ0 . Ciò avviene anche nell’Esempio 7:
/
|x(t) − x̂(t)| = (x0 − x̂0 )2 e−2t + (y0 − ŷ0 )2 e2t .

M. Lo Schiavo
4.1. La stabilità lineare 195

Allo scopo di formalizzare queste osservazioni, si consideri un sistema ẋ = v(t, x) con v : (t, x) &→ v(t, x) liscio
in D ∈ R × M, e, come si è accennato, si fissi una norma: |·| sullo spazio Rn che localmente rappresenta M.
Si definisce
Stabile, secondo Liapunov, su [t0 , ∞) := una soluzione x̂ : t &→ x̂(t) := φ(t, t̂0 , x̂0 ) avente intervallo di de-
finizione JM (x̂) ⊇ [t0 , ∞) ∪ [t̂0 , ∞) e tale che, dato ε > 0 , esiste δ(ε, t0 ) per il quale x0 ∈ Bδ (x̂(t0 )) implica
che ⎧
⎨ φ(t,t0 , x0 ) esiste per ogni t > t0 , ed è tale che
(1.2)
⎩ sup |φ(t, t0 , x0 ) − φ(t, t0 , x̂(t0 ))| < ε .
t≥t0

Questa stabilità è più forte di quella precedente, infatti:

Liapunov := sup |x(t) − x̂(t)| < ε implica


t
Poincaré := sup inf |x(t) − x̂(τ )| < ε
t τ

N.B. 4.1.14 Si osservi che la stabilità non dipende da t0 nel senso che: se x̂ : t &→ x̂(t) = φ(t, t̂0 , x̂0 ) è stabile
su [t0 , ∞) allora lo è anche su [t′0 , ∞), sempre che essa sia definita nell’intervallo fra i due istanti t0 , t′0 . In
altre parole: se esiste δ := δ(ε, t0 ) tale che |x0 − x̂(t0 )| < δ implica la (1.2), allora per ogni t′0 ∈ JM (x̂) esiste il
corrispondente δ ′ := δ ′ (ε, t′0 ) che assicura in t′0 una condizione analoga alla (1.2). Infatti, siccome |t0 − t′0 | < ∞,
la continuità delle applicazioni d’avanzamento rispetto al dato iniziale x′0 e la loro compositività: Gtt′ = Gtt0 Gtt′0
0 0
assicurano l’esistenza di un δ ′ tale che |x′0 − x̂(t′0 )| < δ ′ implica |x0 − x̂(t0 )| < δ ed |x(t) − x̂(t)| < ε per ogni t
fra i due istanti t′0 e t0 , (con t′0 & t0 ).
Pertanto la definizione di stabilità su [t0 , ∞) equivale alla richiesta che la (1.2) sussista per un qualsiasi arbitrario
t0 ∈ JM (x̂) . ♦

N.B. 4.1.15 La stabilità alla Liapunov è la continuità nel punto t0 , x̂0 (t0 ), ed uniforme rispetto a t ∈ [t0 , +∞),
della corrispondenza (t0 , x0 ) &→ φ(t, t0 , x0 ); [o anche: l’equicontinuità su [t0 , ∞) della famiglia di funzioni φ = φ(t, ·, ·) ]. ♦

N.B. 4.1.16 Nessuna soluzione degli Esempi 6 e 7 è stabile. Solo la soluzione nulla dell’Esempio 4 è stabile. Tutte
le soluzioni degli Esempi 3,5,8 sono stabili fatta eccezione, per quest’ultimo, per quelle con dati sulle traiettorie
r̂0 = (2k + 1)π . ♦

N.B. 4.1.17 Neanche la soluzione nulla dell’equazione ẋ = x2 (vedi: [Esempio 1]) è stabile. ♦

N.B. 4.1.18 Il sistema dell’Esempio 4 può essere scritto:


( ( /
ρ̇ = 0 ρ= x2 + y 2
sia come con
φ̇ = ρ2 φ = arctan y/x
( ( /
ρ̇ = 0 ρ= x2 + y 2
sia come con
θ̇ = 0 θ = (arctan y/x) − ρ2 t

In questo secondo sistema di coordinate, naturalmente, l’equazione è del tipo dell’Esempio 5 e si ha pertanto
stabilità, ma non cosı̀ nelle coordinate (x, y), (ρ, φ). Se però la trasformazione di coordinate non dipende dal tempo
e se la metrica si trasforma in modo uniformemente continuo, la stabilità si conserva nell’intersezione delle due
carte. ♦

Tuttavia può accadere che δ ′ = δ(ε, t′0 ) ̸= δ(ε, t0 ), e può perfino succedere che δ(ε, t′0 ) → 0 per t′0 → ∞. È
noto il seguente
Esempio 4.1.19 La famiglia delle soluzioni di una equazione differenziale in R sia data da
c (c2 −1)t
φ(t, 1, x0 ) = e ,
t
2 7 8
con c = c(x0 ) tale che: x0 = ce(c −1)
∈ R. L’equazione è ẋ = c2 − 1 − 1/t x, t ≥ 1.

Note di Sistemi Dinamici


196 Capitolo 4. Cenni di stabilità

1
c>1
c<1 c=1
0
t
1
La soluzione t &→ x̂(t) = 0 uscente dal valore c = 0 ha “vicino” a sé, rispettivamente per |c| < 1 e per |c| > 1 ,
sia soluzioni x tali che limt→∞ |x(t)| = 0 , sia soluzioni per le quali limt→∞ |x(t)| = +∞. Il valore δ(ε, t0 ), che
garantisce la prima eventualità purché sia x0 ∈ Bδ (0), è senz’altro non maggiore di 1 per t0 = 1 , ma deve essere
non maggiore di 1/t0 per t0 > 1 , né basta che sia minore di ε , con ε > 0 piccolo a piacere ma fissato. #

Qualora sia possibile fissare definitivamente un qualche intervallo [β, ∞) ⊆ JM (x̂) sul quale la funzione δ(ε, ·)
ammetta estremo inferiore positivo, la x̂ risulta verificare la seguente definizione:
Uniformemente stabile su [β, ∞) := una soluzione t &→ x̂(t) := φ(t, t̂0 , x̂0 ) che sia stabile su [β, ∞) ⊆ JM (x̂),
e per la quale è possibile fissare il δ della stabilità indipendente dal particolare istante t0 , purché questo sia in
[β, ∞).
È chiaro che per sistemi autonomi (che sono invarianti per traslazioni sull’asse dei tempi) se una soluzione è
stabile essa sarà anche uniformemente stabile.
Asintoticamente stabile su [t0 , ∞) := una soluzione t &→ x̂(t) := φ(t, t̂0 , x̂0 ) che oltre che essere stabile è
anche tale da essere attrattiva.
Essa cioè è tale che, dato ε > 0 , esiste un δ(ε, t0 ) per il quale |x0 − x̂(t0 )| < δ implica che φ(t, t0 , x0 ) esiste
per ogni t > t0 ed è tale che ⎧
⎨ sup |φ(t, t0 , x0 ) − φ(t, t0 , x̂(t0 ))| < ε,
t≥t0
⎩ lim |φ(t, t0 , x0 ) − φ(t, t0 , x̂(t0 ))| = 0.
t→∞

Anche in questo caso, se δ può essere scelto indipendente da t0 , la asintotica stabilità è detta uniforme.
N.B. 4.1.20 Il seguente diagramma di fase mostra un esempio di punto di equilibrio attrattivo ma non stabile;
esso quindi non è asintoticamente stabile. Ciò può avvenire però solo per sistemi non lineari.
y

Degli Esempi 2-8 visti precedentemente solo le soluzioni con r ̸= (2k + 1)π dell’Esempio 8 sono asintoticamente
stabili.
N.B. 4.1.21 Per un sistema autonomo la stabilità della quiete in una posizione di equilibrio coincide con la stabilità
orbitale: infatti il parametro τ può sempre essere scelto uguale a t dato che x̂(τ (t)) = x̂(t) = xe . Pertanto, per
esempio nel caso dim = 2 , la stabilità dell’origine può essere “letta” dal diagramma di fase: un centro è stabile ma
non asintoticamente; un nodo o un fuoco sono asintoticamente stabili o non sono stabili; una sella non è stabile.
In ogni caso la stabilità è anche uniforme, data l’autonomia. ♦

Come si è detto nel N.B.1, studiare la stabilità della t &→ x̂(t) := φ(t, t̂0 , x̂0 ) equivale a studiare la stabilità della
soluzione nulla dell’equazione:

u̇ = v(t, φ(t, t0 , x̂(t0 )) + u) − v(t, φ(t, t0 , x̂(t0 ))), u := x − φ(t, t0 , x̂(t0 ))

e si noti che la stabilità di u(t, t0 , x0 − x̂(t0 )) = 0 è la stessa, in generale, della sola soluzione x̂ dalla quale si era
partiti.

M. Lo Schiavo
4.1. La stabilità lineare 197

Viceversa per i sistemi lineari, e cioè sistemi del tipo:

ẏ = T (t)y + b(t), T (t) ∈ L(V ≡ Rn ), T , b ∈ C r≥0 (R) ,

(anche se non necessariamente “genuinamente” lineari, e cioè omogenei) sussistono le seguenti proposizioni:

Proposizione 4.1.1 La stabilità della soluzione nulla dell’equazione omogenea associata: ẋ = T (t)x è la stessa di
ogni altra soluzione del sistema, sia omogeneo che non omogeneo.
Non cosı̀ per la limitatezza delle soluzioni. Ad esempio, si veda oltre, un sistema lineare non omogeneo (e cioè
un sistema non “genuinamente” lineare) può avere soluzioni non limitate e ciononostante stabili; si veda l’esempio
1.5 più sopra.

Dimostrazione Nel caso lineare il sistema u̇ = v(t, ŷ(t) + u) − v(t, ŷ(t)), che assegna la stabilità della (generica)
soluzione ŷ , non dipende dalla soluzione ŷ scelta, e cioè dai particolari (t̂0 , ŷ0 ) ∈ R × M. Infatti, detta y = ŷ + u
la soluzione variata della ŷ , per la funzione u si ha la

u̇ = v(t, ŷ(t) + u) − v(t, ŷ(t)) = T (t)ŷ(t) + T (t)u + b(t) − T (t)ŷ(t) − b(t) = T (t)u ,

e ciò a prescindere non solo da quale sia ŷ , soluzione di ẏ = T (t)y + b(t), ma anche da b = b(t). Se ne deduce che
la stabilità della soluzione nulla di quest’ultima è quella della (arbitraria) soluzione ŷ dell’equazione non omogenea.
"

Solo per sistemi lineari quindi si può parlare di stabilità del sistema e non solo di una sua specifica soluzione.
Si ricordi, a questo proposito, che per essi l’avere soluzioni definite per ogni t è una diretta conseguenza della
regolarità per t → ∞ dei coefficienti, cosa questa che nel seguito verrà sempre supposta.
N.B. 4.1.22 [continuazione del N.B.4.1.2] In riferimento a quanto si è già accennato nel N.B.4.1.2, si osservi che
la precedente proposizione è vera solo in quanto questo tipo di stabilità è costruito valutando il divario isocrono
|y(t) − ŷ(t)|. L’esempio 1.7, infatti, mostra che ciò non avviene nel caso della stabilità orbitale. ♦

Per il sistema genuinamente lineare ẋ = T (t)x, x0 ∈ V, (a dimensione finita: V ≡ Rn ) si hanno i seguenti


criteri di stabilità (vedi: [Hale §III.2]).
Sia Φ : [t0 , ∞) → L(V) un sistema fondamentale dell’equazione assegnata; si indichi con ∥T (t)∥ la norma
spettrale di T (t), e con ∥·∥∞ la norma “del sup” sulle funzioni definite su [t0 , ∞) ed a valori in uno spazio
normato. Si definisce
∥T ∥∞ := sup ∥T (t)∥ .
t≥t0

Si ricordi poi che in uno spazio vettoriale a dimensione finita quale è L(V) e quelli ad esso isomorfi (fra i quali è
quello delle soluzioni dell’equazione Ẋ = T (t)X ) tutte le norme sono equivalenti fra loro. Pertanto un eventuale
cambio di base può cambiare (quando non ortogonale) il valore numerico della norma di un operatore, ma non può
mutarne le proprietà di limitatezza.

Osservazione.
La limitatezza di una (qualsiasi) matrice fondamentale ∥Φ∥∞ ≤ κ < ∞ equivale alla limitatezza di ogni soluzione
del sistema.
Infatti la condizione è certo sufficiente. Viceversa, se per ogni x0 finito si ha che ∥x∥∞ è finito, e cioè se per
ciascun x0 ∈ V la condizione |x0 | ≤ ℓ1 < ∞ è sufficiente ad assicurare che per ogni t ≥ t0 si ha

|x(t)| ≡ |Φ(t)Φ−1 (t0 )x0 | ≤ ℓ2 per qualche ℓ2 < ∞ ,

allora
? per ogni
? |x0 |/ℓ1 = |x0 /ℓ1 | =: |ξ| ≤ 1 si ha |Φ(t)Φ−1 (t0 )ξ| ≤ ℓ2 /ℓ1 per ogni t ≥ t0 . Ne segue
?Φ(t)Φ−1 (t0 )? ≤ ℓ2 /ℓ1 per ogni t ≥ t0 e quindi (moltiplicando per ∥Φ(t0 )∥ ) se ne ricava la ∥Φ∥ ≤ ∥Φ(t0 )∥ ℓ2 /ℓ1

in virtù della ∥T1 T2 ∥ ≤ ∥T1 ∥ · ∥T2 ∥ .

Proposizione 4.1.1 Il sistema ẋ = T (t)x, x0 ∈ V, ed in particolare la soluzione nulla del sistema, è (almeno)
stabile su [t0 , ∞) se e solo se, detto Φ un suo sistema fondamentale, esiste 0 < κ0 < ∞ tale che ∥Φ(t)∥ ≤ κ0
per ogni t ∈ [t0 , ∞).
Ovvero: un sistema lineare omogeneo (e cioè genuinamente lineare) ha soluzioni (tutte) stabili se e solo se
(tutte) limitate.

Note di Sistemi Dinamici


198 Capitolo 4. Cenni di stabilità

Dimostrazione
(s ⇒ l) Per ipotesi esiste δ(ε, t0 ) tale che |x0 | < δ implica |Φ(t)Φ−1 (t0 )x0 | < ε per ogni t ≥ t0 . Una
dimostrazione analoga a quella fatta nell’Osservazione qui sopra, con ℓ1 ≡ δ ed ℓ2 ≡ ε , fornisce κ0 := ∥Φ(t0 )∥ ε/δ .
? ?? ? ? ?
(s ⇐ l) Se ∥Φ∥∞ < κ0 , per t ≥ t0 si ha |x(t)| ≤ ?Φ(t)? ?Φ−1 (t0 )? |x0 | ≤ κ0 ?Φ−1 (t0 )? |x0 |, e quest’ultimo è
? −1 ?−1 ? −1 ?−1
minore di ε purché sia |x0 | < δ(ε, t0 ) := ?Φ (t0 )? ε/κ0 . Si osservi che può essere ?Φ (t0 )? ≪ ∥Φ(t0 )∥ .
"

In effetti si è mostrato che l’esistenza di una conveniente κ0 = κ0 (t0 ), che renda vera la condizione
? ?
sup ∥Ψ(t, t0 )∥ ≡ sup ?Φ(t)Φ−1 (t0 )? ≤ κ0 (t0 ) ,
t≥t0 t≥t0

equivale alla stabilità. Ne segue che:

Proposizione 4.1.2 Il sistema ẋ = ?T (t)x, x0 ? ∈ V, è uniformemente stabile su [β, ∞) se e solo se esiste


κ̃ = κ̃(ε, β) > 0 tale che ∥Ψ(t, σ)∥ = ?Φ(t)Φ−1 (σ)? ≤ κ̃ per t, σ tali che β ≤ σ ≤ t.

Dimostrazione
? ?
(us ⇒ κ̃) Come nella Osservazione, si ricava ?Φ(t)Φ−1 (σ)? ≤ ε/δ .
(us ⇐ κ̃) Come nella Proposizione 1 si può ottenere facilmente la stima |x(t)| ≤ κ̃|x0 | per t e t0 arbitrari purché
β ≤ t0 ≤ t. "

Proposizione 4.1.3 Il sistema ẋ = T (t)x, x0 ∈ V, è asintoticamente stabile su [t0 , ∞) se e solo se esistono:


una κ0 = κ0 (ε, t0 ) > 0 tale che ∥Φ(t)∥ ≤ κ0 per ogni t ≥ t0 ed inoltre, dato comunque η > 0 , esiste
T = T(η, t0 ) > 0 tale che ∥Φ(t)∥ < η , purché t ≥ t0 + T(η, t0 ).

Dimostrazione Come sopra, notando che la condizione implica la stabilità. "

Proposizione 4.1.4 Il sistema ẋ = T (t)x, x0 ∈ V, è uniformemente ed asintoticamente stabile su [β, ∞) se e


solo se esistono κ(ε, β) > 0 ed α(ε, β) > 0 tali che
? ?
?Φ(t)Φ−1 (σ)? ≤ κe−α(t−σ) per β ≤ σ ≤ t.

Dimostrazione
(ua ⇐ κ, α) Per la Proposizione 2, il sistema è uniformemente stabile, con κ̃ = κ. Esiste quindi il δ(ε, β) = ε/κ
della uniforme stabilità. Sia |x0 | < δ . Per ipotesi risulta

|x(t)| = |Φ(t)Φ−1 (t0 )x0 | ≤ κe−α(t−t0 ) δ

per t ≥ t0 ≥ β . Dato η > 0 piccolo a piacere, è allora sufficiente che sia t−t0 ≥ T con T tale che κe−αt δ := η ,
per ottenere che: |x(t)| ≤ η .
(ua ⇒ κ, α) Per ipotesi, esiste δ(ε, β) > 0 tale che: t ≥ t0 ≥ β ed |x0 | < δ implicano |x(t)| < ε . Inoltre, dato
comunque η > 0 esiste T(ε, η, β) per il quale t ≥ t0 + T implica |x(t)| < η . Mediante ? quest’ultima
? stima, e
procedendo come nella Osservazione, con ℓ1 = δ ed ℓ2 = η si ottiene la valutazione ?Φ(t)Φ−1 (t0 )? ≤ η/δ purché
t ≥ t0 + T , e non lede la generalità supporre η/δ < 1 . La condizione di uniformità, e cioè l’indipendenza di δ e di
T da t0 , garantisce poi che:
? ?
• ∥Ψ(σ + T, σ)∥ = ?Φ(σ + T)Φ−1 (σ)? ≤ η/δ per qualunque σ ≥ β ;
? ?
• esiste ed è finito, anche se può essere grande, κ̃(ε, β) > 0 tale che: ?Φ(t)Φ−1 (σ)? < κ̃ per ogni t ≥ σ ≥ β .

M. Lo Schiavo
4.1. La stabilità lineare 199

Si pongano α e κ tali che η/δ =: e−αt , κ̃ =: κe−αt ; e sia m ∈ N tale che t − t0 ∈ [mT, (m + 1)T].
Risulta, con σ := t0 + (m − 1)T ,
? ? ? ? ? ?
?Φ(t)Φ−1 (t0 )? ≤ ?Φ(t)Φ−1 (t0 + mT)? ?Φ(t0 + mT)Φ−1 (t0 )?
? ?
≤ κ̃ ?Φ(t0 + mT)Φ−1 (t0 )?
? ?
=: κ̃ ?Φ(σ + T)Φ−1 (σ)Φ(σ)Φ−1 (t0 )?
? ?
≤ κ̃η/δ ?Φ(t0 + (m − 1)T)Φ−1 (t0 )?
≤ ···
0 η 1m
≤ κ̃ = κ̃(e−αt )m =: κ(e−αt )m+1 ≤ κe−α(t−t0 ) .
δ
? ?
In breve: l’evoluzione contrae, quindi dopo una durata T si ha una riduzione valutabile con ?Φ(σ + T)Φ−1 (σ)? ≤
η/δ , e questo è uniforme, cioè accade definitivamente per σ ≥ β , e senza che δ dipenda da σ . Se allora si misura
l’ascissa temporale t a passi T , e si sceglie α tale che η/δ =: e−αt , si ha che la crescita della norma, essendo limitata
da κ̃(η/δ)m , è valutabile da κ̃ =: κe−αt nell’intervallo [t0 + mT, t], e da m fattori e−αt su [t0 , t0 + mT]. Al
crescere di m si descrive tutto R. T dipende dalla velocità di convergenza fissata da η e non da t0 . L’andamento
esponenziale proviene dalla struttura di prodotto delle Φ. "

Nel caso particolare di sistemi lineari a coefficienti costanti: ẋ = T x, dalle Proposizioni precedenti si deduce
che: (
ℜe λ ≤ 0 per ogni a-valore di T
ẋ = T x è stabile (almeno) se e solo se
ℜe λ = 0 solo con divisori semplici
ẋ = T x è asintoticamente stabile se e solo se ℜe λ < 0 per ogni a-valore di T ;
tutto ciò in modo uniforme, data l’autonomia.

Le precedenti considerazioni mostrano che la stabilità di ẏ = T (t)y + b(t) è determinata dalla sua parte
omogenea, e quindi prescinde dal termine forzante, anche se questo dovesse portare a soluzioni non limitate, vedi
l’Esempio 5 per il quale il sistema omogeneo è ẋ = 0 , ed è quindi stabile. Diverso è invece il caso dell’Esempio
6 nel quale il sistema è già omogeneo, ma la radice λ = 0 ha (molteplicità due e) divisori non semplici. Se ne
deduce, ad esempio, che il moto di un elemento materiale pesante libero nel vuoto non è stabile.
Sono stabili, se ω 2 > 0 , tutte le soluzioni dell’equazione ẍ + ω 2 x = f (t) pur potendo risuonare. Viceversa
l’equazione di Hill: ẍ + (c + p(t))x = 0 con p periodica, che è omogenea, ha soluzioni stabili (almeno) se e solo
se sono limitate; anzi, l’essere reciproco dà l’impossibilità di avere le soluzioni che siano asintoticamente stabili, e
pertanto per l’equazione di Hill la stabilità semplice equivale alla limitatezza delle soluzioni.

Proposizione
.∞ 4.1.5 Se ẋ = T (t)x, x0 ∈ V, è uniformemente stabile su [β, ∞),
e se β
∥B(t)∥ dt < ∞ con B : t &→ B(t) ∈ L(V), B ∈ C ([β, ∞)) ,
allora ẋ = (T (t) + B(t))x è anch’esso uniformemente stabile su [β, ∞).

Dimostrazione Indicando con Φ un qualsiasi sistema fondamentale del sistema (omogeneo) ridotto ẋ = T (t)x
si ha - t
x(t) = Φ(t)Φ−1 (t0 )x0 + Φ(t)Φ−1 (τ )B(τ )x(τ )dτ ;
t0

pertanto, per ipotesi, esiste κ = κ(β) < ∞ tale che (t0 ≥ β )


- t
|x(t)| ≤ κ|x0 | + κ ∥B(τ )∥ |x(τ )|dτ ≤ (Gronwall)
t0
- t
≤ κ|x0 | exp κ ∥B(τ )∥ dτ ≤ κ1 < ∞.
β

"

) 4.1.23* ẍ − e ẋ + x = 0 , x0 , ẋ0 ∈ R, è del tipo visto nella Proposizione con T rappresentato da


−t
Esempio
0 1
T (t) = e quindi con λ1,2 = ±i , semplici. T è uniformemente stabile e quindi l’intera equazione, giacché
−1 0
∥B(t)∥ = |e−t |. #

Note di Sistemi Dinamici


200 Capitolo 4. Cenni di stabilità

N.B. 4.1.24 Il teorema non si può applicare nel caso


. ∞dell’equazione di Mathieu (§ II.5). Infatti benché la parte
costante sia uniformemente stabile, per essa risulta t0 | cos ωt|dt = ∞. Per analogo motivo, il teorema non si
.∞
può applicare nemmeno al caso ẍ − 2t ẋ + x = 0 , x0 , ẋ0 ∈ R, giacché β 2t dt = ∞ anche se β > 0 . In
effetti anche quest’ultima equazione, lineare omogenea, ha soluzioni non limitate: x(t) = sin t − t cos t e quindi non
stabili. ♦

Proposizione 4.1.1 Se ẋ = T (t)x, x0 ∈ V, è uniformemente ed asintoticamente stabile su [β, ∞),


.t
se β ∥B(τ )∥ dτ < χ(t − t0 ) + σ per certi σ, χ dipendenti, al più, da β ,
? ?
e se κ(β) ed α(β) in R tali che ?Φ(t)Φ−1 (τ )? ≤ κe−α(t−τ ) verificano α > κχ, (ove Φ è un sistema
+

fondamentale del sistema (omogeneo) ridotto: ẋ = T (t)x),


allora ẋ = (T (t) + B(t))x è anch’esso uniformemente ed asintoticamente stabile su [β, ∞).

Questo è il caso, ad esempio, se T e B , entrambi costanti, sono tali che ℜe λ(T ) < 0 e che ∥B∥ < ∥T ∥B,max ,
con B la base ε -quasi propria di T . Allora si ha χ = ∥B∥.
Dimostrazione Per l’uniforme ed asintotica stabilità di ẋ = T (t)x si ha:
- t
|x(t)| ≤ κe−α(t−t0 ) |x0 | + κe−α(t−τ ) ∥B(τ )∥ |x(τ )|dτ,
t0

ponendo allora z(t) := eαt |x(t)| si ha, per il Lemma di Gronwall,


) - t *
z(t) ≤ z0 κ exp κ ∥B(τ )∥ dτ ≤ z0 κ exp (κχ(t − t0 ) + κσ) ,
t0

da cui
|x(t)| ≤ |x0 |κ exp (−(α − κχ)(t − t0 ) + κσ) .
"

Contrariamente ai casi visti, nei quali le equazioni esaminate erano lineari, lo studio della stabilità della soluzione
nulla di un generico sistema non lineare

ẋ = v(t, x) , x ∈ M, v(t, 0) = 0, ∀t ≥ t0

è notevolmente più difficile.


Il seguente teorema (vedi: [Hale §III.2]) è una estensione del celebrato:

Teorema 4.1.1 (1 o teorema di Liapunov sulla stabilità lineare) Sia T : t &→ T (t) ∈ L(V ≡ T0 M), T ∈
C 0 ([β, ∞)) .
Sia ẋ = T (t)x, x0 ∈ V, uniformemente ed asintoticamente stabile su [β, ∞) .
Se h ∈ C 0 ([β, ∞) × N (0)) è tale che lim|x|→0 |h(t,x)|
|x| =0 uniformemente per t ∈ [β, ∞), e cioè: se,
dato ε > 0 , esiste δ(h) = δ(h) (ε, β) > 0 tale che quando |x| < δ(h) e t ≥ β accade che |h(t, x)| < ε|x|,
allora: la soluzione nulla di ẋ = T (t)x + h(t, x) esiste per t ≥ β ed è uniformemente ed asintoticamente stabile
su [β, ∞).

Dimostrazione Per ipotesi esistono α, κ > 0 , dipendenti al più da β e dalle tolleranze ε̃ richieste dalla sta-
bilità
? del sistema
? omogeneo ridotto ẋ = T (t)x (del quale si è chiamato Φ un sistema fondamentale), tali che
?Φ(t)Φ−1 (τ )? ≤ κe−α(t−τ ) . Ciò permette la stima
- t
−α(t−t0 )
|x(t)| ≤ κe |x0 | + κe−α(t−τ ) |h(τ, x(τ ))| dτ.
t0

Si fissi ora ε ≤ ε̃ tale che α > κε, e sia |x0 | < δ(h) (ε, β). Sia poi t > t0 l’estremo superiore degli istanti τ ∈ [t0 , t]
per i quali |x(τ )| < δ(h) , (e quindi certamente |h(τ, x(τ ))| < ε|x(τ )|). Si ha
- t
|x(t)| ≤ κe−α(t−t0 ) |x0 | + κe−α(t−τ ) ε|x(τ )|dτ.
t0

M. Lo Schiavo
4.1. La stabilità lineare 201

Applicando anche qui il Lemma di Gronwall su z(t) := eαt |x(t)| si ottiene


- t
z(t) ≤ z(t0 )κ exp εκdτ e cioè |x(t)| ≤ κe−α(t−t0 ) |x0 |eεκ(t−t0 )
t0

Ma è stato fissato α − εκ > 0 e quindi, purché si scelga |x0 | < min {δ(h) /κ, δ(h) } , risulterà senz’altro |x(t)| < δ(h)
e ciò per ogni t > t0 . Il teorema del prolungamento implica infine l’esistenza della soluzione per ogni t > t0 . "

N.B. 4.1.25 Il risultato è locale in x nel senso che la stabilità che si dimostra è solo quella della soluzione nulla
del sistema. Inoltre si osservi che la richiesta proprietà di stabilità è stata qui mostrata usando come tolleranza sul
dato iniziale quel δ(h) per il quale |h(t, x)| < ε|x|. Tale δ(h) va paragonato con le tolleranze δε richieste per la
stabilità. ♦

.N.B.

4.1.26 È valido anche il seguente enunciato (vedi: [Cesari § 6.2]) Se h è tale che |h(t, x)| < |c(t)||x| con
β |c(t)|dt < ∞ allora l’origine è uniformemente stabile per ẋ = T (t)x e la soluzione nulla di ẋ = T (t)x + h(t, x)
è uniformemente stabile; essa inoltre è anche asintoticamente stabile se tale era la soluzione nulla di ẋ = T (t)x.

N.B. 4.1.27 Le proprietà richieste alla funzione h affinché sussista il precedente teorema sono più forti di quelle
che sono senz’altro garantite dal teorema della media quando il campo T (t)u + h(t, u) viene calcolato a partire da
un generico v = v(t, x), v ∈ C 0 (R × M) ∩ C 1 (M), mediante le:

⎪ u : = x − x̂, u0 = (x0 − x̂0 )


⎨ w(t, u) : = v(t, x̂(t) + u) − v(t, x̂(t)) =: T (t)u + h(t, u),

⎪ T (t) = v∗ (t, x̂(t)) ≡ w∗ (t, 0),


h(t, u) : = w(t, u) − w∗ (t, 0)u.

Infatti, in tal caso, sulla funzione h si sa solo che |h(t, u)| = o(|u|) limitatamente ai compatti β ≤ t ≤ T < ∞.
Vi sono però degli importanti casi in cui la h ottenuta in tal modo riesce a verificare le ipotesi necessarie a che
il teorema sussista. In particolare, esse sussistono se la parte lineare di un sistema a campo liscio e autonomo ha
punto di equilibrio che è un pozzo, in tal caso risulta un pozzo anche il punto di equilibrio del sistema non lineare.
Inoltre, esse sussistono quando sia il campo v che la soluzione x̂ sono costanti o periodiche. Tuttavia, se il campo
della linearizzata è costante e la soluzione di riferimento periodica, il fatto che essa ammetta n − 1 moltiplicatori
negativi (oltre a quello nullo relativo alla soluzione periodica) non garantisce l’asintoticità alla Liapunov, ma solo
quella orbitale: la soluzione variata tende alla x̂ ma con uno sfasamento finito ([Coddington § 13.2]). ♦

Divagazione
Quest’ultima considerazione si può perfezionare. Verrà qui accennato (seguendo Arnold 1) il caso dei sistemi
lineari a coefficienti costanti, e richiamati due importanti risultati sui non lineari. Il metodo di dimostrazione è
di tipo “diretto” (vedi oltre).
Punto n o 1. Qualunque
⎛ sia l’operatore
⎞ T ∈ L(V), esso ammette una base ε -quasi propria reale nella quale T
(1)
Jε 0
ha matrice: τ ε := ⎝ .. ⎠ ove le varie Jε(h) sono del tipo (rispettivamente nel caso di autovalori reali
. (k)
0 Jε
o complessi) ⎛ ⎞ ⎛R ⎞
λ ε 0 µ ε 1I2 0
⎜ .. . ⎟ ⎜ .. .. ⎟

⎜ . .. ⎟


⎜ . . ⎟

⎜ ⎟ oppure ⎜ ⎟
⎝ .. ..
. ε⎠ ⎝ . ε 1I2 ⎠
R
0 λ 0 µ
con ε ) * a piacere, λ autovalore reale, µ =: α + iβ autovalore complesso dell’operatore T , e con
> 0 piccolo
α −β
R
µ := . Essa si ottiene dividendo ciascun versore della base di Jordan per il numero εk essendo k
β α
l’indice di “livello” dell’autovettore generalizzato nella catena di Jordan cui esso appartiene: k è massimo per gli
autovettori, e vale zero per i vettori iniziali delle catene nel Ker(T − λj 1I )qj .

Note di Sistemi Dinamici


202 Capitolo 4. Cenni di stabilità

In tal modo ciascun blocco di Jordan


⎛ ⎞
λ 1 0
⎜ .. .. ⎟
⎜ . . ⎟
J =⎜ .. ⎟
⎝ . 1⎠
0 λ

resta trasformato, mediante la matrice


⎛ ⎞
..
⎜ . 1/ε2
0⎟
P =⎜


1/ε ⎠
0 1
nel blocco: ⎛ ⎞
λ ε 0
⎜ .. .. ⎟
⎜ . . ⎟
Jε = P −1 J P = ⎜ .. ⎟
⎝ . ε⎠
0 λ

e per lo stesso motivo le coordinate si trasformano secondo la ξ = P −1 x.


Curiosità: si riscalano le autocoordinate generalizzate rispetto alle autocoordinate in senso inverso a quello nel quale la matrice
e τ t le amplifica moltiplicandole per i polinomi nella variabile t . La coordinata contenente il polinomio di grado k viene moltiplicata
per εk . Le nuove coordinate risultano “quasi” disaccoppiate e le traiettorie “quasi” rettificate.

Punto n o 2. Chiamata B := {ϵ1 , . . . , ϵn } la base definita nel punto precedente, essa è tale che (K B )hk =
⟨ ϵh , ϵk ⟩ B = ⟨ eh , ek ⟩ = δhk = κ hk . Rispetto ad essa la B-lunghezza di x risulta

ν
= ν+τ
=
r2 = r2 (x) := ⟨ x, x ⟩ B = (ξ i )2 + (ξ&i )2 + (&
η i )2
i=1 i=ν+1

ove (vedi Cap II) si intendono presenti ν autosoluzioni reali {λj }j=1,...,ν e τ coppie di autosoluzioni complesse
{µh , µ̄h }h=ν+1,ν+τ , e quindi ν +2τ = n, non tutte necessariamente distinte; e dove si sono indicate con (ξ 1 , . . . , ξ ν )
le B-componenti (reali) di x nello span{ϵ1 , . . . , ϵν } dei (nuovi) autovettori generalizzati relativi agli autovalori reali,
e con {(ξ&k , η&k )}k=ν+1,...,ν+τ le B-componenti (reali) di x nella parte reale R- span{xµ , yµ } dello span complesso
dei (nuovi) autovettori generalizzati {ϵµk , ϵµk }k=ν+1,...,ν+τ relativi alle coppie autovalori complessi coniugati.
Ne segue che, per costruzione, le B-coordinate di T x sono della forma, ad esempio,
0 1
T x = (λ1 ξ 1 + εξ 2 , λ1 ξ 2 + εξ 3 , . . . , λ1 ξ q1 , . . . , (α1 ξ&1 − β1 η&1 ), (β1 ξ&1 + α1 η&1 ), . . . )
B

e quindi la forma quadratica Q ε (x) := ⟨ x, T x ⟩ B è esprimibile mediante la

ν
= ν+τ
= 0 1
Q ε (ξ) = λ(i) (ξ i )2 + ℜe µ(i) (ξ&i )2 + (&
η i )2 + O(ε)
i=1 i=ν+1

C
Punto n o 3. Le forme quadratiche su Rn : Q (x) ≡ h k
h,k x Bhk x , (ove Bhk è una matrice simmetrica
reale n × n) sono funzioni continue. Ciò comporta che: le Forme quadratiche non degeneri, cioè quelle con rango
massimo (ed uguale ad n), sono un insieme aperto nello spazio delle Q reso metrico ad esempio dalla norma:
∥Q ∥ := maxh,k |Bhk |. In particolare è aperto il loro sottoinsieme di quelle di segno definito. [Infatti: sia ad
? ?
esempio Q definita positiva. È strettamente positivo il valore m := min∥x∥=1 |Q (x)| . Se allora ? Q ′ − Q ? < η < m/n2 , sulla
' ′ '
superficie della sfera unitaria si ha 'Q (x) − Q (x)' < n2 η < m e quindi anche Q ′ è definita positiva. La separazione di Rn nei due
sottospazi sui quali Q è separata in parte positiva e parte negativa garantisce l’asserto].
Pertanto se
ν
= ν+τ
= 0 1
Q 0 (ξ) := λ(i) (ξ i )2 + ℜe µ(i) (ξ&i )2 + (&
η i )2
i=1 i=ν+1

ha segno definito, si può scegliere ε tanto piccolo da far sı̀ che anche la Q ε qui sopra sia di segno definito, e del
medesimo segno di quello di Q 0 .

M. Lo Schiavo
4.1. La stabilità lineare 203

Punto n o 4. Dal Punto 3 segue che se esistono c1 , c2 ∈ R tali che: c1 < ℜe λ < c2 < 0 per tutti gli autovalori
(reali o complessi) di T , non solo risulta definita negativa la forma Q 0 , ma lo è anche la Q ε .
d 2
Posto: r2 := ⟨ x, x ⟩ B , dall’uguaglianza dt r := LT x (r2 ) = 2 ⟨ x, T x ⟩ B = 2Q ε (x) si deduce che le soluzioni
dell’equazione ξ̇ = τ ε ξ rappresentano quelle di ẋ = T x e verificano la stima
1 d 2
c1 r 2 ≤ r ≤ c2 r 2 < 0 che implica ec1 t |x0 |B ≤ |x(t)|B ≤ ec2 t |x0 |B .
2 dt
In tal modo, mediante la norma ∥T ∥B,max := maxi,j (| τ ε ij |), ove B è la base ε -quasi propria per T , (e quindi
? ?
gli τ ε ij sono gli elementi della matrice τ ε introdotta al Punto 1), si ottiene la stima ?etT ?B,max ≤ ec2 t . In
particolare ciò mostra che le costanti κ ed α viste nel teorema 1 sono, per il caso T (t) = cost ed in questa norma,
rispettivamente 1 e −c2 .
Si noti che la relazione sulle B-lunghezze: |x(t)|B < |x0 |B , valida come si è visto per t > 0 e perché c2 < 0 ,
può non essere vera, per ogni t > 0 , sulle lunghezze nella base originaria.
Punto n o 5. L’ipotesi c1 < ℜe λ < c2 < 0 comporta che la funzione ln r2 (x) ≡ ln ⟨ x, x ⟩ B sia monotona
decrescente in quanto con derivata minore di 2c2 < 0 . Pertanto, qualunque sia il punto x(t0 ) = x̃0 , esiste ed è
γ := {x̃(t) := φ(t, t0 , x̃0 )}t∈R è tale da avere r2 (x̃(τ )) = ⟨ x̃(τ ), x̃(τ ) ⟩ B =
unico l’istante τ ∈ R in cui la traiettoria U
1 . Si ha cioè che ogni traiettoria non banale attraversa, in uno ed un solo suo punto: x0 , la superficie sferica S di
centro il punto di equilibrio x = 0 e raggio r = 1 , (in coordinate B).
Punto n o 6. I due sistemi ẋ = T x, ed ξ˙ = −ξ , entrambi lineari, ammettono una funzione f : x &→ ξ = f (x)
che ne coniuga i flussi. Essa è definita dalla
f (eT t x0 ) := e−t1I f (x0 ) , f (0) = 0, ξ0 := f (x0 ) := x0 ,
ove x0 è un qualunque punto della superficie sferica S . Inoltre, f è un omeomorfismo, esso infatti è un “morfismo”
per quanto detto al punto precedente e per il teorema di esistenza ed unicità, ed è un “omeo” per il teorema di
dipendenza continua.
[Il fatto che nell’origine si perda la differenziabilità impedisce alla f di essere un “diffeo” di rettificazione (radiale). Si ricordi a
questo proposito che ξ = xa con a ̸= 1 non è una trasformazione di coordinate in quanto o la funzione o la sua inversa sono non
differenziabili in zero].
Il non essere f un diffeomorfismo conferma il fatto che né la medesima segnatura degli autovalori degli operatori di campo, e
nemmeno i medesimi autovalori, bastano ad assicurare l’equivalenza (differenziale e quindi lineare) tra due sistemi ẋ = T1 x ed
ẋ = T2 x , T1 , T2 ∈ L(V) , per la quale è necessaria la similitudine fra le rispettive matrici. [Infatti (vedi anche [Arnold 1 §21]) i due
sistemi sono linearmente coniugati quando sono trasformati da un isomorfismo non singolare, e cioè quando esiste H ∈ L(V) invertibile
e tale che He τ 1 t H−1 = e τ 2 t ].
Punto n o 7. L’esistenza dell’omeomorfismo f comporta che il sistema dato risulti topologicamente coniugato
al sistema “rettificato”: ξ˙ = −ξ , e ciò, data la sua linearità, in modo globale nello spazio delle fasi. A sua volta ciò
implica facilmente che una qualsiasi coppia di sistemi ẋ = T1 x ed ẋ = T2 x, T1 , T2 ∈ L(V), sono (globalmente)
topologicamente coniugati quando hanno (la stessa dimensione e) ℜe λ < 0 per ogni loro autovalore λ.
Punto n o 8. Ricordando la definizione di sella- k si noti che per un sistema lineare ẋ = T x l’origine è una
sella- k quando l’operatore T , avendo tutte le parti reali degli autovalori non nulle, ne ammette di esse k ≥ 0
positive. In tale eventualità esiste un operatore invertibile )P ∈ L(V)*(e siano T e P le matrici di T e di P ,
T+ 0
rispettivamente, nella {e} -base data) tale che P −1 T P = con T+ una matrice k × k con tutti gli
0 T−
autovalori aventi ℜe λ > 0 , ed T− una matrice (n − k) × (n − k) con tutti gli autovalori aventi ℜe λ < 0 . In
particolare P può coincidere con la {e} -matrice della base ε -quasi propria vista nel Punto 1.
Dette ξ = P −1 x le coordinate in tale base ed x quelle nella base data, è evidente che lo spazio lineare
; ' <
'
V+ := x ' x = P ξ+ , ξ+ = (ξ 1 , . . . , ξ k , 0, . . . , 0)T

è un sottospazio k -dimensionale di V, invariante rispetto all’operatore T (varietà instabile del punto di equilibrio),
ed analogamente lo è lo spazio V− complementare di V+ . Ma per il Punto 7 esistono due omeomorfismi ) f− *ed
1Ik 0
f+ , definiti su V− ed V+ rispettivamente, che coniugano il sistema dato con uno avente matrice ;
0 −1In−k
e ciò implica che

se due sistemi lineari hanno, entrambi, autovalori aventi k parti


reali positive ed n − k negative, e cioè se per entrambi l’origine
è una sella- k con lo stesso k , allora essi sono topologicamente
coniugati.

Note di Sistemi Dinamici


204 Capitolo 4. Cenni di stabilità

Viceversa, sempre che il punto xe sia iperbolico, e cioè tale che tutti gli autovalori dell’operatore T hanno
parti reali non nulle, sussiste anche l’affermazione inversa: se i due flussi lineari sono coniugati l’omeomorfismo di
coniugio conserva il limite per t → ∞ e (quindi) conserva i sottospazi V+ , V− , varietà stabile ed instabile dei due
sistemi, e cioè trasforma in modo biunivoco e bicontinuo ciascuno di essi nel suo corrispondente senza pertanto
mutare la struttura di sella-k .
Punto n o 9. Definendo gli intorni degli operatori lineari mediante la norma ∥·∥B,max vista sopra, si ha che nello
spazio L(Rn ) l’insieme degli operatori semisemplici (:= diagonalizzabili nel campo complesso) non è, ma contiene
un insieme denso e aperto in L(V). Analoga proprietà è posseduta dall’insieme degli operatori che hanno tutti
gli autovalori diversi fra loro. In effetti è denso e aperto l’insieme degli operatori che hanno tutti gli autovalori
diversi fra loro e con ℜe λ ̸= 0.
[Si ricordino le definizioni di: Insieme denso, la sua chiusura contiene lo spazio; e di Insieme aperto, è fatto tutto da punti interni.
Pertanto, se un insieme è denso ed aperto, in un qualsiasi intorno di un punto che non appartiene all’insieme si trovano punti dell’insieme,
i quali sono contenuti in intorni fatti tutti da punti dell’insieme, e ciò preclude al complementare di essere denso. Pertanto: se un
insieme di punti di uno spazio metrico ne contiene uno denso ed aperto, o più debolmente, ne contiene uno Insieme residuo (e
cioè un’intersezione numerabile di insiemi densi ed aperti) si dice che quell’insieme è un Insieme generico nello spazio ospite. Ad
L
esempio, gli operatori lineari con ℜe λ ̸= 0 sono generici in L(V) .
Ciò che si è fatto vedere sopra è che i sistemi lineari autonomi con ℜe λ ̸= 0 (e quindi genericamente in L(V))
si possono raggruppare in classi di equivalenza ciascuna delle quali costituita dai sistemi che hanno una sella dello
stesso ordine, e che pertanto sono topologicamente coniugati gli uni con gli altri; essi inoltre si possono considerare
variati, l’uno rispetto all’altro, mediante perturbazioni lineari autonome tali da non modificare la segnatura delle
ℜe λ.
Si chiama: persistenza delle selle- k relativamente ad una famiglia F di campi il fatto che un certo punto xe
non solo sia di equilibrio per una qualunque delle equazioni ẋ = f (x), con f in F , ma in particolare che esso sia
una sella- k , per uno (stesso) k . Come si è visto, tale persistenza (ed in più l’esistenza del coniugio fra i flussi)
sussiste relativamente a campi lineari autonomi ed aventi le ℜe λ tutte non nulle e con la stessa segnatura.
In tal senso si ha che nodi e fuochi, purché con le stesse caratteristiche di stabilità, sono “indistinguibili”.
Punto n o 10. La persistenza delle selle- k vale, ben più in generale, anche relativamente a campi non lineari
(e perfino non autonomi) purché con parte lineare v∗ (xe ) avente autovalori con ℜe λ ̸= 0 (o, se periodica,
con esponenti caratteristici: ℜe η ̸= 0 ), e parte perturbativa continua, anche non lineare purché opportunamente
piccola. Per completezza viene qui richiamato, [Hale §III.6], l’enunciato del teorema di persistenza delle selle- k
(o della “varietà stabile”) valido per sistemi autonomi con campo almeno differenziabile e punto di equilibrio
iperbolico.
Sia η : [0, ∞) → R+ ∪ {0}, η(0) = 0 , continua, non decrescente; e sia
; '
'
Lip(η) := h ∈ C 0 (Cn ) ' h(0) = 0, ed
<
|h(x) − h(y)| < η(τ )|x − y|, per ogni |x|, |y| ≤ τ ∈ R+

[La condizione è verificata se h ∈ C 1 con h∗ (0) = 0 , ed è più forte di quella di Lipschitz semplice, per la quale basta che sia η = cost .
Quest’ultima a sua volta, quando h(0) = 0 , implica ma non equivale alla |h(x)| ≤ cost |x| . Entrambe, salvo per il comportamento
tangente delle varietà, sono sufficienti al teorema. La condizione h(x) = o(|x|) è anche lei meno forte della Lip(η) perché implica
|h(x)| < η(τ )|x| ma non lo estende alle coppie x, y; con essa il comportamento tangente si riesce a provare, ma non è più garantita la
condizione sulle dimensioni.]

Teorema 4.1.1 Sia dato un sistema ẋ = T x, con x0 ∈ V, che abbia una sella- k nell’origine. Allora, per ogni
h ∈ Lip(η), il sistema ẋ = T x + h(x)
(i) ha anch’esso una sella- k nell’origine;
s u
(ii) ammette due varietà differenziabili Wloc , Wloc , trasversali nell’origine, di dimensioni n − k e k rispettiva-
mente:
s
Wloc = {(x, f s (x))}x∈N (0)∩Vs ed u
Wloc = {(x, f u (x))}x∈N (0)∩Vu
entrambe grafico di altrettante funzioni differenziabili f s : Vs → Rk ed f u : Vu → Rn−k definite
rispettivamente sui due sottospazi invarianti Vs ed Vu con i quali il sistema lineare ripartisce V ≡ T0 M;
(iii) le due varietà sono rispettivamente tangenti ai corrispondenti autospazi del sistema lineare;
(iv) esistono certi κ1 , κ2 ∈ R+ per i quali
(
∀x0 ∈ W s si ha che |x(t)| ≤ κ1 e−κ2 t |x0 |, ∀t ∈ [0, +∞)
u +κ2 t
∀x0 ∈ W si ha che |x(t)| ≤ κ1 e |x0 |, ∀t ∈ (−∞, 0] .

M. Lo Schiavo
4.1. La stabilità lineare 205

(v) le due varietà sono invarianti (rispettivamente nel verso t > t0 e t < t0 ) giacché:
(
∀x0 ̸∈ W s si ha che |x(t)| ̸∈ N (0), per qualche t̄ < +∞ ,
f orallx0 ̸∈ W u si ha che |x(t)| ̸∈ N (0), per qualche t̄ > −∞ .

N.B. 4.1.28 Un enunciato simile sussiste anche per sistemi del tipo ẋ = Q(t)x + q(t, x) con q ∈ C ℓ≥1 (R × V)
opportunamente piccola e Q ∈ Pert (L(V)) un campo regolare, T -periodico, e con tutti gli esponenti caratteristici
aventi parti reali non nulle. In tal caso la persistenza della selle avviene sul sistema PΦ -equivalente (vedi: §II.5):
ξ˙ = BΦ ξ + ϕ(t, ξ) con ξ := PΦ−1 x, PΦ ∈ Pert (L(V)) e ϕ(t, ξ) := PΦ−1 (t) q (t, PΦ (t)ξ) . ♦

N.B. 4.1.29 Si noti che, nell’ipotesi che h ∈ C 1 , la condizione h = o(|x|) non è troppo restrittiva purché
|x|
∥h∗ ∥ −→ 0 , e ciò equivale ad assumere che la parte lineare del campo sia tutta rappresentata dall’operatore
0
T := v∗ (0). Se questo è il caso esiste δ > 0 tale che |x| < δ implica che (T + h∗ ) ha la stessa segnatura di
T e pertanto per il teorema del Dini esiste un unico x0 = x0 (h) tale che T x0 + h(x0 ) = 0 . Si può quindi porre
x =: x0 (h) + u ed ottenere

u̇ = (T + h∗ (x0 ))u + T x0 − h∗ (x0 )u + h(x0 + u) =: Bu + g(u)

ove B := T + h∗ (x0 ) ha la stessa segnatura di T e |g(u)| := T x0 −Lh∗ (x0 )u + h(x0 + u) = o(|u|). In definitiva se
h = o(|x|) non lede la generalità supporre x0 (h) = 0 ed h(x0 ) = 0 . ♦

Punto n o 11. A prescindere dall’esistenza e dalle proprietà geometriche degli insiemi invarianti, è poi di enor-
me importanza il fatto che: genericamente, l’approssimazione lineare è (localmente) topologicamente equivalente
all’equazione non lineare autonoma da cui essa proviene.
Sussiste a tale proposito il seguente importante risultato generale.

Teorema 4.1.1 (Grobman-Hartman) (si veda: [Hartman IX 7.1])


Sia v : x ∈ M → v(x) ∈ Tx M un campo regolare con v(xe ) = 0 .
Se T := v∗ (xe ) ha tutte le ℜe λ ̸= 0 allora esiste, su un conveniente N (xe ), un omeomorfismo che trasforma
le orbite del sistema ẋ = v(x), [o meglio della sua equazione alle variazioni: u̇ = v∗ (xe )u + h(u) relativa alla
quiete in xe ] in quelle del sistema variazionale ẋ = v∗ (xe )(x − xe ) e che preserva l’orientamento sulle traiettorie
[il verso dei t crescenti], ed anzi la parametrizzazione: l’equazione alle variazioni e l’equazione linearizzata sono,
localmente, C 0 -coniugate.

) *− 1)ẋ)+ x = 0 , con x0 ,*ẋ0 ∈ R, e < 0 .


2
Esempio 4.1.30 Van Der Pol: ẍ + e(x
ẋ y
L’equazione, equivalente al sistema = ha punto fisso xe = (0, 0) ed in esso ha
ẏ −x − e(x2 − 1)y
linearizzata data da
) * ) *) * M Z
ξ˙ 0 1 ξ Tr < 0 asintotica ed
= , ⇒
η̇ −1 e η Det > 0 uniforme stabilità.
B
2
Infatti si hanno λ1,2 = 2e ± e4 − 1 e pertanto ℜe λ < 0 . (Su questa equazione, tramite il teorema di Lienard, si
era solo potuto riconoscere l’esistenza di almeno un ciclo limite instabile, vedi Es. III 4.14). #

Esempio 4.1.31 Pendolo smorzato ẍ + κẋ + sin x = 0 , con x0 , ẋ0 ∈ R.


L’equazione ha il punto xe = (0, 0) fisso, ed in esso linearizzata data da
) * ) *) * M Z
ξ˙ 0 1 ξ Tr < 0 asintotica ed
= , ⇒
η̇ −1 −κ η Det > 0 uniforme stabilità.

Si noti che per ottenere questo risultato occorre che la costante κ > 0 , per quanto piccola, sia maggiore di zero,
infatti non vale l’enunciato alternativo del N.B. 14. Anche il Teorema 2, se κ = 0 , non dice nulla neanche circa la
semplice stabilità. #

Note di Sistemi Dinamici


206 Capitolo 4. Cenni di stabilità

Viceversa sussiste il seguente teorema di instabilità, (la dimostrazione del quale è ancora di tipo “diretto”, vedi
oltre)

Teorema 4.1.1 (si veda: [Coddington §13.1.2])


Siano T ∈ L(V), T ∈ R, ed h ∈ C 0 ([T, ∞) × N (0)), tale che h(t, x) = o(|x|), (o, più debolmente, ∃κ > 0 :
|h(t, x) ≤ |κ|x| per |x| piccoli e t ≥ 0 , ed inoltre: ∀ε1 ∃δ1 , T : |h(t, x) ≤ |ε1 |x| per |x| < δ1 e t ≥ T ).
Se l’operatore T ha anche un solo autovalore con ℜe λ > 0 allora: la soluzione nulla del sistema ẋ =
T x + h(t, x), x0 ∈ N (0), T ∈ L(V) è instabile.

Dimostrazione Sia B la base ε -quasi propria dell’operatore T individuato dalla matrice T , e sia P la matrice
che trasforma la base data nella base B, e che quindi trasforma T nella matrice τ ε (vedi Punti 1 e 8). Siano
V+ ed V− (con dim V+ =: k ≥ 1 ) i due sottospazi T -invarianti sui quali la restrizione di T ha matrici T+
ed T− rispettivamente, con autovalori: ℜe λ > 0 e ℜe λ ≤ 0 rispettivamente. Sia h(t, x) il rappresentante di
h(t, x) in {e} -coordinate, e sia b(t, ξ) := P −1 h(t, P ξ). Ne risulta che il sistema localmente equivalente a quello
dato è 7 8
ξ̇ = P −1 T P ξ + P −1 h(t, P ξ) = τ ε ξ + b(t, ξ), ) (1.3)
la cui parte lineare ha le prime (ad esempio) k coordinate che evolvono in V+ secondo la eT+ t , e le altre (n − k) in
V− secondo la eT− t . Esso infatti si può pensare scritto, mediante le ξ + ≡ (ξ 1 , . . . , ξ k ) ed ξ − ≡ (ξ k+1 , . . . , ξ n ),
come segue ) +* ) * ) +*
ξ̇ T+ 0 ξ
= + b(t, ξ).
ξ̇ − 0 T− ξ−
Detta ξ(t) = P −1 x(t) una generica soluzione del sistema (1.3) si pongano


⎪ ' k
=
⎪ 2 '

⎪ r (t) := ⟨ x(t), x(t) ⟩B ' = (ξ i (t))2
⎨ + x∈V+
i=1

⎪ ' n
=
⎪ 2 '

⎪ r (t) := ⟨ x(t), x(t) ⟩B ' = (ξ i (t))2 .
⎩ − x∈V−
i=k+1

Infine, si scelga c+ > 0 tale che c+ < ℜe λ per tutti gli autovalori di' T+ . Fissato
' ε1 ≪ c+ , siano δ1 e T tali che se
'Ck i i'
t > T e |ξ| < δ1 allora |b(t, ξ)| ≤ ε1 |ξ|. In tali condizioni si ha ' i=1 ξ b ' ≤ r+ |b| ≤ ε1 r+ |ξ| ≤ ε1 r+ (r+ + r− )
per cui, procedendo come ai Punti 2 e 4 si ottiene

= k =k
1 d 2
r+ = ξ h δhi T+ i j ξ j + ξ i bi ≥ c+ r+
2
− o(ε) − ε1 r+ (r+ + r− )
2 dt i,j=1 i=1

che implica la stima ṙ+ ≥ 12 c+ r+ − ε1 r− . Allo stesso modo si ricava (per c− = 0 ) la stima ṙ− ≤ ε1 (r+ +
r− ) + o(ε).
Ne segue che è possibile scegliere ε tanto piccolo da rendere valida la
) *
d 1 1
(r+ − r− ) ≥ c+ − ε1 r+ − 2ε1 r− − o(ε) ≥ c+ (r+ − r− ), da cui
dt 2 4
r+ (t) − r− (t) ≥ [r+ (T) − r− (T)]ec+ (t−t)/4 .

Si ragioni ora per assurdo. Se la soluzione nulla fosse stabile, esisterebbe δ(δ1 ) tale che ogni soluzione con r+ (T) +
r− (T) < δ per t = T dovrebbe avere r+ (t) + r− (t) < δ1 per ogni t > T . Di queste se ne potrebbe scegliere una con
r− (T) convenientemente piccolo: 0 < r− (T) ≤ r+ (T)/2 . Tuttavia, la stima trovata implica che per essa risulterebbe
r+ (t) ≥ r− (T)ec+ (t−t)/4 , che cresce oltre δ1 . "

Il risultato si estende al caso periodico: T : t &→ T (t) ∈ Pert (L(V)) pur di sostituire gli autovalori λ(i) con gli
esponenti caratteristici η(i) .
I precedenti teoremi hanno un immediato riscontro, ad esempio, in equazioni di tipo meccanico. Per semplicità
si assumerà anche qui la metrica banale.
Esempio 4.1.32 Con x0 , y0 ∈ Rn si consideri l’equazione

ẍ = f (x, ẋ) f ∈ C 1 (Rn ), f (xe , 0) = 0. (1.4)

M. Lo Schiavo
4.1. La stabilità lineare 207

ovvero * ) ) *
y x0
u̇ = v(u) := con u0 := ∈ R2n .
f (x, y) y0
) *
xe
L’equazione ha linearizzata in ue := data da:
0
) * ) *) *
ẋ 0 1In x − xe
= =: ∂v(ue ) (u − ue ) . (1.5)
ẏ ∂x f (xe , 0) ∂y f (xe , 0) y

Siano {ℓj }j=1,...,2n i 2n autovalori di ∂v(ue ), e cioè le 2n radici (nel campo complesso) dell’equazione secolare:
Det(ℓ2 1I n − ℓ∂y f (xe , 0) − ∂x f (xe , 0)) = 0 . Su di esse è noto solo il fatto che se ℓ è radice allora lo è anche la sua
complessa coniugata ℓ̄ ; infatti l’equazione secolare ha coefficienti reali.
Pertanto, nel caso generale, le ℜe ℓ avranno segni vari. Qualora queste siano tutti negative, il Teorema 1 di
Liapunov garantisce stabilità asintotica; qualora ve ne sia anche una sola positiva il Teorema 4 assicura l’instabilità;
negli altri casi i teoremi di stabilità lineare non sono in grado di fornire una risposta definitiva. #

Esempio 4.1.33 Con x0 , y0 ∈ Rn si consideri l’equazione

ẍ = f (x) f ∈ C 1 (Rn ), f (xe ) = 0. (1.6)

ovvero ) * ) *
y x0
u̇ = v(u) := con u0 := ∈ R2n .
f (x) y0
) *
xe
L’equazione ha linearizzata in ue := data da:
0
) * ) *) *
ẋ 0 1I n x − xe
u̇ = = =: ∂v(xe ) (u − ue ) . (1.7)
ẏ ∂f (xe ) 0 y

Si chiami Be la matrice −∂f (xe ) e si supponga che sia (reale e) tale che Be = BeT . Ciò è quanto avviene per
∂2Π
l’Hessiano ∂x∂x (xe ) dell’energia potenziale Π = Π(x) nel caso in cui la f sia conservativa, e cioè provenga da un
potenziale posizionale secondo la f (x) = −∇Π(x) . ) *
0 1I
Siano {ℓj }j=1,...,2n i 2n autovalori di ∂v(ue ) := ; essi sono ciò che si ottiene imponendo che la
−Be 0
(1.7) abbia soluzioni del tipo u(t) = ue + eℓt (u0 − ue ). In quanto radici dell’equazione 0 = Det(Be + ℓ2 1I ) =:
Det(Be − λ1I ), i loro quadrati coincidono con gli opposti degli autovalori λ della matrice Be , e cioè: −ℓ2 = λ.
Per studiare la stabilità della (1.6) mediante la segnatura delle ℜe ℓ della (1.7) conviene ricordare innanzi
tutto che un operatore Be reale simmetrico ha solo autovalori λ reali. Di conseguenza gli {ℓj }j=1,...,2n hanno
necessariamente la forma
−ℓ2 = λ = |λ|eikπ =: ω 2 eikπ con k ∈ Z.

Sono possibili solo due alternative:

(i) Esiste qualche −ℓ2 = λ strettamente negativa; per essa si ha ω ̸= 0 e k dispari. Allora ℓ+ = ω ed ℓ− = −ω
sono autovalori reali di v∗ (se ), e quindi in tal caso esiste almeno un autovalore di ∂v(ue ) con ℜe ℓ > 0 .

(ii) Tutte le −ℓ2 = λ sono o nulle o positive; e siccome la radice quadrata di un numero reale negativo è puramente
immaginaria si ha che tutte le ℜe ℓ sono nulle. In altre parole, per esse o è ω = 0 oppure k è pari, e quindi
tutti gli autovalori di ∂v(ue ) sono del tipo ℓ, ℓ̄ = ω exp ±i( π2 + hπ) = ±iω con ω ≥ 0 .

Nel primo caso il Teorema 4 assicura che la quiete in xe è certamente instabile.


Nel secondo caso, il fatto che le ℜe ℓ siano tutte nulle lascia la possibilità, ma non la implica, della stabilità. Tale
eventuale stabilità non potrà comunque essere asintotica, e non è sicura poiché in questo caso “debole” gli ordini
superiori al primo, nello sviluppo del campo v(u), possono influire sul moto asintotico almeno quanto la parte
lineare. Ne è un esempio molto semplice il caso: Π(x, y, z) = 12 c2 (x2 + y2 ) + hz 4 , con c, h ∈ R , che ha equilibrio in (0, 0, 0) e moto
asintotico che dipende dal segno della costante h , come si verifica facilmente dato che il sistema disaccoppia le coordinate. Nel caso
h < 0 l’origine è instabile:

Note di Sistemi Dinamici


208 Capitolo 4. Cenni di stabilità

Si noti che in questo esempio l’equazione Det(Be + ℓ2 1I ) = 0 non ammette alcun autovalore ℓ2 > 0 e quindi il teorema lineare
non è conclusivo neanche in forma negativa. #

Più in generale, un sistema meccanico strettamente conservativo: vincoli indipendenti dal tempo ) e forze −1
a poten-
*
0 Ae
ziale posizionale ha linearizzata nel punto di equilibrio (qe , 0) con campo espresso da ∂v(qe , 0) = ove
−Be 0
Be è l’Hessiano in q = qe dell’operatore π e dell’energia potenziale Π = Π(q), ed Ae è la matrice dell’operatore
T2 dell’energia cinetica T = T2 calcolata nel punto qe . L’equazione agli autovalori diviene Det(A−1 2
e Be +ℓ 1I ) = 0
−1 −1
ovvero Det(Be − λAe ) = 0 avendo chiamato anche qui −ℓ2 = λ = ω 2 . La simmetria di Ae 2 Be Ae 2 implica che
le λ sono tutte reali; inoltre la loro segnatura è la stessa degli autovalori di Be ([Gantmacher §X.2]) [infatti dato che
−1
2
−1
2 T
−1
2
−1
2
Ae è definita positiva si ha che Ae = (Ae ) , e quindi Ae Be Ae è congruente con Be e si possono “riscalare” gli assi con la
−1/2
matrice Ae ]. Pertanto:
Condizione sufficiente (ma non necessaria) per la instabilità di un sistema meccanico, strettamente conservativo
a vincoli indipendenti dal tempo e forze a potenziale posizionale, è che l’operatore della parte bilineare dell’energia
potenziale: Be ammetta qualche autovalore λ negativo, e quindi che Be non sia definita positiva né semidefinita po-
sitiva; o anche: che l’energia potenziale non ammetta un minimo nel punto di equilibrio, e che ciò sia riconosciuto
tramite lo studio della forma quadratica associata alla funzione energia potenziale: Π(q).
Equivalentemente si ha la:
Condizione necessaria (ma non sufficiente) per la stabilità di un sistema meccanico, strettamente conservativo
a vincoli indipendenti dal tempo e forze a potenziale posizionale, è che tutti gli autovalori di Be (e di A−1 e Be )
siano positivi o nulli. Se positivi, gli autovalori di A−1 e B e assumono il significato di quadrati −ℓ 2
≡ λ =: ω 2
delle cosiddette “Pulsazioni proprie” con le quali oscillano i “Modi normali”. Ciò accade se, per per l’energia
potenziale, il punto xe è: o di minimo, o di stazionarietà qualunque e di ordine superiore al secondo. In entrambi
i casi, la stabilità non può essere assicurata, mediante il ricorso alla stabilità lineare, da queste condizioni perché
l’essere ℜe ℓ = 0 fa cadere in difetto la linearizzazione. In effetti i due moti: quello dell’equazione non lineare e quello
della sua linearizzata non è detto che siano, alla lunga, “vicini”. Potrebbero non esserlo a dipendere dagli ordini
superiori dello sviluppo del campo; e generalmente ciò accade almeno per quanto riguarda i loro valori simultanei,
le loro traiettorie potendo invece rimanere “vicine”.

L’essere ℓ2 ∈ R implica:
Caso I Caso II
esiste −ℓ2 = ω 2 < 0 , e cioè ogni −ℓ2 = ω 2 ≥ 0 , e cioè
∃ un a-valore di Be negativo; a-valori di Be tutti positivi;
vi sono ℓ+ > 0 ed ℓ− < 0 ; vi sono (ℓ, ℓ̄) = (iβ, −iβ);
l’instabilità è certa; la stabilità è possibile;
Π(q) è stazionario, non minimo, Π(q) è minimo o stazionario,
2
e lo si riconosce mediante le ∂ . e lo si riconosce mediante le ∂ ℓ≥2 .

4.2 Il metodo diretto di Liapunov


Come si è già osservato, vi sono casi in cui il procedimento di linearizzazione non dà informazioni sulla stabilità
del sistema non lineare da cui si è partiti.
Esempio 4.2.1 ẋ = x2 , con x0 ∈ R.
La soluzione nulla è instabile. L’equazione linearizzata: ξ˙ = 0 è stabile. #

(
ẋ = y
Esempio 4.2.2 con x0 , y0 ∈ R ed n > 1 .
ẏ = −xn

M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 209
) * ) *) *
ξ˙ 0 1 ξ
L’equazione linearizzata nella soluzione nulla è = , che è instabile. L’equazione assegnata, avendo
η̇ 0 0 η
energia E (x, y) = 12 y 2 + n+1
1
xn+1 ha soluzione nulla che è stabile se n è dispari mentre è instabile se n è pari o
nullo. Lo si riconosce facilmente mediante lo studio delle linee di livello della funzione energia sullo spazio delle fasi,
studio che, si ricordi, è uno studio globale contrariamente a quello dell’Hessiano che è solo locale ed il cui valore in
questo caso è zero. #

( / (
ẋ = +y + xf ( x2 + y 2 ) x0 ,y0 ∈ R, f (0) = 0,
Esempio 4.2.3 / con 1 +
ẏ = −x + yf ( x2 + y 2 ) f ∈ C (R ∪ {0}).
/
La
( linearizzata nell’origine è l’oscillatore lineare. Tuttavia, con ρ := x2 + y 2 ̸= 0 , il sistema equivale a
ρ̇ = ρf (ρ),
per cui se, ad esempio, f (ρ) = cρn−1 allora si ha ρ̇ = cρn , e la stabilità della soluzione nulla
θ̇ = −1;
è decisa dal segno di c qualunque sia n > 1 . Infatti, essendo ρ0 > 0 , la funzione ρ : t &→ ρ(t) ≡ ρ(x(t), y(t))
cresce o decresce con la t a seconda del segno della sua derivata, e quindi di c. #

) * ) *) * ) *
ẋ 0 1 x 0
Esempio 4.2.4 = −ε 2 , con x0 , y0 ∈ R.
ẏ −1 0 y x y
L’origine è un centro se ε = 0 ed è una spirale debole se |ε| ≪ 1 , attrattiva o repulsiva a seconda che ε ≷ 0 .
Infatti posto F : (x, y) &→ F (x, y) := 12 (x2 + y 2 ) si ha Lv F = xy + y(−x − εx2 y) = −εx2 y 2 e pertanto le
traiettorie sono trasversali alle circonferenze (vedi oltre). #

(
ẋ = x3 − 3xy 2
Esempio 4.2.5 con x0 , y0 ∈ R .
ẏ = −3x2 y + y 3 ,
0 2 2
1
Per discutere l’equazione è opportuno ricorrere all’equazione associata, che è (ad esempio) dx dy
= xy yx2−3x
−3y 2 . Se
si ricercano soluzioni del tipo y = αx si ricavano le condizioni necessarie: α = 0 , oppure α = 1 , oppure α soluzione
di α = α(α2 − 3)/(1 − 3α2 ) da cui α = ±1. D’altra parte su tali rette si ha: ẋ = x3 nel caso α = 0 ; ẏ = y 3
nel caso α = ∞; ẋ = (1 − 3α2 )x3 = −2x3 nel caso α = ±1 .
7 8−1/2
Siccome ẋ = kx3 si risolve nella x : t &→ x(t) = x0 1 − 2kx20 (t − t0 ) , l’origine è chiaramente un punto di
instabilità per il sistema non lineare, mentre è di stabilità per quello lineare.

L’Esempio4.2.3 indica un metodo affrontare lo studio della stabilità dei punti fissi (di sistemi non lineari) anche
nel caso in cui non siano delle selle- k . Il metodo “diretto” verrà qui esposto per sistemi autonomi ma si applica
anche a sistemi non autonomi. Esso è di primaria importanza perché, qualora si riesca ad utilizzare, fornisce
informazioni anche non locali rispetto ad x. La sua caratteristica inoltre è di far uso solo della forma del campo
(assegnato) e non delle soluzioni (incognite) del sistema, neanche se valutate in modo approssimato. D’altra parte
non sono noti algoritmi generali che lo rendano applicabile in generale, e caso per caso va usata a tale scopo la
propria esperienza e la propria inventiva.
L’idea di base è quella di determinare delle opportune funzioni definite sullo spazio delle fasi e tali che, ge-
neralizzando il ruolo che l’energia totale svolge nella discussione dei sistemi conservativi, abbiano un andamento
qualitativo noto
/lungo le incognite traiettorie delle soluzioni. Nell’Esempio 3 la funzione in questione è stata la
ρ = ρ(x, y) := x2 + y 2 e si è osservato il fatto che, lungo le soluzioni, essa assume valori crescenti (o decrescenti)
con t a seconda del/segno della costante c; le soluzioni stesse quindi, al crescere di t, saranno tali da congiungere
regioni in cui ρ := x2 + y 2 è minore (maggiore) con regioni in cui è maggiore (minore).

Note di Sistemi Dinamici


210 Capitolo 4. Cenni di stabilità

Esempio 4.2.6
) * Van Der Pol: ẍ + e(x2 − 1)ẋ + x = 0 , x0 , ẋ0 ∈ R, e < 0 .
x
Con x := , l’equazione equivale alla
y
) * ) *
ẋ y
ẋ ≡ = =: v(x), con x0 ∈ R2 , (2.8)
ẏ −x − e(x2 − 1)y

ed ha punto fisso xe = (0, 0)T . Nell’esempio 1.11 si è visto che il sistema linearizzato è uniformemente ed
asintoticamente stabile, e quindi tale è il punto di equilibrio della (2.8); qui lo si vuole confermare con il metodo
diretto.
Si scelga in modo del tutto arbitrario, e per ora ingiustificato, la funzione F : (x, y) &→ F (x, y) := x2 + y 2 .
Lungo le soluzioni x : t &→ x(t) ≡ (x(t), y(t)) dell’equazione data, si calcola
d '
'
Lv F (x) : = F (x(t)) ' x(t)=x
dt ẋ(t)=v(x)

= 2xy + 2y(−x − e(x2 − 1)y) = −2(x2 − 1)y 2 e

che è)senz’altro
* negativa all’interno della striscia x ∈ [−1, 1], salvo che sull’asse delle x. Ma su tale asse il campo
0
vale e quindi su tutti questi punti, tranne il punto di equilibrio, esso è non nullo e tangente alle circonferenze
−x
2 2
x + y = cost. Le traiettorie tuttavia non possono “uscire” da queste ultime perché in tal caso, in un intorno
destro dell’istante in cui avviene la tangenza, la Ḟ (x(t)) dovrebbe necessariamente assumere valori positivi; né
possono “restarvi sopra” perché queste non sono traiettorie possibili; pertanto non può che dedursi il fatto che le
traiettorie “entrano” nelle circonferenze dette.
Infine, dato che l’unico punto di equilibrio è l’origine, e che se ci fosse un ciclo (limite) nella striscia x ∈ [−1, 1]
esso attraverserebbe le circonferenze di centro l’origine in entrambi i versi, se ne conclude che ogni orbita ha
l’origine come unico possibile insieme ω -limite: di qui l’asintotica stabilità, uniforme per l’autonomia.
La discussione sarebbe stata ancora più semplice se al posto di F si fosse adottata la funzione
F 1 : (x, y) &→ F 1 (x, y) := x2 − exy + y 2
) *
2 −e
la quale ha derivata direzionale Lv F 1 = e(x2 + y 2 − exy − 2x2 y 2 + ex3 y) . Quest’ultima ha Hessiano: e che è definito
−e 2
2
negativo in zero purché 4 − e > 0 , ed in tal caso si ha Lv F 1 < 0 in N (0) . Con questa funzione lo studio è immediato e conclusivo
per −2 < e < 0 ; infatti, in tale eventualità, il segno definito della Lv F 1 assicura che le curve di fase si dirigeranno, per t crescenti,
verso punti sui quali F 1 ha valori più bassi, attraversando trasversalmente e definitivamente le linee di livello F 1 = cost e cioè le
ellissi x2 − exy + y 2 = cost , e dirigendosi verso la zona interna a ciascuna di esse. ) *
0 1
Si noti che nell’ipotesi −2 < e < 0 i due autovalori della matrice T := ∂v(xe ) = sono complessi coniugati: λ1 := µ̄ :=
−1 e
/
α − iβ := 2e − i 1 − e2 /4 , e λ2 = λ̄1 . In questo caso, siano: B := {ϵµ , ϵ̄µ } la base propria in C R2 dell’operatore C T che nella base
) *
& = {xµ , yµ } la base reale formata dalle parti ℜe ϵµ e −ℑm ϵµ ; 1 1
data ha matrice T ; B P := la matrice che in C2
λ1 λ2
) * ) * ) *
diagonalizza C T (vedi §II.2); ξ, & -componenti di x, ed 1 z := 1 ξ̃ + iη̃ := P −1 x l’espressione del vettore x nelle
& η& le B
2 z̄ 2 ξ̃ − iη̃ y
coordinate proprie. Si riconosce (vedi oltre) che la
F 2 (ξ) ≡ r 2 := ⟨ x, x ⟩ B& = ξ&2 + η&2 ≡ z z̄
è un’altra funzione, oltre alle F e F 1 , con la quale è possibile ripetere la stessa discussione, (si osservi che la r 2 è stata già usata
nei Punti 2,3,4 e nel Teorema 4 del §1). Infatti si calcola Lν r 2 = ż z̄ + z z̄˙ = µr 2 + µ̄r 2 + o(r 2 ) = 2ℜe µr 2 + o(r 2 ) = er 2 + o(r 2 ) e quindi
con essa si possono trarre le stesse conclusioni trovate mediante la F 1 : le curve di fase si dirigeranno, per t crescenti, verso punti sui
quali r 2 ha valori più bassi ) *
1 λ2 −1
D’altra parte, siccome è P −1 = λ −λ e quindi z/2 = [µx − y]/(2iβ) , esprimendo la F 2 = r 2 nelle coordinate
2 1 −λ1 1
iniziali, e con ∆ := T r 2 T − 4DetT = e2 − 4 = −4β 2 , risulta:
1 K L
F 2 (x, y) = z z̄ = 2 µµ̄ x2 + y 2 − (µ + µ̄)xy
β
4 4
= (x2 Det T + y 2 − xy T r T ) = (x2 + y 2 − exy),
−∆ 4 − e2
e quindi, ai soli fini della discussione vista sopra, essa è del tutto equivalente alla F 1 . (Per ulteriori possibilità si veda anche l’Esempio
2.20 più oltre). ) 1* ) *
B B
e2 ξ λ2 x − y
Nel caso reale: e < −2 , si hanno λ1,2 = T rT ± ∆
= e
± − 1 e coordinate proprie = 1
,
2 4 2 4 ξ2 λ2 −λ1 y − λ1 x
per cui la F 2 = ⟨ x, x ⟩ B fornisce
1 7 2 8 2
r 2 (x, y) = (λ1 + λ22 )x2 + 2y 2 − 2(λ1 + λ2 )xy = 2 ((e2 /2 − 1)x2 + y 2 − exy).
+∆ e −4
Comunque, per e < 0 , si conferma il risultato dell’Esempio 4.1.30. #

M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 211

Per poter formalizzare il metodo, è opportuno richiamare alcune semplici nozioni di analisi. Esse fanno
riferimento a studi locali nell’intorno di qualche fissato punto dello spazio delle fasi M (localmente omeomorfo ad
Rn ) che verrà, senza perdita di generalità, considerato l’origine: x = 0 ; un suo intorno sarà indicato con N (0), e
la chiusura di questo con [N (0)].
F : M → R definita positiva su N (0) := una funzione F ∈ C 0 (N (0)) tale che

F (0) = 0 , F (x) > 0 ∀x ∈ N (0)\{0} .

F : M → R semi-definita positiva su N (0) := una funzione F ∈ C 0 (N (0)):

F (0) = 0 , F (x) ≥ 0 ∀x ∈ N (0) .

Equivalentemente:
Se una funzione F : M → R, F ∈ C 0 (N (0)), è tale che: F (0) = 0 , ed esiste r > 0 per la quale:
∀ ε ∈ (0, r) ∃ δ(ε): 0 <(ε ≤ |x| ≤ r ⇒ F (x) ≥ δ(ε),
definita positiva quando δ(ε) > 0
allora la F si dice:
semidefinita positiva quando δ(ε) ≥ 0.

N.B. 4.2.7 Si possono dare analoghe definizioni per funzioni F (t, x) richiedendo che esista una F (x) di segno
definito e che limiti per ogni t ≥ t0 quella dipendente dal tempo. Con esse si estendono i teoremi seguenti anche a
sistemi non autonomi. Qualche attenzione, tuttavia, va esercitata per le funzioni semidefinite (vedi [Hahn § V.41],
opp.[Cesari § 7.1]). ♦

Esempio 4.2.8
x2 + y 2 def. pos. in R2 ; semidef. pos. in R3 ;
; ' <
'
x2 + y 2 − x3 def. pos. in (x, y) ∈ R2 ' x < 1 ;
; ' <
'
−2y 2 (x2 − 1) semidef. pos. in (x, y) ∈ R2 ' x2 < 1 ;
x2 + y 2 + z 4 def. pos. in R3 ;
meno immediato è il fatto che x2 + y 2 − exy − 2x2 y 2 + ex3 y sia definita positiva in N (0) ⊂ R2 quando e ∈ (−2, 0)
(vedi oltre). Si noti infine che né (x + a)2 + y 2 né (x + a)2 + y 2 − a2 hanno segno definito in N (0) ⊂ R2 . #

Si rammenti la seguente definizione


Funzione omogenea di grado p ∈ R := una funzione O p : M → R tale che O p (0) = 0 , ed O p (tx) =
tp O p (x) per tutti i t > 0 per i quali O p (tx) è definita, e per ogni x ̸= 0 .
Nota 4.2.1
Sia O p : x ∈ M &→ O p (x) ∈ R una funzione omogenea di grado p definita su N (0) ∩ Br≥1 (0).

Se F (x) = O p (x) + w(x) con w(x) = o(|x|p ) ∩ C 0 (N (0)), allora:


“O p definita positiva in N (0)” implica “F definita positiva in N (0)”
Sotto le stesse ipotesi, il viceversa non sussiste.

Controesempio: x2 + y 2 + z 4 è definita positiva in R3 ma non implica che x2 + y 2 sia definita positiva in R3 .


Dimostrazione Sia m := min|x|=1 O p (x); dato che la superficie della sfera unitaria è un sottoinsieme compatto
di M, tale m esiste strettamente positivo.
x
Risulta O p (x) = |x|p O p ( |x| ) ≥ m|x|p , per ogni x ∈ N (0)\{0}.
D’altra parte per ipotesi esiste δ = δ(ε) tale che |w(x)| < ε|x|p per |x| < δ. Pertanto basta che sia ε ≤ m/2
per avere, su N (0) ∩ Bδ (0)\{0}
m p m
F (x) ≥ O p (x) − |w(x)| ≥ m|x|p − |x| = |x|p > 0 .
2 2

Note di Sistemi Dinamici


212 Capitolo 4. Cenni di stabilità

Usando quanto si è visto in questa nota si può risolvere l’ultimo caso dell’Esempio 5, quando si faccia anche
ricorso alla seguente:
Nota 4.2.2
Particolari funzioni omogenee sono i polinomi omogenei, o forme, di grado p ∈ N; e cioè funzioni F p : M → R
definite (in coordinate) da
C
F p : x &→ F p (x) := |h|=p ah xh , con ah ∈ R e dove
1 n
x = (x1 , . . . , xn ) ∈ Rn , xh := (x1 )h · · · (xn )h ∈ R,
h = (h1 , . . . , hn ) ∈ Nn , |h| := (h1 + . . . + hn ) ∈ N.

Se p è dispari la forma F p non può avere segno definito in N (0). Infatti, chiamando ξ ad esempio la
n-ma coordinata: xn = ξ , e ponendo xh =: ξ uh per le altre h = 1, . . . , n − 1 , se ne ricava l’espressione
F p = ξ p F (u1 , . . . , un−1 , 1) e quindi al variare della n-ma coordinata la funzione cambia segno.
Se p è pari e p > 2 non sono noti metodi generali per assicurare la definitezza in segno della forma.
Se p = 2 , e cioè con Q := F p=2 : M → R una forma quadratica (reale), detti B = B T la matrice reale
2
simmetrica dell’Hessiano: Bij := ∂x∂ i ∂x Q
j della forma Q , e detti (λ1 , . . . , λn ) gli autovalori di B i quali, come è
noto, sono tutti reali, si hanno i seguenti fatti.
Il rango r di Q è il numero dei suoi autovalori non nulli; la segnatura di Q la differenza fra il numero dei
suoi autovalori positivi e quello dei suoi autovalori negativi. Si definiscano, inoltre, le seguenti matrici.
) *
1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n
Minori principali di Q := le matrici quadrate B che si ottengono estraendo dalla
1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n
matrice B i suoi elementi intersezioni delle colonne 1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n della matrice B e delle righe
(con i medesimi indici:) 1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n.
) *
1, 2, . . . , k ≤ n
Minori principali ordinati di Q := le matrici quadrate Dk := B , definite per k = 1, .., n.
1, 2, .., k ≤ n
Sussiste la proprietà (Jacobi): se tutte le Dk hanno determinante non nullo allora il numero degli autovalori positivi
è pari al numero di permanenze di segno dei Det Dk , per k = 1, 2, . . . , n, ed il numero degli autovalori negativi
è pari al numero delle variazioni di segno dei Det Dk .
Pertanto, indicato con il simbolo |B| il Det B , si ha che:

se tutti i determinanti |Dk | , k = 1, . . . , n, sono diversi da zero


Q definita positiva ⇔ |D1 | > 0, |D2 | > 0, . . . , |Dn | > 0 ,
Q definita negativa ⇔ |D1 | > 0, |D2 | < 0, . . . , (−1)n |Dn | > 0 ,
Q indefinita ⇔ esistono 1 ≤ i, j ≤ n tali che |Di | > 0, |Dj | < 0.

Tuttavia, se qualche Det Dk è nullo non si può determinare il segno della forma, semidefinita, Q mediante
lo studio dei segni dei Det Dk , k = 1, . . . , n.

Ci si può servire, in tal caso, delle seguenti proprietà che danno informazioni più specifiche.
⎧' ) *'
⎪ ' '
⎨ 'B 1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n ' ≥ 0
Q semidefinita positiva ⇔ ' 1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n '

⎩∀ 1 ≤ i ≤ i ≤ ... ≤ i ,
1 2 k k = 1, 2, . . . , n
⎧ ' ) *'
⎪ ' '
⎨ (−1)k 'B 1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n ' ≥ 0
Q semidefinita negativa ⇔ ' 1 ≤ i 1 ≤ i 2 ≤ . . . ≤ i k ≤ n '

⎩∀ 1 ≤ i ≤ i ≤ ... ≤ i ,
1 2 k k = 1, 2, . . . , n

Se ne ricava la seguente, importante:

Osservazione.
Condizione sufficiente affinché una forma quadratica reale Q non sia definita positiva né semidefinita positiva
∂2Q
è che
) la matrice reale simmetrica * dell’Hessiano: Bij := ∂xi ∂xj della forma Q abbia qualche minore principale:
1 ≤ i1 ≤ i2 ≤ . . . ≤ ik ≤ n
Be con determinante negativo. ◃
1 ≤ i1 ≤ i2 ≤, . . . , ik ≤ n

M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 213

Nota 4.2.3 Sia F = F (x) definita positiva su un intorno N (0) ⊆ M dell’origine e sia ε > 0 tale che
[Bε (0)] ⊂ N (0). Allora esiste un c0 (ε) > 0 per il quale: ogni curva continua γ parametrizzata da

γ : [0, 1] → M, γ : τ &→ x(τ ), γ(0) = 0, γ(1) ∈ ∂Bε (0),


'
che unisca l’origine con la frontiera ∂Bε (0), interseca ciascuno degli insiemi di livello Sc := {x ∈ N ' F (x) = c}
per qualsiasi c ∈ [0, c0 ].
Si noti che per le proprietà degli intorni in M, dato N (0) è sempre possibile trovare ε che verifica l’ipotesi
detta, e che un qualunque intorno dell’origine, a chiusura compatta, può fare le veci della sfera Bε (0).
'
Dimostrazione La superficie ∂Bε (0) := {x ' |x| = ε} è compatta, quindi esiste ed è positivo il valore m(ε) :=
min|x|=ε F (x). Ma F è continua in N (0) ⊇ [Bε (0)], quindi F ◦ γ è continua su [0, 1] ed assume (almeno) i
valori 0 ed m. Essa pertanto assume necessariamente tutti i valori in [0, m]; e ne segue che γ stessa dovrà
necessariamente attraversare tutti gli insiemi di livello definiti da F , e cioè gli insiemi Sc con c ∈ [0, c0 ] per
qualche c0 ≥ m. ◃

Nota 4.2.4 Giacché in generale lo studio è locale nell’intorno di un punto xe di un sistema assegnato su una
varietà M, si può senza perdita di generalità considerarne una rappresentazione in coordinate nella quale il punto
xe sia fatto corrispondere all’origine della carta. I risultati che seguono sono invarianti al variare della carta solo se
(vedi §1 N.B.9) la trasformazione di coordinate è indipendente dal tempo e muta la metrica in, al più, una ad essa
equivalente (vedi Cesari §1.9). Infine, qualora nel seguito
Cn se ne presenti la necessità, Rn verrà considerato euclideo
T
con il prodotto scalare standard: ⟨ x, y ⟩ := x y = h=1 x y . h h

Sia assegnato un campo v : Rn → R, liscio su un aperto D ⊂ Rn contenente l’origine, e tale che v(0) = 0 .
Si indichi con φ = φ(t, 0, x) la soluzione dell’equazione ẋ = v(x) uscente dal punto x ∈ Rn . In particolare la
φ(t, 0, 0) = 0 è certamente soluzione ed è anche definita per ogni t > 0 .
Sia poi F : G → R, F ∈ C 1 (G) con G aperto e contenuto in D ; e si denoti (più brevemente ma con
abuso di notazione) con Ḟ : Rn → R la funzione derivata direzionale di F lungo il campo dato:

d ''
Ḟ : x ∈ G &→ Ḟ (x) := ' F (φ(t, 0, x)) ≡ Lv F (x) ≡ (v · ∇F )(x).
dt t=0

Nota 4.2.5
Molti dei seguenti teoremi si potrebbero enunciare con solo F ∈ C 0 (G) . Infatti al posto della Lv F (x) si può usare la
1
L+
v F (x) : = lim sup [F (g ε x) − F (x)] = (se F ∈ loc.Lip) =
ε→0+ ε
1
= lim sup [F (x + εv(x)) − F (x)];
ε→0+ ε
d+
in effetti [L+v F (ξ)]ξ=φ(t,0,x) = dt
[F (φ(t, 0, x))] , e l’essere quest’ultima non negativa implica che F (φ(t, 0, x)) è non decrescente
(rispetto a t ). ◃

Funzione di Liapunov, per ẋ = v(x), in N (0) := una funzione F : x ∈ Rn &→ F (x) ∈ R, regolare su
G ⊆ Rn , e che abbia Ḟ : x ∈ Rn &→ Ḟ (x) ∈ R semi-definita in segno in un intorno dell’origine N (0) tale che
[N (0)] ⊆ G.

Funzione di Liapunov “stretta”, per ẋ = v(x), in N (0) := una funzione F : x ∈ Rn &→ F (x) ∈ R, regolare
su G ⊆ Rn , e che abbia Ḟ : x ∈ Rn &→ Ḟ (x) ∈ R definita in segno in un intorno dell’origine N (0) tale che
[N (0)] ⊆ G.

N.B. 4.2.14 Non è possibile parlare di funzioni di Liapunov senza aver preventivamente introdotto un certo campo
v ; e cioè senza riferirsi ad uno specifico sistema ẋ = v(x). ♦

N.B. 4.2.15 È chiaro che se F 1 ∈ C 0 (N (0)) ha Ḟ 1 di segno semidefinito allora la funzione F 2 := −F 1 è


anche lei una funzione di Liapunov e, come si vedrà, entrambe possono essere usate allo stesso modo nello studio
della stabilità del sistema. Si badi a non confondere la funzione F con l’energia potenziale Π, dei sistemi
meccanici conservativi il cui segno invece caratterizza il comportamento del sistema. La F può essere correlata
con l’energia totale E di tali sistemi. ♦

Note di Sistemi Dinamici


214 Capitolo 4. Cenni di stabilità

N.B. 4.2.16 Un integrale primo è per definizione tale che Ḟ : x ∈ N (0) &→ Ḟ (x) = 0 , pertanto è senz’altro una
funzione di Liapunov, mai stretta. ♦

N.B. 4.2.17 In riferimento al N.B. 0, una qualsiasi funzione F ∈ C 1 (N (0)) che sia semidefinita in N (0), o anche
solo con un punto di stazionarietà nell’origine, ha certo Ḟ (0) = 0 e qualunque sia v in quanto ha nullo il ∇F (0),
ma ciò evidentemente non basta a dire che la funzione è di Liapunov e cioè che Ḟ sia semidefinita in tutto un
intorno N (0). Quest’ultima proprietà evidentemente dipende dal campo v = v(x) mentre la prima no. ♦

N.B. 4.2.18 È bene ribadire esplicitamente che (per sistemi autonomi) sia la F che la Ḟ sono funzioni della
posizione x e non del tempo. ♦

N.B. 4.2.19 Per definizione, una funzione di Liapunov è (almeno) continua in N (0). ♦

Teorema 4.2.1 (Dirichlet - Laplace - Liapunov) Sia v : Rn → R un campo liscio su un aperto D ⊂ Rn conte-
nente l’origine, e tale che v(0) = 0 . Se il sistema ẋ = v(x) ammette una funzione di Liapunov F in N (0), e se
la F ha segno definito in N (0), ed opposto a quello della sua derivata Ḟ (quando questo sia definito), allora
l’origine è punto di equilibrio stabile.
Se inoltre la F è “stretta” allora l’origine è asintoticamente stabile.

Dimostrazione Per fissare le idee si consideri la F : G → R definita positiva. Sia N (0) ⊆ G un intorno di
definitezza di entrambe le F e Ḟ , e sia r > 0 tale che Br (0) ⊆ N (0). Fissato ε ∈ (0, r) , siccome ∂Bε (0)
è compatta esiste ed è strettamente positivo il valore m(ε) := min|x|=ε F (x). Ancora, la F è continua e nulla
nell’origine, quindi esiste δ(m) > 0 tale che |x| < δ implica F (x) < m, ed è certamente δ ≤ ε perché altrimenti
si avrebbe [Bε (0)] ⊂ Bδ (0) e quindi Bδ (0) conterrebbe punti sui quali F (x) = m.
7 d Dato comunque
8 x0 ∈ Bδ (0), finché φ : t ≥ 0 &→ φ(t, 0, x0 ) è definita ed è in N (0) essa, in virtù della
dt F ◦ φ (x) =: Ḟ ≤ 0 , è tale che F (φ(t, 0, x0 )) ≤ F (x0 ) < m. Quindi, ragionando come nella Nota 3, si
conclude che φ(t, 0, x0 ) non può raggiungere ∂Bε (0). Essa pertanto è definita per ogni t ≥ 0 ed appartiene a
Bε (0), che è la definizione di stabilità della soluzione φ : t ≥ 0 &→ φ(t, 0, 0) = 0 .

m
F > x
m
F=
m
<
F

x
²
±

@B
± (0)
@B
² (0)
r

Conseguenza: dato x0 ∈ Bδ (0), siccome la (F ◦ φ)(t) è monotona non crescente e positiva, esiste il
limt→∞ F (φ(t, 0, x0 )) =: !c con 0 ≤ ! c ≤ F (x0 ) < m.
Sia Ḟ di segno definito ed opposto a quello della F ; si supponga quindi definita negativa su N (0). In tali
ipotesi, dato comunque x0 ∈ Bδ (0) si ha necessariamente limt→∞ F (φ(t, 0, x0 )) =: ! c = 0.
Infatti: si assuma !c > 0 . Ancora per la continuità della F certo esiste δ1 = δ1 (! c/2) > 0 tale che |y| < δ1 ⇒
F (y) < ! c/2 . In più, δ1 è strettamente minore di ε , perché altrimenti in Bδ1 (0) la F (y) potrebbe assumere
valori arbitrariamente
' vicini ad m e quindi maggiori di ! c/2 < !c < m. Pertanto è non vuoto l’insieme compatto
K1 := {x ∈ Rn ' δ1 (!c/2) ≤ |x| ≤ ε} , sul quale la F può assumere valori maggiori di ! c/2. D’altra parte dalla sua
definizione: !c = limt→∞ F (φ(t, 0, x0 )), segue che esiste almeno un istante t′ ≥ 0 nel quale F (φ(t′ , 0, x0 )) > ! c/2;
ed il fatto che F (φ(t, 0, x0 )) si diriga monotona verso ! c implica che ciò continua ad essere vero per ogni t ≥ t′ .
Pertanto per ogni t ≥ t′ si ha che φ(t, 0, x0 ) esiste ed appartiene al compatto K1 , né può uscirne giacché deve
essere definitivamente ! c/2 < F (φ(t, 0, x0 )) < m. Per ipotesi la Ḟ (x) è funzione continua e definita negativa
in N (0), quindi essa ammette su K1 un massimo: −ℓ , strettamente negativo. Tale massimo è certo maggiore o
uguale del valore massimo raggiunto dalla Ḟ (φ(t, 0, x0 )) su [0, ∞). Ma Ḟ (φ(t, 0, x0 )) ≤ −ℓ per ogni t ≥ t′
implica F (φ(t, 0, x0 )) ≤ −ℓ(t − t′ ) + F (φ(t′ , 0, x0 )) per ogni t ≥ t′ , e pertanto il suo limite non può essere !
c > 0.

M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 215

Infine se !c = 0 anche limt→∞ |φ(t, 0, x0 )| = 0 . Infatti se per certi t comunque


' grandi esistesse δ2 > 0 tale che
δ2 ≤ |φ(t, 0, x0 )| < ε , dato che la compattezza dell’insieme K2 := {x ∈ Rn ' δ2 ≤ |x| ≤ ε} implica l’esistenza di
m2 := minx∈K2 F (x) strettamente positivo, si avrebbe l’esistenza di t comunque grandi nei quali F (φ(t, 0, x0 )) ≥
m2 contraddicendo l’ipotesi che sia ! c = 0. "

La prima parte del teorema contiene ovviamente il Teorema di Dirichlet nella sua forma comunemente usata in
Meccanica.
Sussiste infatti, innanzi tutto, la seguente:

Proposizione 4.2.1 Sia G ⊂ R2n un aperto contenente l’origine e, su di esso, sia assegnato un sistema meccanico
del tipo: ⎧
(
ẍ = −∇Π(x) + g(x, ẋ) ⎨ ẋ = y

ovvero : ẏ = −∇Π(x) + g(x, y)
x0 , ẋ0 ∈ Rn ⎪

x 0 , y0 ∈ R n ,
con g ∈ C 0 (G), g T (x, y) y ≤ 0 , e Π(x) definita positiva in N (0).
Allora: l’origine (0, 0) è stabile.

In tali ipotesi infatti la funzione E (x, y) := y 2 /2 + Π(x) è definita positiva in N (0, 0) ed è Liapunov non
stretta in quanto Ė (x, y) = g T (x, y)y ≤ 0 , ed Ė (0, 0) = 0 .
Allo stesso modo, per sistemi meccanici strettamente conservativi:
(
q̇ = ∂H /∂p
H (q, p) := T2 (q, p) + Π(q), H (0, 0) = Π(0) = 0,
ṗ = −∂H /∂q ,

si riconosce che se l’origine delle q è un minimo relativo proprio per la funzione Π(q), la H (q, p) è di segno
definito in N (0, 0); ed essendo un integrale primo è anche Liapunov non stretta. Di conseguenza l’origine è un
punto di stabilità.
Ancora, per un sistema meccanico a potenziale ed autonomo, e cioè con Lagrangiana:
1 T
L (q, q̇) = T2 (q, q̇) − V (q, q̇) = q̇ a (q)q̇ − Π(q) − q̇ T π(q) ,
2
se q = 0 è un punto di minimo relativo proprio per Π(q) allora il punto (qe , 0) è di equilibrio stabile per le
equazioni di Lagrange, ed il punto (qe , −π(qe )) è di equilibrio stabile per il corrispondente sistema Hamiltoniano.
Infatti, il punto (qe , 0) è di minimo per la funzione T2 + Π che è un integrale primo delle equazioni di Lagrange,
cosı̀ come il punto (qe , −π(qe )) lo è per la H (q, p) = 12 (p + π)T a −1 (p + π) + Π(q) che è anch’essa un integrale
primo per le equazioni di Hamilton.
In presenza di forze dissipative conviene ricorrere alle equazioni di Lagrange piuttosto che a quelle di Hamilton,
ed anche in questo caso si ha che T2 (q, q̇) + Π(q) è funzione di Liapunov (vedi: [Gantmacher p.50])
Nel caso di vincoli dipendenti dal tempo (ma ancora autonomo), la funzione H (q, p) = T2 − T0 + Π è
Liapunov non stretta cosı̀ come l’equivalente funzione delle (q, q̇) lo è per le equazioni di Lagrange.
La seconda parte del teorema può essere trasformata nel seguente teorema, che dà informazioni sulle regioni
“asintotiche”, (vedi anche [Hirsh §Teor. 9.3.2]) ed è di grande importanza dato che non confina il corrispondente
dato x0 ad un “convenientemente piccolo” intorno dell’origine Bδ (0).

Teorema 4.2.2 (del sottoinsieme invariante) (si veda: [La Salle, Teor. VI §1.3])
Sia v : Rn → R un campo liscio su un aperto D ⊂ Rn contenente l’origine, e tale che v(0) = 0 . Se il sistema
ẋ = v(x) ammette una funzione di Liapunov F ∈ C 1 (Rn ) tale che: F (0) = 0 , e che esista l ∈ R+ per il quale
'
(1) dell’insieme {x ∈ Rn ' F (x) < l} sia limitata la componente connessa Ωl che contiene l’origine;
(2) F (x) > 0 sia definita positiva su Ωℓ ;
(3) Ḟ (x) ≤ 0 sia semidefinita negativa su Ωℓ ;
'
allora, detti N := {x ∈ Ωl ' Ḟ (x) = 0} , ed IN il suo massimo sottoinsieme invariante rispetto al flusso,
t
si riconosce che: ogni x0 in Ωl ha evoluzione tale che φ(t, 0, x0 ) −→ IN , e cioè: IN contiene l’insieme

ω -limite di x0 .

Note di Sistemi Dinamici


216 Capitolo 4. Cenni di stabilità

Dimostrazione L’essere F ◦ φ non crescente ed x0 in Ωl implicano, come visto prima, che F (φ(t, 0, x0 )) ≤
l0 := F (x0 ) < l per ogni t > 0 in cui φ è definita. Quindi, finché è definita, la φ(t, 0, x0 ) appartiene ad Ωl ; ed
anzi, esistendo certamente un compatto che contiene Ωl , essa è definita per ogni t > 0 ed ammette ω (x0 ) non
vuoto e contenuto in Ωl . Ne segue che F : t &→ F (φ(t, 0, x0 )) è monotona su [0, ∞), varia in [0, l0 ] ⊂ [0, l),
ed ha pertanto limite limt→∞ F (φ(t, 0, x0 )) =: ! c ∈ [0, l0 ]. Se ne conclude che preso comunque x ! ∈ ω (x0 )
esistono per definizione t comunque grandi nei quali |φ(t, 0, x0 ) − x !| < ε e quindi, per continuità, F (! x) = !c.
Inoltre il fatto che l’insieme ω -limite di una traiettoria di un sistema autonomo contenga intere le traiettorie
γ := {φ(t, t1 , x1 )}t∈JM uscenti dai suoi punti x1 ∈ ω (x0 ) implica che F (φ(t, t1 , x1 )) = !c per ogni t, e quindi
che Ḟ (x1 ) = 0 per ogni x1 ∈ ω (x0 ). L’invarianza di quest’ultimo assicura che ω (x0 ) ⊆ IN ⊆ N . "

(
F (x) → ∞ per |x| → ∞,
N.B. 4.2.20 Sia F (x) > 0 se x ̸= 0 , e siano Allora N è l’insieme di
Ḟ (x) ≤ 0 su tutto Rn .
tutti i punti di Rn tali che Ḟ (x) = 0 . In particolare si supponga che la Ḟ (x) si annulli solo su una linea
γ , e che su di essa l’unico insieme invariante sia proprio il punto di equilibrio xe del sistema (come accade se il
campo è ovunque trasverso a γ \{xe } ). Allora il punto xe è globalmente ed asintoticamente stabile. ♦

Esempio 4.2.21 ẍ + k ẋm + xℓ = 0 con x0 , ẋ0 ∈ R, ℓ, m positivi dispari, k > 0 .


Con la F (x, ẋ) := 12 ẋ2 + ℓ+1
1
xℓ+1 si ha una Liapunov non stretta in R2 , infatti Ḟ = −k ẋm+1 . Ciononostante,
per il N.B. qui sopra, l’origine è globalmente ed asintoticamente stabile. #

Esempio 4.2.22 ẍ + k ẋm + sin x = 0 con x0 , ẋ0 ∈ R, m positivo dispari, k > 0 .


Con la F (x, ẋ) := 12 ẋ2 − cos x + 1 si ha una Liapunov non stretta in (−π, π) × R, infatti Ḟ = −k ẋm+1 . Come
sopra, l’origine è ivi asintoticamente stabile. #

I seguenti esempi mostrano alcune idee sul come procurarsi una funzione di Liapunov per un dato sistema.
(
ẋ = −x − 2y 2
Esempio 4.2.23 con x0 , y0 ∈ R.
ẏ = xy − y 3 ,
) *
−1 0
L’equazione linearizzata ha matrice ∂v(0) = , pertanto l’origine non è punto iperbolico. Si consideri
0 0
allora, con a ∈ R, la famiglia di funzioni F (x, y) := x2 + ay 2 . Si ha 12 Ḟ (x, y) = −x2 − 2xy 2 + axy 2 − ay 4 =
−(x2 + 2y 4 ) se a = 2 . In virtù del Teorema 1 si ha che lo zero è globalmente ed asintoticamente stabile. #

(
ẋ = sin y
Esempio 4.2.24 con x0 , y0 ∈ R.
ẏ = −2x − 3y,
) *
0 1
L’equazione linearizzata ha matrice ∂v(0) = , pertanto T r < 0 , Det > 0 e l’origine è punto
−2 −3
iperbolico asintoticamente stabile. Per confermarlo con il metodo diretto si provi con la famiglia di funzioni
F (x, y) := ax2 + bxy + cy 2 . Si ha Ḟ (x, y) = 2ax sin y + by sin y − 2bx2 − (4c + 3b)xy − 6cy 2 , e quindi la matrice
dell’Hessiano nell’origine è ) *
−4b 2a − (4c + 3b)
H(0, 0) = .
2a − (4c + 3b) 2b − 12c
F è definita positiva se a > 0 e b2 − 4ac < 0;
(
2a = (4c + 3b)
Ḟ è definita negativa se b > 0 e, ad esempio,
2b − 12c < 0.

Ne segue la condizione sufficiente ( 12 b)2 < ac = 2c2 + 32 bc, e cioè, ad esempio, 12 b = c ed a = 5c, la quale assicura
le ipotesi del Teorema 1 e permette di riconoscere che lo zero è globalmente ed asintoticamente stabile. #

Esempio 4.2.25 L’Equazione di Eulero non forzata:



⎨ aω̇ξ − (b − c)ωη ωζ = 0

bω̇η − (c − a)ωζ ωξ = 0 (2.9)


cω̇ζ − (a − b)ωξ ωη = 0 .

M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 217
7 8
L’incognita è il vettore ω : t &→ ω(t) del quale le (ωξ , ωη , ωζ ) := ω i i=1,2,3 ≡ (ωi )i=1,2,3 ∈ R3 sono le
componenti rispetto ad una base ortonormale solidale al corpo rigido e, per esso, principale d’inerzia; a, b, c > 0
sono i corrispondenti momenti d’inerzia.
Il sistema, e non il corpo, ha equilibri in ωi = ωi+1 = 0 ed ωi+2 ̸= 0 per i = 1 oppure 2 oppure 3 . Sia, ad
esempio, ωξ (t) = ωξ (0) =: ωξ |0 ̸= 0 , e si ponga ωe := (ωξ |0 , 0, 0).
La linearizzata in ωe ha campo:
⎛ ⎞⎛ ⎞
0 0 0 ω ξ − ω ξ |0
∂v(ωe )(ω − ωe ) = ⎝0 0 c−a
b ω ξ |0
⎠ ⎝ ωη ⎠
a−b
c ω ξ |0
0 0 ωζ
T0 1
(c−a)(a−b)
dalla quale si ricavano λ1 = 0 , λ2,3 = ± bc ωξ |0 2 . Pertanto se c < a < b , oppure b < a < c, per il
Teorema 4 del precedente paragrafo si ha instabilità. Negli altri casi la linearizzata ha tutte ℜe λ = 0 , e quindi il
1 o teorema di Liapunov non è di aiuto.
Si rinomini la variabile ωξ ponendo ωξ =: ωξ |0 + δωξ . Il sistema (2.9) si può riscrivere nella forma ẋ =
T x + h(t, x), che ha l’origine come punto di equilibrio:

⎪ b−c

⎪ δ̇ωξ = ωη ωζ

⎪ a

c−a
ω̇η = ωζ (δωξ + ωξ |0 )

⎪ b


⎩ ω̇ζ = a − b ωη (δω + ωξ |0 ).

ξ
c
Il fatto che la funzione h sia non lineare impedisce anche di servirsi delle varie proposizioni viste nel precedente
paragrafo e riservate ai sistemi lineari. Si può invece ricorrere al metodo diretto.
È noto che sussistono i seguenti integrali primi (come d’altronde si riconosce immediatamente con un pò di
algebra sulle equazioni di partenza):
(
2T = a (δωξ + ωξ |0 )2 + bωη2 + cωζ2 = 2T0
2 2 2 2
K = a (δωξ + ωξ |0 ) + b ωη2 +c 2
ωζ2 = K02 ,

queste funzioni però non hanno segno definito nell’intorno dell’origine, infatti non valgono zero in zero, né baste-
rebbe toglierci il loro valore in zero perché rimarrebbe comunque un termine dispari, (vedi Esempio 2.7). Un
certo guadagno lo si ottiene considerando la funzione F 1 := (K2 − 2aT ) = b(b − a)ωη2 + c(c − a)ωζ2 che è, almeno,
semidefinita positiva in N (0) qualora a < b < c oppure a < c < b (negli altri due casi, simmetrici di questi, lo è
−F 1 ). Si supponga, ad esempio, a < b < c. Tuttavia, per poter ricorrere al teorema è necessario che la funzione
F 1 abbia segno definito. [Se si vuole concludere il ragionamento senza fare ricorso al teorema, a questo punto si può notare che
la particolare forma dell’integrale primo (K2 − 2aT ) = cost permette di concludere che |ωη |, |ωζ | rimangano piccole se tali sono in
t = 0 , e quindi T = T0 implica che anche |δωξ | rimane piccola].
Per poter trovare una funzione di segno definito sarà conveniente cercare un’altra funzione degli integrali primi,
e che (quindi potrà essere una Liapunov e) sia anche lei semidefinita positiva, ma che risulti strettamente positiva
lı̀ dove la precedente era nulla. Occorre cioè che sia (nulla nell’origine e) positiva nei punti (δωξ , 0, 0). Ha questa
caratteristica la funzione F 2 := (2T − 2T U)2 , con 2T U := a(ωξ |0 )2 . Se ne conclude che la funzione F :=
K2 − 2aT + (2T − 2T U)2 è Liapunov, e per mezzo di essa il teorema assegna stabilità:

0 12
F = b(b − a)ωη2 + c(c − a)ωζ2 + a(δω2 ξ + 2δωξ ωξ |0 ) + bωη2 + cωζ2

è infatti definita positiva in N (0, 0, 0). #

Esempio 4.2.26 ẍ + f (x, ẋ)ẋ + g(x) = 0, x0 , ẋ0 ∈ R. .


x
Se si adotta la funzione “energia”: E = E (x, ẋ) = 12 mẋ2 + g(ξ)dξ , si calcola Ė = Ė (x, ẋ) = −ẋ2 f (x, ẋ) che
può dimostrarsi utile se, come nel caso in cui le f rappresentino forze sostanzialmente dissipative, si abbia f ≥ 0 .
D’altra parte, a meno che non sia applicabile il Teorema 2 sull’insieme ω -limite, questo metodo non dà
informazioni sulla asintotica stabilità, visto che la presenza del fattore ẋ rende la Ė non definita in segno; (vedi
però il ricorso alla trasformazione di Lienard, più oltre). #

Note di Sistemi Dinamici


218 Capitolo 4. Cenni di stabilità

Esempio 4.2.27 (si veda: [La Salle Lefschetz])


ẍ + aẋ + 2bx + 3x2 = 0 , x0 , ẋ0 ∈ R, a, b > 0 .
L’equazione è equivalente a
) * ) * ) *
ẋ y x0
= =: v(x, y) con ∈ R2 .
ẏ −2bx − ay − 3x2 y0
) * ) * ) * ) *
x1 0 x2 −2b/3
I punti di equilibrio sono due: = , ed = . Si ha
y1 0 y2 0
) * M Z
0 1 T r < 0,
∂v(x1 , y1 ) = ; per cui (x1 , y1 ) è asint. stabile,
−2b −a Det > 0
) * M Z
0 1 T r < 0,
∂v(x2 , y2 ) = ; per cui (x2 , y2 ) è instabile.
+2b −a Det < 0
In questo caso, pur essendo poco utile per studiare la stabilità degli equilibri, il metodo diretto può essere usato
per valutare, anche se solo per inclusione, la regione di stabilità dell’origine. A questo scopo si consideri ad esempio
- x
1 2 1
F : (x, y) &→ F (x, y) := y − ẏ(ξ, 0)dξ = y 2 + bx2 + x3 .
2 2
'
Si calcola' Ḟ = −ay 2 ≤ 0 e si ha, con la notazione usata nel Teorema 2, N :=9 {(x, y) ∈ Ω'l ' Ḟ = 0} ≡ :
{(x, y) ∈ Ωl ' y = 0} , ove il sottoinsieme connesso, e contenente l’origine, di Ωl := (x, y) ∈ R2 ' F (x, y) < l
è limitato purché sia l ≤ F (x2 , y2 ). Quindi risulta IN = {(x1 , y1 )} in quanto il campo, fuori dagli equilibri, è
trasversale l’asse delle x e non nullo.
Per determinare una zona che sia sicuramente inclusa nel bacino di attrazione dell’origine si può far crescere
il parametro l degli insiemi Ωl e cercarne il massimo valore & l per il quale il corrispondente insieme Ωl̃ arrivi
possibilmente a toccare, ma non contenga, il punto instabile (x2 , y2 ). Stante il fatto che la F = F (x, y) verifica
le ipotesi del Teorema 2 per un qualsiasi x > −b , e che x2 = − 32 b > −b , un buon candidato per il numero ! l è allora
!
l = F (x2 , y2 ). Se 'ne conclude che il bacino di attrazione del punto (x1 , y1 ) è ampio abbastanza da contenere,
dell’insieme {(x, y) ' F (x, y) < F (x2 , y2 )} , almeno la componente connessa che contiene il punto (x1 , y1 ). #

Il metodo diretto di Liapunov può essere usato anche per verificare l’instabilità della soluzione nulla di ẋ = v(x)
come già si è visto nell’Esempio 2.
Teorema 4.2.1 (di Chetaiev) Sia v : Rn → R un campo liscio su un aperto D ⊂ Rn contenente l’origine, e tale
che v(0) = 0 . Se esistono un intorno dell’origine N (0) ⊂ Rn , un aperto U ⊂ Rn sulla cui frontiera ∂U ⊂ Rn
è l’origine, ed una funzione F : x ∈ Rn &→ F (x) ∈ R tali che:
(i) F (x) = 0 su N (0) ∩ ∂U ;
(ii) F , Ḟ ∈ C 0 (N (0) ∩ [U ]) e definite dello stesso segno su N (0) ∩ U ;
allora l’origine è instabile, e cioè per qualche x0 ∈ U la φ : t &→ φ(t, t0 , x0 ) esce da qualunque [Bε (0)] ⊂
N (0) in un tempo finito.

Dimostrazione Si suppongano F e Ḟ entrambe positive su N (0)∩U , e sia Br (0) ⊂ N (0) e tale che [Br (0)] ⊆
N (0). Fissato δ ∈ (0, r), esiste x0 ∈ Bδ (0) ∩ U tale che F (x0 ) > 0 . Inoltre, siccome anche Ḟ è ivi non
negativa, fintanto che φ(t, ' t0 , x0 ) rimane in Br (0) ∩ U si ha che F (φ(t, t0 , x0 )) ≥ F (x0 ) > 0 , e quindi è anche
φ(t, t0 , x0 ) ∈ {x ∈ N (0) ' F (x) ≥ F (x0 )} .
N ; '
La funzione Ḟ è continua, e pertanto assumerà un minimo ℓ > 0 sull’insieme compatto Br (0) ∩ U ∩ x '
<O
F (x) ≥ F (x0 ) e questo, per la continuità di F , è separato da quella parte della ∂U che è in N (0) e sulla
quale F = 0 . Ciò implica che F (φ(t, t0 , x0 )) ≥ F (x0 ) + ℓ(t − t0 ) fintanto che φ(t, t0 , x0 ) ∈ [Br (0) ∩ U ].
Si fissi ora un qualunque ε ∈ (δ, r); o accade che φ(t, t0 , x0 ) ∈ Bε (0) ∩ U per ogni t ≥ t0 , oppure deve esistere
t′ > t0 tale che φ(t′ , t0 , x0 ) ∈ ∂(Bε (0) ∩ U ). Ma la prima eventualità è esclusa dalla continuità di F su Br (0) ∩ [U ]
che implica la sua limitatezza sul sottoinsieme [Bε (0) ∩ U ]. Pertanto esiste t′ < ∞ tale che in t0 + t′ la soluzione
φ(t, t0 , x0 ) raggiunge (ed attraversa) ∂(Bε (0) ∩ U ) ⊂ (∂Bε (0) ∩ [U ]) ∪ ([Bε (0)] ∩ ∂U ). Siccome la φ(t, t0 , x0 )
non può attraversare [Bε (0)] ∩ ∂U poiché ivi è F (x) = 0 , essa dovrà necessariamente passare attraverso la parte
della ∂Bε (0) che è in U . "

M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 219

Br(0) 0
F< =0
N (0) F 0
B²(0) F>
B±(0)
F = F (x )
0
0 x0
U

Questo teorema viene usato, come già in parte visto nel Teor. 1.3, per invertire il teorema di Dirichlet (almeno
parzialmente).
Nel caso di sistemi Hamiltoniani a vincoli indipendenti dal tempo e forze strettamente conservative si ha in
particolare

Teorema 4.2.2 Sia dato un sistema meccanico strettamente conservativo, (e tensore della metrica: κ hk ≡ δhk ):
(
q̇ = +∂H /∂p ,
q0 , p0 ∈ Rn (localmente), con
ṗ = −∂H /∂q ,
1 T −1
H := T2 + Π, T2 : (q, p) &→ p a (q)p, Π : q &→ Π(q), Π ∈ C 1 (N (0)).
2
Sia Π : q &→ Π(q) = Πk (q) + Πk+1 (q) + · · · con Πk : q &→ Πk (q) omogenea di grado k ≥ 2 , e
Πk+1 (q) + · · · = o(|q|k ); pertanto, Π(0) = 0 .
Se q = 0 è di stazionarietà per Π(q), e quindi l’origine (q, p) ≡ (0, 0) lo è per la funzione H (q, p), ma
Π(0) non è un minimo;
o, equivalentemente: se q = 0 è di stazionarietà per Π(q) e tale che per N (0, 0) sufficientemente piccolo è non
vuoto l’aperto H − definito da ; ' <
'
H − := (q, p) ∈ N (0, 0) ' H (q, p) < 0 ,
K
9N.B. e quindi, siccome
' T2:è definita positiva Lin N (0, 0) e si annulla per p = 0 , è non vuoto l’aperto P − :=
'
(q, p) ∈ N (0, 0) Π(q) < 0 , ed è H − ⊆ P − ;
e se l’insieme H − è, in particolare, contenuto nell’insieme Pk− definito da
; ' <
'
Pk− := (q, p) ∈ N (0, 0) ' Πk (q) < 0 ,

allora: l’origine (0, 0) è instabile.

N.B. 4.2.28 In breve: si ha instabilità se l’origine è estremale non di minimo per l’energia potenziale e se i
punti in N (0, 0) sui quali la H è negativa sono quelli stessi sui quali è negativa (strettamente) la parte principale
dell’energia potenziale. ♦

N.B. 4.2.29 L’insieme Pk− è non vuoto se esiste un intorno di q = 0 sul quale Πk è definita negativa, semidefinita
negativa, oppure indefinita; ed è invece vuoto se Πk è definita positiva o semidefinita positiva. Alla condizione
Pk− ̸= ∅ va poi aggiunta quella sulla inclusione di H − . Per N (0, 0) convenientemente piccolo l’insieme H − è
certamente contenuto in Pk− se Πk è definita negativa, e può esservi contenuto se Πk è semidefinita negativa o
indefinita. Quindi, in particolare: (2o teor. di Liapunov) ...Se Π ha un massimo isolato e questo lo si riconosce
tramite la Πk , allora l’origine è instabile. ♦

N.B. 4.2.30 Per Π = Π2 + . . . la condizione Π2 < 0 su (tutto) N (0, 0) ∩ H − ̸= ∅ è più forte di quella che richiede
che la forma 12 ⟨ q, π q ⟩ abbia seppure una sola direzione sulla quale essa è negativa. Nel caso (conservativo)
iperbolico questo è un metodo alternativo al Teorema 1.4 per provare che se ci sono autovalori di π con parti reali
negative allora l’instabilità è assicurata. ♦

Note di Sistemi Dinamici


220 Capitolo 4. Cenni di stabilità

Dimostrazione La funzione F : (q, p) &→ F (q, p) := −q T p H (q, p) verifica le ipotesi del teorema di Chetaiev.
Infatti:
(i) se (q, p) è in H − , allora anche (q, −p) è in H − ; e quindi dall’essere
' non vuoto l’insieme N (0, 0) ∩ H − segue
che è anche non vuoto l’aperto U := {(q, p) ∈ N (0, 0) ∩ H − ' pT q > 0} , e su di esso F (q, p) > 0 ;
(ii) la continuità di H su N (0, 0) implica F (q, p) = 0 su quella parte della frontiera di U che è in N (0, 0);
su di essa o è H (q, p) = 0 oppure q T p = 0 ; a tale insieme appartiene anche il punto (0, 0);
(iii) per i punti di U è valida la stima
0 1 ) *
∂H ∂H
Ḟ (q, p) = − q T ṗ + q̇ T p H (q, p) = − −q T + pT H (q, p)
∂q ∂p
) *
∂T2 ∂Π
= + qT + qT − 2T2 H (q, p)
∂q ∂q
0 7 8 1
= O |q| · |p|2 + kΠk (q) + O(|q|k+1 ) − 2T2 H (q, p) .

Pertanto, per N (0, 0) sufficientemente piccolo, su U si ha Ḟ (q, p) > 0 .

¦ p

0
H= U
q q
-
H
H=
0

[Più debolmente: l’origine è instabile se l’intersezione U − := H − ∩ Pk− è non vuota e localmente positivamente invariante [:= e
cioè ∀x ∈ U − si ha che φ(t, 0, x) ∈ U − almeno finché φ(t, 0, x) appartiene a N (0, 0) ]. In tal caso infatti, la parte della frontiera di
U − che è in N (0, 0) non viene raggiunta per costruzione, e su U − ̸= ∅ le F ed Ḟ sono positive]. "

Esempio 4.2.31 Con la notazione del Teorema 4, ove q = (x, y, z) ∈ R3 , siano Π : (x, y, z) &→ 12 c(x4 + y 4 ) − hz 4 ,
e T2 : (x, y, z) &→ 12 (ẋ2 + ẏ 2 + ż 2 ), con c, h > 0 .
Lo studio della linearizzata non è sufficiente a trarre conclusioni giacché ∂v(0, 0) ha solo autovalori nulli; questo
teorema garantisce l’instabilità. #

Esempio 4.2.32 Con la notazione del Teorema 4, ove q = (x, y, z) ∈ R3 , siano Π : (x, y, z) &→ 12 c(x2 + y 2 ) − hz 4 ,
e T2 : (x, y, z) &→ 12 (ẋ2 + ẏ 2 + ż 2 ), con c, h > 0 .
Lo studio della linearizzata non è sufficiente a trarre conclusioni giacché ∂v(0, 0) ha un autovalore nullo e non ha
autovalori positivi; tuttavia neanche questo teorema garantisce l’instabilità. Infatti la Π2 (x, y, z) = 12c(x2 + y 2 )
è semidefinita positiva, e quindi non è strettamente negativa sull’insieme (non vuoto)
M ' Z
− ' 4 1 2 2 2 1 2 2
H := (x, y, z, ẋ, ẏ, ż) ∈ N (0, . . . , 0) ' hz > (ẋ + ẏ + ż ) + c (x + y ) .
2 2
Né si potrebbe usare il teorema nel caso c < 0 a meno di riconoscere che esso disaccoppia le coordinate e quindi
che esistono intorni dell’origine localmente invarianti sui quali Πk < 0 .
In casi come questo la stabilità o la instabilità vanno provate, secondo la definizione, per verifica diretta, come
fatto nell’Esempio 1.13, oppure mediante l’uso di una qualche altra funzione di Liapunov (ammesso che esista). #

N.B. 4.2.33 Si consideri un sistema lagrangiano a potenziale autonomo, e cioè soggetto a forze indipendenti dal
tempo, conservative o anche giroscopiche:
⎧ n ) *

⎪ ∂Π(q) = ∂πh ∂πk k ∂Π(q) ''

⎪ Q h (q, q̇) = − + − q̇ ; ' =0;
⎨ ∂q h ∂q k ∂q h ∂q q=0
k=1
⎪ n
=



⎩ V (q, q̇) = πk (q)q̇ k + Π(q); π(q) = (π1 (q), . . . , πn (q)) .
k=1

M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 221

Se si tenta di seguire un procedimento analogo a quello seguito nel teorema e si definisce


; ' <
'
F (q, p) := ⟨ p + π(q), q ⟩H ed U := (q, p) ∈ N (0, 0) ∩ H − ' ⟨ p + π(q), q ⟩ > 0

si trova che Ḟ non risulta strettamente minore di zero su U ; infatti, in questo caso, il risultato non sussiste!
È noto il seguente controesempio (vedi: [Levi Civita 2o .1 p.471]). Un elemento vincolato ad un piano liscio è
soggetto a una forza effettiva totale della forma (k − mω 2 )x, con x = (x, y, z) ∈ R3 , k, ω ∈ R, costanti
positive. Si vede facilmente che l’origine è attrattiva se k < mω 2 . Detto ⃗e3 un versore ortogonale al piano, in
un riferimento uniformemente rotante con velocità angolare ω := (0, 0, ω) parallela all’asse (o, ⃗e3 ), l’equazione di
moto è: mξ̈ = (k − mω 2 )ξ + mω 2 ξ − 2mω × ξ̇ ). Ma* la)trasformazione dalle
* ) coordinate
* assolute a quelle relative
ξ cos ωt sin ωt x
è una trasformazione ortogonale: ζ = z ed = , e pertanto se l’origine è stabile
η − sin ωt cos ωt y
per le une lo è anche per le altre. Ciò implica che la presenza della forza giroscopica −2mω × ξ̇ nell’equazione
mξ̈ = kξ − 2mω × ξ̇ ne stabilizza la soluzione ξ(t) = η(t) = ζ(t) = 0 che, per ω = 0 , sarebbe instabile. Si noti
inoltre che la centrifuga: mω × (ω × ξ) non è una forza centrale in R3 , e quindi ogni ricorso al Teorema 4 è vano.

Esempio 4.2.34 Nel caso di sistemi lineari autonomi ẋ = T x, con x0 ∈ V ≡ Rn si è costruita precedentemente
(vedi §1, Punti 1,. . .,4) la funzione F ≡ r2 espressa da ⟨ x, x ⟩ B ≡ F (x) = xT P −T P −1 x, ove B := {ϵh =
P eh }h=1,...,n è la base ε -quasi propria di T . Tale funzione è una funzione di Liapunov stretta in CνN (0) quando
1 2 i 2
tutte le parti reali
0 degli autovalori
1 di T sono strettamente negative; infatti si è visto che 2 ṙ = i=1 λ(i) (ξ ) +
Cν+τ
i=ν+1 ℜe µ(i) (ξ&i )2 + (& η i )2 + O(ε) e quindi, nel caso detto, essa può essere resa strettamente negativa. #

Un’analoga funzione di Liapunov, alternativa alla ⟨ x, x ⟩ B , la cui forma può dare notizie sugli insiemi
positivamente invarianti è la seguente.
Si supponga anche ora che la base data sia ortonormale rispetto al prodotto ⟨ ·, · ⟩ , e si pongano
- ∞
T
C = C T := + eT t eT t dt ed F C : x &→ F C (x) := xT Cx .
0

(i) La definizione è ben data se la matrice T ha tutti gli autovalori con ℜe λ < 0 . Infatti, in tal caso, entrambi i
sistemi lineari ẋ = T x, ed ẋ = T T x sono asintoticamente
? Tstabili,
? giacché T , T T hanno gli stessi autovalori.
Pertanto
? ? (vedi §1) esistono κ, α ∈ R positivi e tali che ?e ? < κe−αt ; ed un’analoga proprietà sussiste per
t

? T T t?
?e ?; ciò che implica l’integrabilità di C .
0 T 1 0 T 1 0 T 1
d T t Tt T T t Tt T t Tt
(ii) Sussiste la dt e e = T e e + e e T, ma il primo membro è continuo e fornisce
. ∞ d 0 T T t T t1
0 dt
e e dt = −1I , per cui è T T C + CT = −1I .

(iii) F C ≡ ⟨ x, Cx ⟩ è definita positiva perché


- ∞ - ∞
T
7 T t 8T 7 T t 8
x Cx = e x e x dt = xT (t)x(t) dt .
0 0

(iv) Ḟ C è definita negativa perché

Ḟ C = LT x (xT Cx) = xT T T Cx + xT CT x = −xT x .

Si supponga che (la metrica sia banale e che), ad esempio, T sia normale: T T T = T T T . In tal caso lei e la sua trasposta sono
diagonalizzabili in una stessa base ortonormale BA ; e pertanto, in tale base, la matrice di C diviene
⎛ . ∞ 2λ1 t ⎞
0 e dt 0
⎜ .. .. ⎟
⎜ . ⎟
⎜ . ∞ 2ℜe µ t . ⎟
⎜ ⎟
⎜ 0
e i dt 0 ⎟
⎜ ⎟
C&=⎜ . ∞ 2ℜe µ t ⎟
⎜ 0 e i dt ⎟
⎜ 0 ⎟
⎜ .. .. ⎟
⎜ . ⎟
⎜ . ⎟
⎝ ⎠
..
0 .

Note di Sistemi Dinamici


222 Capitolo 4. Cenni di stabilità

⎛ 1 ⎞
− 2λ1
0
⎜ .. .. ⎟
⎜ ⎟
⎜ . . ⎟
⎜ 1 ⎟
⎜ − 1I
2ℜe µi 2

=⎜ ⎟.
⎜ .. .. ⎟
⎜ ⎟
⎜ . . ⎟
⎝ ⎠
..
0 .
Per cui, detta P la matrice (ortogonale) del cambio di base {e} → BA , e posto ξ := P −1 x, dalla ortogonalità di P segue che
⎛ ⎞
T −1 T & 1 ⎝ = ξi2 = ξ&i2 + η&i2 ⎠
F C (x) = ⟨ x, Cx ⟩ = ξ P CP ξ = ξ Cξ = − + .
2 i
λi µ
ℜe µi

Si paragoni questa forma con la F T (x) := ⟨ x, x ⟩ BT ≡ ⟨ x, x ⟩ . La derivata di questa, ancora per l’ortogonalità di P , vale (vedi
C C
§.1 Punto 2) Ḟ T = 2 i λ(i) ξi2 + j ℜe µ(j) (ξ&j2 + η&j2 ) ≡ − 12 ⟨ x, C −1 x ⟩ B . L’osservazione fa intuire che la funzione F C benché
diversa dalla F T , le sia strettamente analoga. #

Esempio 4.2.35 La funzione F C : x &→ xT Cx del’Esempio precedente può essere usata anche nello studio della
stabilità dell’origine di sistemi autonomi quasi lineari purché l’operatore T del campo (linearizzato) abbia ancora
autovalori con parti reali negative. Sia dato ẋ = T x + h(x) con T verificante tale ipotesi ed h(x) = o(|x|).

(iv’) Stante il fatto che C = C T , dalla Nota 1 vista sopra segue che la derivata Ḟ C è definita negativa; infatti:

Ḟ C : x &→ Ḟ C (x) = LT x+h (xT Cx)


= +xT T T Cx + hT Cx + xT CT x + xT Ch
= −xT x + 2xT Ch .

La differenza con il caso lineare è che ciò avviene certamente solo entro un qualche intorno N (0) anziché in
tutto lo spazio. Di conseguenza, tale intorno N (0) gioca il ruolo di bacino di attrazione dell’origine.

Esempio 4.2.36 Sempre nel caso di punto di equilibrio iperbolico, il ragionamento si applica anche nel verso
della instabilità. Infatti sia B la base in cui la matrice di campo
) T =*∂v(0), che si suppone abbia k autovalori
T− 0
con ℜe λ+ > 0 ed n − k con ℜe λ− < 0 , assume la forma (vedi Punto 8 §1). Sia P la matrice del
0 T+
corrispondente cambio di base: B := {ϵj = P ej }j=1,...,n ; e siano x+ = P ξ+ , con ξ+ := (ξ+ 1 k
, . . . , ξ+ , 0, . . . , 0)T ,
k+1
) , i vettori che descrivono i due sottospazi W+ ed W− ,
n T
ed x− = P ξ− , con ξ− := (0, . . . , 0, ξ− , . . . , ξ−
rispettivamente invarianti relativamente ad T+ ed T− . Risulta allora, sempre con l’ipotesi di {e} -base ortonormale,
k
= n
=
i 2 i 2
⟨ x, x ⟩ B = ⟨ x+ , x+ ⟩ B + ⟨ x− , x− ⟩ B = (ξ+ ) + (ξ− ) .
i=1 i=k+1
.∞ T
Posto C∓ := 0
e±T∓ t e±T∓ t dt, per la forma

F : x &→ F (x) := − ⟨ x− , C− x− ⟩ B + ⟨ x+ , C+ x+ ⟩ B

espressa da K T −1 L'
F (x) = − ξ− P C− P ξ− + ξ+ P C+ P ξ+ 'ξ(x)
T −1

= − xT− P −T P −1 C− x− + xT+ P −T P −1 C+ x+
si ricavano le seguenti proprietà

(i) Ḟ è definita positiva; infatti

Ḟ (x) = −⟨ A− x− , C− x− ⟩B − ⟨ x− , C− A− x− ⟩B
+ ⟨ A+ x+ , C+ x+ ⟩B + ⟨ x+ , C+ A+ x+ ⟩B
(
⟨ x, x ⟩B se ẋ = T x
=
⟨ x, x ⟩B + o(|x|2 ) se ẋ = T x + h(x) con h = o(|x|);

M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 223

(ii) F (x) > 0 su un aperto U tale che ∂U ∋ {0} ;

(iii) F (x) = 0 su N (0) ∩ ∂U .


T & T &
In effetti, entrambe le forme ⟨ x− , C− x− ⟩ B ≡ ξ− C− ξ− , ed ⟨ x+ , C+ x+ ⟩ B ≡ ξ+ C+ ξ+ sono semidefinite positive
in zero e quindi F (ξ) potrà assumere entrambi i segni, data l’indipendenza dei vettori x− dai vettori x+ . #

Quest’ultimo risultato è un caso particolare (autonomia) dei più forti teoremi di stabilità ed instabilità lineare
già visti, però a differenza di quelli dà informazione sui bacini di attrazione del punto fisso, in quanto fornisce una
funzione di Liapunov.
N.B. 4.2.37 Al punto (i) si è usato il fatto che l’uguaglianza

d 0 −T+T t −T+ t 1 0 T
1 0 T
1
e e = −T+T e−T+ t e−T+ t − e−T+ t e−T+ t T+
dt
implica che C+ è soluzione di −1I = −T+T C+ − C+ T+ , anzi quest’ultima ha soluzione definita positiva se e solo
se T è tale che ℜe λ > 0 . ♦

* 0 , con x0 , ẋ0 ∈ R ed e ∈ (−2, 0).


2
Esempio 4.2.38 ) * − 1)ẋ + )
Van Der Pol: ẍ + e(x x= L’equazione ha
B
e 2 ξ x
autovalori λ1,2 = 2 ± e4 − 1 . Siano := P −1 con P tale che
η y
) * ) * T
−1 0 1 e/2 −β e2
P = P −1 , β := 1− > 0. (2.10)
−1 e β e/2 4

Giacché le componenti (r, s) dell’autovettore di e/2 + iβ verificano l’espressione s = (e/2 + iβ)r , si ricava la
) * ) * ) *
. 1 0 1 0
xµ .. yµ = P = ; e quindi P −1 = .
e/2 −β e/(2β) −1/β

Come è noto, la matrice eT t è data dalla


) *
cos βt − sin βt
eT t = eet/2 P P −1 ,
sin βt cos βt

per cui è possibile calcolare esplicitamente la matrice C . Il semplice, (anche se non immediato) risultato è:
- ∞ ) *
T −1 e2 + 2 −e
C= eT t eT t dt =
0 2e −e 2

e conferma il più veloce calcolo che cerca le soluzioni della T T C + T C = −1I . Si ottiene in definitiva la funzione
di Liapunov (stretta): )) 2 * *
−1 e
F C : (x, y) &→ F C (x, y) = + 1 x2 + y 2 − exy .
e 2
) *
1 β − e2
Alternativamente si possono calcolare le altre Liapunov, notando ad esempio che anche la P1−1 =
1 −(β + 2e
verifica la (2.10). Con essa si ottiene:

1 2 ' 1
'
(ξ + η 2 ) '
F 1 (x, y) = = xT P1−T P1−1 x =
e ξ=P1−1 x e
) *T ) *) *) *
1 x 1 1 1 β − e/2 x
=
e y β − e/2 −(β + e/2) 1 −(β + e/2) y
2
= (x2 + y 2 − exy).
e
) *
x
O anche, vedi Esempio 2.6 e posto x := , la lunghezza ⟨ x, x ⟩ B che fornisce la F (x, y) = β12 (x2 +y 2 −exy).
y
È facile verificare
7 che tali funzioni di Liapunov
8 sono “strette”. Ad esempio, si ha: Ḟ C (x) = −xT x < 0 ed
Ḟ (x) = e x2 + y 2 − exy − 2x2 y 2 + ex3 y = eF (x) + o(|x|2 ) > 0 . #

Note di Sistemi Dinamici


224 Capitolo 4. Cenni di stabilità

Esempio
) *4.2.39 L’equazione di Lienard: ẍ + f (x)ẋ + g(x) = 0 , con x0 , ẋ0 ∈ R, e g ∈ C 1 (N (0)). Posto
x
x := , l’equazione equivale alla
y
) * ) *
ẋ η
ẋ ≡ = =: v(x), x 0 ∈ R2 .
η̇ −g(x) − f (x)η

Si supponga che: g(x) ≷ 0 se x ≷ 0 , ed f (x) > 0 in N (0); e cioè, qualitativamente, che g(x) agisca “come una
forza elastica”, e che f (x)ẋ sia dissipativa. Tale sistema ha l’origine xe = (0, 0) come punto di equilibrio, e le
sue caratteristiche qualitative
.x lasciano supporre che l’origine sia un punto di asintotica stabilità. Tuttavia per esso
la funzione E = 12 η 2 + g(τ )dτ non è una funzione di Liapunov stretta. In effetti Ė = −f (x)η 2 non è definita
positiva in N (0, 0).
In questo esempio, l’asintotica stabilità dell’origine viene riconosciuta, più agevolmente, ricorrendo ad un altro
sistema di equazioni, equivalente al primo e ottenuto da esso mediante una diversa definizione della seconda variabile;
esso è ⎧ - x
⎨ ẋ = y − f (τ )dτ

ẏ = −g(x) .
.x
Per questo secondo sistema la funzione E : (x, y) &→ E (x, y) = 12 y 2 + g(τ )dτ non
. x solo è definita positiva in
N (0, 0), ma ha anche derivata definita negativa; infatti f (y) > 0 in N (0) implica che f (τ )dτ ≷ 0 ⇐ x ≷ 0 .
#

Esempio 4.2.40 Volterra - Lotka: prede := x ∈ R+ , predatori := y ∈ R+ ;


) * ) *
ẋ ax − bxy
= , a, b, c, d, x0 , y0 ∈ R+ .
ẏ cxy − dy

Il punto di equilibrio x0 := (0, 0) è una sella avente l’asse delle x come varietà instabile, e quello delle y come
varietà stabile. L’altro punto di equilibrio è xe := (d/c, a/b)T nel quale la linearizzata
) *
ha ℜe λ = 0 (vedi: [§II.1])
) * ) *
ξ cx ξ̇
Tutto ciò si può vedere anche più facilmente ricorrendo alla trasformazione di variabili: := , che fornisce =
η by η̇
) *
ξ(a − η)
.
η(ξ − d)
Per utilizzare il metodo diretto si cerca una funzione di Liapunov della speciale forma F : (x, y) &→ F (x, y) =
f (x) + g(y). Risulta
Ḟ (x, y) = f ′ (x)(ax − bxy) + g ′ (y)(cxy − dy) ,
e si nota che è possibile risolvere l’equazione che impone alla F (x, y) di essere un integrale primo: infatti l’equazione
Ḟ (x, y) = 0 è a variabili separabili e dà

xf ′ (x) yg ′ (y)
= = cost. = (ad esempio) = 1.
cx − d by − a

Tale scelta impone f ′ (d/c) = g ′ (a/b) = 0 e quindi c’è la possibilità che F abbia segno definito in N (xe ). Si
ricavano f (x) = cx−d ln x, g(y) = by−a ln y ; e si nota che la funzione F (x, y) = f (x)+g(y) è un'integrale primo
solo localmente in un intorno N (xe ) contenuto, o al più uguale, al 1 o quadrante (aperto): {(x, y) ' x > 0, y > 0} ,
cosa che, d’altra parte, è del tutto inessenziale dato il significato fisico delle variabili.
Qualora su N (xe ) la funzione F = F (x, y) risultasse anche definita in segno, si avrebbe la stabilità (sempli-
ce)
) dell’equilibrio
* xe . È questo il caso, come si prova facilmente mediante lo studio dell’Hessiano: ∂v(x, y) =
d/x2 0
, che è definito positivo in N (xe ).
0 a/y 2
Diversamente dal caso lineare, questo procedimento ha in più potuto fornire la forma delle traiettorie di fase:
esse devono appartenere alle linee di livello della funzione F (x, y) cosı̀ trovata.
Per esaminare l’andamento delle traiettorie, e verificare che le linee di livello della funzione cosı̀ trovata sono tutte curve chiuse,
corrispondenti a moti periodici non asintotici, aventi il punto di equilibrio come centro, si può (vedi [Hirsh]) procedere come segue.
Siano M ' Z ; ' <
' d a '
x0 ∈ Q1 := (x, y) ' x > , y > , τ := sup t ' φ(t, t0 , x0 ) ∈ Q1 .
c b
(
ẋ0 = x0 (a − by0 ) < 0
Per t = t0 è e tali rimangono anche ẋ, ẏ per t < τ.
ẏ0 = y0 (cx0 − d) > 0

M. Lo Schiavo
4.2. Il metodo diretto di Liapunov 225

Pertanto la y cresce e la x decresce in Q1 , e ciò implica le




⎪ d
⎨ ln x(t) = a − by < a − by0 =: −r
dt

⎪ d
⎩ ln y(t) = cx − d < cx0 − d =: +s .
dt
Queste, per t < τ , forniscono le stime
d a
≤ x(t) ≤ e−r(t−t0 ) x0 insieme con ≤ y(t) ≤ e+s(t−t0 ) y0 .
c b
Dalla prima si nota che il valore τ è finito perché prima o poi e−r(t−t0 ) diviene minore di d/c ; di conseguenza esiste K compatto
tale che + , N O
7 8 d a
se t ∈ [t0 , τ ] allora x(t), y(t) ∈ K := , x0 × , y0 e+s(τ −t0 ) .
c b
In modo analogo si trattano gli altri tre quadranti:
M Z M Z M Z
d a d a d a
Q2 := x < , y > , Q3 := x < , y < , Q4 := x > , y < :
c b c b c b
ciascuna orbita gira intorno al punto xe ≡ (d/c, a/b)T senza andare all’infinito.
Esiste allora una successione infinita di istanti nei quali essa interseca (ad esempio) il segmento {y = a/b, x ∈ [0, d/c]} , e siccome
tale successione va all’infinito perché il moto rimane al finito, ed ha i corrispondenti y ordinati perché il sistema è autonomo, se ne
deduce l’esistenza di un loro punto di accumulazione sul segmento stesso. Tale punto, non potendo appartenere ad un ciclo limite né
essere il punto di equilibrio, data la conservatività del sistema, dovrà necessariamente essere sempre lo stesso per tutti gli istanti della
successione, e cioè ciascuna orbita è chiusa. In questo semplice modello ogni condizione iniziale dà luogo ad un moto periodico.
Il caso però non è un caso generico.
Se si considerano anche fenomeni sociali quali la lotta per il cibo (e cioè si introduce l’ipotesi che la quantità di
cibo decresca proporzionalmente alla popolazione) si ha il nuovo, più plausibile modello:
(
ẋ = ax − bxy − λx2
λ, µ > 0; a, b, c, d > 0 x, y ∈ R+ .
ẏ = cxy − dy − µy 2
(
λx + by = a =: L
Le isocline principali sono: la cui intersezione, che esiste sempre poiché λµ + cb è positivo,
cx − µy = c =: M
) *
aµ + bd −λd + ac
è ! ≡ (!
x x, y!) := , . La coordinata x ! è certamente positiva, mentre la y! lo è quando
λµ + bc λµ + bc
ac > λd.
La linearizzata in x ! ha ora campo dato da
) *' ) *
a − by − 2λx −bx ' −λ!x −b! x
∂v(! x) = ' =
cy cx − d − 2µy 'x! c!
y −µ!y
che, quando y! > 0 , ha certo T r < 0 , Det > 0 , e quindi autovalori con parti reali negative. Pertanto x ! è una
sella- (0) e come tale è asintoticamente stabile.
C’è però, in questo caso, un altro punto di equilibrio: l’intersezione tra l’asse delle x e l’isoclina L , e cioè il
punto x1 := (a/λ, 0), (non interessa l’intersezione di x = 0 con M perché avviene in un punto con y < 0 ). In x1
la linearizzata ha campo
) *' ) *
a − by − 2λx −bx ' −a −ab/λ
∂v(x1 ) = ' =
cy cx − d − 2µy 'x 0 −d + ac/λ
1

e si distinguono due casi (iperbolici con autovalori: −a e −d + ac/λ, ed autovettori: (1, 0)T ed (r, s)T tale
che [(−d + ac/λ) + a]r + (ab/λ)s = 0 ):
Caso n o 1. ac > λd che dà Det < 0 e cioè una sella- (1).

. <0 0
y .y=. 0
L y>

x
b
0
x1 .
. x<
M x.> x=0 0
0

Note di Sistemi Dinamici


226 Capitolo 4. Cenni di stabilità

In questo caso possono anche essere presenti dei cicli limite.


Fatto n o 2. ac < λd che dà Det > 0 , T r < 0 e cioè una sella- (0).

M
L
x1
x.
. =0 x =0
b
y

In questo caso non possono presentarsi cicli limite.


Nel primo caso ogni rettangolo del tipo mostrato in figura è positivamente invariante, ma né l’origine né x1
possono essere insiemi ω -limite della generica traiettoria. Tali dovranno quindi essere x! o eventualmente qualche
ciclo limite.
D’altra parte si può vedere (vedi: [Lemma 5.1] più oltre) che un eventuale ciclo deve racchiudere una regione
contenente almeno un punto di equilibrio, e quindi esso circonderà senz’altro l’equilibrio x ! ; inoltre esso stesso
dovrà essere contenuto nel più piccolo dei possibili rettangoli positivamente invarianti: quest’ultimo rappresenta
allora un limite superiore per le popolazioni dopo tempi sufficientemente grandi, cosı̀ come x ! rappresenta lo stato
endemico del sistema. #

Nota 4.2.6 (di puro uso Meccanico Conservativo)


Nell’esempio 2 si è potuta garantire l’instabilità poiché in dimensione 1 l’inversione del teorema del Dirichlet
è sempre possibile mediante la seguente Proposiziolne. ◃

Proposizione 4.2.1 Sia x0 ∈ R e sia data l’equazione ẍ = − dΠ dx (x), con dΠ


dx (xe ) = 0 e Π(xe ) = 0 .
Se xe è un punto di stazionarietà isolato per l’energia potenziale Π(x), ma non di minimo, allora: l’equilibrio
xe è instabile.
/
Dimostrazione Le traiettorie appartengono alle linee ẋ = ± 2(E 0 − Π(x)) . Si supponga che xe sia uno zero
per la forza isolato in un intorno N (0, 0), e sia:
( (
̸=0 massimo
x0 >0 a seconda che xe sia punto di flesso discendente per Π(x) .
<0 flesso ascendente

Tale x0 esiste, e l’orbita per (x0 , 0) senz’altro non contiene (0, 0) perché su essa E = 12 ẋ2 + Π(x) = E 0 < 0. Se
allora appartenesse all’intorno N (0, 0) per ogni t > 0 , essa dovrebbe avere insieme ω -limite in [N (0, 0)].
Per il teorema di Poincaré, tale ω -limite può essere o un punto di equilibrio o un ciclo, magari limite. La prima
eventualità è esclusa dall’essere (0, 0) isolato, cosı̀ come l’esistenza dell’integrale primo impedisce l’esistenza di un
ciclo limite. Rimane da escludere la possibilità che l’orbita per (x0 , 0) sia essa stessa orbita chiusa e contenuta in
[N (0, 0)]. Se lo fosse, essa racchiuderebbe una zona (limitata) di energia E < E 0 [ciò accade su ogni ciclo del sistema
vista la forma della funzione E : si pensi al suo andamento lungo le linee x = cost ed al fatto che un qualunque ciclo deve intersecare
l’asse delle x ].
Vi sarebbe allora, in contraddizione con l’ipotesi, un altro punto di equilibrio nella regione racchiusa dal ciclo
stesso; sussiste infatti il seguente Lemma che, pur se valido solo in R2 , lo è anche per sistemi non conservativi:
Lemma 4.2.1 Se la regione U ⊂ R2 racchiusa da un ciclo γ (e cioè tale che K := U ∪ γ sia un compatto in R2 )
appartiene tutta al dominio di regolarità del campo, essa contiene (almeno) un equilibrio.

Dimostrazione U contiene o un equilibrio o un ciclo γ 1 , altrimenti γ stesso dovrebbe essere insieme α -


limite ed ω -limite di tutte le traiettorie con x0 ∈ U e ciò darebbe intersezioni non ordinate con una sua qualunque
sezione trasversa. Procedendo per induzione, si ha una successione {xn ∈ γ n } che nel compatto K ammette limite
! ∈ U l’orbita della quale è necessariamente chiusa (perché se fosse asintotica verso un ciclo limite quest’ultimo
x
sarebbe, per continuità, qualche γ n ); e d’altra parte non puo essere un ciclo perché esso allora conterrebbe una
regione U ′ ⊂ U senza né equilibri né cicli limite, contraddicendo la prima parte del lemma. Pertanto deve essere
un punto di equilibrio. "

M. Lo Schiavo
Capitolo 5

Comportamento caotico dei Sistemi

5.1 La mappa quadratica


In questo capitolo ci si occuperà non solo di sistemi per i quali la famiglia di applicazioni di avanzamento è indiciata
da un parametro reale t ∈ R, ma anche di sistemi “discreti”, per i quali cioè il parametro t varia nell’insieme degli
interi Z.
Entrambi definiti su una varietà delle fasi M, la dinamica dei primi è regolata da Equazioni Differenziali
Ordinarie: ẋ = v(x), e per essi si parla di campi vettoriali v : x ∈ M &→ v(x) ∈ Tx M e di flussi g : (t, x) ∈ M &→
g(t, x) ∈ M, la dinamica dei secondi è soluzione di equazioni discrete del tipo xn+1 = f (xn ) e si parla di mappe
(trasformazioni di punti o insiemi, in insiemi) e di (diffeo) morfismi (trasformazioni di punti in punti) dello spazio
delle fasi M in sé, indicati con F : M → M, o anche con f : R → R qualora si tratti specificamente di funzioni
scalari da R in R, (si veda anche il Memento più oltre).

g(xn)

g¶(xn)
xn+1 xn
Sistemi discreti si presentano in modo naturale non solo autonomamente nella descrizione di sistemi evolutivi i
cui incrementi temporali sono naturalmente modulari, quali ad esempio sistemi biologici, economici, sociali, etc.,
ma anche nello studio di quelli continui sia come loro “discretizzazioni” sia in procedimenti di calcolo mediante
approssimazioni successive. I seguenti casi ne sono alcuni esempi.

• Approssimazioni consecutive. Ne è un esempio il metodo di Newton, che ha lo scopo di determinare le


radici di equazioni del tipo g(x) = 0 mediante la successione data da: xn+1 = f (xn ) := xn − g(xn )/g ′ (xn ).
Questa, conseguenza dell’assunto g(xn + h) = 0 = g(xn ) + hg ′ (xn ), individua una mappa contrattiva f
purché |f ′ | < 1 e quindi purché |gg ′′ | < g ′ g ′ .

• Mappe di Poincarè, sia con periodi naturali che stroboscopici; si veda oltre.

• Approssimazioni numeriche. Ne sono un esempio i vari metodi che cercano le soluzioni di un’equazione del
tipo ẋ = v(t, x) valutandone i valori più plausibili su un ristretto insieme, discreto, di punti opportunamente
scelti nello spazio della variabile indipendente. Di essi quello forse più usato è il metodo di Runge-Kutta,
che valuta la soluzione x : t &→ x(t) ∈ Rn della

ẋ = v(t, x), x(t0 ) = x0 ∈ Rn ,

fornendone i valori, nella famiglia di istanti {ti := t0 + hi}i=1,2,... , ottenuti a partire da x0 mediante la
mappa
xi+1 = x(ti + h) := f (ti , xi ; h), ovvero xi+1 = fi (xi ),
dove ⎧

⎪ f (t, x; h) = x + h ϕ(t, x; h)



⎪ ϕ(t, x; h) := 16 [k1 + 2k2 + 2k3 + k4 ](t, x; h)



⎨ k1 (t, x; h) := v(t, x)


⎪ k2 (t, x; h) := v(t + h2 , x + h2 k1 (t, x; h))



⎪ k3 (t, x; h) := v(t + h2 , x + h2 k2 (t, x; h))



k4 (t, x; h) := v(t + h , x + hk3 (t, x; h))

227
228 Capitolo 5. Comportamento caotico dei Sistemi

xn+1

k4
k3

k2
'
xn
k1
t0+nh t0+(n+1/2)h t0+(n+1)h

Studiare la dinamica di un sistema discreto definito su una varietà M significa studiare la famiglia di operatori
di evoluzione definiti su M ed indiciati con il parametro n ∈ Z che fanno corrispondere, per ciascun fissato n per
il quale l’operazione sia lecita, al valore iniziale x0 ∈ M quello attuale xn . Nel caso autonomo, il valore attuale
è dato dalla
xn = f ◦n (x0 ) = f ◦ f ◦ f ◦ · · · ◦ f (x0 ) .
[ \] ^
n volte

In tal senso il moto Z → M, definito dalla n &→ xn ∈ M, è soluzione della xn+1 = f (xn ) . Nel seguito per
brevità si scriverà xn =: f n (x0 ), dato che le potenze algebriche di una funzione non compariranno.
Pur di apportarvi alcune (evidenti) modifiche, molte delle definizioni già date per i campi si possono rienunciare
in modo del tutto analogo per le mappe.
Anche per queste si definiscono traiettorie, orbite periodiche, punti di equilibrio, varietà stabili o instabili, bacini
di attrazione, etc. Tuttavia in tali analogie va tenuto presente il fatto che

le orbite di un sistema discreto sono insiemi numerabili di punti:


9 :
γ := xi := f ◦i(x0 ) i=0,1,2,... , f ◦i (x0 ) =: γ(i), γ : Z → M,
e non insiemi con la potenza del continuo.

Esse, pur potendo risultare dense in varietà regolari ed unidimensionali, possono anche non essere in alcun modo
ordinate su esse; ed in particolare, se anche una traiettoria γ di un sistema discreto appartiene ad una linea ℓ ∈ M
individuata da una ℓ ∈ C(R, M), è certamente distinta da essa e non la può riempire.
Inoltre è importante notare che il passaggio da un’equazione differenziale ordinaria ad un’equazione discreta
che in qualche modo le corrisponda non è affatto immediato. Per rendersene conto basta pensare al diverso
comportamento delle soluzioni, in particolare per b < 0, dei due sistemi lineari

rccclẋ =bx cheimplica x(n) = (eb )n x0


xn+1 = b xn cheimplica xn = (bn ) x0

il secondo dei quali ha un comportamento che, almeno per il prescelto passo temporale: h = 1 , è ben diverso dal
primo (si veda l’Esempio 1 qui di seguito).
Nota 5.1.1 Si osservi che le costanti b nelle due equazioni non sono grandezze “omogenee” fra loro. Inoltre si noti che l’aggiungere
al campo della seconda il termine xn proveniente dall’uso della “derivata discreta” nella prima ∂xn := xn+1 − xn non è di grande
aiuto, a meno che tale discretizzazione venga effettuata a passi temporali h > 0 convenientemente piccoli. La discretizzazione infatti
può seguire sia lo:
Schema esplicito: xn+1 = x((n + 1)h) = xn + hẋn + h2 ẍn /2 + · · · che, ad esempio nel caso dell’equazione ẋ = b x fornisce
1
∂x(nh) = (xn+1 − xn ) = b xn da cui xn = (1 + bh)n x0 ;
h
sia lo:
Schema implicito: xn = x((n + 1)h − h) = xn+1 − hẋn+1 + h2 ẍn+1 /2 − · · · , che per la stessa equazione ẋ = b x fornisce
1
∂x((n + 1)h) = (xn+1 − xn ) = bxn+1 da cui xn = (1 − bh)−n x0 .
h

C→
Queste sono le soluzioni che nel limite: n ∞ , h → 0 , nh =: t = O(1) , vanno paragonate
Cn con la x(nh) = (ebh )n x0 , e
∞ 1 1
ciò paragonando l’espressione di enbh = k k
k=0 k! (nh) b con quelle di (1 + bh)n = k
k=0 k! [nh(nh − 1) · · · (nh − k + 1)] b , o,
rispettivamente, con la sua analoga per (1 − bh)−n . ◃

M. Lo Schiavo
5.1. La mappa quadratica 229

In quel che segue, lo studio delle mappe verrà fatto senza che esse rivestano alcun significato di soluzioni
approssimate di altrettanti eventuali schemi continui, e se ne indagheranno le proprietà in modo specifico ed
indipendente dal loro uso. Inoltre si esamineranno in particolare le proprietà della dinamica generata da una
funzione f : R → R almeno derivabile, anche se per alcune di esse la continuità è sufficiente.
Si hanno le seguenti definizioni.
Punto fisso, per una mappa f : M → M := un punto x∗ tale che f (x∗ ) = x∗ .
Punto periodico, per una mappa f : M → M := un punto x∗ che sia fisso per una qualche iterata f k della
9 :
mappa. In tal caso k è detto il periodo del punto e di tutta la traiettoria x, f (x), f 2 (x), . . . , f k−1 (x) .
Punto critico, per una mappa f : M → M := un punto c tale che ∂f (c) = 0 .
Punto' iperbolico, per una mappa f : M → M := un punto fisso per la mappa, tale che la matrice jacobiana
∂f (x) 'x=x∗ non abbia autovalori di modulo uno.

Memento 5.1.1 È anche opportuno ricordare che


Mappa f : D ⊂ X → Y := una corrispondenza fra i punti dell’insieme D ⊂ X e punti dell’insieme Y tale
che:
∀x ∈ D ⇒ ∃y ∈ Y : y = f (x) .

Funzione f : D ⊂ X → Y := una mappa tale che il punto f (x) = y ∈ Y è unico.


Suriettiva su B ⊆ Y := una mappa f : D ⊂ X → Y tale che:

∀y ∈ B ⇒ ∃x ∈ D : y = f (x) .

Iniettiva da D ⊆ Y := una mappa f : D ⊂ X → Y tale che:

x ̸= x′ ⇒ f (x) ̸= f (x′ ) .

Mappa f : D ⊂ X → B ⊂ Y invertibile, o “Bijettiva” := una mappa che sia una funzione suriettiva ed
onto
iniettiva: e cioè che sia 1 ←→ 1 da D a B .
Per una funzione, sussistono le seguenti proprietà (si vedano anche le Appendici). Sia {Eα }α∈A ⊂ 2X una
famiglia di insiemi, e B ⊂ Y. Allora

f f −1 (B) ⊆ B; f −1 f (B) ⊇ B, (1.1)

ove le inclusioni possono essere strette. Inoltre:

f (∪α∈A Eα ) = ∪α∈A f (Eα )


f −1 (∪α∈A Eα ) = ∪α∈A f −1 (Eα )
f (∩α∈A Eα ) ⊂ ∩α∈A f (Eα ) (1.2)
−1 −1 f −1 (∩α∈A Eα ) = ∩α∈A f −1 (Eα )
f (Y \ B) = X \ f (B)

e la f (A ∩ B) ⊂ f (A) ∩ f (B) è stretta se esistono x ∈ A\B ed y ∈ B\A tali che f (x) = f (y). Per altre
utili relazioni si veda [Royden Cap. I.3] e [Kelley Cap. IV teor.1]

Esempio 5.1.2 La mappa lineare x &→ b x , x∈R.


In corrispondenza a diversi valori del parametro si hanno comportamenti del tutto diversi. In particolare: l’identità
b = 1 ha tutti punti fissi; l’opposto dell’identità b = −1 ha fissa solo l’origine e tutti i punti periodici lo sono con
periodo due; le caratteristiche di stabilità dell’origine non dipendono dal valore b , bensı̀ solo dal suo modulo.
0 1<b
x0 x1 x2 0 b=1
0 x0 ´ xj>0
0<b<1
x2 x1 x0 0 ´ xj>0
b=0
0 -1<b<0
x1 x2 x0 0
x1 ´ x3 x0 ´ x2 b=-1
0 b<-1
x1 x0 x2

Note di Sistemi Dinamici


230 Capitolo 5. Comportamento caotico dei Sistemi

Nel seguito, si pensi all’Esempio 1 quando la proprietà: “parte reale degli esponenti caratteristici ≶ 0 ” verrà
modificata nella “moduli dei moltiplicatori ≶ 1 ”.
È opportuno ribadire che se il passo di discretizzazione non è sufficientemente piccolo, fra i due tipi di sistemi
dinamici si possono presentare differenze che non sono solo formali. Ad esempio l’equazione logistica ṗ = kp(1 − p),
anche se con k > 0 , non è cosı̀ analoga come sembra alla pn+1 = µpn (1 − pn ). Infatti mentre la prima ha una
facile soluzione, del tutto regolare lı̀ dove esiste e ciò in modo indipendente dal parametro k , (vedi § 1.4)
0 1−1
p(t) = p0 p0 + (1 − p0 ) e−k(t−t0 )

la seconda presenta comportamenti assai più complessi, almeno per certi valori del parametro µ.
Sarà anzi proprio quest’ultima l’esempio-guida che verrà qui usato per introdurre alcuni dei comportamenti “
difficili ” comuni a molti dei sistemi non lineari, sia discreti che continui.
Una delle cause di tale complessità risiede (come si vedrà tra breve) nel fatto che la mappa fµ (x) := µx(1 − x)
d
non solo non è monotona, ma ammette valori del parametro µ per i quali il valore della derivata dx fµ (x) può
non appartenere all’intervallo [−1, 1]. A ciò si aggiunge il fatto che la dinamica generata da n &→ f n , mentre
ha comportamento banale al di fuori di un certo compatto (che per essa è l’intervallo [0, 1]), si mantiene invece
viva ed interessante all’interno dell’intervallo stesso; ciò rende questo sistema paragonabile con quelli definiti solo
su varietà compatte, la dinamica dei quali è generalmente assai più complicata di quelli su varietà aperte.
N.B. 5.1.3 Come esempio di varietà topologica compatta si consideri il toro Tn sui punti del quale, considerati
come elementi di Rn , sia definita un’operazione che lo rende gruppo. Ad esempio, con l’usuale notazione si ha
; ' <
'
Tn := θ ' θ := (θ1 , . . . , θn ) ∈ [0, 2π)n ≡ Rn /2πZn ; con θ1h + θ2h = θ3h mod(2π)

sul quale la metrica è la usuale metrica su Rn /2πZn , ovvero quella invariante per rotazioni:
@ n
A1/2
= K L2
d(θ1 , θ2 ) := (θ1h − θ2h ) mod (2π) .
h=1

Equivalentemente l’insieme Tn può essere espresso mediante la notazione moltiplicativa:


; ' <
'
Tn := z ' z := (z 1 , z 2 , . . . , z n ) ∈ Cn ; |z h | = 1, h = 1, . . . , n

con la nota operazione di prodotto: z1h · z2h = exp i(θ1h + θ2h + 2kπ). Nel seguito verrà usata la prima di queste
notazioni. ♦

Memento 5.1.1 Siano G1 e G2 due insiemi con leggi di composizione: “ ◦1 ” e “ ◦2 ” rispettivamente. Si


hanno le seguenti definizioni
Omomorfismo := una corrispondenza G : G1 → G2 tale che

G (x ◦1 y) = G (x) ◦2 G (y), ∀ x, y ∈ G2 .

Isomorfismo := un omomorfismo I : G1 → G2 che sia iniettivo e suriettivo.


Endomorfismo := un omomorfismo G : G → G.
Automorfismo := un isomorfismo I : G → G.

Un endomorfismo G del toro è un’operazione iniettiva da Tn in sé che ne conserva la struttura: ossia trasforma
aperti in aperti e commuta con l’operazione di somma delle θ . Esso è quindi un’operazione continua e genuinamente
lineare. Ad esempio: ogni sottogruppo chiuso di T1 , e che sia distinto da T1 , è un gruppo ciclico finito dato dai
divisori dell’unità: {θ&k := 2πk/m}k=0,...,m−1 per qualche m intero. (dimostrazione analoga a quella vista nel
§ III.1 per l’esistenza del periodo di un moto).
Sussistono inoltre (vedi: [Walters]) le seguenti proprietà:

• Gli endomorfismi del toro Tn sono le mappe lineari A : TnC → Tn rappresentate da matrici n × n: A ad
n
elementi interi: Aj ∈ Z per i, j = 1, . . . , n , (Aθ) = j=1 Aij θj mod 2π . La condizione Aij ∈ Z è
i i

quella che elimina le discontinuità nei punti θ = (2πm1 , . . . , 2πmn ) con (m1 , . . . , mn ) ∈ Zn . Tali morfismi
risultano suriettivi quando det A ̸= 0 , e sono anche iniettivi (=: automorfismi) quando det A = ±1 ,
[Walters, Teor. 0.15]. Tutti gli endomorfismi (continui) su Tn conservano la misura di Haar (e cioè il volume
normalizzato di Rn /2πZ).

M. Lo Schiavo
5.1. La mappa quadratica 231

• Un automorfismo A : Tn → Tn ha periodici almeno tutti i punti θ ∈ Tn tali che θ = 2πq con q ∈ Qn ;


m1 mn
infatti, dato q = ( 0 , . . . , 0 ) ed (m0 , m1 , . . . , mn ) ∈ Zn+1 , essendo A in L(n, Z) si ha che anche q ′ = Aq
m m
m̃1 m̃2 m̃n
ha la forma ( 0 , 0 , . . . , 0 ) giacché (Ai1 m1 + Ai2 m2 + . . . + Ain mn ) ∈ Z; ed è certo finito il numero di
m m m
tali punti. D’altra parte giacché A è un automorfismo, i punti periodici di A sono necessariamente del tipo
q = Aq ′′ , e cioè: per ogni q ∈ Per(Tn ) esiste q ′′ tale che q = Aq ′′ . Pertanto l’insieme 7 di 8tali punti non
può che essere trasformato in sé e solo in sé da A. La condizione di ergodicità: Det Ak − 1I ̸= 0 per ogni
k (vedi qui di seguito), se verificata, implica inoltre che ogni punto periodico ha la forma θ = 2πq con
q ∈ Qn .

• Si ricordi che, in uno spazio di misura, una trasformazione T che conserva la misura si dice ergodica quando
ogni insieme misurabile e T -invariante ha misura banale, (o anche quando ogni funzione misurabile ed
invariante lungo le traiettorie della trasformazione T è costante quasi ovunque). In particolare si ha che,
relativamente alla “lunghezza” del toro (misura di Haar): d(θ1 , θ2 ) = |θ1 − θ2 | mod (2π), un endomorfismo
θ &→ aθ del toro T1 è ergodico quando a è (intero e) tale che |a| > 1 . Un endomorfismo suriettivo del
toro Tn è ergodico quando non esiste y ∈ Zn tale che y T Ak = y T per alcun k ∈ N+ , e pertanto quando
spct(A) ̸∋ {eiqπ } per alcun q ∈ Q .
Una rotazione θ &→ θ + φ del toro T1 in sé è ergodica quando φ/2π ̸∈ Q .

Esempio 5.1.4 La rotazione del toro: f (θ) = θ + ϕ, ϕ, θ ∈ T1 .


La rotazione non è un endomorfismo perché non è genuinamente lineare. Essa non ha punti uniti se ϕ ̸= 0 , mentre
ha tutti i punti periodici se ϕ = 2π q con q = k/n ∈ Q , e k, n ∈ Z, k < n. In tal caso infatti θ + nϕ = θ mod(2π)
per qualsiasi θ ∈ T1 .
f(θ) = θ+ϕ f(θ) = θ+2π/3

f2
2π/3
f
2π/3 f3
f2

ϕ 2π/3
f

Esempio 5.1.5 La rotazione del toro: f (θ) = θ + ϕ, ϕ, θ ∈ T1 ,


dà luogo ad orbite dense in T (e non ammette punti periodici) se ϕ = 2πν , con ν ̸∈ Q . Infatti: innanzi tutto ogni
1

traiettoria, e cioè l’insieme degli evoluti di ogni fissato θ0 iniziale, ha punti distinti (e non periodici), perché se ve
ne fossero due coincidenti dovrebbero esistere n1,2,3 ∈ N tali che n1 ν = n2 ν + n3 , e ciò è contrario all’ipotesi.
L’essere T1 compatto fa sı̀ che ogni traiettoria ammetta almeno un punto di accumulazione. Ne segue che, per ogni
ε > 0 , esistono θ1 , θ2 tali che d(θ1 , θ2 ) < ε e quindi esistono (n1 , n2 , n3 ), eventualmente dipendenti da θ0 , tali
che 0 < |θ0 + 2πνn2 + 2πn3 − θ0 − 2πνn1 | < 2π ε , ovvero 0 < |n ν + n3 | < ε con n := n2 − n1 . Se allora si
considera la successione: θ&0 := θ0 , θ&1 := θ1 = θ0 + 2πνn1 , {θ&m := θ&m−1 + 2πνn = 2πmν(n2 − n1 ) + θ0 }m=2,3,... ,
si riconosce che essa è fatta di punti, tutti appartenenti alla traiettoria uscente da θ0 , e distribuiti uniformemente
su T1 in quanto si conservano le lunghezze degli archi d(θ&m , θ&m+1 ), e queste sono tali che 0 < d(θ&m , θ&m+1 ) < ε.
Come si è detto, per le rotazioni del toro T1 la condizione ν ̸∈ Q equivale all’ergodicità (vedi Walters Teor. 1.8).
#

Esempio 5.1.6 Un endomorfismo del toro f (θ) = aθ, θ ∈ T1 , a ∈ Z,


ha punti θ che sono n− periodici se e solo se a θ = θ + 2kπ . Sono cioè n-periodici quei punti θ∗ per i quali
∗ n ∗ ∗

esiste k ∈ Z tale che θ∗ = 2kπ/(an − 1) . Essi sono quindi gli an − 1 punti del toro T1 individuati da questa
espressione al variare di k = 0, 1, 2, . . . , an − 1 ove, come si è detto, il coefficiente a è un numero intero.
Si fissi ad esempio a = 3 . Sono n-periodici tutti i punti θ∗ tali che θ∗ /2π è un numero razionale della forma
k/(3n − 1) con k ∈ Z. Pertanto se ci si domanda dell’esistenza di punti periodici aventi un periodo comunque
grande, si trova che l’insieme di tali punti è 'denso sul toro,' dato che fissato un qualunque intervallo di lunghezza
' '
ε > 0 esistono certamente n, m ∈ N tali che ' 3n1−1 − 3m1−1 ' < ε . D’altra parte, quando a è intero e con |a| > 1 ,
esistono punti con traiettoria densa in T1 . In più, l’insieme dei punti periodici ha misura nulla, e quasi tutti i

Note di Sistemi Dinamici


232 Capitolo 5. Comportamento caotico dei Sistemi

punti (tutti salvo i periodici) hanno traiettorie dense in T1 (euristicamente: per n grande l’immagine inversa di
T1 secondo f n è una famiglia di segmenti arbitrariamente piccoli ed uniformemente sparsi su tutto T1 ; pertanto
comunque preso θ̄ ∈ T1 non periodico, si troveranno sue k -controimmagini, per k grande, quasi ovunque sul toro).

2π/3 2π/9

f(θ) = 3θ f(θ) ed f2(θ)

Per affrontare lo studio sistematico dei sistemi dinamici discreti è bene iniziare dal caso più semplice: il sistema
definito in R da una funzione f : R → R.
Fintanto che la funzione f : R → R è semplice, il modo più facile per studiarne le proprietà, anche dinamiche,
è l’analisi grafica . Con ciò si intende la costruzione, direttamente sul piano contenente il grafico della f , della
spezzata:
(x0 , 0), (x0 , f (x0 )), (f (x0 ), f (x0 )), (f (x0 ), f 2 (x0 )),

(f 2 (x0 ), f 2 (x0 )), (f 2 (x0 ), f 3 (x0 )), (f 3 (x0 ), f 3 (x0 )), ...
ovvero della spezzata:

“curva - bisettrice - curva - bisettrice - curva - . . . ”

di estremi:
(x0 , 0), (x0 , x1 ), (x1 , x1 ), (x1 , x2 ), (x2 , x2 ), (x2 , x3 ), . . . .

attractor attractor
x0 k
f (x0) t -k
f (x0) x0 t
repulsor repulsor

Le proprietà di questa fanno risalire ad alcuni dei comportamenti caratteristici della dinamica del sistema in esame.
Ciò, d’altra parte, si era già notato in occasione della discussione sulla mappa di primo ritorno, (vedi: [§ III.4]).

repulsore repulsore

attrattore attrattore

xn+1 xn+1

xn xn

2-periodico 3-periodico

M. Lo Schiavo
5.1. La mappa quadratica 233

xn+1 xn+1

xn xn

4-periodico 4-periodico

In particolare: un punto fisso x̄ nel quale |∂f (x̄)| ̸= 1 , come si è detto, si chiama iperbolico; esso è asintotica-
mente stabile o attrattivo se |∂f (x̄)| < 1 (in tal caso la f è localmente una contrazione in quanto |f (x) − f (x̄)| =
|∂f (ξ)(x − x̄)| < |x − x̄|), mentre è repulsivo se |∂f (x̄)| > 1 ; si noti però che tali condizioni non sono necessarie
per l’attrattività (repulsività) di un generico punto fisso.
I seguenti sono alcuni esempi di non iperbolicità:

Siano dati un chiuso [a, b] ⊂ R ed una f : [a, b] → R che abbia un numero finito nc di punti di stazionarietà, o
“punti critici”, e che sia continua (e si noti che questa è una forte ipotesi). Sono opportune le seguenti

Osservazioni.

(i) Se f è tale che f ([a, b]) ⊆ [a, b] oppure tale che f ([a, b]) ⊇ [a, b], (e non se si sovrappongono solo
parzialmente o affatto), allora in [a, b] la f ammette un punto unito. Infatti f (x) − x è continua ed è (nel
primo dei due casi) non negativa in a e non positiva in b . Pertanto, o è f (a) = a, oppure f (b) = b , oppure
esiste c ∈ (a, b) tale che f (c) = c. Il secondo dei due casi è del tutto analogo: necessariamente esistono a′ ≥ a
e b′ ≤ b tali che f (a′ ) ≤ a ed f (b′ ) ≥ b ed il risultato segue come sopra: f (x) − x è non positiva in a′ e
non negativa in b′ . In questo secondo caso inoltre si deduce l’esistenza di a′′ ≥ a′ ≥ a e di b′′ ≤ b′ ≤ b tali
che f ([a′′ , b′′ ]) = [a, b].

f(b)

f(a)

f(a¶)
a a¶ b

(ii) Se, in più, f è derivabile su [a, b] e se, dato x0 ∈ [a, b], la traiettoria {xm := f m (x0 )}m∈N appartiene ad
[a, b], allora la derivata di f m (x0 ) esiste per ogni m ∈ N, e vale

∂f m (x0 ) = ∂f (xm−1 ) · ∂f (xm−2 ) · · · ∂f (x0 ) .

In particolare si ha
∂f m (xi ) = ∂f (xm−1+i ) · ∂f (xm−2+i ) · · · ∂f (xi ) ,
con, generalmente,

∂f m (xi ) := (∂f m )(f i x0 ) ̸= ∂f m ◦ f i (x0 ) = ∂f m (xi ) · ∂f i (x0 ).

Note di Sistemi Dinamici


234 Capitolo 5. Comportamento caotico dei Sistemi

Conseguenza importante.

I possibili punti critici (o di stazionarietà) delle mappe f m , m ∈ N, sono i punti x0 tali che ∂f (xk ) = 0
per qualche 0 ≤ k ≤ m, ovvero tali che f k (x0 ) = c con c un punto critico di f . Essi sono quindi i punti le
cui traiettorie passano per (contengono) i punti critici della f . Come tali, essi formano l’insieme
b b
C(f m ) = γ −m (c) := {f −k (c)}k=0,...,m−1 ,
c c

ove l’unione è estesa all’insieme dei punti critici c della f . Nel seguito si supporrà che il numero nc dei punti
critici c della f sia finito: nc < ∞.
Dalla f (A ∪ B) = f (A) ∪ f (B) segue subito che l’insieme M (f m ) = f m (C(f m )) dei valori di stazionarietà
per la funzione f m è dato dalla:
b9 7 8: b9 : b
M (f m ) = f m f −k (c) k=0,...,m−1 = f k (c) k=1,...,m =: γ m (c)
c c c

e quindi M (f m ) contiene il corrispondente insieme M (f m−1 ).


Nel caso in cui la f abbia un solo punto critico c, l’insieme γ −m (c) = {f −k (c)}k=0,...,m−1 contiene al più
Cm−1 k m m 2 m
k=0 2 = 2 − 1 punti, e l’insieme M (f ) = {f (c), f (c), . . . , f (c)} è formato al più da m punti distinti.

(iii) Un punto unito per la mappa f m corrisponde ad una intera orbita periodica per la mappa f

x0 = f m (x0 ) ⇐⇒ {x0 , x1 , . . . , xm−1 } è f -invariante.

Il numero m è detto minimo periodo se tutti gli xi sono distinti fra loro. (Si noti che un insieme f m -
invariante può contenere punti di più orbite periodiche per la f , eventualmente anche di periodi diversi fra
loro).

(iv) Se f ammette un’orbita periodica di periodo (minore o uguale ad) m, sussistono per i = 1, . . . , m le relazioni:

xi = f i (x0 ) = f m+i (x0 ) = f m (xi )

e la
∂f m (xi ) = ∂f (xm+i−1 ) · · · ∂f (xm ) · ∂f (xm−1 ) · · · ∂f (xi )
= ∂f (xi−1 ) · · · ∂f (x0 ) · ∂f (xm−1 ) · · · ∂f (xi )
= ∂f i (x0 ) ∂f m (x0 ) (∂f i (x0 ))−1 .
Nel caso generale, invece, si ha solo la

d '
'
∂f m (xi ) · ∂f i (x0 ) = ' f m ◦ f i (ξ)
dξ ξ=x0
d '
'
= ' f i (f m (ξ)) = ∂f i (xm ) · ∂f m (x0 ).
dξ ξ=x0

Nel caso periodico, quindi, le (matrici) ∂f m (xi ) e ∂f m (x0 ) (entrambe generalmente diverse da 1I ) sono
simili, e ciò implica che gli autovalori dello Jacobiano di f m sono gli stessi su ogni punto della traiettoria
periodica. Ne segue che se per qualche i∗ ∈ {1, . . . , m} avviene che tutti gli autovalori di (∂f m ) (xi∗ )
hanno moduli minori di 1 allora l’orbita periodica è attrattiva in ogni suo punto, e tutta repulsiva se i moduli
sono maggiori di 1 .

Prendono il nome di orbite periodiche superstabili quelle per le quali la ∂f m (xi ) ha autovalori nulli, e di neutre
quelle per le quali la ∂f m (xi ) ha autovalori di modulo unitario.

Esempio pilota.
1
La mappa quadratica : fµ (x) := µx(1 − x). La mappa quadratica ha al più due equilibri: x̄0 = 0 e x̄µ = 1 − µ ;
essa verrà qui studiata per valori positivi del parametro, e cioè con il vertice della parabola a destra dell’origine.
Si può osservare che il caso µ ∈ [0, 1] e cioè quello nel quale il punto fisso x̄µ cade alla sinistra dell’origine può
essere ricondotto al caso µ ≥ 1 (in cui x̄µ è alla destra dello zero) mediante la trasformazione di variabili che porta

M. Lo Schiavo
5.1. La mappa quadratica 235

l’origine nel punto fisso instabile e rinormalizza gli assi rendendo unitario il nuovo segmento di base. Essa è data
dalla ( (
ξ = α(x − x̄) x̄ = (1 − 1/µ) , λ := 2 − µ,
con
η = α(y − x̄) α = (2 − λ)/λ ≡ µ/(2 − µ)

giacché si richiede che per y = µ(x − x2 ) risulti una identità la

η = α(y − x̄) = λ(ξ − ξ 2 ) = λα(x − x̄) (1 − (x − x̄)) .

È anche semplice riconoscere che la dinamica della fµ è equivalente a quella della

η = fc (ξ) = −ξ 2 + c, con ξ = µ(x − 1/2), η = µy, e con c = µ2 /4 .

Per µ > 1 , x̄µ resta fissato alla destra di x̄0 ed alla sinistra di 1 . Ne segue che tutta la dinamica interessante
avviene sull’intervallo [0, 1]. Infatti, siccome µ > 1 implica che fµ (x) < x per ogni x < 0 , (l’altro punto di equilibrio
n
x̄µ è maggiore di x̄0 = 0 ), un qualunque x0 < 0 evolve necessariamente in xn −→ −∞.

D’altra parte, per x > 1 si ha fµ (x) < 0 , e quindi anche il semiasse a destra di 1 evolve verso −∞. Invece,
almeno per µ < 4 , l’intervallo [0, 1] è invariante; in particolare l’unica immagine inversa dell’origine x̄0 è il punto
x = 1.
La ∂fµ (x) = µ(1 − 2x) fornisce ∂fµ (x̄0 ) = µ e ∂fµ (x̄µ ) = 2 − µ e quindi |∂fµ (x̄µ )| < 1 purché 1 < µ < 3 ,
il che comporta che per questi valori del parametro il punto di equilibrio x̄µ è attrattivo mentre l’origine x̄0 è
instabile.
Si chiami xµ = 1/µ l’altra radice dell’equazione fµ (x) ≡ µx(1 − x) = x̄µ = 1 − 1/µ . Si nota che i due punti
xµ , x̄µ sono simmetrici rispetto al punto critico c = 1/2 nel quale la fµ ammette valore massimo fµ (c) = µ/4.
Inoltre, se µ è maggiore (minore) di 2 , entrambe fµ (c) = µ/4 ed x̄µ risultano maggiori (minori) del punto
critico c = 1 − 2 , ed è non vuoto (vuoto) l’insieme {fµ−1 (c)}.
Per studiare le caratteristiche del sistema individuato dalla mappa fµ è allora opportuno suddividere ulterior-
mente i valori del parametro nei seguenti intervalli:

µ 1
• 1 < µ ≤ 2. Si ha fµ (c) = ≤ c := e xµ ≥ x̄µ
4 2
xn+1

f¹(c)

xn
{
x {
x c x¹
0 ¹ I+
I-

Chiamati:
' ' '
' ' '
I− := {x ' 0 < x < x̄µ }, I0 := {x ' x̄µ < x < xµ }, I+ := {x ' xµ < x < 1},

si vede facilmente che la fµ è monotona crescente su I− e decrescente su I+ , che fµ ([I+ ]) = [I− ], e che
x ∈ I− (e µ > 1 ) implicano x < fµ (x) < x̄µ . Ne segue che per x ∈ I− si ha x < fµ (x) < fµ2 (x) < . . . < x̄µ .
Né vi possono essere su I− altri punti di accumulazione diversi da x̄µ perché questi è l’unico punto unito
della fµ che possa essere attrattivo. D’altra parte, la x ∈ I0 (e µ4 < 12 ) implicano f ([c, xµ ]) = fµ ([x̄µ , c]) =
[x̄µ , f (c)] ⊂ [x̄µ , c], e siccome la fµ è monotona su (x̄µ , c) e su di esso è x̄µ < fµ (x) < x, si può ripetere su
questo l’argomento appena discusso per I− .

In definitiva su I− ∪ I0 ogni successione x0 , x1 , . . . , xn := fµn (x0 ) ammette x̄µ come limite, e cioè x̄µ ha
come bacino di attrazione tutto l’intervallo aperto (0, 1).
µ 1
• 2 < µ ≤ 3. Si hanno, ora, le relazioni: fµ (c) = >c= e xµ < x̄µ ,
4 2
(ma ancora fµ (c) < 1 ed x̄µ attrattivo).

Note di Sistemi Dinamici


236 Capitolo 5. Comportamento caotico dei Sistemi

xn+1

x0=0.1
¹ =2.9

xn
{
x x¹ c {
x
0 I ¹ I+
-

Con le nuove definizioni:


' ' '
' ' '
I− := {x ' 0 < x < xµ }, I0 := {x ' xµ < x < x̄µ }, I+ := {x ' x̄µ < x < 1},

si vede facilmente che l’intervallo [0, 1] è ancora invariante, e che

fµ ([I− ]) = [I− ] ∪ [I0 ] ,


fµ ([I0 ]) = [x̄µ , fµ (c)] ⊆ [I+ ] ,
fµ ([I+ ]) = [I− ] ∪ [I0 ] ,
K 2 L K L
fµ2 ([I0 ]) = fµ ([x̄µ , fµ (c)]) = fµ (c), x̄µ ⊆ c, x̄µ .

Infatti:
Innanzi tutto si nota che per µ > 2 si ha c < x̄µ < fµ (c), e che la fµ è decrescente su [c, fµ (c)] e quindi che
fµ2 (c) ≤ c. D’altra parte il minimo di µ &→ fµ2 (c) = (4µ2 − µ3 )/16 per µ ≥ 2 si ha per µ = 2 e vale c.
Poi si osserva che su I− la fµ è monotona ed ha valore massimo x̄µ , che è definitivamente maggiore di xµ .
Pertanto ogni successione x0 , x1 , x2 , . . . con x0 ∈ I− ammetterà un n < ∞ tale che xn ∈ I0 , né può convergere
prima data l’assenza in I− di punti fissi (attrattivi) per la fµ . (Si pensi alla traiettoria inversa del punto xµ ).
A sua volta, su I0 si ha x̄µ ≤ fµ (x) ≤ fµ (c) < 1 e cioè la fµ ha valori in I+ , e su questo la fµ è monotona
decrescente. Ne segue 0 < fµ2 (c) ≤ fµ2 (x) ≤ x̄µ . Per cui su I0 si ha x < f 2 (x) < x̄µ , e ciò implica che f 2 contrae
I0 verso x̄µ .
Infine su [c, x̄µ ] non solo la fµ ma anche la fµ2 sono monotone, ed anzi:

∂fµ2 (x) = µ(1 − 2fµ (x))µ(1 − 2x) = µ2 (1 − 2(1 + µ)x + 6µx2 − 4µx3 ) < 1

e tale derivata è massima in x̄µ ove vale ∂fµ2 (x̄µ ) = (2 − µ)2 e diminuisce retrocedendo, con le x, fino a c. "

In definitiva anche in questo caso tutto (0, 1) converge verso x̄µ .

N.B. 5.1.7 Molte di queste caratteristiche sono condivise da una qualunque


Funzione unimodale := f : [0, 1] → [0, 1] tale che


⎪ f (0) ≥ 0, f (1) ≥ 0, f ∈ C 0 ([0, 1]), ed inoltre

⎨ esista c ∈ (0, 1) unico punto critico per f e tale che
⎪ M M

⎪ crescente sinistra
⎩ f è strettamente a di c.
decrescente destra

Tali funzioni hanno finita, per ogni m ∈ N, la cardinalità dell’insieme f −m (c), ed f m è strettamente mo-
notona su ciascuno degli intervalli nei quali il dominio [0, 1] resta suddiviso dai punti dell’insieme γ −m (c) :=
{f −k (c)}k=0,...,m−1 , unici possibili punti di stazionarietà per la f m . ♦

Tuttavia, per µ ∈ (2, 3] il comportamento della fµ vicino al punto x̄µ è ben diverso dal caso µ ∈ (1, 2]. Infatti
risulta ∂fµ (x̄µ ) = 2 − µ e quindi per µ < 2 i punti della successione che costituiscono la traiettoria convergente ad
x̄µ sono ordinati, mentre per µ > 2 tale successione, composta da due sottosuccessioni ordinate, è fatta da punti
che cadono alternativamente l’uno a destra l’altro a sinistra del punto limite x̄µ ,

M. Lo Schiavo
5.1. La mappa quadratica 237

xn+1 xn+1


x –
µ xn x µ xn
0 <Dfµ(xµ)< 1 -1 <Dfµ(xµ)< 0

resta immutato invece, al variare di µ da (1, 2] a (2, 3], il comportamento qualitativo di fµ2 .
Quest’ultimo cambia a sua volta al passaggio di µ per il valore 3 , valore oltre il quale la fµ2 acquista,
in aggiunta al punto x̄µ =: x̄√ µ,1 , altri due punti fissi xµ,2 ed x̄µ,2 l’uno a destra e l’altro a sinistra di x̄µ,1 .
Successivamente, per µ = 1 + 5 la fµ2 (c) diviene inferiore a c; ed fµ (c), che come si è detto è anche valore di
massimo per la fµ2 , supera (il maggiore dei) fµ−1 (c). Quando µ transita per il valore µ2 := 3 il modulo della
∂fµ (x̄µ ) = 2 − µ attraversa il valore uno, e quindi il punto x̄µ da equilibrio stabile per la fµ (e per la fµ2 ) diventa
instabile:

xn+1 xn+1
f
2 <µ< 3 3 <µ< 4

f2 f2
f
xn xn
f -1(c) c – µ f -1(c)
x xµ,2 – x
x –
µ µ,2
2
È questo l’inizio di una lunga storia: quando µ supera 3 sia la ∂fµ (x̄µ ) = 2 − µ sia la ∂fµ2 (x̄µ ) = (∂fµ (x̄µ ))
attraversano e superano il valore 1 e quindi (per entrambe) il punto x̄µ perde la sua stabilità (nel valore di transito:
µ2 = 3 si ha che ancora x̄µ è attrattivo, ma solo debolmente). Restano invece stabili, per valori di µ vicini a 3 ,
i due punti xµ,2 , x̄µ,2 che, essendo fissi per la mappa fµ2 e non per la fµ , sono punti 2 -periodici per la mappa
iniziale fµ . Se anzi essi sono estremali per fµ2 si ha che il ciclo è un ciclo superstabile. Si noti che tali punti non
avevano alcun significato per µ ≤ 3 .

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1

µ = 2.7 ; µ = 2.8 .

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1

µ = 2.9 ; µ = 3.0 .

Note di Sistemi Dinamici


238 Capitolo 5. Comportamento caotico dei Sistemi

Proseguendo, con l’aumentare di µ oltre il valore 3 il punto x̄µ rimane comunque punto fisso (instabile) per
la mappa fµ ; ma gli xµ,2 , x̄µ,2 , che dapprima sono stabili per fµ2 , a partire da un certo µ4 ∈ (µ2 , 4) perdono la
loro stabilità e contemporaneamente per ciascuno di essi una coppia di punti xµ,4 , x̄µ,4 si aggiunge ai precedenti.
I ragionamenti fatti per x̄µ ed fµ si ripetono, rispettivamente, per ciascuno dei due xµ,2 , x̄µ,2 ed fµ2 : pur
rimanendo punti uniti per fµ2 , con il diventare instabili essi danno luogo ad altrettante coppie di punti uniti per
fµ4 : xµ,4 , x̄µ,4 che a loro volta perderanno la stabilità per un qualche µ8 ∈ (µ4 , 4).
1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1

µ = 3.1 ; µ = 3.2 .

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1

µ = 3.3 ; µ = 3.4 .

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1

µ = 3.5 ; µ = 3.6 .

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1

µ = 3.7 ; µ = 3.8 .

M. Lo Schiavo
5.1. La mappa quadratica 239

xn+1

¹ =3.5
x0=0.1

xn
{
x x¹,2 { x{
x
0 ¹,1 ¹,2

Si noti che per tale valore del parametro il ciclo 2 -periodico è instabile.

f5

f3

f4

f2

µ = 3.5

¹=3
¹=3.2
¹=3.4
¹=3.6

grafico di f¹4

Questo comportamento, noto con il nome di period doubling, (vedi oltre), può essere facilmente verificato a
calcolatore almeno per i primi valori di µ valutando la traiettoria di un qualche punto (ad esempio x0 = 0.5 ) per
vari valori del parametro. Posti in ordinata i valori di xn per n grandi, ed in ascissa i vari valori del parametro,
si ottiene il seguente
Diagramma dei punti: (µ, x∞ ) ∈ [3, 3.9] × [0, 1]

3.00 3.56994 3.82

Note di Sistemi Dinamici


240 Capitolo 5. Comportamento caotico dei Sistemi

N.B. 5.1.8 È abbastanza sorprendente il seguente fatto:


n
µ2n −→ µ∞ := 3.56994 . . .

ed in più esiste il limite del rapporto


µ2n+1 − µ2n n 1
−→ , δ := cost = 4.66920
µ2n − µ2n−1 ∞ δ
e ciò è valido per tutte le mappe unimodali; inoltre |µ2n − µ∞ | ∼ δ −n .
m
Esiste cioè una funzione “limite”, e cioè la f := limm→∞ (−ℓ)m fµ2∞ (ℓ−m x), per qualche ℓ ∈ R, che caratterizza
x̄µ −xµ
i valori µ∞ e −ℓ ∼ lim x̄2n+1 2n+1
µ2n −xµ2n
, e che è soluzione dell’equazione “di scala”: f (x) = −ℓf (f (−x/ℓ)).
Tale equazione proviene dall’osservare che la mappa fµ ha un comportamento qualitativamente invariante all’azione
dell’operatore di riduzione:
x − xµ
Rµ fµ (x) := ℓµ ◦ fµ2 ◦ ℓ−1
µ (x) con ℓµ (x) := .
x̄µ − xµ

Per µ = µ∞ il sistema mostra un comportamento non regolare, e la frequenza di visita nei punti del segmento
[0, 1] risulta come nella seguente figura

(Densità massima di visita: 625/10.000)

La figura mostra che, a tempi lunghi, vengono visitati solo i punti di un certo insieme (chiuso, invariante) che
prende il nome di attrattore di Feigenbaum .
[Si noti che tale attrattore non è un insieme attrattivo (perché arbitrariamente vicine ad esso si trovano traiettorie 2n -periodiche anche
se instabili ); né è “strano”, e cioè espansivo, (perché µ non è sufficientemente grande); né ha dipendenza sensibile dal dato; è però
non decomponibile, (perché in esso si trovano traiettorie non periodiche dense); e su di esso la dinamica è non periodica, ergodica,
non mescolante, con esponenti di Liapunov nulli; per tutte queste proprietà si veda oltre].
Dal punto di vista geometrico tale attrattore mostra sensibilmente proprietà di totale disconnessione (:= gli unici
connessi contenuti sono i punti ), proprietà questa che condivide con gli insiemi di Cantor, (vedi oltre).
Quando µ > µ∞ l’attrattore scompare. Per illustrare meglio ciò che accade converrà ricordare i seguenti teoremi,
che pur se validi solo per mappe f : R → R, fanno luce sul tipo di comportamenti cui si può andare incontro.
Verranno anzi qui accennati solo in forma schematica.
′′′
0 ′′ 12
Teorema 5.1.1 Se una funzione f : R → R ha derivata di Schwartz ∂S f (x) := ff ′ − 32 ff ′ negativa (o anche
∂S f (x) = −∞), ed un numero finito nc di punti critici allora essa è tale da ammettere al più nc + 2 orbite
periodiche attrattive.

M. Lo Schiavo
5.1. La mappa quadratica 241

0 12
In particolare la mappa quadratica fµ ha ∂S fµ (x) = − 23 1
x−1/2 <0, ed essendo unimodale ha nc = 1;
essa in effetti (per µ sufficientemente piccolo) ha una sola orbita periodica attrattiva
Dimostrazione (cenno; vedi Devaney e Collet-Eckmann)
Una funzione f : R → R (definita ovunque e) che abbia derivata di Schwartz negativa: ∂S f (x) < 0 possiede le
seguenti proprietà:

(i) È finito l’insieme dei punti y tali che y = f −k ({x}) per qualsiasi fissato k ∈ N ed x ∈ R. Infatti: in
ogni intervallo [y1 , y2 ] tale che f (y1 ) = f (y2 ) = x cade
9 'almeno un punto
: critico per la f ; per cui dall’ipotesi
nc < ∞ segue 'che è necessariamente finito l’insieme y ' y = f −1 ({x}) per qualsiasi x ∈ R, e di conseguenza
9 :
lo è anche y ' y = f −k ({x}) per ogni fissato k ∈ N.

(ii) È
c finito l’insieme dei punti critici per ( f ed) f m . Infatti: come si è visto, tale insieme è dato da C(f n ) :=
−k
c {f (c)}k=0,...,n−1 , e quindi l’ipotesi che il numero nc dei punti critici di f sia finito, ed il punto precedente,
implicano la tesi per ogni m ≥ 1 .
(iii) Anche la f n ha derivata
' di Schwartz negativa: ∂S (f n ) < 0 . Infatti: se ∂S f < 0 ed ∂S g < 0 allora anche
′ 2 '
∂S (f ◦ g) = (g ) ∂S f g + ∂S g è negativa.

(iv) La f ′ non può avere minimi (relativi) positivi né massimi (relativi) negativi; in particolare la f ′ ha segni
opposti in due suoi punti critici adiacenti. Infatti: la condizione f ′′ = 0 insieme con la ∂S f < 0 implicano
f ′′′ e f ′ di segni opposti in due punti critici adiacenti di f ′ . Ma la f ′′ si annulla agli estremi di tale
intervallo, e quindi in esso la (f ) cambia segno, e di conseguenza anche la f ′ . Ne segue in particolare che
′′ ′

fra due punti critici adiacenti di f ′ se ne trova almeno uno per f .


(v) È finito l’insieme dei punti fissi per f ed f m . Infatti: la condizione ∂S f < 0 esclude che sia f ′ = cost ̸= 0
su alcun intervallo, pertanto se f ammettesse infiniti punti fissi per la continuità di f ′ (ed il teorema del
valor medio) esisterebbero infiniti punti in cui f ′ dovrebbe raggiungere il valore 1 ed infiniti punti nei quali
esserne strettamente minore. Dal punto precedente segue allora che la funzione f avrebbe infiniti punti
critici, in contrasto con l’ipotesi nc < ∞. Ripetendo il ragionamento per la f m , in virtù delle (ii) (iii), si
ha che è finito l’insieme Perm (f ) dei punti m-periodici per ogni fissato m ∈ N.
(vi) Ogni bacino di attrazione di un punto fisso (attrattivo) della f contiene almeno un punto critico della f
stessa. Infatti: sia p fisso ed attrattivo: |f ′ (p)| < 1 , e W (p) =: (l, r) il suo bacino di attrazione. W (p) è
aperto, massimale, e tale che: f (W (p)) ⊆ W (p). Ma la massimalità implica l’invarianza: f (W (p)) = W (p),
per cui se l, r sono finiti può avvenire solo una delle seguenti:

(vi.1) f (l) = l, f (r) = r ; gli estremi sono punti fissi instabili;


(vi.2) f (l) = r, f (r) = l ; il punto p è racchiuso da un ciclo (instabile) di periodo due;
(vi.3) f (l) = f (r); uno solo degli estremi è un punto fisso instabile.

(1) (2)

(3) (3)

Nel caso (1) si può riconoscere, anche graficamente, che esistono a, b tali che p ∈ (a, b) ⊂ W (p), e nei quali
f ′ (a) = f ′ (b) = 1 , e quindi essendo f ′ (p) < 1 la (iv) implica che in (a, b) e quindi in W (p) c’è (almeno)
uno zero per la f ′ e quindi almeno un punto critico per la f .

Note di Sistemi Dinamici


242 Capitolo 5. Comportamento caotico dei Sistemi

Nel caso (2) si ottiene lo stesso risultato per f 2 , in virtù della (iii), e quindi per f data l’invarianza di W (p).
Nel caso (3) i classici teoremi sulle funzioni continue garantiscono direttamente l’esistenza di un punto critico
per f in W (p).

(vii) Ogni bacino di attrazione W (pm ) di un punto fisso pm della f m contiene almeno un punto critico della f .
Infatti: se m > 1 la (iii) permette di ripetere per la f m il ragionamento fatto per la f. Ma l’esistenza di un
punto critico per f m in W (pm ) implica l’esistenza di un punto critico per f , visto che W (pm ) è invariante
e, come si è detto, se x è critico per f m allora sull’orbita di x c’è almeno un punto critico per f .

Riassumendo: ciascun bacino di attrazione dei punti m-periodici di f , se attrattivi, deve contenere almeno un
punto critico per f . Pertanto punti periodici con bacini di stabilità limitati attraggono almeno un c, e quindi sono
al più nc . Le ultime due orbite periodiche attraggono al più le due semirette x → −∞, x → ∞, e non ci sono per
la mappa fµ che ivi diverge. "

Il seguente teorema, pur se valido solo in R, è comunque interessante per spiegare il comportamento di sistemi
quali la fµ .

Teorema 5.1.2 [Sarkowski] Se f : R → R è continua ed ammette una traiettoria 3 -periodica allora ammette
traiettorie n-periodiche per ogni n ∈ N. Esiste infatti un ordinamento dei numeri naturali secondo il quale se il
sistema ammette una traiettoria di periodo k allora ammette senz’altro traiettorie di periodi h ≺ k “precedenti” a
k in tale ordinamento:
rccccc3 ≻ 5 ≻7 ≻ ······ ≻
≻2 · 3 ≻ 2 · 5 ≻2 · 7 ≻ · · · · · · ≻
≻22 · 3 ≻ 22 · 5 ≻22 · 7 ≻ ······ ≻
3 3 3
≻2 · 3 ≻ 2 · 5 ≻2 · 7 ≻ ······ ≻
4 3 2
≻2 ≻ 2 ≻2 ≻ 2 ≻1 .

[In particolare quindi se per un certo µ∗ la fµ (x) = µx(1 − x) ha qualche dato iniziale x0 la cui traiettoria è un ciclo 3 -periodico
(n)
allora per quello stesso valore µ∗ il sistema descritto dalla fµ∗ ha certamente dati iniziali x0 che appartengono a cicli di periodo
n per ogni intero n ∈ N . Dal Teorema 1 segue poi anche che se l’orbita (periodica, stabile) della quale si riconosce la presenza è
un’orbita di periodo tre, allora tutte le altre (di qualsiasi periodo), che sono certamente presenti per quello stesso valore del parametro
Inoltre se un tale sistema ha un’orbita diversa da una potenza di due allora ammette infinite
µ , sono tutte instabili].
orbite periodiche; e se invece ha un numero finito di orbite periodiche allora il loro periodo è necessariamente una
potenza di due.
Dimostrazione (cenno solo della prima parte)
Si noti che un ciclo 3 -periodico di una mappa continua su R ha necessariamente, salvo inversioni di parità, forma
come in figura (nella quale si è tracciato il grafico della fµ solo per esempio)

f(x) A2

A3

A1 µ=3.9
A1

B0 A0 x
x0 x1 x2
Detti B0 := [x0 , x1 ], A0 := [x1 , x2 ], con x1 := f (x0 ), ed x2 := f (x1 ), per la continuità della f si ha che

f (B0 ) ⊇ A0 , ed f (A0 ) ⊇ B0 ∪ A0 ⊇ A0 .

Ma nella Osservazione (i) si è provato che se per un qualsiasi A ⊂ [0, 1] accade che A ⊆ f (A) allora, per il teorema
degli zeri, esiste un punto fisso per f in A, ed un A′ ⊆ A tale che f (A′ ) = A. Pertanto esiste un punto fisso
per f in A0 , ed un punto fisso per f 2 in B0 giacché f 2 (B0 ) ⊇ f (A0 ) ⊇ B0 ∪ A0 ⊇ B0 .

M. Lo Schiavo
5.1. La mappa quadratica 243

Per dimostrare che esistono anche periodi superiori si noti che, siccome in A0 la f assume (decrescendo,
almeno una volta) tutti i valori fra x2 ed x0 , e cioè f (A0 ) ⊇ A0 , esiste un sottoinsieme A1 ⊆ A0 tale che
f (A1 ) = A0 ⊇ A1 . Per lo stesso motivo allora esiste un sottoinsieme A2 ⊆ A1 tale che f (A2 ) = A1 ⊇ A2 .
Procedendo in tal modo si costruiscono
Am ⊆ Am−1 ⊆ . . . ⊆ A2 ⊆ A1 ⊆ A0 ⊆ A0 ∪ B0 tali che
f (Am ) ⊇ Am−1 ⊇ Am m = 0, 1, . . .
f (A0 ) ⊇ A0 ∪ B0 ⊇ A0
f (A0 ∪ B0 ) ⊇ A0 ∪ B0 ⊇ Am .

Quindi per ogni m ∈ N si ha f m+1 (Am ) ⊇ B0 ∪ A0 ed esiste un sottoinsieme A &m di Am tale che f m+1 (A &m ) =
m+2 & & & m+2
B0 , e f (Am ) ⊃ A0 ⊃ Am . Esiste allora almeno un punto p ∈ Am tale che f (p) = p; d’altra parte m + 2
è un periodo minimo perché la (m + 1)-esima iterata cade in B0 , mentre tutte le precedenti sono in A0 . Se poi
qualche iterata finisse sul bordo {x0 , x1 , x2 } , allora m = 2 oppure m = 3 .
Mediante questo risultato, e con ragionamenti di compatibilità aritmetica, si ottiene poi lo specifico ordinamento
accennato. "

Queste considerazioni fanno intuire cosa accada nell’intervallo di valori µ ∈ (µ∞ , µ3 ) dove con µ3 ≃
3.828427 . . . si è indicato il primo valore per il quale si manifesta un’orbita 3 -periodica.
Per µ = µ3 + ε , ad esempio µ = 3.839 , si hanno due orbite 3 -periodiche, di cui solo una: la γ s := {a1 ≃
.15, a2 ≃ .49, a3 ≃ .96} è attrattiva in quanto (f 3 )′ (ai ) = −.78 ; e ciò accade anche per un qualsiasi µ in un
intorno (destro) di µ3 .
xn+1

ciclo 3-periodico
instabile

ciclo 3-periodico
stabile

{ { {
b1 b1 b2 b2 b3 xn
a1 a2 a3 b3

Siano γ u := {b̄1 ≃ .17, b̄2 ≃ .54, b̄3 ≃ .95} i punti dell’orbita periodica instabile e bi ̸= b̄i i loro tre
primi vicini tali che f 3 (bi ) = b̄i ; si riconoscono i tre bacini di attrazione rispetto alla fµ3 dei tre punti della γ s :
W (a1 ) := (b1 , b̄1 ) W (a2 ) := (b2 , b̄2 ) e W (a3 ) := (b̄3 , b3 ).
Detti I0 := [0, b1 ], I1 := [b̄1 , b2 ], I2 := [b̄2 , b̄3 ], I3 := [b3 , 1], la dinamica è tale che f (I0 ) ⊂ I0 ∪ I1 ∪
W (a1 ), f (I1 ) = I2 , f (I2 ) ⊂ I1 ∪ I2 ∪ W (a2 ), f (I3 ) = I0 . [Infatti: per motivi di simmetria si vede che f (b2 ) =
f (b̄2 ) = b̄3 ed f 3 (b1 ) = b̄1 = f (b̄3 ) = f 2 (b2 ) . Sia c1 := f −1 (c) ∩ [0, c] . f 2 è monotona su [c1 , c] ed è b2 ∈ [c1 , c] ed anche
f (b1 ) ∈ [c1 , c]; ciò implica f (b1 ) = b2 ed f 2 (b1 ) = b̄3 = f 3 (b3 ) che conduce a f (b3 ) = b1 ].
È possibile in tal caso rappresentare tale comportamento con una matrice di raggiungibilità
⎛ ⎞
1 1 0 0
⎜ ⎟
& := ⎜0 0 1 0⎟ .
A ⎝0 1 1 0⎠
1 0 0 0

Siccome poi su I0 si ha f (x) > x, dato x0 ∈ I0 o si ha ω (x0 ) = {a1 } oppure esiste n tale che f n (x0 ) ∈ I1 ; ed
analogo ragionamento vale per x0 ∈ I3 .
Tutta la dinamica definitivamente periodica, (e cioè almeno tutte le orbite periodiche di cui il Teorema di Sarko-
wski, salvo lo zero) ed i punti
* a1 , a2 , a3 ), appartiene allora all’insieme I1 ∪ I2 sul quale la matrice di raggiungibilità
0 1
è data da A = . In più (vedi: [Devaney § 1.13]) si può mostrare che tale insieme ne contiene uno: Λ
1 1
invariante non vuoto e formato da quei punti la cui dinamica rimane in Λ e risulta topologicamente coniugata ad
un subshift finito di matrice A (vedi: [oltre]).
Per µ abbastanza maggiore di µ3 ma ancora minore di 4 il procedimento del raddoppio dei periodi si può
nuovamente innescare.

Note di Sistemi Dinamici


244 Capitolo 5. Comportamento caotico dei Sistemi

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.5 0.6 0.7 0.8 0.9 0.5 0.6 0.7 0.8 0.9

Iterate 3 e 6 ; µ = 3.5 ; µ = 3.9 .


È comunque possibile però escludere un certo numero di traiettorie fra tutte quelle immaginabili (vedi la
“kneading theory” su: [Devaney], ovvero in [Collet Eckmann]).

Un drammatico cambio di comportamento si verifica dopo il valore µ = 4 , per il quale il massimo della fµ
supera il valore uno. Infatti si riconosce, in tal caso, l’esistenza di tutta una successione di intervalli i cui punti al
crescere delle iterazioni si perdono verso −∞.
Si chiami A0 l’intervallo (aperto e non vuoto se µ > 4 ) dei punti sui quali fµ (x) > 1 :
; ' <
'
A0 := x ∈ [0, 1] ' fµ (x) > 1 .

La successione delle controimmagini fµ−k (A0 ) è fatta di punti che hanno traiettorie definitivamente destinate verso
−∞. Ne segue che l’unico insieme che conta ai fini della dinamica asintotica, e che è invariante secondo la fµ , è
dato dal seguente insieme A chiamato, seppure impropriamente,
Attrattore della mappa quadratica

b ∞
d
A := [0, 1] \ fµ−j (A0 ) = fµ−j ([0, 1]) . (1.3)
j=0 j=0

Si noti che A è chiuso, dato che fµ è continua e che A0 è aperto (se µ > 4 ).
Per mostrare l’uguaglianza fra il secondo ed il terzo membro della (AT ), per provare che x appartiene ad
A se e solo se fµj (x) appartiene a [0, 1] per ogni j ∈ N, e, più in generale, per esprimere convenientemente
la dinamica su [0, 1], è opportuno innanzi tutto ricordare le seguenti relazioni, valide per una qualsiasi funzione f
fra due spazi di punti X ed Y:

(R1) se f : X → Y e D ⊂ Y, allora: f f −1 (D) ⊆ D , e l’inclusione è stretta su punti y ∈ D\f (X), e cioè:


se D ⊆ f (X), allora: f f −1 (D) = D ;

(R2) per ogni A, B ∈ 2Y , sussiste la: f −1 (A \ B) = f −1 (A) \ f −1 (B);

(R3) se f (A \ B) ∩ f (B \ A) = ∅ allora: f (A ∩ B) = f (A) ∩ f (B), altrimenti vale l’inclusione: ⊂ .


Infatti, dalle f (A ∪ B) = f (A) ∪ f (B) e (A ∪ B) ∩ (A ∪ C) = A ∪ (B ∩ C) segue in tal caso
0 1 0 1
f (A ∩ B) ∪ f (A \ B) ∩ f (B ∩ A) ∪ f (B \ A) = f (A ∩ B) .

Successivamente, è utile introdurre la seguente notazione. Siano


; ' <
'
I0 : = x ∈ [0, 1/2] ' 0 ≤ fµ (x) ≤ 1 ,
; ' <
'
I1 : = x ∈ [1/2, 1] ' 0 ≤ fµ (x) ≤ 1 ,

e si introducano gli insiemi

Km definiti da Km := fµ−m ([0, 1]), m = 0, 1, . . . ,


Am definiti da Km := fµ−m (A0 ), m = 1, . . . ,

M. Lo Schiavo
5.1. La mappa quadratica 245

Giacché µ > 4 , tutti gli insiemi Km ed Am sono composti da intervalli, rispettivamente: chiusi quelli di
Km ed aperti quelli di Am , disgiunti e non vuoti. In particolare: I0 ed I1 sono intervalli chiusi, disgiunti, non
vuoti, e tali che:
K1 = fµ−1 ([0, 1]) = [0, 1] \ A0 = I0 ∪ I1 .
Infatti: se µ è maggiore di 4 il punto critico c della fµ è (unico e) tale che fµ (c) > 1 . Allora, detto J un
qualsiasi sottoinsieme di [0, 1], si traggono le seguenti considerazioni.

• fµ−1 (J) consiste di due sottoinsiemi l’uno di I0 l’altro di I1 in quanto ogni punto in [0, 1] ammette una ed
una sola immagine inversa in ciascun I0 ed I1 ; ciò perché fµ è continua, monotona su I0 ed I1 , e tale che
fµ (I0 ) = fµ (I1 ) = [0, 1].
• Qualunque sia σ ∈ {0, 1} , l’insieme Iσ ∩ fµ−1 (J) è non vuoto se tale è J .
• La precedente proprietà si può poi estendere alle iterazioni successive della mappa fµ−1 nel seguente modo.
Si definiscano, per m = 1, 2, . . . e j = m − 1, m − 2, . . . , 1, 0 , gli insiemi

Iσj ···σm := Iσj ∩ fµ−1 (Iσj+1 ···σm ) .

Allora, qualsiasi sia m ∈ N, l’insieme Iσm è non vuoto e, essendo non vuoto Iσj+1 ···σm , tale risulta
Iσj ···σm := Iσj ∩ fµ−1 (Iσj+1 ···σm ).
• Nessun punto y di [0, 1] ammette immagine inversa che sia in A0 . Infatti la (R1) con D ≡ [0, 1] impone
fµ fµ−1 ([0, 1]) ⊆ [0, 1]. Ma ciò non accade ai punti x ∈ A0 , per cui deve essere fµ−1 ([0, 1]) ∩ A0 = ∅ .
• La fµ−1 (A ∪ B) = fµ−1 (A) ∪ fµ−1 (B) implica che se A ⊃ B allora fµ−1 (A) ⊃ fµ−1 (B). Per cui, dato che
K0 = [0, 1] ⊃ A0 , si ha senz’altro: Km ⊃ Am per ciascun m = 1, 2, . . ..
• La: fµ−1 (A0 ) ∩ A0 = ∅ (provata qui sopra), l’essere fµ−1 (∅) = ∅ , e la fµ−1 (A ∩ B) = fµ−1 (A) ∩ fµ−1 (B),
7 8
fanno concludere che anche Am+1 ∩ Am = fµ−1 (Am ) ∩ Am = fµ−m fµ−1 (A0 ) ∩ A0 = ∅ .

Queste e la (R2) permettono innanzi tutto di verificare che

rccclK1 := fµ−1 ([0, 1]) = fµ−1 (K0 ) = K0 \fµ−0 (A0 ) = [0, 1]\A0
1
b
K2 := fµ−2 ([0, 1]) = fµ−1 (K1 ) = K1 \fµ−1 (A0 ) = [0, 1]\ Aj
j=0
2
b
K3 := fµ−3 ([0, 1]) = fµ−1 (K2 ) = K2 \fµ−2 (A0 ) = [0, 1]\ Aj
j=0

... ......

e cioè che sussistono, per m = 1, 2, . . . , le

Km+1 : = fµ−(m+1) ([0, 1]) = fµ−1 (Km ) = Km \fµ−1 (Am−1 )


m
b (1.4)
= Km \Am = [0, 1]\ Aj ⊆ Km ,
j=0
e∞
e quindi la (AT ) : A = j=0 Kj come conseguenza della:

b
A = [0, 1]\ Am ≡ (· · · (([0, 1]\A0 )\A1 ) · · · ) ≡ (· · · ((Km \Am )\Am+1 ) · · · ).
m=0

In secondo luogo si ha che ciascuno degli insiemi Km consiste esattamente di 2m intervalli chiusi, e ciò verrà
anche confermato nella (KI) per induzione su m = 0, 1, . . . . In effetti, cosı̀ come l’insieme fµ−m (c) delle controim-
magini di ordine m del punto critico c è costituito esattamente da 2m punti, l’insieme Am = fµ−m (A0 ) è costituito
da 2m intervalli aperti non vuoti; ciascuno di essi cade internamente ad uno ed uno solo dei 2m intervalli, chiusi
disgiunti non vuoti, che costituiscono l’insieme Km = fµ−m ([0, 1]), e da questo vengono sottratti lasciandone 2m+1
intervalli ancora chiusi non vuoti. L’unione di tali sottointervalli, risultato della m-esima iterazione della mappa
fµ−1 , forma (per costruzione) l’insieme Km = fµ−m ([0, 1]) e, sempre per il fatto che µ > 4 , ciascuna delle unioni
nella (EK) è fra insiemi disgiunti, cosı̀ come ciascuna delle immagini inverse è da insiemi non vuoti in insiemi non
vuoti.

Note di Sistemi Dinamici


246 Capitolo 5. Comportamento caotico dei Sistemi

È importante ribadire che fµ è continua e strettamente monotona su ciascuno degli intervalli I0 ed I1 , ed


assume su di essi i valori zero ed uno, e quindi la loro fµ -immagine è tutto [0, 1]. Se ne deduce che le proprietà
topologiche dei loro sottoinsiemi, ed in particolare il numero e le posizioni relative dei punti fissi e critici delle
funzioni definite su essi, risultano conservati nella operazione:
fµ fµ
I0 −→ [0, 1] oppure I1 −→ [0, 1],

cosı̀ come sono conservati in ciascuna delle due operazioni inverse:


fµ−1 fµ−1
[0, 1] −→ I0 oppure [0, 1] −→ I1 .

In particolare: [0, 1] = fµ fµ−1 ([0, 1]). Questa, e la (R1), implicano che:

per ogni sottoinsieme J ⊆ [0, 1] si ha: J = fµ fµ−1 (J) .

D’altra parte sussistono la fµ−1 ([0, 1]) = I0 ∪ I1 e la fµ−1 (J) = fµ−1 ([0, 1] ∩ J) = fµ−1 ([0, 1]) ∩ fµ−1 (J). Se ne
conclude che:
7 8 7 8
fµ−1 (J) = I0 ∩ fµ−1 (J) ∪ I1 ∩ fµ−1 (J) , (F U 1) (1.5)
J = fµ fµ−1 (J) = fµ (I0 ∩ fµ−1 (J)) ∪ fµ (I1 ∩ fµ−1 (J)); (F U 2) (1.6)

ed anzi, per ogni J ⊆ [0, 1] si ha fµ (I0 ∩ fµ−1 (J)) = fµ (I1 ∩ fµ−1 (J)), giacché ciascun punto di J ha una ed
una sola immagine inversa in I0 ed una ed una sola immagine inversa in I1 . In altre parole, la (F U 2) si specializza
nella
J = fµ (I0 ∩ fµ−1 (J)) = fµ (I1 ∩ fµ−1 (J)) . (1.7)
Dalla (F U 1) si hanno in particolare le (unioni disgiunte)
7 8 7 8
fµ−1 (I0 ) = I0 ∩ fµ−1 (I0 ) ∪ I1 ∩ fµ−1 (I0 ) =: I00 ∪ I10
7 8 7 8 (1.8)
fµ−1 (I1 ) = I0 ∩ fµ−1 (I1 ) ∪ I1 ∩ fµ−1 (I1 ) =: I01 ∪ I11

(la cui unione è K2 ), e le


7 8 7 8
fµ−1 (I01 ) = I0 ∩ fµ−1 (I01 ) ∪ I1 ∩ fµ−1 (I01 ) =: I001 ∪ I101
7 8 7 8 (1.9)
fµ−1 (I11 ) = I0 ∩ fµ−1 (I11 ) ∪ I1 ∩ fµ−1 (I11 ) =: I011 ∪ I111 ,

(la cui unione è fµ−2 (I1 )). Ancora, ed in particolare, si ricavano le


b
K1 = fµ−1 ([0, 1]) = I0 ∪ I1 = Iσ0 ,
σ0 ∈{0,1}
0 b 1 b
K2 = fµ−2 ([0, 1]) = fµ−1 Iσ1 = Iσ0 σ1 ,
σ1 ∈{0,1} σ0 ,σ1 ∈{0,1}
c c c
giacché è σ0 ∈{0,1} ∩ fµ−1 (Iσ1 ) ≡
σ1 ∈{0,1} Iσ0 σ0 ,σ1 ∈{0,1} Iσ0 σ1 . Segue, allo stesso modo, la
0 b 1 b
K3 = fµ−3 ([0, 1]) = fµ−1 Iσ1 σ2 = Iσ0 σ1 σ2 .
σ1 ,σ2 ∈{0,1} σ0 ,σ1 ,σ2 ∈{0,1}

È opportuno concludere la notazione. Ancora dalla (F U 1), per m = 0, 1, 2, . . ., e con σi ∈ {0, 1} , i=


0, 1, . . . , m , si inducono le

Iσ0 ···σm : = Iσ0 ∩ fµ−1 (Iσ1 ···σm )


7 7 88
= Iσ0 ∩ fµ−1 Iσ1 ∩ fµ−1 Iσ2 ∩ · · · ∩ fµ−1 (Iσm ) · · ·
(1.10)
= Iσ0 ∩ fµ−1 (Iσ1 ) ∩ fµ−2 (Iσ2 ) ∩ · · · ∩ fµ−m (Iσm )
= Iσ0 ···σm−1 ∩ fµ−m (Iσm ) .

Inoltre, la (F U 1) e la seconda delle (EI) implicano le


b b
Iσ0 ···σm = Iσ0 ∩ fµ−1 (Iσ1 ···σm ) = fµ−1 (Iσ1 ···σm ) .
σ0 ∈{0,1} σ0 ∈{0,1}

M. Lo Schiavo
5.1. La mappa quadratica 247

Mediante queste si prova per induzione la

Km+1 : = fµ−(m+1) ([0, 1]) = fµ−1 (Km )


b 0 b 1
= Iσ0 ∩ fµ−1 Iσ1 ···σm
σ0 ∈{0,1} σi ∈{0,1}
i=1,...,m (1.11)
b b
= Iσ0 ∩ fµ−1 (Iσ1 ···σm ) = Iσ0 ···σm .
σi ∈{0,1} σi ∈{0,1}
i=0,...,m i=0,...,m

Si osservi ora che, per la prima delle (EI), si ha


(
x ∈ Iσ0
x ∈ Iσ0 σ1 ···σm se e solo se
fµ (x) ∈ Iσ1 ···σm

ed anzi ogni punto x′ di Iσ1 ···σm è immagine x′ = fµ (x) di (esattamente) un x ∈ I0 e di un x ∈ I1 ,


entrambi appartenenti a fµ−1 (Iσ1 ···σm ), si ricordi la (F U 2b).
Seguono le importanti espressioni, con σk ∈ {0, 1} , per k = 0, 1, . . . , m ,

fµ (Iσ0 ···σm ) = fµ fµ−1 (Iσ1 ···σm ) = Iσ1 ···σm , che implica


fµm (Iσ0 ···σm ··· ) = Iσm σm+1 ··· ⊂ Iσm , insieme con
(1.12)
fµm (Iσ0 ···σm ) = Iσm , per m = 1, 2, . . . , ed in particolare
x ∈ Iσ0 ···σm se e solo se fµj (x) ∈ Iσj per ogni j = 0, 1, . . . , m.

In tal modo si riconosce che il valore dell’indice σj ∈ {0, 1} mostra quale sia l’insieme I0 o I1 , rispettivamente,
nel quale il sottointervallo Iσ0 σ1 ···σj ··· viene trasportato dalla j -ma iterazione della mappa fµ .
I0 I1
I00 I01 10
I11 I10
xn+1

11

I000 I001 I011 I010 I110 I111 I101 I100

01

A1 00
A1 xn
A2 A2 A0 A2 A2
m
In definitiva, ciascuno dei 2 sotto-intervalli che costituiscono fµ−m ([0, 1])
viene monotonamente trasformato
dalla fµm esattamente su tutto l’intervallo [0, 1]. Anzi la fµm è alternativamente crescente e decrescente su di essi
[la fµ lo è in I0 , I1 ; la fµ2 lo è negli intervalli {I00 , I10 } = fµ−1 (I0 ) , ed {I01 , I11 } = fµ−1 (I1 ) ; etc.], e pertanto fµm+1 ha
esattamente 2m massimi su [0, 1], ed interseca la retta y = x in almeno 2m+1 punti, essendo fµm+1 (1/2) < 0.
Se µ è abbastanza grande, √ gli intervalli Iσ0 ···σm hanno certamente tutti lunghezza decrescente al crescere di
m. Ad esempio µ > 2 + 5 rende ogni x ∈ I0 ∪ I1 tale che |∂f (x)| > λ per un certo λ > 1 e quindi la lunghezza
di ciascun sottointervallo è ridotta almeno di 1/λ ad ogni applicazione della mappa fµ−1 ]. In tal caso, è possibile
mostrare in modo semplice che A è un esempio di
Insieme di Cantor := un insieme (non numerabile) chiuso e non contenente punti interni né punti isolati.
Equivalentemente: un chiuso, totalmente disconnesso, perfetto; ove, si ricordi,
Insieme perfetto := un insieme che coincide con il suo derivato: ogni suo punto è di accumulazione di punti
dell’insieme.
Infatti:

(i) A non contiene punti interni. Come si è detto, i due segmenti I0 ed I1 vengono monotonamente trasportati
in tutto [0, 1] e ciò è vero, dopo m passi, per ciascuno dei 2m intervalli chiusi dai quali è composto fµ−k ([0, 1]).

Note di Sistemi Dinamici


248 Capitolo 5. Comportamento caotico dei Sistemi

Pertanto se A contenesse intervalli, (e quindi punti interni ad A stesso) siccome, iterando la fµ , ogni
intervallo contenuto in I0 ∪ I1 ha lunghezza crescente almeno secondo il fattore λ > 1 , se la sua lunghezza
fosse positiva esso finirebbe per coprire tutto [0, 1] dopo un numero finito di iterazioni, e quindi avere una
sua parte che si perde in A0 contrariamente all’ipotizzata definitiva appartenenza a [0, 1].
(ii) A non contiene punti isolati. Se A contenesse qualche punto isolato p, tutti i punti vicini ad esso dovreb-
bero cadere in qualche fµ−m (A0 ). Allora il punto p, che certo non può essere interno ad alcuno degli intervalli
dai quali è composto fµ−m (A0 ) e che hanno lunghezza decrescente con m, o è punto di accumulazione degli
estremi di tali intervalli oppure coincide definitivamente con uno di essi. Tali estremi però sono anch’essi
punti di A in quanto immagini inverse dello zero, e l’ipotesi esclude la prima eventualità. Rimane la possibi-
lità che esistano m& ed ε > 0 tali che: fµm̃ (p) ≥ 0 e che (dovendo essere isolato) per ogni x ∈ Bε (p)\{p} sia:
fµ (x) ̸∈ [0, 1], e cioè fµm̃ (x) < 0 . Dovrebbero allora essere nulle sia fµm̃ (p) che ∂fµm̃ (p); ma si è visto che

in tal caso p dovrebbe necessariamente avere traiettoria passante per il punto critico c, e quindi per l’interno
di A0 .

Ciò fa intuire come variazioni per quanto piccole delle condizioni iniziali portino sicuramente a delle traiettorie
definitivamente diverse; [si pensi che ogni intervallo J ⊂ [0, 1] che contenga punti di A contiene anche controimmagini del
punto c , il quale separa le traiettorie che passano per I0 da quelle che passano per I1 ]. Tutte queste proprietà verranno più
oltre dimostrate simultaneamente ed in modo alternativo facendo ricorso alla coniugazione topologica del sistema
(A , fµ ) con un più comodo ed equivalente sistema dinamico.
Una proprietà simile, ma più debole, dell’ultima vista qui sopra è quella posseduta da sistemi per i quali ci sia
solo la sicurezza di trovare, arbitrariamente vicino ad ogni punto, qualche altro la cui dinamica sia definitivamente
diversa, e cioè sistemi per i quali variazioni per quanto piccole delle condizioni iniziali possano dar luogo a traiettorie
definitivamente diverse. Ciò accade se l’attrattore contiene qualche
Direzione di espansività := per ogni x ∈ A esiste m0 ∈ N tale che

|(∂f m ) (x)| > 1 per ogni m > m0 ,

(per altre generalizzazioni si veda la fine del paragrafo).


Qualora nel suo attrattore (che, si ricordi, è insieme invariante) vi sia almeno una direzione di espansività, si
dice [Ruelle 1969] che
il sistema mostra dipendenza sensibile dal dato := comunque si scelga x nell’insieme invariante: A , (o po-
sitivamente invariante se la mappa non è invertibile), comunque grande si fissi δ > 0 (purché minore del
supx′ ∈A d(x, x′ )), in ogni intorno per quanto piccolo N (x) si può trovare almeno un y ∈ N (x) tale che
d(f m (x), f m (y)) > δ per qualche m ∈ N finito.
(In effetti la separazione si manifesta per un qualsiasi punto y purchè scelto nella direzione di espansività. Inoltre,
generalmente ci si aspetta che questo m sia convenientemente piccolo, e che la divergenza sia di tipo esponenziale:
d(f (x), f (y)) ≥ κd(x, y) con κ > 1 ).
Tale comportamento, spesso presente nei sistemi non lineari, non è però necessariamente presente in tutti
quei casi nei quali la dinamica è irregolare: non si verifica, ad esempio, nella rotazione irrazionale sul toro né è
conseguenza del period doubling.

Si osservi che l’introduzione degli indici σm tali che f m (Iσ0 ···σm ) = Iσm ed il fatto che I0 ed I1 sono disgiunti
permette di generare univocamente per ogni x ∈ A una successione σ = σ(x) := [σ0 , σ1 , σ2 , . . . ) unilateralmente
infinita di simboli σm che valgono zero o uno a seconda che l’evoluto al passo m-mo del dato x si trovi nell’in-
tervallo I0 oppure nell’intervallo I1 . Viceversa, il fatto che la lunghezza degli intervalli Iσ0 ,...,σm tende a zero
per m → ∞ lascia sperare (come verrà provato più avanti) che sia possibile far corrispondere ad ogni successione
σ0 , σ1 , . . . , σm , . . . uno ed un unico x ∈ A .
In definitiva, si intende individuare i punti di A mediante la loro storia evolutiva, e studiare le proprietà che
caratterizzano la traiettoria corrispondente a ciascuno di essi fra tutte quelle √ possibili. Un comodo metodo per
descrivere in questo modo l’evoluzione del sistema fµ (nel caso µ > 2 + 5 ) è fornito dalla cosiddetta

Dinamica Simbolica
Con questo nome ci si riferisce alla dinamica di un modello, realizzato mediante simboli astratti, la cui storia
evolutiva sia “la stessa” del sistema originario in esame. La potenza del metodo risiede nel fatto che lo studio del
modello simbolico è generalmente semplice, e che esso si adatta a molti diversi sistemi con le stesse caratteristiche
di moto. A tale scopo si consideri il seguente
Esempio 5.1.9 Lo shift di Markov (topologico, discreto).

M. Lo Schiavo
5.1. La mappa quadratica 249

1−1
Sia Y := {y1 , . . . , yN } ←→ {1, . . . , N } un alfabeto finito sul quale si introduca la topologia discreta τ d . La
topologia τ d può essere definita sugli interi, come sottoinsieme dei reali, tramite il valore assoluto; per essa ogni
singleton {yn } è aperto e chiuso, e la convergenza avviene solo per definitiva uguaglianza). Lo spazio i cui punti
sono le successioni σ := [σ0 , σ1 , σ2 , . . . ), unilateralmente infinite, di elementi σi presi in Y, e dotato della topologia
prodotto, verrà indicato con
(YN , τ p ) := (Y, τ d ) × (Y, τ d ) × · · · .
[ \] ^
infinite volte
Si ricordi che la topologia prodotto [Kelley § 3.2, Heisemberg3.28] τ p è quella generata dagli insiemi prodotto di un numero finito di
aperti scelti negli spazi fattori e, per il resto, di infiniti termini costituiti dai rimanenti spazi fattori. La convergenza rispetto a τ p
è la convergenza ”per coordinate”. Si noti inoltre che nel caso in esame il singleton {yj ∈ Y} è aperto e chiuso nella topologia discreta
τ
(Y, d ) , pertanto sono aperti e chiusi nella topologia prodotto
9 '
τ
p i cilindri a base finita, o cilindri finiti.
:
Si definisce
N
Cilindro di base Sk := σ ∈ Y ' σi1 = yi1 , σi2 = yi2 , . . . , σik = yik
l’insieme di tutte le successioni σ ∈ YN delle quali siano stati assegnati certi k valori {yij ∈ Y}j=1,...,k alle sue
coordinate nei siti i1 , . . . , ik , (l’insieme
) dei quali è detta* base Sk := {i1 , . . . , ik } del cilindro).
i1 , i2 , · · · , ik
I cilindri verranno indicati con .
yi1 , yi2 , · · · , yik
) *
0, 1, ··· , k
Cilindri del tipo possono essere una base per la topologia prodotto; sono infatti definite le
y0 , y1 , · · · , yk
seguenti operazioni:
) * ) *
i1 , i2 , · · · , ik c j1 , j2 , · · · , jh
Unione, o OR logico: :=
yi1 , yi2 , · · · , yik zj1 , zj2 , · · · , zjh
⎧ ' ⎫
⎪ ' almeno una delle seguenti è vera : ⎪
⎨ ' ⎬
'
σ ∈ YN ' σin = yin per ogni n = 1, . . . , k .

⎩ ' ⎪

' σjm = zjm per ogni m = 1, . . . , h

In particolare essa è tale che


b ) i1 , i2 , · · · , ij−1 , ij , ij+1 , · · · , ik
* )
i1 , i2 , · · · , ij−1 , ij+1 , · · · , ik
*
= ;
yi1 , yi2 , · · · , yij−1 , y , yij+1 , · · · , yik yi1 , yi2 , · · · , yij−1 , yij+1 , · · · , yik
y∈Y
) *
i1 , i2 , · · · , ik
ed il generico cilindro può essere considerato come unione di cilindri del tipo:
y , yi2 , · · · , yik
) * i1
0, 1, ··· , k
, ove le coordinate yi con i ̸∈ {i1 , i2 , . . . , ik } vengono lasciate assumere ogni valore in Y.
y0 , y1 , · · · , yk ) * ) *
0, 1, ··· , k c 0, 1, ··· , h
In tal modo la più generale unione è esprimibile come unione
y0 , y1 , · · · , yk z0 , z1 , · · · , zh
di cilindri aventi come base l’unione delle basi e coordinate tali da rendere vera almeno una delle condizioni assegnate
sui valori delle coordinate. ) * ) *
i1 , i2 , · · · , ik e j1 , j2 , · · · , jh
Intersezione, o AND logico: :=
yi1 , yi2 , · · · , yik zj1 , zj2 , · · · , zjh
⎧; ' <
⎪ N '
⎨ σ ∈ Y ' σin = yin , σjm = zjm , ∀ n = 1, . . . , k, m = 1, . . . , h


∅ se ∃i′ ∈ {i1 , i2 , . . . , ik } ∩ {j1 , j2 , . . . , jh } tale che yi′ ̸= zi′
Un cilindro di base Sk è allora una intersezione (finita) di cilindri di base S1 .
) *
N i1 , i2 , · · · , ik
Complementazione, o NOT logico: Y \ ad esempio dato da
yi1 , yi2 , · · · , yik
b ) * b ) * b ) *
i1 i1 , i2 i1 , i2 , · · · , ik
···
y yi1 , y yi1 , yi2 , · · · , y
y∈Y\{yi1 } y∈Y\{yi2 } y∈Y\{yik }

anch’esso chiuso ed aperto nella topologia detta in quanto complementare di un insieme che è chiuso ed aperto.
[Si noti, tuttavia, che la topologia prodotto
) τ
p non è la topologia
* discreta poiché i punti non sono aperti giacché non contengono
c 0, 1, ··· , n
alcun cilindro finito; né d’altra parte n∈N
y0 , y1 , · · · , yn
appartiene alla τ
p , infatti questa è chiusa rispetto a unioni
) *
0, 1, ··· , k
qualunque di insiemi che le appartengano, e ciò non avviene per l’insieme quando k → ∞ ].
y0 , y1 , · · · , yk

Note di Sistemi Dinamici


250 Capitolo 5. Comportamento caotico dei Sistemi

7 8
Si voglia ora definire su YN , τ p una metrica; sarà conveniente sceglierla in modo tale che la topologia indotta
dalle sfere coincida con quella prodotto, e quindi tale che le sfere siano cilindri. A questo scopo, si consideri Y
nuovamente come sottoinsieme di (N ⊂ R, | · |)N , e cioè si assumano le σi in (N ⊂ R, | · |); inoltre, per semplicità,
si consideri dapprima il caso Y =: Y2 con dim Y2 = 2 .
Si definisce la funzione d : YN N
2 × Y2 → R ∪ {0} data da
+

=∞
1
d(σ, σ ′ ) := |σ − σi′ | ,
i i
i=0
2

e se ne riconoscono le seguenti caratteristiche:

(i) d è in effetti una metrica giacché eredita dal modulo su R le proprietà:


(
d(σ, σ ′ ) > 0 ⇔ σ =
̸ σ′;
(i.1)
d(σ, σ ′ ) = 0 ⇔ σ = σ ′ ;

(i.2) d(σ, σ ′ ) = d(σ ′ , σ);


(i.3) d(σ, σ ′′ ) ≤ d(σ, σ ′ ) + d(σ ′ , σ ′′ ).

(ii) Le sfere Bε (σ ′ ), definite da tale metrica, sono date dagli insiemi


; ' < ; ' <
' '
σ ' σi = σi′ , ∀i ≤ i∗ , essendo i∗ := min j ' 2−j ≤ ε ed ε > 0;

infatti per tali σ si ha che



= =∞ ) *
1 1 1 1 ∗
d(σ, σ ′ ) := j
|σj − σj

| ≤ j
= i∗ +1 = 2−i ≤ ε ,
j=i∗ +1
2 j=i∗ +1
2 2 1 − 1/2

e d’altra parte se esistesse i′ < i∗ tale che |σi′ − σi′′ | = 1 sarebbe σ ̸∈ Bε (σ ′ ), in quanto in tal caso

risulterebbe d ≥ 2−i > ε.
) *
0, 1, ··· , k
(iii) Le sfere Bε (σ ′ ) sono allora cilindri del tipo , con k = i∗ ed yj = σj′ per ogni
y0 , y1 , · · · , yk
) *
∗ ′ 0, 1
j ≤ i . Ad esempio la sfera B1/2 (σ ) è il cilindro con y0 = σ0′ e y1 = σ1′ .
y0 , y1

In base ai tre punti qui sopra si può osservare che la convergenza in questa metrica equivale alla convergenza
per coordinate. 7 8
Risultati del tutto analoghi si ottengono nel caso generale YN , τ p con card Y = N > 2 e con una delle
seguenti metriche (ove δ(x − y) = 0 se x = y , ed uno altrimenti)

= ∞
=
|σi − σ ′ | δ(σi − σ ′ )
rcccd(σ, σ ′ ) = i
, d(σ, σ ′ ) = i
,
i=0
Ni i=0
2i

) * ' '
=∞
1 |σi − σi′ | '= ∞
σi − σi′ ''
′ ′ '
d(σ, σ ) = , d(σ, σ ) = ' '.
i=0
2i 1 + |σi − σi′ | '
i=0
(N + 1)i '
7 8
Infine, su YN , d si definisce una
Mappa d’avanzamento o Operatore di shift := S : YN → YN definito da

σ &→ Sσ := σ ′ tale che σ0′ = σ1 , σ1′ = σ2 , etc.


Tale evoluzione è talvolta subordinata ad un operatore di compatibilità, o operatore di “transizione” A : Y → Y , rappresentato da
una matrice N × N con elementi in {0, 1} ; esso agisce sul generico elemento σn ∈ Y di σ ∈ YN , e ne ammette il cambio in σn+1 se
Aσ̃n ,σ̃n+1 = 1 , ove σ&n ∈ Y . Si ha cioè che una successione σ ∈ YN rappresenta una storia plausibile se e solo se σ appartiene a quel
sottoinsieme YN A di YN di quei punti che hanno σn e σn+1 tali che Aσ̃n ,σ̃n+1 = 1 .
Il sottoinsieme YN A prende allora il nome di catena di Markov topologica ed il sistema dinamico il nome di subshift finito.
Alcuni esempi di subshift finiti sono i seguenti:

M. Lo Schiavo
5.1. La mappa quadratica 251

• Ai,j = 1 ⇒ YN N
A ≡ Y ;
• Ai,j = δi,j ⇒ YNA , e cioè consistente solo di N punti fissi;
) * ) * ) *
0 0 0 1 0 0
• (nel caso dim Y = 2 ), A = , opp. , opp. , implicano che nessun punto è permesso; infatti, ad
1 0 0 0 0 0
esempio la prima implica che la successione σ non può contenere zeri perché non evolvono, né uni perché evolverebbero in zeri;
) * ) *
0 1 0 0
A= , opp. , danno solo un punto fisso: tutti uni; la prima inoltre ammette anche il punto: 01111 . . . ;
0 1 0 1
) *
1 1
A= , per la quale 1 può seguire lo zero, ma non il viceversa. Sono allora possibili tutte le successioni tali che, per
0 1
qualche k , abbia
σ0 = 0, σ1 = 0, . . . , σk = 0, σk+1 = 1, σk+2 = 1, . . . ;
• la mappa) quadratica
* fµ (x) per µ3 < µ < 4 e purché ristretta ad un conveniente sottoinsieme di I1 ∪ I2 (vedi: sopra) con
0 1
matrice
1 1

Nuovamente iniziando con il caso semplice: Y = Y2 con dim Y2 = 2 , si consideri lo Shift S : YN N


2 → Y2 . Si
possono subito rimarcare i seguenti fatti:
(i) L’operatore S risulta continuo nella metrica d. Infatti affinché d(σ, σ ′ ) < δ implichi d(Sσ, Sσ ′ ) < ε , e cioè
' −j ∗
affinché σ ∈ Bδ (σ ) implichi Sσ ∈ Bε (Sσ ), detto i := min{j ' 2 ≤ ε} basta prendere δ = 2−(i +1) , e
′ ′ ∗
′ ∗
cioè rendere uguali le prime coordinate di σ e di σ almeno “un posto in più” dopo i . In tal modo, perso
quest’ultimo vantaggio a causa dello shift, Sσ rimane comunque vicina ad Sσ ′ per almeno ε .
(ii) Esistono due e solo due punti fissi:
σ (1) = [0, 0, . . .), e σ (2) = [1, 1, . . .) ;
e, più in generale, esistono 2n punti periodici σ (kn ) con kn = 1, 2, . . . , 2n , aventi periodo n (non necessa-
riamente minimo):
σ (kn ) = [σ1 , σ2 , . . . σn , σ1 , σ2 , . . . σn , σ1 , σ2 , . . . σn , . . .),
ed esistono 2h · 2n punti “definitivamente n-periodici” dopo h passi:
[σ1 , σ2 , . . . σh , σ1 , σ2 , . . . σn , σ1 , σ2 , . . . σn , . . .) .

(iii) L’insieme dei punti periodici è denso in YN N N


2 , e cioè la loro chiusura è Y2 stesso. Infatti, per ogni σ ∈ Y2 ,
esiste σ (kn ) periodico tale che d(σ (kn ) , σ) < ε : tale è ad esempio un qualsiasi punto periodico che abbia
periodo maggiore dell’indice i∗ (definito come il più grande dei j tali che 2−j ≤ ε ) e le prime i∗ coordinate
uguali a quelle di σ .
! di YN
(iv) Esistono punti σ N
2 la cui orbita arriva vicina quanto si vuole a qualsiasi punto σ ∈ Y2 , e cioè dati
N
ε > 0 e σ ∈ Y esiste n ∈ N tale che S σ ∈ Bε (σ). A questo scopo, fissato ε e quindi le prime i∗
n!

coordinate di σ , per essere sicuri che questo “pacchetto” di coordinate compaia prima o poi nella storia di
! basta costruire σ
σ ! in modo che contenga ogni pacchetto finito di coordinate:
! := [0, 1, 00, 01, 11, 000, 001, 010, . . ., 0000, 0001, . . . , 00000, 00001, . . .) .
σ

(v) L’essere denso l’insieme dei punti periodici esclude che possa esistere un’orbita periodica attrattiva, cosı̀ come
l’esistenza di anche una sola traiettoria densa rende YN 2 Topologicamente transitivo e quindi in particolare
non decomponibile in sottoinsiemi S -invarianti (vedi oltre).
(vi) Pensando alla rappresentazione dei numeri ξ ∈ [0, 1] in base due, ci si rende conto che la cardinalità del-
l’insieme dei punti periodici è al più quella del numerabile, mentre la cardinalità dei punti non periodici è
quella del continuo, potendo far corrispondere gli irrazionali ai non-periodici ed i razionali a quelli periodici.
C∞ σj (k ) (kn )
Infatti ξ = j=0 2j+1 assegna ad un punto periodico σ (kn ) , [e quindi tale che per esso σh n = σh+in per
Cn−1 C∞ σin+h Cn−1 σh 0 1
2n
ogni i ∈ N ed h = 1, 2, . . . , n ] il valore ξ̄ = h=0 i=0 2in+h+1 = h=0 2h+1 2n −1 che è razionale.

(vii) Si osserva che l’insieme YN è perfetto: ogni punto σ ∈ YN è un punto di accumulazione di altri punti di YN ;
infatti per ogni ε > 0 si ha che Bε (σ) \ {σ} ̸= ∅ .
(viii) Dati (comunque) due punti distinti σ e σ ′ , per vicini che essi siano, la loro storia è tale da presentare un
n < ∞ nel quale i loro iterati [σn , σn+1 , . . .) e [σn′ , σn+1

, . . .) hanno distanza superiore all’unità: il sistema
presenta dipendenza sensibile dal dato.

Note di Sistemi Dinamici


252 Capitolo 5. Comportamento caotico dei Sistemi

Le stesse caratteristiche sostanziali che si sono trovate per lo spazio (YN 2 , d) nel caso dim Y2 = 2 , ottenuto ad
esempio come prodotto di infinite copie di ({0, 1}, τ |·| ), si ritrovano anche per (YN , d) ottenuto come prodotto su
uno spazio Y di N > 2 simboli equipaggiato ad esempio con una delle metriche viste sopra.
In ogni caso, YN può essere costruito come prodotto di infinite copie dello spazio ({1, . . . , N }, | · |), e questo è
totalmente disconnesso, compatto, metrico.
[Si ricordi che queste due ultime proprietà implicano la completezza, (vedi: [Kolmogorov]); e si rammenti che uno spazio, (od un suo
sottoinsieme), si dice connesso se non esiste alcuna coppia di insiemi aperti non vuoti e disgiunti la cui unione sia lo spazio, (o l’insieme
in esame); e si dice totalmente disconnesso se i più grossi (per inclusione) insiemi connessi sono i punti. La topologia discreta e la τ p
su YN ad esempio, rendono lo spazio totalmente disconnesso].
Pertanto, YN è totalmente disconnesso, perfetto, compatto, metrico.
Equivalentemente, siccome perfetto e completo implicano non numerabile, esso è un Insieme di Cantor, e come
tale è uno spazio privo di punti interni, privo di punti isolati, e non numerabile.

Se ne conclude che risulta un insieme di Cantor anche ogni insieme omeomorfo a YN . In particolare, è
omeomorfo a YN 2 con dim Y2 = 2 lo spazio dei risultati di un processo di lancio ripetitivo di una moneta, (a
prescindere dall’essere questa più o meno “onesta”, ma solo con l’ipotesi che entrambe le facce siano possibili).
Analogamente, le considerazioni che qui seguono confermano le proprietà (già viste prima) del sistema (A , fµ ) ed
che: risulta un insieme di Cantor l’attrattore A della mappa quadratica fµ := µx(1 − x)
in particolare il fatto √
quando µ > λ := 2 + 5, valore questo per il quale |∂fµ | > λ > 1 in ogni punto dell’insieme I0 ∪ I1 . (Qui con
“attrattore” si intende l’insieme dei punti di [0, 1] che vi rimangono sotto qualunque iterazione della mappa; in
seguito si preciserà meglio tale concetto e se ne darà una definizione più restrittiva).

Proposizione 5.1.1 La dinamica, sull’insieme A , del sistema definito dalla mappa fµ con µ > 2 + 5 , può essere
rappresentata in modo simbolico mediante il sistema definito dallo shift di Markov su (YN 2 , τ p ), con dim Y2 = 2 .
In effetti: i due sistemi dinamici: (YN 2 , S) ed (A , f µ ) sono topologicamente coniugati.

Dimostrazione
Ogni x ∈ A individua una ed una sola successione σ ∈ YN 2. Infatti: per ogni x ∈ A esiste una (ed una
sola) traiettoria γ := {x0 = x, x1 = f (x), . . .} tutta contenuta in A ⊂ I0 ∩ I1 . Pertanto, e mediante la

⎨0 se xi := fµ+i (x) ∈ I0
σi = e cioè: fµ+i (x) ∈ Iσi ∀i ≥ 0, (1.13)
⎩1 se x := f +i (x) ∈ I
i µ 1

ogni x ∈ A individua univocamente la successione σ unilateralmente infinita di indici detta “storia” del punto x.
Viceversa:
Ogni successione σ ∈ YN 2 individua uno ed un solo punto x ∈ A , e da questo parte una traiettoria che è totalmente
contenuta in A . Infatti, considerato che la lunghezza di un qualsiasi sottointervallo non vuoto J contenuto in
I0 o in I1 risulta λ volte più grande della lunghezza di uno qualsiasi dei due intervalli non vuoti formanti la sua
controimmagine fµ−1 (J), si ha che:

(i) Ogni successione σ ∈ YN


2 individua almeno un x ∈ A .
Infatti: affinché una certa σ sia una storia plausibile per un qualche x ∈ A , per ogni m > 0 dovranno essere
tutte vere le
x ∈ Iσ0 , fµ (x) ∈ Iσ1 , . . . , fµj (x) ∈ Iσj , . . . , fµm (x) ∈ Iσm ,
e cioè, in virtù dell’ultima delle (SF ),

x ∈ I0 ∩ fµ−1 (Iσ1 ) ∩ · · · ∩ fµ−m (Iσm ) o anche x ∈ Iσ0 ···σm .

Ma ciascuno dei 2m+1 intervalli Iσ0 ···σm chiusi disgiunti non vuoti la cui unione costituisce l’insieme Km+1 =
cm −(m+1)
[0, 1] \ j=0 fµ−j (A0 ) = fµ ([0, 1]) è tale che Iσ0 ···σm−1 ⊃ Iσ0 ···σm , (vedi l’ultima delle (EI)). Pertanto,
per ciascuna fissata σ ∈ YN 2 , la famiglia: {Iσ0 ···σm }m∈N di sottoinsiemi (chiusi, inclusi) di [0, 1] ha la proprietà
che: ogni intersezione finita di suoi elementi e∞ è non vuota (“sistema centrato”). La compattezza di [0, 1]
implica allora che esiste (almeno un) x ∈ i=0 Iσ0 ···σi che rende vere tutte le:

x ∈ Iσ0 , fµ (x) ∈ Iσ1 , fµ2 (x) ∈ Iσ2 , . . . , fµj (x) ∈ Iσj , . . .

le quali mostrano che la successione σ è la storia di x definita dalla (OS) e che x ∈ A giacché f j (x) ∈ [0, 1]
per ogni j = 0, 1, . . . .

M. Lo Schiavo
5.1. La mappa quadratica 253

(ii) Ogni successione σ ∈ YN 2 individua al più un x ∈ A .


e∞
Infatti i=0 Iσ0 ···σi non può che essere un insieme costituito da un solo punto: dati due punti in A a distanza
δ > 0 l’uno dall’altro, dopo m ! iterazioni, con m! tale che λm̂ δ > 1/2 , essi restano da bande opposte rispetto
ad A0 e quindi non possono avere una stessa σ .

Esiste allora una mappa invertibile H che assegna tale corrispondenza biunivoca

H : A → YN
2, H : x &→ σ = H(x) ,

e la mappa H coniuga le due dinamiche: di fµ su A , e di S su YN


2

S ◦ H = H ◦ fµ ;

e cioè, si veda il § III.1 e la seconda delle (SF ), σ ′ = Sσ è la successione che corrisponde a x′ = fµ (x)
quando σ è quella che corrisponde a x.

Inoltre H è un omeomorfismo, e la coniugazione è topologica, in quanto

(i) la mappa H : A → YN ∗
2 è∗ continua. Infatti: dato ε > 0 , si fissi i come il più piccolo dei j tali che 2
−j
≤ ε.
−(i +1) i∗
+1
L’insieme Ki∗ +1 = fµ ([0, 1]) è formato dai 2 intervalli chiusi disgiunti non vuoti Iσ0 ···σi∗ , e
contiene A . Esiste, positivo, il valore minimo: δ(ε) delle distanze fra due qualsiasi di tali intervalli. Dati
comunque |x − x′ | < δ essi necessariamente appartengono ad uno, ed il medesimo, di questi intervalli, e cioè
x, x′ ∈ Iσ0 ···σi∗ per una qualche i∗ -pla (σ0 , . . . , σi∗ ). Ne segue che i primi i∗ passi delle storie dei punti x, x′

coincidono, e che d(σ, σ ′ ) ≡ d(H(x), H(x′ )) < 1/2i ≤ ε .
(ii) la mappa H−1 : YN 2 → A è continua. Infatti: la lunghezza degli intervalli Iσ0 ···σm decresce con m; e pertanto
dati comunque σ ′ ∈ YN ∗ ′
2 ed ε > 0 , è possibile fissare i tale che |Iσ0′ ···σi′∗ | < ε . Ma ogni σ ∈ Bδ (σ ) con

δ ≤ 1/2i ha le prime coordinate σi = σi′ per almeno tutti i siti i = 0, 1, . . . , i∗ ; e quindi tale σ individua
un x che appartiene all’intervallo Iσ0′ ···σi′∗ . Questo x ha storia simile a quella di x′ = H−1 (σ ′ ) sino alla
i∗ -ma iterazione della mappa fµ , e verifica la |H−1 (σ) − H−1 (σ ′ )| = |x − x′ | < ε .

"

In definitiva si ha che:

• fµ ha infinite (numerabili) traiettorie periodiche, non attrattive, densamente distribuite in A;


• fµ ha infinite (non numerabili) traiettorie non periodiche, non attrattive, delle quali almeno una è densa in
A ;
• fµ mostra dipendenza sensibile dal dato iniziale.

A prescindere dalla struttura geometrica di A , le tre proprietà dette si riassumono dicendo che
Il sistema dinamico, ovvero la sua evoluzione su A , sono caotici.
“Benché il moto sia, strettamente parlando, deterministico, ciononostante da un punto di vista pratico esso è
del tutto casuale: anche approssimativamente, lo stato a tempi grandi dipende in modo sensibile da dettagli non
osservabilmente fini di quello al tempo zero” (O.Lanford).
Si ricordi infatti che lo shift su YN
2 è equivalente al sistema di testa e croce ripetuti, che è il più classico gioco
in cui si assume vi sia totale casualità e non causalità, e ciò a prescindere dalla probabilità “di vincita” con cui la
moneta mostra una delle sue due facce, purché tale probabilità
√ sia non banale.
Qui sopra si è mostrato che (A , fµ ), con µ > 2 + 5 , è caotico.
Esempio 5.1.10 La “tent-map su T1 ”, e cioè la trasformazione di T1 in sé data da θ &→ 2θ , per θ ∈ [0, π], e
θ &→ 2(2π − θ) per θ ∈ [π, 2π) è espansiva su tutto T1 (e quindi ha dipendenza sensibile dal dato); in base a quanto
visto nell’Esempio 4 si ha che tale mappa è caotica su T1 . In più ciò implica che anche la mappa f4 := 4x(1 − x)
è caotica su [0, 1]. Infatti, come è mostrato qui di seguito, è possibile stabilire una corrispondenza, anche se non
invertibile, fra queste due mappe. Si noti che in questi due casi l’attrattore non è un insieme di Cantor, visto che
coincide con T1 e con [0, 1] rispettivamente, e che quindi la coniugazione topologica con (YN , τ p ) non è l’unica
possibilità per un sistema di esibire comportamento caotico.

Note di Sistemi Dinamici


254 Capitolo 5. Comportamento caotico dei Sistemi

Dimostrazione Talvolta la tent-map viene anche definita su [0, 1] in sé, valendo 2y su [0, 12 ] e 2(1 − y) su [ 12 , 1]

mediante la θ := 2πy ∈ T1 . Si ponga y =: 2π 1
arcsin x ; si ha sin2 θ = x. Allora, la x &→ 4x(1 − x) comporta
la sin2 θ &→ 4 sin2 θ cos2 θ ≡ (2 sin θ cos θ)2 ≡ sin2 (2θ). In tal modo si vede che l’endomorfismo θ &→ 2θ del toro T1
in sé che si è visto nell’Esempio 4 produce sulla x la stessa dinamica della mappa quadratica fµ con µ = 4. Il
morfismo θ &→ 2θ coincide con quello della tent-map salvo che per l’inessenziale parità, che è invece la stessa di
quella di un’altra f : [0, 1] → [0, 1], la “mappa del panettiere” o “baker’s map”: 2y e 2y − 1 su [0, 12 ] e [ 12 , 1]
rispettivamente, e che ha proprietà del tutto analoghe alla precedente. "

[La seguente è pura divagazione. La tent-map abbia distribuzione p(y)dy ≡ c · dy con |c| = 1 ; essa cioè sia uniforme su [0, 1] .
Se si pensa ad una rappresentazione in base due, si ha che il sistema dinamico della tent-map può essere usato come generatore casuale
di numeri uniformemente distribuiti su [0, 1]. Se p(y) è la densità assegnata su [0, 1], p è invariante sotto la dinamica quando
p(y)dy = p(z1 )dz1 + p(z2 )dz2 con z1 , z2 le due controimmagini di y .
bc bc
Le due controimmagini secondo la tent-map di y = b21 + 2b22 +. . . (con bj ∈ {0, 1} ) sono z1 = 2b12 + 2b23 +. . . e z2 = 1
2
+ 212 + 223 +. . .
e quindi anche loro uniformemente distribuiti su [0, 1]. La distribuzione per la x su [0, 1] diviene
dy 2 1 1 1
p(x)dx := p(y(x)) dx = √ · √ dx = / dx.
dx π 1−x 2 x π x(1 − x)
L’esponente di Liapunov (vedi: [§ 3]) della tent vale
n−1 ' '
1 = ' df '
η := lim log '' (f n (y))''
n→∞ n k=0 dy

che diviene, con l’assunzione di ergodicità,


- ' ' -
' df '
η= log '' '' p(y)dy = (log 2)p(y)dy = log 2.
[0,1] dy
1
. log |4(1−2x)| .1 7 8
Questo stesso valore si trova nel caso della mappa 4x(1−x) , infatti si ha η = π [0,1]
√ dx = 0 log 4 cos( πz
2
) dz = log 2.
x(1−x)
La distribuzione p(x) mostra che zero ed uno non attraggono, ma costituiscono l’insieme ω -limite di molti punti dell’intervallo [0, 1].
Gli altri continuano a vagare. È un esempio di moto ergodico (senza punti periodici stabili) con una certa assegnata densità di
probabilità e con dipendenza sensibile dal dato. Fine della divagazione].

Anche quando il valore del parametro µ è tra 4 e 2 + 5 la mappa fµ ha comportamento caotico. Ciò è
conseguenza dei seguenti fatti.
(• ) Quando µ supera 4 , il valore fµ (1/2) supera l’unità, e diventa non vuoto l’insieme [0, 1] ∩ fµ−2 (0). Esistono
infinite (numerabili) traiettorie che partendo dai punti (non fissi) q := fµ−n (0) ∈ [0, 1], (si pensi alla storia inversa
degli estremi dell’intervallo A0 ). Tali punti hanno come insieme ω -limite il punto fisso: p0 = 0 (che, peraltro, è
instabile). Inoltre, vi sono senz’altro alcuni di tali punti che appartengono a qualche intorno del punto stesso p0 = 0 ,
mentre altri appartengono a qualche intorno di altri punti: r0 ∈ [0, 1], di equilibrio o periodici. Si definiscono
Punti q ∈ R omoclini al punto (fisso) pe ∈ R := punti per i quali esiste n > 0 tale che f n (q) = pe
malgrado sia q ∈ W u (pe ). Più in generale: punti tali che q ∈ W u (pe ) ∩ W s (pe ).
Punti q ∈ R eteroclini ai punti p, r ∈ Per(f ) := punti per i quali esiste n > 0 tale che q ∈ W u (r) ed
f n (q) = p. Più in generale: punti tali che q ∈ W u (r) ∩ W s (p).
[È chiaro che esistono punti che non sono né omoclini né eteroclini: per esempio quelli con traiettorie dense, o con traiettorie
periodiche].

(• ) Se q è omoclino per p0 = 0 , e quindi q ∈ W u (0), proseguendo nelle controimmagini fµ−n (q) ci si avvicina
sempre di più a zero stesso, che, si ricordi, non è attrattivo. In più, se µ > 4 , nessuna delle traiettorie omocline
o eterocline può avere punti nei quali ∂fµ = 0 , perché l’unico punto critico 1/2 esce definitivamente dall’intervallo
di definizione.
Omocline degeneri := orbite omocline che ammettono punti q nei quali ∂f (q) = 0 . [Nel caso della mappa fµ si
hanno omocline degeneri se µ = 4 ].

(• ) Le due considerazioni precedenti sussistono anche per l’altro punto fisso della fµ anch’esso instabile dato che
µ > 3.

(• ) La caoticità della dinamica anche per µ ∈ [4, 2 + 5] è conseguenza (vedi: [Devaney ]) del seguente teorema,
nel quale con insieme iperbolico (in dim = 1 ) si intende un insieme I ⊂ R compatto non vuoto invariante, e tale
che per ogni x ∈ I esiste n0 ∈ N tale che o è |∂f n (x)| > 1 per n > n0 oppure è |∂f n (x)| < 1 per n > n0 .
[La definizione è un caso particolare ( dim = 1 ) di quella che verrà data nel seguito].

M. Lo Schiavo
5.1. La mappa quadratica 255

Teorema 5.1.1 Sia f : R → R, f ∈ C 1 (R), e sia p un punto fisso (iperbolico) instabile che ammetta un’orbita
omoclina non degenere. Allora per ogni intorno N (p) esiste un intero m tale che la mappa f m ammette un
attrattore iperbolico (invariante) contenuto in N (p) e sul quale essa risulta coniugata allo shift (YN
2 , S)

Dimostrazione (vedi [Devaney])


Sia ad esempio ∂f (p) > 1 , e sia W ⊂ N (p) un intorno di p tale che ∂f (x) > δ > 1 per ogni x ∈ W . Sia
q un punto omoclino per p; siccome q ∈ W u (p) non lede supporlo in W (proseguendo a ritroso nel tempo); e sia
m0 < ∞ il tempo di ritorno dell’orbita omoclina, e cioè tale che f m0 (q) = p.
L’ipotesi che questa sia non degenere implica l’esistenza di un minimo positivo anche per |∂f m0 (q)|; sarà allora
u
possibile fissare tutto un intorno V ∋ q, V ̸∋ p, V ⊂ W ⊂ N (p) ∩ Wloc (p) sul quale |∂f m0 (x)| > ε > 0. Ne
m0 m0 m0
segue che la f trasforma V in f (V ) in modo invertibile, ed anzi f (V ) è diffeomorfo a V , ed in particolare
contiene p.
Inoltre siccome p è instabile ed f m0 (V ) è contenuto in W sul quale ∂f è maggiore di δ , non lede supporre
che, pur essendo V cosı̀ piccolo che f m0 (V ) ∩ V = ∅ , tuttavia esista k > 0 tale che posto m := m0 + k l’insieme
f m (V ) non solo sia contenuto in W e contenga entrambi p e V , ma sia anche tale che f m0 +h (V ) ∩ V = ∅ solo
per h < k ; ed inoltre, che per x ∈ V si abbia |∂f m (x)| > 1 , (a questo scopo basta che sia δ k ε > 1 ). Pertanto
anche f m (V ) è diffeomorfo a V , pur contenendolo.
W fm(V´)
fm(V)
fm0(V)
V´ V
p q
m
Per riconoscere la presenza dello shift basta controllare l’esistenza in f (V ), e quindi in W , di un altro intorno
(chiuso) V ′ ∋ p, disgiunto da V , tale che f j (V ′ ) ⊂ W per j = 1, . . . , m , la cui immagine f m (V ′ ), diffeomorfa
a V ′ , contenga sia V che V ′ e sia contenuta in W . In tal caso i due insiemi V e V ′ rivestono per la f m lo stesso
ruolo che I0 ed I1 avevano per la fµ . L’esistenza di un tale V ′ è assicurata dal fatto che la ∂f (x) > 1 in W e
quindi la mappa f m , che su V ′ ha derivata |∂f m (x)| > δ m > 1 , espande ogni intorno di p senza farlo uscire da
W. "

Corollario 5.1.1 L’essere coniugato allo shift implica l’esistenza di infiniti punti periodici in ogni intorno per
quanto piccolo del punto fisso omoclino, i quali naturalmente avranno orbite “vicine” alla omoclina.

Si vedrà che, in dimensione maggiore di uno, questo tipo di comportamento è il principale responsabile della
generazione di caos.
Risulta in effetti anche interessante lo studio dei sistemi in cui le caratteristiche di maggiore o minore “me-
scolamento” vengono studiate in media a seconda della densità di probabilità legata all’evoluzione del sistema.
Questo tipo di descrizione risulta imposto dalla stessa complessità del sistema non appena questi comincia ad
evolvere dallo stato di riferimento. Essa permette di studiare la dinamica al di là della semplice visione puntuale
deterministica (geometrica), e ciononostante di mantenere significativo il concetto di evolutore nello spazio delle
fasi. In altre parole, dato il fatto che un sistema si comporta come il lancio di un dado, ci si chiede anche se questo
sia, o meno, truccato, e si fa a meno di dare importanza a quei casi che pur essendo possibili sono a tutti gli effetti
assai improbabili (ovvero il cui effetto cessa presto di avere rilevanza).
Tale studio è però al di là della presente esposizione; qui invece si vogliono ricordare alcuni dei concetti principali
legati ai sistemi dinamici topologici la cui evoluzione avviene su insiemi compatti.
Sia (X, d) uno spazio metrico compatto, sia H0 lo spazio degli omeomorfismi (=: corrispondenze biunivoche e
bicontinue) da (X, d) in sé, e sia H un elemento di H0 .
H minimale := per ogni x ∈ X l’orbita γ (x) := {Hn (x)}n∈Z è densa in X.
Equivalentemente := non esistono sottoinsiemi E ⊂ X chiusi ed H -invarianti che non siano X o ∅ . [ E ⊂ X deve
contenere la chiusura di una qualunque orbita nata dentro di sé, e questa chiusura è, per ipotesi, X ].
c∞
Equivalentemente := ogni aperto non vuoto U ⊂ X è tale che n=−∞ Hn (U ) = X. [Per il punto precedente, il
complementare dell’unione è un chiuso invariante e non può essere X ].
[Quest’ultima proprietà, infine, implica la definizione di minimalità perché impone che ciascun arbitrario x ∈ X appartiene ne-
cessariamente a Hk U per qualche k ∈ Z , e quindi che H−k (x) ∈ U . Siccome U è arbitrario, ciò significa che x ha orbita
densa].
È evidente che se H ammette sia punti periodici (o fissi), sia punti con orbite dense in X, allora H non è
minimale né è possibile decomporlo in più trasformazioni che siano minimali anche se solo su opportuni sottoinsiemi
di X.

Note di Sistemi Dinamici


256 Capitolo 5. Comportamento caotico dei Sistemi

È anche evidente che un omeomorfismo H che sia minimale non ammette né traiettorie periodiche né integrali
primi, e cioè funzioni invarianti non costanti (ma per questo è già sufficiente che esista anche solo un’orbita densa).
Estendendo il concetto di insieme ω -limite, con una trasformazione F : X → X che sia (solo) continua si
definiscono
Punto non erratico, o “nonwandering”, per la F := un punto x per il quale, dato comunque un aperto U
contenente x, esiste n ≥ 1 tale che F −n (U ) ∩ U ̸= ∅ .
Non è necessario che F −n (U ) ∩ U contenga x stesso; se ciò accade il punto si dirà
Punto ricorrente per la F := un punto x per il quale esiste una successione nj ↗ ∞ tale che F nj (x) → x;
ed è evidente che x ∈ Ω(F ), ove:
Insieme non erratico := l’insieme Ω(F ) dei punti non erratici per la F .
L’insieme Ω(F ) è fatto di punti o ricorrenti o dotati di una certa ricorrenza; in effetti il numero n della
definizione è arbitrariamente grande.
Inoltre si ha che Ω(F ) è chiuso e non vuoto, in quanto contiene tutti gli insiemi ω -limite di X (che si sta
supponendo compatto), e quindi tutti gli insiemi periodici; inoltre risulta F (Ω) ⊆ Ω. [Un’orbita densa, o un’orbita
periodica, è composta da punti ricorrenti e quindi non erratici. Per un punto ricorrente le immagini si “sovrappongono” su se stesse.
Punti omoclini per un qualche insieme invariante I sono non erratici ma non ricorrenti. In qualche senso l’insieme non erratico
rappresenta il sistema a tempi lunghi, mentre il suo
√ complementare ne descrive il transiente].
Per la mappa quadratica con µ > 2 + 5 si ha che Ω(fµ ) ∩ [0, 1] = A .
N.B. 5.1.11 Se F conserva la misura di Borel (e cioè la “lunghezza”, che è positiva sugli aperti non vuoti),
' allora
Ω ≡ X perché altrimenti potrebbe esistere in X\Ω una famiglia numerabile di aperti disgiunti {F −n (U )} 'n=0,1,...
e questo contrasta con la finitezza della misura di X. ♦

'
N.B. 5.1.12 Se H è (un omeo) minimale, (o se esiste E ⊂ X chiuso invariante e tale che H 'E è minimale), allora
Ω(H) = X (o E = Ω). In caso contrario infatti X, (o E ), potrebbe ' contenere punti x ∈ U tali da ammettere
una famiglia numerabile di intorni aperti disgiunti {H−n (U )} 'n∈Z . Pertanto X, (o E ) sarebbero ricoperti da una
famiglia non finita di aperti disgiunti, e ciò contrasta con la compattezza di X. ♦

Dalle due precedenti note si capisce come la proprietà di minimalità sia una proprietà assai forte per una
generica mappa continua. Ad esempio, lo shift su YN è minimale se e solo se N = 0 (vedi: [Walters ]), infatti non
deve ammettere punti periodici.
Più debole è la seguente proprietà di Transitività topologica, enunciata assumendo ancora che (X, d) sia uno
spazio metrico compatto e H : X → X un omeomorfismo. [Se H non fosse invertibile si potrebbe introdurre il concetto di
transitività topologica unilaterale]. Si premetta innanzi tutto la seguente definizione:
Insieme E affatto denso in X := un sottoinsieme E ⊂ X la cui chiusura non contiene alcun aperto; essa cioè
non contiene punti interni: in ogni sfera di X si trovano punti di X \ E . Esempi: sono affatto densi gli interi
come sottoinsieme dei reali; lo è l’insieme ternario di Cantor in [0, 1]; l’insieme A della mappa fµ per µ > 4 ; il
complementare di un insieme denso e aperto è (la chiusura di un insieme) affatto denso.
H è topologicamente transitivo := quando per qualche x ∈ X l’orbita
{Hn x, n ∈ Z} è densa in X.
Equivalentemente := quando gli unici sottoinsiemi E ⊂ X chiusi e H -invarianti sono X o sono affatto densi in
X. [L’insieme E , se non contiene qualche punto dell’orbita densa, e quindi alcun punto di essa, non può contenere aperti].
c∞
Equivalentemente := quando ogni aperto non vuoto U ⊂ X, se non è tale che n=−∞ Hn U = X, è almeno tale
c∞
che X \ n=−∞ Hn U è affatto denso. [Per il punto precedente, il complementare dell’unione è un chiuso invariante affatto
denso].
[Quest’ultima proprietà, d’altra parte, implica la definizione di transitività topologica perché un x ∈ X che non sia nell’insieme affatto
denso appartiene necessariamente a Hk U per qualche k ∈ Z , e quindi, poiché U è arbitrario, ciò significa che x ha un’orbita densa].
Equivalentemente := quando dati comunque due insiemi U, V ⊂ X non vuoti, aperti, esiste n ∈ Z per il quale
Hn U ∩ V ̸= ∅ .
Si osservi che la transitività topologica, contrariamente alla minimalità, permette l’esistenza di orbite periodiche;
essa tuttavia non permette che X sia decomponibile in sottoinsiemi invarianti che siano aperti non vuoti.
Si può inoltre mostrare che queste proprietà implicano anche la densità dello stesso insieme dei punti con
traiettorie dense.
Sia X compatto metrizzabile, e si denoti ancora con H0 lo spazio degli omeomorfismi su X. Sussistono le
seguenti proposizioni (vedi ancora: [Walters § 5.5]), ove con “ergodico” si intende un omeomorfismo H ∈ H0 che
conserva la misura ed è tale che ogni aperto invariante ha misura banale.

M. Lo Schiavo
5.1. La mappa quadratica 257

Proposizione 5.1.1 Se H ∈ H0 è ergodico rispetto ad una certa misura finita su X che sia positiva sugli aperti
non vuoti, allora H è topologicamente transitivo e quasi tutti i punti di X hanno traiettorie dense.

Dimostrazione (Walters Teor. 5.15) Sia {Un }n∈N una base numerabile per la topologia su X. Una traiet-
toria γ (x) è densa se ha intersezione non vuota con ciascuno degli Un , pertanto si ha che
' ∞
d ∞
b
'
D := {x ∈ X ' [ γ (x)] = X} = H k Un .
n=1 k=−∞
c∞
Ma l’ergodicità di H implica che per ciascun n l’aperto k=−∞ Hk Un è H -invariante ed ha misura 0 oppure 1 ;
e, d’altra parte, m(Un ) ̸= 0 poiché Un ̸= ∅ . Pertanto m(D) = 1 . "

Proposizione 5.1.2 Se H ∈ H0 è topologicamente transitivo e se esiste una metrica d su X che sia conservata da
H allora H è minimale.

Dimostrazione (Walters Teor. 5.13) Per ipotesi si ha che d(Hx, Hy) = d(x, y) per ogni x, y ∈ X, ed esiste
x0 tale che l’orbita γ (x0 ) per x0 è densa in X. Si vuole dimostrare che è anche [ γ (x)] = X. Dato ε > 0
esistono m, n ∈ Z tali che d(x, Hm (x0 )) < ε ed d(y, Hn (x0 )) < ε . Ne segue che
d(y, Hn−m (x)) ≤ d(y, Hn (x0 )) + d(Hn (x0 ), Hn−m (x))
≤ d(x, Hn (x0 )) + d(Hm (x0 ), x) < 2ε
e ciò implica la tesi. "

Sono topologicamente transitivi, ad esempio, lo shift su YN e gli automorfismi A : Tn → Tn del toro (vedi:
Esempio 4, ed anche [Walters ] e [Devaney ]), che siano ergodici (in misura di Haar); gli endomorfismi lo sono
unilateralmente.
La prima delle proposizioni qui sopra tuttavia lascia vedere che un insieme può essere topologicamente transitivo
e ciononostante ammettere un insieme addirittura denso di punti periodici.
Esempio ) 5.1.13
* Il gatto di Arnold, (vedi oltre: § 3 Esempio 4) è un automorfismo ergodico di T2 in sé, infatti
2 1 √
A := ha determinante Det A = 1 ed autovalori λ1,2 = 12 (3 + 5) e quindi tali che |λ1,2 | ̸= 1. Esso
1 1
pertanto è topologicamente transitivo; inoltre è iperbolico ed invertibile con inversa iperbolica. D’altra parte, come
si è visto, ha un insieme denso di punti periodici, e quindi non è minimale. #

Esempio 5.1.14 La rotazione del toro F (θ) = θ+ϕ, θ ∈ T1 , è topologicamente transitiva, (ed anche minimale),
se ϕ = 2πν , con ν ̸∈ Q. #

La seguente discussione estende la (EI) e segue strettamente la teoria svolta su [Walters] al quale si rimanda
per i debiti dettagli.
Generatore g per H ∈ H0 := un ricoprimento finito {A1 , . . . , Am } di X , fatto con insiemi aperti {Ai }i=1,2,... , e tale che per
e
ogni successione {Akn }n∈Z , Akn ∈ g si abbia che l’insieme ∞n=−∞ H
−n [A
kn ] contiene al più un punto di X . (ove [ · ] indica la
chiusura).
N.B. 5.1.15 È evidente che se H e ammette un generatore ammette anche un generatore “debole”, e cioè un ricoprimento (aperto)
finito {O1 , . . . , Om } di X tale che ∞
n=−∞ H
−n O
kn contiene al più un punto di X .
Inoltre si può mostrare che vale anche il viceversa: se esiste un generatore debole, il ricoprimento {O1 , . . . , Om } è finito, e quindi
è anche finito il suo numero di Lebesgue:= ν ; basta allora scegliere diam[Ak ] < ν e sfruttare la compattezza di X per concludere che
esiste un ricoprimento {Ak }k=1,...,m1 che è un generatore per H .
Si ricordi la definizione di
numero di Lebesgue per un ricoprimento {Ok }k∈N di X := un numero positivo ν tale che ogni insieme V ⊂ X con diam V ≤ ν
appartiene propriamente a qualche Ok . Tale numero esiste finito se lo spazio è compatto metrizzabile (vedi: [Walters]). ♦

Un generatore è un ricoprimento dello spazio la cui dinamica separa i punti dello spazio stesso; ad esempio un generatore per la
dinamica della fµ su A può essere l’insieme {I&0 , I&1 }, con I&0 ed I&1 aperti disgiunti, contenenti rispettivamente I0 ed I1 , e non
contenenti c = 1/2 . (Si intende che l’intersezione nella definizione di generatore è solo per n ≥ 0 dato che fµ non è un omeo).
Proposizione 5.1.1 Se (X, d) è compatto metrico e H ∈ H0 ammette generatore g
, allora g
individua la topologia su (X, d) nel
senso che:
Y
(i) dato ε > 0 esiste m > 0 tale che ogni A ∈ m n=−m H
−n g ha diam A < ε ;
0 1
e
(ii) per ogni m > 0 esiste δ > 0 tale che d(x, y) < δ implica x, y ∈ m n=−m H
−n A
kn per qualche Ak−m , . . . , Ak+m , A kj ∈ . g
Y
Con g1
g
2
si intende la famiglia costituita dalle intersezioni G1 ∩ G 2 con G 1 ∈ 1
egG 2 ∈ 2
. g

Note di Sistemi Dinamici


258 Capitolo 5. Comportamento caotico dei Sistemi

Dimostrazione
e
(i) Se non fosse, per ogni j esisterebbero xj , yj , {Akn (j) ∈ g
}n=−j,...,j tali che xj , yj ∈ jn=−j H−n Akn (j) eppure tali che
d(xj , yj ) > ε > 0. La compattezza dello spazio implica l’esistenza di una sottosuccessione {jk }k=1,2,... tale che xjk →
x, yjk → y , eppure x ̸= y; la finitezza del ricoprimento implica che infiniti degli xjk e degli yjk sono contenuti in uno
stesso A0 fra gli Ak0 , in uno stesso A1 fra gli Ak1 , etc. e
Ne segue che i punti di accumulazione x, y appartengono a ∞ n=−∞ H
−n [A ] e pertanto devono coincidere.
n

(ii) La continuità di H permette di scegliere δ tale che per un certo fissato m si abbia che la d(x, y) < δ implica d(Hi x, Hi y) < ν per
ogni i ∈ [−m, m] . Se allora si è scelto ν proprio il numero di Lebesgue del ricoprimento g si ha anche che H−i x, H−i y ∈ Aki
per qualche Aki ∈ . g "

Si può finalmente dare la seguente importante definizione:


H ∈ H0 è espansivo := è possibile fissare un δ > 0 tale che per ogni x, y ∈ X, x ̸= y , esiste n ∈ Z per il quale d(Hn x, Hn y) > δ.
In particolare, il morfismo H mostra dipendenza sensibile dal dato iniziale nell’intorno di un qualunque x ∈ X . Si noti che, in
generale, e cioè se X è qualsiasi, questa proprietà non è strettamente correlata né alla transitività topologica, né alla minimalità, né
all’ampiezza di Ω(H) .
È di grande importanza il seguente:

Teorema 5.1.1 H ∈ H0 è espansivo se e solo se H ha un generatore g .

Dimostrazione
e∞
(⇒) Sia s
δ un ricoprimento di X costituito da sfere di diametro non superiore a δ , ed x, y ∈ n=−∞ H
−n [A
kn ] con Akn ∈ δ; s
per costruzione si ha che d(Hn x, Hn y) ≤ δ per ogni n ∈ Z . Ma per ipotesi H è espansivo, per cui x = y ; ne segue che
Rδ ≡ g
è un generatore.
Ovvero: un qualunque ricoprimento aperto di X con sfere di raggio δ/2 è un generatore di H se questi è espansivo, con
costante di espansività δ .
(⇐) Si supponga che esistano x, y ∈ X, ν < ∞ tali che ∀n ∈ Z si abbia d(Hn x, Hn y) ≤ ν. Se, in particolare,
e ν è un numero
di Lebesgue per g
si può anche supporre che ∀n ∃Akn ∈ g
con Hn x, Hn y ∈ Akn ; e cioè che x, y ∈ ∞ n=−∞ H
−n A
kn . Ma
per ipotesi g
è un generatore e quindi x = y; ciò implica che H sia espansivo.

"

N.B. 5.1.16 Malgrado cambi il valore della costante δ , una eventuale variazione della metrica su X che però conservi la topologia
non cambia le proprietà di espansività; esse risultano inoltre conservate dagli omeomorfismi. La definizione di generatore infatti è
esclusivamente topologica. ♦

In particolare:

g
Proposizione 5.1.1 H ∈ H0 espansivo su X compatto implica che un qualunque ricoprimento finito U di X con insiemi aventi
Y
diametri d ≤ δ è tale che diam mj=−m H
m
−j U −→ 0. g ∞

N.B. 5.1.17 H ∈ H0 espansivo implica che esiste N ∈ N ed un sottoinsieme chiuso Ω ⊂ YN tale che, detto S lo shift su YN , si ha
che
• SΩ = Ω;
onto
• esiste F : Ω −→ X , continua e tale che F S(ω) = HF (ω) per ogni ω ∈ Ω .

N.B. 5.1.18 H ∈ H0 espansivo implica che, detta ξ una partizione finita di X in Boreliani {Bi } con |Bi | ≤ δ , si ha

f
H−n α (ξ) = β (X)
n=∞

ove α è l’algebra generata da ξ , e β l’algebra di Borel. ♦

N.B. 5.1.19 Sia A ∈ L(n, Z) : Tn → Tn con det A = ±1 . A è espansivo se e solo se ogni autovalore λA di A è tale che
|λA | ̸= 1 . Infatti A è espansivo se e solo se lo è il corrispondente operatore lineare su Rn . Se un automorfismo A : Tn → Tn ha
spct(A) = {eiνπ } con ν ∈ R\Q allora è ergodico ma non espansivo; se però è espansivo certo è ergodico. ♦

La presenza dell’espansività fa sı̀ che ogni tentativo di risoluzione numerica del problema sia sicuramente destinata ad un incerto
risultato, almeno per quanto riguarda i tempi “lunghi”.

Esempio 5.1.20 La mappa quadratica è espansiva su I0 ∪ I1 se µ > 2 + 5 , ed infatti una qualunque coppia di punti x = ̸ y ha
traiettorie che, prima o poi, si trovano da bande opposte rispetto ad A0 . (Qui δ = diam A0 ). #

M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 259

Esempio 5.1.21 Non è espansiva, invece, la rotazione irrazionale del toro T1 , pur essendo topologicamente transitiva. #

Esempio 5.1.22 Lo shift su YZ costruito con le successioni doppiamente infinite di simboli in un alfabeto Y di cardinalità finita, è
espansivo.
Infatti
b )0* M) *'
0 ''
Z
X=
σ0
, e g := σ0 '
σ0 ∈ Y
σ0 ∈Y
) *
e∞ 0
è un generatore per lo shift S , giacché se x ∈ n=−∞ S
−n allora x corrisponde ad uno ed un solo σ ∈ YZ . Alternativamente
yn
si ha che, se σ ̸= σ′ , allora esiste un primo n∗ : ′
σn∗ ̸= σn ∗ e quindi

=
∗ ∗ 1 '' ' ' '
d(S n σ, S n σ′ ) = ∗ ' ≥ ' σn∗ − σn∗ ' ≥ 1.
′ ′
|n|
σn+n∗ − σn+n
n=−∞
N

Definendo in modo ovvio la positiva espansività con solo indici temporali positivi, si ha anche che lo shift positivo sulle successioni
unilateralmente infinite è positivamente invariante. #

5.2 Cenni di teoria delle biforcazioni


Il concetto di coniugazione topologica che, in sintesi, è la proprietà di avere una “stessa” dinamica, è di interesse
quando si vuole studiare il modo in cui i sistemi si modificano (e cioè modificano il loro comportamento cinetico e/o
geometrico) al variare del campo. Se ne è già vista un’applicazione nel caso dei sistemi linearizzati in relazione
a quelli non lineari.
Un’altra applicazione la si incontra quando si studia l’effetto prodotto sulla dinamica dal variare di qualche
parametro di controllo presente nel campo. Nel precedente paragrafo si è fatto variare il parametro µ della
mappa quadratica e si è constatato che il sistema muta in modo drastico il suo comportamento: da strettamente
deterministico arriva ad essere coniugato e quindi ad esibire la stessa dinamica di un gioco ripetuto di testa e croce.
Va tenuto presente che modificare i valori dei parametri presenti nel campo non è certo l’unico modo di farlo
variare. È molto più generale, dato un certo campo e fissato un qualche spazio funzionale, considerare come suoi
“variati” tutti i campi di un conveniente intorno di quello dato e contenuto nello spazio scelto, senza assumere
apriori che essi siano descritti da una stessa espressione algebrica che ne caratterizza la dipendenza dai parametri
e dalle variabili del sistema. Tale modo più ampio di far variare un campo è quello che si permette quando si
voglia studiare la stabilità strutturale di un sistema, e cioè (vedi: [§ IV. 1]) la proprietà che si attribuisce ad un
sistema quando si constata che esso risulta topologicamente equivalente (o coniugato) a tutti i sistemi che hanno
campi in convenienti intorni di quello dato.
Si ricordi brevemente la seguente definizione generale:
Un C r -campo v su una varietà M si dice strutturalmente stabile (per un qualche 0 ≤ k ≤ r ) se esiste un intorno
N (v) nella topologia C k , e cioè quella generata dalla norma ∥v∥ := supx {|v| + |v∗ | + . . . + |vk∗ |} , tale che ogni
v ′ ∈ N (v) ∩ C r (M) risulti
C 0 -coniugato a v ; esista cioè F ∈ Homeo(M) tale che F (φ(t, x)) = φ′ (t, F (x))
o anche, piu debolmente, risulti
0
C -equivalente a v ; esistano cioè F ∈ Homeo(M) e τ = τ (t, x) monotona crescente per ogni x, tali che
F (φ(t, x)) = φ′ (τ (t, x), F (x)).

Esempio 5.2.1 (Grobman-Hartman, vedi: § IV.1 iv, e [Hartman XI 7.1])


Se l’equazione non lineare ẋ = v(x) ha un equilibrio xe iperbolico, essa ha equazione alle variazioni u̇ =
v(xe + u) = v∗ (xe )u + h(u) che è localmente C 0 -coniugata all’equazione linearizzata u̇ = v∗ (xe )u . #

1
Esempio 5.2.2 La mappa f : x ∈ R &→ f (x) = 2 x∈R è C 1 -strutturalmente stabile su [0, 1]. Notando
infatti che '1 '
' − g ′ (x)' < 1
se e solo se g ′ (x) ∈ (0, 1) e che
2 2
'1 '
' x − g(x)' < 1
se e solo se 1
− 1) < g(x) < 12 (x + 1) ,
2 2 2 (x

si riconosce che se ϵ < 1/2 una qualunque mappa g che sia in Bϵ (f ) ⊂ C 1 è monotona crescente, ha un unico
punto di equilibrio attrattivo (per il teorema della media), e come tale individua un dominio sul quale genera la
stessa dinamica di f . [Per costruire esplicitamente l’omeo della coniugazione ci vuole qualche sforzo in più: occorre infatti trovare
esplicitamente un compatto che si trasformi in modo commutativo con la f ; vedi: [Devaney ]]. #

Note di Sistemi Dinamici


260 Capitolo 5. Comportamento caotico dei Sistemi

Esempio√5.2.3 La mappa quadratica fµ : x ∈ R &→ fµ (x) = µx(1 − x) ∈ R è C 2 -strutturalmente stabile, per


µ > 2 + 5.
[La logica della dimostrazione è la seguente: prendere ϵ tanto piccolo che l’appartenenza di g alla sfera Bϵ (fµ ) implichi che g ha
due punti fissi x̄− < x̄+ l’uno con ∂g(x̄− ) > 1 , l’altro con ∂g(x̄+ ) < −1 ; un solo punto critico, un solo x̄′ := g −1 (x̄− ) ̸= x̄− ;
inoltre ammette due punti a0 , a1 := g −1 (x̄′ ) tali che x ∈ I0 ∪ I1 := [x̄, a0 ] ∪ [a1 , x̄′ ] ⇒ |g ′ (x)| > 1 . Si ha allora che anche g è
topologicamente coniugato con lo shift su YN
2 ]. #

Diversamente dallo studio della stabilità strutturale, l’esame del come varia la risposta del sistema al variare dei
soli valori dei parametri di struttura in una assegnata legge funzionale è di maggior interesse per quei modelli per
i quali la forma del campo è fissata apriori. In tale ámbito può accadere che, nello spazio nel quale i parametri
assumono valori, esista un qualche specifico punto di transizione, attraversando il quale il comportamento del
sistema subisce una radicale modifica e mostra caratteristiche del tutto diverse da quelle esibite in punti seppur
vicini ad esso. L’insieme dei valori dei parametri che individuano tale comportamento “discontinuo” si dice
rappresentino un punto di biforcazione; trovarli e determinare il comportamento del sistema nell’intorno di tali
punti è argomento della teoria delle biforcazioni.
Esempio 5.2.4 La mappa quadratica fµ : x ∈ R &→ fµ (x) = µx(1 − x) ∈ R presenta un’infinità (numerabile) di
punti di biforcazione: sono i valori µ2n nei quali si ha il raddoppio del periodo dell’orbita periodica (vedi anche
più avanti). Essa presenta inoltre valori (µ = 4) oltre i quali tutta la sua dinamica si modifica drasticamente e
globalmente. #

Esempio 5.2.5 Un pendolo uniformemente rotante è descritto dall’equazione

m l θ̈ = −mg sin θ + mω 2 l sin θ cos θ ,

e cioè dalla
g ω2l
θ̈ = ν(θ, µ) := sin θ(µ cos θ − 1), µ := , θ∈R, (2.14)
l g
1 g µ
che come è ben noto implica 2 θ̇2 − l cos θ(1 − 2 cos θ) = cost .
!

µ
m! l sin(µ)
mg
Dallo studio degli zeri del campo, o anche graficamente dallo studio della funzione θ̇ = θ̇(θ), si riconoscono le
due possibilità:
(
θe = 0 equilibrio stabile,
• 0≤µ≤1 che dà:
θe = ±π equilibri instabili;
:
µ

µ
-¼ +¼

(
θe± := arccos(1/µ) equilibri stabili,
• µ>1 che dà:
θe = 0, ±π equilibri instabili.

M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 261

:
µ

-¼ +¼ µ

Si può pertanto tracciare il seguente grafico biforcativo nel “piano” (xe ; µ), nel quale il tratto continuo
rappresenta un equilibrio stabile e quello tratteggiato uno instabile:


s(1/¹)
µe arcco
F<0 F>0
0 ¹
F>0 1 F<0


In esso si riconosce la presenza di un punto di equilibrio: l’origine, che pur rimanendo tale per ogni valore del
parametro, modifica la sua stabilità quando il parametro attraversa il particolare valore µ = 1 e la cede ad altri
due punti che risultano di equilibrio solo a partire da tale valore del parametro. #

Dagli esempi si vede che biforcazioni possono darsi sia di natura locale, quelle cioè che esaminano il cambio di
comportamento del sistema nell’intorno di un suo specifico punto (fisso o periodico), sia di natura globale, quello
cioè per le quali è tutta la struttura topologica del diagramma di fase che cambia e ciò non può essere riconosciuto,
in generale, da un esame della dinamica “in intorni piccoli” di qualche punto. Questo è quello che accade ad esempio
quando si perde o si acquista la trasversalità fra due varietà invarianti, ad esempio W u e W s di uno stesso punto
di equilibrio, o quando si interrompono delle omocline o delle eterocline, o quando si innescano dei meccanismi di
“auto-sovrapposizione” o di sdoppiamenti.
In questo paragrafo ci si occuperà di biforcazioni della prima specie, lasciando al prossimo paragrafo la discus-
sione delle seconde. Inoltre si prenderanno in considerazione solo casi in cui il parametro di controllo µ sia uno
scalare reale. Per una trattazione più estesa si rimanda alla bibliografia.

Tuttavia, prima di procedere ulteriormente con la discussione delle principali biforcazioni di un sistema, è
opportuno premettere la presentazione di una importante benché particolare famiglia di mappe che trae origine
direttamente dai sistemi continui, e che risulta essere uno dei più potenti procedimenti di indagine nel campo dei
sistemi non lineari.
Le Mappe di Poincarè
o mappe di primo ritorno, relative ad un sistema ẋ = v(t, x), x ∈ M.
Va subito rimarcato che esse hanno significato quasi esclusivamente per quei sistemi che ammettono una qualche
forma di periodicità: di una soluzione vicino alla quale si effettua l’indagine, dei coefficienti dell’equazione che
governa il moto, o della dinamica globale del sistema; (insomma è necessario che esista un “primo ritorno”).
Quando si possano definire, le Mappe di Poincarè si riferiscono ad un numero di coordinate minore di quello
necessario a descrivere tutto il sistema; inoltre è di grande chiarezza visto che la descrizione della proprietà orbitali
si riduce allo studio di mappe discrete. Il loro svantaggio sta nel fatto che è necessario operare delle scelte apriori,
per le quali spesso occorre conoscere o ipotizzare qualcosa della soluzione, e dalle quali dipendono i conseguenti
risultati e considerazioni.
In sintesi il procedimento si può riassumere nei seguenti passi:

(i) In base a quanto si conosce del sistema si sceglie un intorno dello spazio delle fasi, o dello spazio delle fasi
ampliato, contenente traiettorie dotate di una qualche forma di periodicità, e si fissa un periodo di riferimento
T che può essere quello delle soluzioni, o quello dei coefficienti, o quello del sistema globale.

(ii) Si sceglie una porzione di superficie regolare Σ, di opportuna codimensione (generalmente uguale a uno), che
sia trasversa al campo in ogni suo punto, in modo tale che le traiettorie l’attraversino, localmente, in un solo
istante.

Note di Sistemi Dinamici


262 Capitolo 5. Comportamento caotico dei Sistemi

(iii) L’insieme dei punti di un certo intorno scelto su questa superficie viene preso come insieme delle condizioni
iniziali per altrettante traiettorie, delle quali però non si memorizza tutta l’evoluzione bensı̀ solo quella relativa
al primo istante vicino a T in cui esse ripassano per la superficie.
(iv) Si dà il nome di Mappa di Poincarè alla trasformazione che in tal modo resta definita sulla superficie Σ.

Si hanno i seguenti casi fondamentali:


(A) Il sistema è autonomo ed ammette un’orbita periodica.
(B) Lo spazio delle fasi è periodico, (ad esempio: vi sono forzanti periodiche).
(C) Lo spazio delle fasi è quasi-periodico, e si è prescelto un periodo fondamentale.
(D) Il sistema ammette un’orbita omoclina ad un punto, o un ciclo di eterocline.

Caso A.
Sia data l’equazione ẋ = v(x, t), x0 ∈ M, con campo regolare; e sia Σ una porzione di superficie (n − 1)-
dimensionale contenente un punto x∗ di un’orbita periodica e tale che v(x∗ ) non sia tangente a Σ in alcun suo
punto. Per il teorema di primo ritorno esiste un aperto V ∈ Σ, V ∋ x∗ , tale che le traiettorie delle soluzioni
x = φ(t, t0 , x0 ) passanti all’istante t = t̄ per un qualsiasi x ∈ V tornano su Σ dopo un intervallo di tempo
τ (x) ≃ T := τ (x∗ ). La mappa di Poincarè è la mappa P : V ∈ Σ → Σ, data da
P : x &−→ P(x) := φ(t̄ + τ (x), t̄, x) .
In figura è mostrata una traiettoria “subarmonica” periodica di periodo 3T , e la mappa P è tale che 2 = P(1), 3=
P(2) = P 2 (1), 1 = P(3) = P 3 (1)
x2 x2 §
§
2
2
3
3
1 x1 1
x1

Esempio 5.2.6
( (
ẋ = +x − y − x(x2 + y 2 ) + ṙ = r(1 − r2 )
ovvero, su R × R,
ẏ = +x + y − y(x2 + y 2 ) θ̇ = 1

È evidente che il sistema ammetta un ciclo (stabile, vedi la (SH) ) in r∗ = 1 , e che ' θ(t) = t − t0 + θ0 . Scelto
'
t0 = 0 e con θ̄ := t̄ + θ0 fissato, una buona sezione trasversa può essere Σ := {(x, y) ' x > 0, y = 0} = {(r, θ) ' r >
0, θ = θ̄ := 0} . Dato poi che ẋ = 2x(1 − x) implica c|1 − 1/x| = e−2t , la soluzione del sistema è
@) ) * *−1/2 A
1 −2t
φ(t, 0, r0 , θ0 ) = 1+ −1 e ; t + θ0 .
r02

D’altra parte, la definizione di Σ implica che il tempo di volo è τ (r, θ̄) = T = 2π (periodo intrinseco delle coordinate
polari: pertanto in questo esempio il tempo di ritorno τ (x) è indipendente da x0 ). In definitiva si conclude che la
mappa di Poincarè P : V ∈ Σ → Σ, è data da
) ) * *−1/2
1 −4π
P : r &→ P(r) = 1 + − 1 e
r2
nella quale si nota in primo luogo la riduzione del numero di coordinate, e poi la proprietà di ammettere punti
fissi che sono in corrispondenza biunivoca con le traiettorie periodiche del sistema originario: r∗ = 1 . Si ha in
più (vedi oltre) che lo studio della stabilità lineare di tali punti fissi fornisce direttamente la stabilità di tali orbite
dP ''
periodiche. In questo esempio risulta ∂P(1) = ' = e−4π ∈ (0, 1) e questo assicura la stabilità del ciclo
dr r=1
r∗ = 1 , cosa che, in questo caso, è facilmente riconoscibile dalla stessa equazione iniziale. #

M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 263

N.B. 5.2.7 Non è troppo difficile convincersi che se Σ1 , Σ2 sono due sezioni trasverse al campo, ed h : Σ1 → Σ2 è il
diffeo generato dal flusso del sistema, allora le immagini P1 , P2 corrispondenti alle due sezioni sono topologicamente
coniugate dal diffeo h.
§1 §2

P2
P1

Caso B.
Sia data l’equazione ẋ = v(x, t), x0 ∈ M, con campo v regolare e T -periodico rispetto alla t. Posto ω := 2π/T
e g(x, θ) := v(x, t(θ)), e quindi con g(x, ·) : T → V ≡ Tx M e θ : R → T definita da θ(t) := ω(t − t0 ) +
θ0 (mod 2π) (o, in coordinate: θ(t) := (ω(t − t0 ) + θ0 ) ∈ R e t(θ) = t0 + (θ − θ0 )/ω ) l’equazione equivale, in
coordinate, alla (
ẋ = g(x, θ) (x0 , θ0 ) ∈ Rn+1
con :
θ̇ = ω g(x, θ + 2π) = g(x, θ) ∀θ ∈ R
) *
x(t, t0 , x0 , θ0 )
e le sue soluzioni sono del tipo φ : (t, t0 , x0 , θ0 ) &→ ∈ Rn+1 .
θ(t, t0 , x0 , θ0 )
Nello spazio M × T si definisce
9 ' :
Sezione stroboscopica Σθ̄ := la superficie (x, θ) ∈ M × T ' θ = θ̄ .
Dato che ω ̸= 0 , nello spazio delle fasi ampliato M × T essa è senz’altro trasversa al campo, e permette di
introdurre la Mappa di Poincarè P : Σθ̄ → Σθ̄ data in coordinate da
7 8
P : (x, θ̄) ∈ Rn+1 &−→ x(t̄ + T, t̄, x); θ̄ + 2π con t̄ := t(θ̄) = t0 + (θ̄ − θ0 )/ω .

Osservazione.

Le traiettorie della P non sono traiettorie del sistema a tempo continuo, anche perché esse sono famiglie solo
numerabili di punti. Esse appartengono alle proiezioni sullo spazio M delle curve integrali di quello, e cioè delle
linee definite in M × R come grafico delle funzioni moto. Queste ne contengono i valori (le sezioni) relative agli
istanti t̄ + k T per k = 0, 1, 2, . . .. Se il sistema è autonomo, tali proiezioni costituiscono delle varietà P -invarianti
sulla sezione di Poincaré. In generale, invece, tali proiezioni non è detto siano invarianti ed i loro punti possono
evolvere in modo diverso da quelli che vengono proiettati.
Si noti inoltre che la sezione Σθ̄ sulla quale è definita la mappa ha dimensione n, ed infatti P(x) non dipende
dalla variabile “temporale” θ .
Anche questa mappa ha punti fissi che corrispondono ad orbite (2π/ω)-periodiche, ed anche ora due mappe
relative a due diverse sezioni Σθ̄1 , Σθ̄2 sono C r -coniugate dal flusso:
H 7 8
(x, θ̄) &−→ x(t̄2 , t̄1 , x); θ̄2 ; con t̄i := t0 + (θ̄i − θ0 )/ω , i = 1, 2.

Si noti infine che in questo secondo caso si è “arbitrariamente” attribuito il valore T = 2π/ω al tempo di ritorno
τ (x) di ognuna delle traiettorie. È questa la parte più difficile del procedimento, e che spesso dà luogo a risultati
di non immediata interpretazione. #

Esempio 5.2.8 L’equazione ẍ + κẋ + ω02 x = f cos ωt, t, t0 , x0 , ẋ0 , ω, ω0 ∈ R;


rappresenta l’oscillatore armonico lineare debolmente smorzato e forzato armonicamente. In questo esempio e nel
successivo i dati iniziali verranno indicati con lo zero ad esponente; il deponente, se presente, rimane ad indicare il
valore dello smorzamento κ.

Note di Sistemi Dinamici


264 Capitolo 5. Comportamento caotico dei Sistemi

/
Con ω la frequenza della forzante, θ0 := ωt0 , e ωκ := − ω02 − κ2 /4 , l’equazione equivale a

⎪ ẋ = y

ẏ = −ω02 x − κy + f cos θ


θ̇ = ω

La soluzione generale (scegliendo t0 = 0 ) si può scrivere come segue


) * ) * ) *
x(t) cos(ωt + ψ) −κt/2 cos(ωκ t + ϕ)
=r + ce (2.15)
ẋ(t) −ω sin(ωt + ψ) −ωκ sin(ωκ t + ϕ) − κ2 cos(ωκ t + ϕ)
con: ⎛ ⎞
(ω02 − ω 2 )f
) * ) *
cos ψ ax ⎜ (ω02 − ω 2 )2 + (κω)2 ⎟
r = = ⎜ ⎟
− sin ψ ay ⎝ κf ω ⎠
2
(ω0 − ω 2 )2 + (κω)2

⎛ ⎞
) * ) x* x0 − ax
cos ϕ c ⎝ 1 0κ 1⎠
c = =
− sin ϕ cy (x0 − ax ) + (y0 − ωay )
ωκ 2
e con a + ,2
f x0 − a1 y0 − ωa2 y0 − ωa2
r := / 2 ; c := 2
ω0 + +κ ;
(ω0 − ω 2 )2 + (κω)2 ωκ x0 − a1 x0 − a1
+ , (2.16)
κω 1 κ y0 − ωa2
ψ := arctan 2 ; ϕ := arctan + .
ω0 − ω 2 ωκ 2 x0 − a1
Infatti, il secondo addendo della (2.15) esprime la ben nota soluzione dell’equazione omogenea associata; e una
funzione della forma r cos(ωt − ψ) è certo soluzione particolare purché le costanti siano scelte in modo opportuno.
Per farlo, e cioè per trovare il valore del vettore a , si è fatto uso del metodo delle ampiezze complesse. Esso consiste
(vedi anche § VI.1 Nota 4) nello sfruttare il fatto che i coefficienti dell’equazione sono reali e l’equazione lineare, e
quindi la sua dinamica rimane reale. Considerata allora la data equazione eq(x) come ℜe (eq(z)), a causa della
forzante armonica ωt si è cercata una soluzione particolare sotto la forma a exp(iωt), con a = ax − iay , e quindi
con (ax − iay )(cos ωt + i sin ωt) = ax cos ωt + ay sin ωt. Si è trovata la condizione
7 2 8
2 2 (ω0 − ω 2 ) − iκω
a[(ω0 − ω ) + iκω] = f ovvero a=f
(ω02 − ω 2 )2 + κ2 ω 2

È quindi agevole riscrivere la soluzione generale nell’ulteriore forma


) * ) 1
*) x *
x(t) cos ωt ω sin ωt a
=
ẋ(t) −ω sin ωt cos ωt ωay
@ κ 1 A) *
cos ωκ t + 2ωκ sin ωκ t ωκ sin ωκ t cx
−κt/2
+e y κ
ω2
− ωκ0 sin ωκ t cos ωκ t − κ
sin ωκ t ωκ c − 2 cx
2ωκ
) * ) *
cx x0 − ax
che mostra la relazione = .
ωκ cy − κcx /2 y0 − ωay

Alternativamente, l’equazione può essere scritta fin dall’inizio in forma vettoriale (vedi: Esempio II 2.7)
) * ) *) * ) *
ẋ 0 1 x 0
ẋ = = + =: Aκ x + b(t).
ẏ −ω02 −κ y f cos ωt

Di questa, detto µ = −κ/2 − i ωκ ≡ α + iβ uno dei due autovalori complessi di Aκ , ed ϵµ il corrispondente


autovettore, la teoria generale fornisce la soluzione uscente dal dato x0 := (x0 , y 0 ) ∈ R2 mediante l’espressione

x(t) = xom (t) + xp (t), x(0) = x0 .

M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 265

Da un lato la soluzione dell’equazione omogenea associata uscente dalle condizioni iniziali: xom (0) =: P&κ c
con c = (cx , cy )T ∈ R2 e con P&κ la matrice che trasforma i vettori della base {e1 , e2 } nei due vettori ℜe ed ℑm
di ϵµ , si calcola anche ora in base alla teoria generale mediante la:

xom (t) = Ψκ (t, 0)xom (0) = e−κt/2 P&κ C &κ (t)P&κ−1 P&κ c,
) * ) * ) *
1 0 cos ωκ t sin ωκ t 1 0
P&κ = , &
C κ (t) = &
P −1
= κ 1 .
− κ2 ωκ − sin ωκ t cos ωκ t κ
2ωκ ωκ

Dall’altro si tenta di esprimere la soluzione (particolare) uscente dalle condizioni iniziali: xp (0) =: P& a con
a = (ax , ay )T mediante l’analoga, sebbene particolare, espressione:

& P& −1 P& a,


xp (t) = Ψ(t, 0)xp (0) = P& C(t) con
) * ) * ) *
1 0 & = cos ωt sin ωt 1 0
P& = , C(t) P& −1 = .
0 ω − sin ωt cos ωt 0 1/ω

Affinché xp (t) rappresenti effettivamente una soluzione, occorre che sia vera la
0 1
˙
P& C(t)
& − Aκ P& C(t)
& a = b(t)

e l’invertibilità della matrice a primo membro permette il calcolo di a . La condizione infatti è verificata purché a
sia tale che K 2 L K L
(ω0 − ω 2 ) cos ωt − κω sin ωt ax + (ω02 − ω 2 ) sin ωt + κω cos ωt ay = f cos ωt
e questa fornisce le prime due relazioni della (CO). Infine, la condizione

x0 = x(0) = xom (0) + xp (0) = P&κ c + P& a

fornisce: ) * ) * ) x*
x0 − ax 1 0 c
(x0 − P& a) = = = P&κ c ,
y 0 − ωay −κ/2 ωκ cy
ovvero le seconde della (CO).
Delle due notazioni usate, quest’ultima è particolarmente significativa: infatti l’espressione

x(t) = Ψ(t, 0)xp (0) + Ψκ (t, 0)xom (0)


& a + e−κt/2 P&κ C
= P& C(t) &κ (t)P& −1 (x0 − P& a) ,
κ


→ −→ −

da leggersi come una espressione del tipo op(t) = oΩ(t) + Ωp(t), permette di costruire agevolmente la famiglia ad
un parametro di trasformazioni: x0 &→ x(t). Data la particolare forzante, si scelgono θ̄ = t̄ = 0 e T = 2π/ω ,
e si ricava la mappa di Poincaré P : Σ0 → Σ0 che sulle coordinate assegna la

x0 &→ P& a + e−κπ/ω Mκ (x0 − P& a) con &κ (2π/ω)P& −1


Mκ := P&κ C κ

ovvero ) 0* ) * ) x * ) 0 *
x x(2π/ω, 0, x0 , y 0 ) a −κπ/ω x − ax

& = + e M κ ,
y0 y(2π/ω, 0, x0 , y 0 ) ω ay y 0 − ω ay
con @ A
cos 2π ωωκ + κ
2ωκ sin 2π ωωκ 1
ωκ sin 2π ωωκ
Mκ := ω2 .
− ωκ0 sin 2π ωωκ cos 2π ωωκ − κ
2ωκ sin 2π ωωκ

Dunque la mappa P è una mappa affine, con un solo punto fisso x0 = P& a = (ax , ω ay )T , attrattivo giacché
κ > 0 e la mappa (e la sua derivata) ha autovalori µ1,2 = exp(−κπ/ω ∓ i2πωκ /ω); pertanto tale punto è un fuoco
(stabile). #

Esempio 5.2.9 In particolare, per l’equazione dell’oscillatore armonico non smorzato: κ = 0 e non risonante:
ω0 ̸= ω , si ottengono: ωκ = ω0 , ay = 0 , e quindi

⎪ ẋ = y ) * ) *) * ) *

2 ẋ 0 1 x 0
ẏ = −ω0 x + f cos θ ovvero = +

⎩ ẏ −ω02 0 y f cos ωt
θ̇ = ω

Note di Sistemi Dinamici


266 Capitolo 5. Comportamento caotico dei Sistemi

la cui soluzione per t0 = 0 è

x : t &→ x(t) = (cx0 cos ω0 t + cy0 sin ω0 t) + ax0 cos ωt , ove


ax0 := (ω02 −ω )2 −1
f, cx0 := x − 0
ax0 , ω0 cy0 0
:= y ,

ovvero la

x(t) = P& C(t)


& a0 + P&0 C &0 (t)P& −1 (x0 − P& a0 )
0 con:
) * ' ) * '
1 0 ' 1 0 &κ (t) ''
P& = , P&0 := P&κ ' = , C&0 (t) := C
0 ω κ=0 0 ω0 κ=0
' ) x* ) 0 x
* '
' a0 x − a0 '
a0 : = a ' = , = P&0−1 (x0 − P& a0 ) = c ' =: c0 .
κ=0 0 y 0 /ω0 κ=0

Queste alcune curve integrali nel caso particolare κ = 0, c = (1.0, 0.0), ax = 3.0 ; in esse la “portante”
è tratteggiata, e l’altra è spesso una curva aperta.

8
5
6
4
2 0

-3 -2 -1 1 2 3 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5

ω = 2.0 ; ω0 = 1.0

8
5
6
4
2 0

-2 2 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5

ω= 2; ω0 = 1.0

8
5
6
4
2 0

-3 -2 -1 1 2 3 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5

ω = 0.5 ; ω0 = 1.0

M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 267

8
5
6
4
2 0

-3 -2 -1 1 2 3 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5

ω = 1.0 ; ω0 = 0.5

8
5
6
4
2 0

-3 -2 -1 1 2 3 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5

ω = 1.0 ; ω0 = 2

8
5
6
4
2 0

-3 -2 -1 1 2 3 4
-2
-5
-4 4
2
-6 0
-5 0 -2
-8 5

ω = 1.0 ; ω0 = 2.0

Anche in questo caso è agevole riconoscere le proprietà delle varie traiettorie se si pensano come descritte dai
punti che sono estremo dei vettori
) *
x(t)
x = x(t) = = xom (t) + xp (t), x(0) = x0
y(t)
con
xp (t) = P& C(t)
& a0 e &0 (t)P& −1 (x0 − P& a0 ) .
xom (t) = P&0 C 0

Le traiettorie quindi si avvolgono sulle superfici aventi come “asse” la traiettoria T -periodica corrispondente al
punto fisso P& a0 ≡ (ax0 , 0)T . Quest’ultima (nello spazio delle fasi ampliato) è un’elica di passo 2π/ω e la cui
proiezione su M è una ellisse di semiassi ax0 , ωax0 . Ogni traiettoria si appoggia sulla particolare superficie, fissata
dalle proprie coordinate iniziali (x0/
, y 0 ), tale che la sua sezione con il piano di Poincaré è una ellisse di centro il punto
0 0 0
a0 e semiassi ρ , ω0 ρ , ove ρ := (x0 − ax0 )2 + (y 0 /ω0 )2 . Su tale superficie essa compie un giro “longitudinale”
in un tempo T = 2π/ω ed uno “trasversale” in un tempo 2π/ω0 . '
La mappa di Poincaré è immediata: scelto anche ora θ̄ = 0 , e con la posizione: M0 := Mκ 'κ=0 si ha la
mappa P : Σ0 → Σ0 data da
) 0* ) x*
x a0
x0 &→ P& a0 + M0 (x0 − P& a0 ) ovvero →
& M 0
y0 0
) *) 0 *
cos 2πω0 /ω (1/ω0 ) sin 2πω0 /ω x − ax0
con M0 := .
−ω0 sin 2πω0 /ω cos 2πω0 /ω y0

Note di Sistemi Dinamici


268 Capitolo 5. Comportamento caotico dei Sistemi

La mappa è tuttora una mappa affine, con un solo punto fisso (x∗ , y ∗ ) := (a1 , ωa2 ) attrattivo.

1 2 3 4 5
-1

-2

-3

mappa di Poincaré nel caso: c = (.7, .7); ax = 3.0 ; ω = 2 ; ω0 = 1.0 .
Il sistema compie un giro “longitudinale” in un tempo T = 2π/ω ed un “trasversale” in un tempo 2π/ω0 .

In definitiva, posto ω =: qω0 ,

• con q =: n ∈ N le traiettorie del sistema (continuo) percorrono più volte il circuito longitudinale prima di
tornare al punto iniziale (subarmoniche ),

• con 1/q =: m ∈ N esse percorrono più volte il circuito trasversale prima di tornare al punto iniziale
(ultraarmoniche ),

• con q =: n/m ∈ Q si parla di ultrasubarmoniche. Nel primo caso e nel terzo si hanno, per ogni traiettoria,
esattamente n punti sulla sezione Σ0 uscenti da uno stesso punto iniziale: sono i punti fissi della mappa P n
o punti n-periodici.

• se invece il rapporto q è un numero irrazionale allora le traiettorie riempiono in modo denso la superficie
del corrispondente arco di elica e, sulla Σ0 , l’ellisse di centro a0 e semiassi (x0 − ax0 , y 0 /ω0 ).

Esempio 5.2.10 Per il caso meno banale della equazione di Mathieu


2
ẍ + (a + b cos ωt) sin x = 0 , x ∈ R, si veda [Guckenheimer]. #

Per agevolare lo studio del terzo dei casi citati per le Mappe di Poincaré, si premetta ora la seguente definizione,
da non confondere con quella di “almost periodic function”.
Funzione quasi periodica := una funzione f : R → M per la quale esistono:

• una m-pla ω ∈ Rm di costanti reali {ω i =: 2π/Ti }i=1,...,m non fra loro razionalmente dipendenti;

• una m-pla θ : R → Tm di funzioni lineari ciascuna a valori sul toro T:

θi (t) := ω i (t − t0 ) + θ0i (mod 2π), i = 1, . . . , m ;

• ed una funzione g : Tm → M, tali che:

f (t) = g ◦ θ(t), per ogni t ∈ R .

Alternativamente: una funzione f per la quale esiste una g! : Rm → M periodica in ciascuna delle sue m
variabili con periodi non fra loro razionalmente dipendenti e tale che, identificate le m variabili con l’unica t,
verifichi la f (t) = g!(t, . . . , t), ∀t ∈ R.

M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 269

Caso C.
Sia data l’equazione ẋ = v(x, t), x0 ∈ M, con campo regolare e quasi periodico rispetto alla variabile t; e se
ne consideri una rappresentazione in coordinate: ẋ = v(x, t), x0 ∈ Rn . Questa equivale all’equazione su Rn+m
data da ( (
ẋ = g(x, θ) θ = (θ1 , . . . , θm )
con
θ̇ = ω ω = (ω 1 , . . . , ω m ).
Ponendo θi : t &→ θi (t) := ω i (t − t0 ) + θ0i , i = 1, . . . , m, le sue soluzioni sono del tipo
t &−→ φ(t, t0 , x0 , θ0 ) := (x(t, t0 , x0 ), θ(t)) .
ℓ ℓ

' ℓ ℓ ℓ∈: {1, . . . , m} , si definisca unaℓ sezione


Scelto Σθ̄ ⊂ M × Tm mediante la condizione Σθ̄ := {(x, θ) ∈ M × Tm
' θ = θ̄ . Poi, fissati t̄ := t0 + (θ̄ − θ0 )/ω , e Tℓ := 2π/ωℓ , e quindi con θi (t̄) = θ0i + (θ̄ℓ − θ0ℓ )ω i /ω ℓ
ℓ ℓ

i = 1, . . . , m, i ̸= ℓ , e con θi (t̄ + Tℓ ) = θi (t̄) + 2πω i /ω ℓ ed θℓ (t̄ + Tℓ ) = θ̄ℓ + 2π , si ha la Mappa di


θ̄ ℓ ℓ
Poincarè P : Σ → Σθ̄ data da

(x(t̄), θ(t̄)) &→ (x(t̄ + Tℓ ), θ(t̄ + Tℓ )) .


h k
Si noti che, per questa mappa, due sezioni Σθ̄ , Σθ̄ non sono C r -coniugate dal flusso a meno che le due
frequenze ω h , ω k siano razionalmente dipendenti (vedi: [Wiggins 1]) Si osservi anche che per il tempo τ (x) di
ogni traiettoria è stato scelto lo stesso valore Tℓ = 2π/ω ℓ .

Nota 5.2.1 È importante riconoscere che una mappa di Poincarè x → & P (x) preserva l’orientamento. Infatti,
scelto t0 = t essa è data da P : x &→ P (x) := φ(t + τ (x), t, x) e quindi si ha che
• la sua derivata è ∂P (x) ≡ φ∗ (t + τ (x), t, x);
• qualora il tempo di primo ritorno τ (x) dipenda esplicitamente da x, detti xe un punto (fisso) per la mappa
x→x
e τ (xe ) =: T il tempo di primo ritorno (periodo) della corrispondente traiettoria, si ha che τ (x) −→e T ,
x∈Σ
e ciò comporta φ∗ (t + τ (x), t, x) ≃ φ∗ (t + T, t, x) per x sufficientemente vicino a xe ;
• tale matrice è il valore in t + T della soluzione dell’equazione variazionale
d
X = v∗ (φ(t′ , t, x), t′ )X, X(t) = 1I ;
dt′
come tale essa è la matrice principale del sistema lineare dtd′ y = v∗ (φ(t′ , t, x), t′ )y , e quindi ha determinante
(Wronskiano) mai nullo, ed anzi positivo perché positivo in t:
- t′
W (t′ ) = exp T r v∗ (φ(s, t, x), s)ds .
t

Si noti inoltre che se la mappa è una mappa relativa al Caso A, la sua derivata avrà solo dimensione (n − 1),
mancando in essa la direzione della tangente alla traiettoria in xe e che corrisponde all’autovalore 1 della φ∗ (t +
T, t, xe ) . #

Nota 5.2.2 In generale (vedi: [Cap. I]) una qualunque mappa f da Rn in sé è contrattiva quando |f (x) − f (y)| ≤
k|x−y| con k < 1 , ed in tal caso nel suo punto unito xe si ha |f (x)−xe | ≤ k|x−xe |, il che implica ∥∂f (xe )∥ < 1 .
Più debolmente, [si ricordi infatti, [Voyevodin § 83], che il modulo di un qualunque autovalore non supera il valore
della sua norma], l’andamento della mappa f può essere paragonato con quello della xn+1 := kxn + (1 − k)xe , e
la sua stabilità decisa paragonando il modulo degli autovalori di ∂f con l’unità.
In particolare, nel caso di una mappa di Poincaré P = P (x) con punto fisso xe e relativa ad un campo anche
non autonomo purché T periodico, gli stessi motivi che si sono visti nella Nota 1 implicano che la derivata ∂P (x∗ )
dia informazioni anche sulla stabilità lineare della corrispondente traiettoria T periodica t &→ φ(t, 0, x∗ ).
Infatti il sistema lineare ẏ = v∗ (φ(t, 0, xe ), t)y , risulta essere lineare a coefficienti periodici, e di esso la matrice
∂P (xe ) = ∂x φ(T, 0, xe ) è una matrice monodroma come quelle viste nella teoria di Floquet. Come in quel caso ha
interesse lo studio dei moltiplicatori caratteristici: detti λ1 , . . . , λm gli autovalori della matrice (reale) ∂P (xe ), si
ha che la traiettoria φ(t, 0, xe ) è stabile se |λj | < 1 per ogni j ∈ (1, . . . , m), ed è instabile se |λj | > 1 per anche
un solo j ∈ (1, . . . , m). ◃

Note di Sistemi Dinamici


270 Capitolo 5. Comportamento caotico dei Sistemi

Caso D.
La costruzione delle mappe di Poincaré nel quarto dei casi citati, e cioè quello nel quale il sistema ammetta orbite
omocline, od eterocline che diano luogo ad fenomeni di ritorno, verrà rinviata al prossimo § 4.

È ora agevole ritornare alla discussione dei principali tipi di biforcazioni per un sistema a parametro scalare.
Qui di seguito, per illustrare tali biforcazioni, verrà principalmente usata la notazione e terminologia dei sistemi a
tempo continuo, ma l’intera discussione si ripete per quelli a tempo discreto, salvo evidenti modifiche. Lo schema
generale è il seguente (vedi: Guckenheimer § 3.4).
Per x ∈ M, sia data la ẋ = v(x, µ) con v(·, µ) una famiglia di campi regolari dipendente in modo regolare dal
parametro µ. Quando si esamina il comportamento del sistema vicino ad un equilibrio, si cercano le soluzioni
µ &→ xe (µ) della v(x, µ) = 0. Il teorema del Dini assicura per esse un andamento regolare rispetto al parametro,
espresso da una funzione regolare xe = xe (µ), salvo che per qualche valore µ = µ∗ del parametro e del conseguente
punto di equilibrio x∗ = xe (µ∗ ) per i quali lo Jacobiano ∂x v(x∗ , µ∗ ) ha qualche autovalore nullo. In effetti, per
avere una significativa modifica del comportamento dinamico del sistema, ed in particolare della stabilità delle
soluzioni di equilibrio, già basta che qualcuno di questi autovalori abbia parte reale che attraversa lo zero.
I punti (x∗ , µ∗ ) in cui ciò avviene sono i punti di diramazione o di biforcazione. In essi o avviene che la
dipendenza della xe dalla µ non è più compatibile con una (sola) funzione µ &→ xe (µ) regolare, oppure che cambia
la stabilità degli equilibri.
[Nell’Esempio 4 il campo ha componenti (θ̇, ν(θ, µ)) con ν definita nella (P R) , pertanto l’equazione agli autovalori per lo Jacobiano
∂x v(xe (µ), µ) è:
∂ν g 7 8
λ2 = (θe ) = cos θe (µ cos θe − 1) − µ sin2 θe =: λ2 (θe , µ) .
∂θ l
In corrispondenza ai punti di equilibrio che cosı̀ si trovano: θe = 0, ±π oppure θe = arc cos 1/µ , si ricavano le determinazioni
l λ2 /g = (1 − µ2 )/µ se θe = arccos 1/µ ̸= 0, ±π ;
l λ2 /g = µ − 1 se θe = 0 ,
l λ2 /g = µ + 1 se θe = ±π .
In ogni caso, vi sono autovalori nulli per (0 ≤) µ∗ = 1 e quindi relativi a θ ∗ := θe± (1) = 0 ].

I punti di biforcazione possono prendere nomi diversi, vedi oltre, anche a a seconda del numero delle soluzioni
della v(x, µ) = 0 , e cioè del numero di curve xe = xe (µ) che passano per il punto di diramazione, della forma
e relativa posizione di queste, nonché delle caratteristiche di stabilità degli equilibri (delle quali generalmente si
tiene memoria sui grafici biforcativi variando il tratto con cui la curva stessa viene disegnata). Inoltre, come già
accennato, le varie definizioni si estendono in modo naturale alle mappe f (·, µ) : x &→ f (x, µ) ed alla loro dinamica
definita dalla xn+1 = f (xn , µ), e quindi ai loro punti periodici.
In particolare si osservi che i punti di biforcazione sono punti non iperbolici e, in ogni caso, punti di non stabilità
strutturale per il sistema; in effetti essi possono essere anche definiti in questo modo. Cosı̀ facendo si generalizza
il concetto di biforcazione, ammettendo anche quei punti per i quali non c’e un “cambio” di struttura, ma che siano
solo “estremali” per essa.
Le seguenti definizioni specificano quanto sopra anticipato.
Punto di biforcazione per ẋ = v(x, µ), x ∈ M := una determinazione dei parametri, dai quali dipende il siste-
ma, attraversando la quale il diagramma di fase (ed il sistema in generale) presentano caratteristiche di non
equivalenza topologica (locale o globale) tra le adiacenti configurazioni.
Più in generale si chiama
Insieme di biforcazione per ẋ = v(x, µ), x ∈ M := un insieme nello spazio dei parametri sul quale il sistema è
strutturalmente instabile.
Nel caso specifico di equilibri del sistema si hanno i seguenti casi particolari.
Punto regolare, o non biforcativo, per ẋ = v(x, µ), x ∈ M := un punto (x∗ , µ∗ ) per il quale la matrice Jacobia-
na ∂x v(x∗ , µ∗ ) non ha autovalori con parte reale nulla.
In un intorno di esso esiste una funzione regolare xe = xe (µ) tale che:

⎪ xe (µ∗ ) =: x∗ ,
⎨v(xe (µ), µ) = 0,
⎪ ed


⎪ dxe
⎩∂x v(xe (µ), µ) (µ) + ∂µ v(xe (µ), µ) = 0 in N (µ∗ ).

Punto regolare, o non biforcativo, per f (·, µ) : x &→ f (x, µ), x ∈ M := un punto (x∗ , µ∗ ), fisso per la mappa f ,
e per il quale lo Jacobiano ∂x f (x∗ , µ∗ ) non ha alcun autovalore di modulo unitario.

M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 271

In un intorno di esso esiste una funzione regolare xe = xe (µ) tale che:




⎨f (xe (µ), µ) = xe (µ), xe (µ∗ ) =: x∗ , ed
0 1 dx

⎩ ∂x f (xe (µ), µ) − 1
e
(µ) + ∂µ f (xe (µ), µ) = 0 in N (µ∗ ).

Qualora ciò non avvenga, si hanno diversi casi possibili. Il più semplice di essi è rappresentato da un
Punto di gomito per ẋ = v(x; µ), x ∈ M := un punto (x∗ , µ∗ ) per il quale:

∗ ∗

⎪v(x , µ ) = 0;



⎪∂x v(x , µ∗ )

ha un solo autovalore λ = 0 e semplice;


⎨∂ v(x∗ , µ∗ ) non appartiene allo span {∂x v(x∗ , µ∗ )} ed ha ℜe λ ̸= 0;
µ

⎪ xe = xe (µ) ammette una qualche parametrizzazione σ &→ x(σ), µ(σ)



⎪ per la quale, con x(σ ∗ ) = x∗ e µ(σ ∗ ) = µ∗ , si ha


⎩ dv ∗
dσ (σ ) = 0 con µ′ (σ ∗ ) = 0, e µ′′ (σ ∗ ) ̸= 0.

dv
[Per interpretare queste condizioni caratteristiche, o di “non degenerazione”, si pensi alla dσ = vx x′ + vµ µ′ ≡ 0 . L’annullarsi di ∂x v

nel punto non deve implicare l’annullarsi di ∂µ v ed in tal modo sarà necessariamente µ = 0 ; lo jacobiano ampliato: (∂x v , ∂µ v) ha
allora rango n (mentre è minore di n nella biforcazione a forchetta, vedi oltre). Inoltre si richiede che il contatto con µ = cost sia del
secondo ordine affinché il punto sia di gomito e non di flesso].
In definitiva, quando la variabile x è anch’essa scalare le condizioni affinché il punto sia singolare e di gomito
si riassumono nel richiedere che le seguenti derivate, calcolate nel punto (x∗ , µ∗ ), valgano:
∂v ∂v ∂2v
= 0, ̸= 0, e ̸= 0.
∂x ∂µ ∂x2
Altri possibili nomi per questo tipo di biforcazione sono:
biforcazione tangente, o nodo-sella, o “turning point”, o “fold-bifurcation”.
Si può mostrare (vedi: [Guckenheimer Teor. 3.4.1 ]) che questo tipo di biforcazione appare genericamente se si
perturba di poco un sistema che ha Jacobiano (nel punto fisso) con un qualche autovalore nullo e semplice, e che
quindi tale biforcazione è strutturalmente stabile, come biforcazione.
∂v
Si osservi che ∂x cambia segno nel punto di gomito che allora è un “punto di cambio di stabilità” per l’equilibrio.
Analoghe definizioni si danno per le mappe f (·, µ) : x &→ f (x, µ) pur di effettuare le evidenti modifiche (quali
ad esempio cambiare “autovalore a parte reale nulla ” con “autovalore di modulo unitario”) conseguenti al fatto
che il punto di equilibrio per un flusso diviene quello di una mappa se alla derivata ẋ si sostituisce la “derivata
discreta”: ∂x = xn+1 − xn ; in tal modo si studia l’andamento di una mappa f (x, µ) paragonandolo con quello del
campo f (x, µ) = v(x, µ) + x, e viceversa. Si vedrà tuttavia che le mappe, permettendo l’alternanza del segno
della derivata, possono dar luogo ad un ulteriore tipo di biforcazione non presente nei campi.
Esempio 5.2.13 ẋ = +µ − x2 , x0 ∈ R, µ ≥ 0 .
√ √
Gli equilibri sono xe = ± µ ; e si ha ∂x v(x, µ) = −2x. Quest’ultima, calcolata negli equilibri, vale −2 µ oppure
√ √ √
+2 µ. Per cui il punto (x∗ , µ∗ ) := (0, 0) è un nodo-sella, infatti xe = + µ è un nodo stabile, mentre xe = − µ
è una sella. #

Esempio 5.2.14 La mappa f (·, µ) : x ∈ R &→ µ + x − x2 ∈ R ha anch’essa lo stesso diagramma biforcativo nel
punto (x∗ , µ∗ ) = (0, 0).

f(x,µ) xc
µ>0 bile
o s ta
µ=0 nod
µ<0 0 µ
x s el
l a in
stab il e
0

Note di Sistemi Dinamici


272 Capitolo 5. Comportamento caotico dei Sistemi

Esempio 5.2.15 La mappa f (·, µ) : x ∈ R &→ µex ∈ R, µ > 0 , ha un analogo diagramma biforcativo nel punto
(x∗ , µ∗ ) = (1, 1/e). [Si osservi infatti che la differenza µex − x è minima in x = ln(1/µ) ed il suo valore in tale punto è 1 + ln µ ].

f(x,µ) sella in
stab
ile
1 µ
µ >1/e
le
µ =1/e n o do st a b i
µ <1/e
x
1/e

Nota 5.2.3 Nell’intorno del punto di tangenza, e dal lato in cui non si presentano punti di equilibrio, si può
poi innescare un procedimento che secondo alcuni è alla base delle cosiddette “intermittenze”. È questo uno dei
modi possibili con cui si schematizza un tipo di transizione al caos dei sistemi, qui intendendo con “caos” un
comportamento non periodico né quasi periodico. Detto µT il valore del parametro per il quale si ha la tangenza,
in un intorno di tale valore e dal lato di µT senza equilibri, si stabilisce una sorta di tempo caratteristico, di scala
assai diversa da quella che il sistema mostra per valori di µ molto diversi da µT ; per cui se il sistema torna più
volte a passare per tale “imbuto”, si genera un comportamento intermittente di imprevedibile cambio del tempo
caratteristico del fenomeno.

f(x)


(
ẋ = µ − x2
Esempio 5.2.17 Il sistema x0 , y0 ∈ R, µ > 0,
ẏ = cy
ha diagramma, nel punto (x∗ , µ∗ ) = (0, 0), dato da
c>0 c<0
xc xc
instabi
le stabile
sella nodo

0 µ 0 µ

n o do s e lla
instabil instabile
e
0 0

Punto di biforcazione a forchetta per ẋ = v(x, µ), x ∈ M := un punto (x∗ , µ∗ ) tale che:



⎪v(x∗ , µ∗ ) = 0;

⎪ ∗ ∗

⎨∂x v(x , µ ) ha un solo autovalore λ = 0 e semplice;
∂µ v(x , µ∗ )

appartiene allo span {∂x v(x∗ , µ∗ )};



⎪xe = xe (µ) consiste di due curve con tangenti in (x∗ , µ∗ )


⎩ distinte ed opportunamente trasversali.

M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 273

Si consideri ad esempio il caso in cui la variabile x è anch’essa scalare. Affinché il punto sia singolare (di tipo superiore alla biforcazione
a gomito) occorre innanzi tutto che, in esso, siano: ∂x v = ∂µ v = 0 . Poi, parametrizzate con x = x(σ) e µ = µ(σ) le curve xe = xe (µ) ,
dal teorema del Dini si ricava la seguente condizione, locale, necessaria per la loro esistenza
) *2 ) *2
∂2v dx ∂ 2 v dx dµ ∂2v dµ
+2 + =0;
∂x2 dσ ∂x∂µ dσ dσ ∂µ2 dσ

le loro tangenti devono allora essere tali che (valutando le derivate nel punto (x∗ , µ∗ ) ) sia:
a
dx/dσ vxµ ∆ 2
= − ± 2
, ove ∆ := vxµ − vxx vµµ .
dµ/dσ vxx vxx

Perché possa avvenire una qualche intersezione fra le due curve, ed anzi affinché in (x∗ , µ∗ ) vi sia una bi-forcazione, regolare, devono
essere vere le
∆>0 e vxx ̸= 0 ,
oppure (se vµµ = 0 , o quando può essere µ′ = 0 )

∆>0 e 2vxµ µ′ + x′ vxx = 0 .

Il punto (x∗ , µ∗ ) è un punto di biforcazione a forchetta quando non solo le tangenti alle due curve verificano le condizioni dette, ma
anche quelle necessarie al non verificarsi di un punto di flesso ed al non cambiar segno della dµ/dσ .
In definitiva, quando la variabile x è anch’essa scalare le condizioni affinché il punto sia un punto di biforcazione
a forchetta richiedono che le seguenti derivate, calcolate nel punto (x∗ , µ∗ ), valgano

∂v ∂v ∂2v ∂2v ∂3v


= = 0, = 0, ̸= 0, ̸= 0.
∂x ∂µ ∂x2 ∂x∂µ ∂x3

Altri possibili nomi per questo tipo di biforcazione sono: biforcazione a forchetta o “pitchfork”.

Esempio 5.2.18 ẋ = +µx − x3 x0 , µ ∈ R.



Gli equilibri sono xe = 0 ed x± = ± µ, e si ha ∂x v(x, µ) = +µ − 3x2 . Quest’ultima, calcolata negli equilibri,
vale µ oppure −2µ; di conseguenza si annulla in (x∗ , µ∗ ) = (0, 0). Il punto x0 = 0 , d’altra parte, è stabile (ed
unico) per µ ≤ 0 , mentre non lo è per µ > 0 valori questi per i quali esistono anche le altre due soluzioni x+ , x−
che, quando esistono, sono stabili. La situazione pertanto è del tutto analoga a quella vista per il pendolo rotante,
e anche per quanto riguarda la forma del potenziale. Nel punto (x∗ , µ∗ ) = (0, 0) si ha una biforcazione a forchetta
supercritica, in quanto si hanno soluzioni stabili da ambo le parti del valore biforcativo µ∗ . #

xc

x* µ

µ* forchetta supercritica

Esempio 5.2.19 (continuazione dell’Esempio5.2.5)


Il pendolo rotante ha in (θ∗ , µ∗ ) = (0, 1) una biforcazione a forchetta [ciò se si accetta il fatto che la coordinata θ̇ ,
necessariamente nulla nel punto di equilibrio ed indipendentemente dal parametro λ , non concorre ad aumentare la dimensionalità
del problema, e che quindi il punto è semplice malgrado la ∂x v(0, 0, 1) abbia doppio l’autovalore nullo]. #

Esempio 5.2.20 La mappa f (·, µ) : x ∈ R &→ +µx − x3 ∈ R, µ ∈ R, ha un analogo diagramma biforcativo nel
punto (x∗ , µ∗ ) = (0, +1). #

Esempio 5.2.21 ẋ = +µx + x3 , x , µ ∈ R.


√0
Gli equilibri sono xe = 0 ed x± = ± −µ; e si ha che ∂x v , calcolata negli equilibri, vale µ oppure −2µ. Essa si
annulla in (x∗ , µ∗ ) = (0, 0); il punto xe = 0 è stabile (ed unico) per µ ≤ 0 , e non lo è per µ > 0 mentre le
altre due soluzioni esistono per µ < 0 e, quando esistono, sono instabili. Nel punto (x∗ , µ∗ ) = (0, 0) si ha una
biforcazione a forchetta subcritica, in quanto si hanno soluzioni stabili solo da una parte del valore biforcativo µ∗ .
#

Note di Sistemi Dinamici


274 Capitolo 5. Comportamento caotico dei Sistemi

xc xc

x* µ x* µ

µ* µ*
forchetta subcritica forchetta instabile

Esempio 5.2.22 La mappa f (·, µ) : x ∈ R &→ +µx + x3 ∈ R, µ ∈ R, ha un analogo diagramma biforcativo nel
punto (x∗ , µ∗ ) = (0, 1). #

Punto di biforcazione transcritica := per ẋ = v(x, µ), x ∈ M, un punto (x∗ , µ∗ ) tale che:



⎪ v(x∗ , µ∗ ) = 0;

⎪ ∗ ∗

⎨∂x v(x , µ ) ha un solo autovalore λ = 0 e semplice;
∂µ v(x∗ , µ∗ appartiene allo span {∂x v(x∗ , µ∗ )};



⎪ xe = xe (µ) consiste di due curve con tangenti in (x∗ , µ∗ )


⎩ distinte ed opportunamente trasversali.

Se la variabile x è scalare, le ultime condizioni si specializzano nelle seguenti (le derivate valutate in (x∗ , µ∗ ) ):
∂v ∂v ∂2v ∂2v ∂3v
= = 0, ̸= 0, ̸= 0, = 0.
∂x ∂µ ∂x2 ∂x∂µ ∂x3
Altri possibili nomi per questo tipo di biforcazione sono: cambio di stabilità.

xc

pozzo sorgente
x* µ

µ*

Esempio 5.2.23 ẋ = µx − x2 , x0 , µ ∈ R.
Gli equilibri sono xe = 0 ed xe = µ; e si ha che ∂x v calcolato negli equilibri vale µ oppure −µ. Essa si annulla in
(x∗ , µ∗ ) = (0, 0); il punto xe = 0 è stabile per µ ≤ 0 , e non lo è per µ > 0 mentre il contrario avviene per la
soluzione xe = µ Nel punto (x∗ , µ∗ ) = (0, 0) si ha una biforcazione transcritica. #

Esempio 5.2.24 La mappa f (·, µ) : x ∈ R &→ (1 + µ)x + x2 ∈ R, µ ∈ R, ha un analogo diagramma biforcativo


nel punto (x∗ , µ∗ ) = (0, 0), cosı̀ come lo ha la mappa quadratica fµ : x ∈ R &→ µx(1−x) nel punto (x∗ , µ∗ ) = (0, 1).
#
∗ ∗
' il diverso comportamento della mappa quadratica nei due punti (x , µ ) ≡ (0, 1)
Si osservi ancora una volta
∗ ∗ '
ed (x , µ ) ≡ (1 − 1/µ, µ) µ=3 , [quest’ultimo nel § 1 era stato indicato con (x̄µ2 , µ2 ) ]. Lo Jacobiano della mappa
quadratica fµ (x) = µx(1 − x) ∈ R vale µ(1 − 2x), e quindi sul ramo x̄µ = 1 − 1/µ vale 2 − µ. Come è noto,
affinché x̄µ sia stabile deve essere |2 − µ| < 1 , e cioè 1 < µ < 3 . Si osserva allora che nel valore µ∗ = 3 la
x∗ = x̄µ perde di stabilità ma, contrariamente al caso (x∗ , µ∗ ) = (0, 1), senza cederla ad alcun altro punto di
equilibrio della stessa mappa. Lo Jacobiano nei due punti ha valore rispettivamente +1 e −1. Questo particolare
tipo di comportamento, presente solo con le mappe, verrà esaminato più oltre. Proseguendo invece, per il momento,
nella discussione dei campi vettoriali, si ha che il prossimo più semplice modo che ha un equilibrio per non essere
iperbolico, e che però si può manifestare solo per dimensioni maggiori di uno, è il caso di un
Punto di biforcazione alla Hopf per ẋ = v(x; µ), x ∈ M := un punto (x∗ , µ∗ ) tale che (necessariamente):
⎧ ∗ ∗

⎪ v(x , µ ) = 0;

⎨∂ v(x∗ , µ∗ )
x ha una coppia di autovalori λ0 , λ̄0 ∈ C1 semplici e
⎪ d
⎪ tali che: ℜe λ0 = 0, ℑm λ0 ̸= 0, dµ (ℜe λ0 ) ̸= 0;


e tutti gli altri autovalori λ hanno ℜe λ ̸= 0;

inoltre, sia possibile verificare le condizioni qui sotto esposte sugli andamenti della ṙ e della θ̇ .

M. Lo Schiavo
5.2. Cenni di teoria delle biforcazioni 275

Il sistema non solo ammette un punto di equilibrio xe (µ) che vale x∗ per µ = µ∗ [e cioè, nello spazio delle coppie
(x, µ), un arco di linea {x(µ), µ}µ∈N (0) tutto corrispondente a punti di equilibrio e passante per il punto (x∗ , µ∗ )],
ma in aggiunta e vicino ad esso, per un qualunque valore del parametro µ scelto da uno solo dei due lati rispetto a
µ∗ , si manifesta una traiettoria periodica il cui “raggio” aumenta all’allontanarsi del valore del parametro da quello
di biforcazione: µ∗ . Il punto di equilibrio varia di stabilità quando µ attraversa il valore µ∗ e generalmente la
cede alla soluzione periodica.
Il sistema ammette localmente un sistema di coordinate due delle quali: ξ, η ∈ R descrivono una varietà
localmente invariante; su di essa, la loro dinamica è data da:
(
ξ˙ = α(µ)ξ − β(µ)η + (a(µ)ξ − b(µ)η)(ξ 2 + η 2 ) + O(|ξ 5 |, |η 5 |)
η̇ = β(µ)ξ + α(µ)η + (b(µ)ξ + a(µ)η)(ξ 2 + η 2 ) + O(|ξ 5 |, |η 5 |)
(si veda: [Wiggins II ]) ove λ =: α + iβ ∈ C1 , ed a, b ∈ C 0 (R).
Questo sistema ridotto può essere trasformato in coordinate polari e fornisce, in prima approssimazione,

⎪ ν := µ − µ∗ ;
⎧ ⎪

ṙ = α(µ)r + a(µ)r3 + O(r5 ) ⎪
⎪ d

⎪ ⎪
⎪ c1 := dµ (ℜe λ(µ∗ )) ;

⎪ ⎪

⎨ ≃ c1 νr + c2 r3 ⎨ c := d (ℑm λ(µ∗ )) ;
4 dµ
con

⎪ θ̇ = β(µ) + b(µ)r 2
+ O(r 4
) ⎪
⎪ c2 := a(µ∗ ) ;

⎪ ⎪

⎩ 2 ⎪

≃ c3 + c4 ν + c5 r ⎪

⎪ c5 := b(µ∗ ) ;

c3 := ℑm λ(µ∗ ) ;
ed è facile quindi riconoscere la presenza della linea di equilibri r = 0 e della (famiglia di) soluzione periodica
corrispondente alla radice di c1 ν + c2 r2 = 0 .
La loro stabilità la si può riassumere nella tavola:
c1 c2 ν origine ciclo
+ + + u
+ + − s u
+ − + u s
+ − − s (2.17)
− + + s u
− + − u
− − + s
− − − u s
La seguente figura si riferisce al caso c4 = c5 = µ∗ = 0; c1 = c3 = 1; c2 = −1
y

Come si è visto, la condizione di biforcazione di un punto di equilibrio per un flusso si traduce, in modo analogo,
in quella sulla biforcazione di un punto unito per una mappa. D’altra parte, queste ultime possono presentare
un ulteriore tipo di comportamento biforcativo che è loro proprio e che non si manifesta con i flussi. Il successivo
esempio di biforcazione non riguarda i campi, ma specificamente le mappe, ed in particolare non è raro che ne
sia interessata una famiglia di mappe di Poincarè P (x, µ). Con esso si conclude qui l’esame dei principali tipi di
biforcazioni che possono presentarsi nei punti fissi di una famiglia di mappe (regolari) dipendente in modo regolare
dai parametri di controllo.
Si ricordi, come già osservato all’inizio del paragrafo, che la condizione che rende biforcativo: (x∗ , µ∗ ) un punto
di equilibrio (xe , µ) per una famiglia di campi v(x, µ), e cioè che sia
v(x∗ , µ∗ ) = 0, insieme con: ∃λ ∈ spct(∂x v(x∗ µ∗ )) con ℜe λ = 0 ,

Note di Sistemi Dinamici


276 Capitolo 5. Comportamento caotico dei Sistemi

si trasforma, per una famiglia di mappe, f (·, µ) &→ f (x, µ) nell’analoga condizione:


⎨ f (x∗ , µ∗ ) − x∗ = 0; insieme con
∃λ ∈ spct(∂x f (x∗ µ∗ ) − 1I ) con ℜe λ = 0, ovvero


∃λ ∈ spct(∂x f (x∗ µ∗ )) con ℜe λ = 1.
Per le mappe, e solo per esse, risulta biforcativo anche un punto che, pur non essendo come quelli detti qui
sopra, è tuttavia tale da produrre un cambio di stabilità: anche in esso si ha f (x∗ , µ∗ ) − x∗ = 0 , ma ora è
−1 ∈ spct(∂x f (x∗ , µ∗ )). Più in generale, risulta una biforcazione di questo tipo un punto (x∗ , µ∗ ) per il quale la
∂x f (x∗ , µ∗ ) ha qualche autovalore λ il cui modulo attraversa il valore uno quando µ attraversa il valore µ∗ .
Se infatti si esamina una famiglia ad un parametro di mappe, siano ad esempio delle mappe di Poincaré
P (x, µ), e si studia il modo in cui un qualche autovalore λ dell’operatore ∂x f (x∗ , µ∗ ) varia al variare dei parametri
di controllo µ del sistema, si riconosce che esso ha più modi con i quali |λ| attraversa il valore uno, i più semplici
dei quali sono:
(i) λ attraversa il valore +1 per µ = µ∗ , ed è ℑm λ = 0 ;
(ii) λ attraversa il valore −1 per µ = µ∗ , ed è ℑm λ = 0 ;
(iii) λ fa parte/di una coppia di autovalori complessi coniugati, per la quale accade che ℑm λ = ℑm λ̄ ̸= 0 , e
che ρ := (ℜe λ)2 + ℑm λ)2 attraversa la circonferenza unitaria per µ = µ∗ .

Caso (i). La funzione ν(x, µ) := f (x, µ) − x ha uno zero nel punto (x∗ , µ∗ ) e la ∂x ν(x∗ , µ∗ ) ≡ ∂x f (x∗ , µ∗ ) − 1I
ha un autovalore nullo e semplice, e quindi si ha un normale caso di diramazione. Esso consiste di uno dei possibili
tipi di diramazione, quali ad esempio quelli visti precedentemente. In figura è un sistema continuo la cui mappa
di Poincaré ammette un punto di gomito.
¹<¹* ¹=¹* ¹>¹*

[Si noti che se l’autovalore non fosse semplice si potrebbero avere più traiettorie periodiche coesistenti, delle quali una è quella cui
la mappa si riferisce, mentre le altre non ne fanno parte. Ad esempio può essere avvenuto un fenomeno di biforcazione (semplice) alla
Hopf. (vedi: [Seydel ])].
Caso (ii). La funzione ν(x, µ) := f (x, µ)−x pur annullandosi nel punto (x∗ , µ∗ ) non ha in esso una biforcazione,
perché il suo Jacobiano è non singolare: ha autovalore −2 e non 0 . Tuttavia, il fatto che −1 sia autovalore di
∂x f (x∗ , µ∗ ) fa sı̀ che la mappa f ◦f abbia (lo stesso punto di equilibrio (x∗ , µ∗ ) ed in più) Jacobiano con autovalore
2
unitario; infatti ∂x (f ◦ f )(x, µ) = ∂x f (f (x, µ), µ) · ∂x f (x, µ), e quindi ∂x (f ◦ f )(x∗ , µ∗ ) = (∂x f (x∗ , µ∗ )) . Si
riconosce allora che, nel valore µ∗ , il sistema presenta un
Punto di raddoppio di periodo per f (·, µ) : x &→ f (x, µ), x ∈ M := un punto (x∗ , µ∗ ) per il quale è la
mappa f 2 ad avere una biforcazione a forchetta:



⎪ f (x∗ , µ∗ ) = x∗ ;

⎪ ∗ ∗

⎨∂x f (x , µ ) ha un solo autovalore λ = −1 e semplice;
2 ∗ ∗
∂µ f (x , µ ) appartiene allo span {∂x f 2 (x∗ , µ∗ ) − 1I };


⎪xe = xe (µ)
⎪ (soluzione della: f 2 (xe ) = xe ), consiste di due curve con


⎩ tangenti in (x∗ , µ∗ ) distinte ed opportunamente trasversali.
Si genera in tal modo, e per valori della µ “da un solo lato” del punto µ∗ , una famiglia di traiettorie periodiche
di periodo due.
Quando la variabile x è scalare, le ultime condizioni si specializzano nelle (valutate nel punto (x∗ , µ∗ ) ):
∂f 2 ∂2f 2 ∂2f 2 ∂3f 2
= 0, = 0, ̸= 0, ̸= 0.
∂µ ∂x2 ∂x∂µ ∂x3
Altri possibili nomi per questo tipo di biforcazione sono: period doubling, o “flip-bifurcation”.
Esempio 5.2.25 (continuazione dell’Esempio 5.2.24) La mappa quadratica nel punto µ∗ = 3 #

M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 277

Esempio 5.2.26 La mappa f : x ∈ R &→ −(1 + µ)x + x3 ∈ R, ha lo stesso diagramma biforcativo: nel punto

(x∗ , µ∗ ) = (0, 0) nasce un ciclo di periodo 2 dato da x = ± µ. #

Si osservi infine che, qualora la mappa che presenta un punto di raddoppio di periodo sia una mappa di Poincaré
P , il corrispondente sistema continuo è tale da avere un ciclo che da T -periodico diviene 2T -periodico al passaggio
della µ attraverso il valore biforcativo µ∗ .
Caso (iii). La ∂x f (x, µ) ammette due autovalori complessi coniugati λ0 , λ̄0 i quali, al passaggio del parametro
µ per µ∗ , attraversano la circonferenza unitaria nel piano di Gauss. Esiste allora un piano sul quale la restrizione
della famiglia di mappe di Poincaré risulta convenientemente rappresentata da
) * ) ′* ) *
r r r + r3 ℜe c/λ0
f: &→ ≃ 1 2 con c, λ0 , ϕ dipendenti da µ.
θ θ′ θ + ϕ + 2π r ℑm c/λ0

Come visto nel caso della biforcazione alla Hopf per i flussi, al passaggio di µ per µ∗ (supposto in R), si può
generare da uno dei lati di µ∗ un ciclo invariante che può o meno essere stabile. La mappa f (x, µ) ammette cioè
una curva chiusa invariante, nel senso che trasporta ogni punto della curva in un punto che sta sulla curva stessa.
Quando la mappa sia una Poincaré possono allora verificarsi, limitatamente a condizioni iniziali sulla curva in
questione, i vari casi di armoniche visti in precedenza o, se ϕ/2π ̸∈ Q , ognuna delle corrispondenti traiettorie
riempie in modo denso il toro la cui sezione con la superficie Σ definisce la curva. In tal caso il sistema di cui la
f è Poincaré, mostra una
Biforcazione secondaria alla Hopf := l’orbita periodica cede stabilità ad un toro invariante che può o meno
essere stabile, che la circonda, e che per µ → µ∗ tende alla traiettoria periodica x(t, t∗ , x∗ )
Altri possibili nomi per questo tipo di biforcazione sono: “torus biforcation”.
Cosı̀ come la cascata di raddoppi di periodi, anche questo tipo di biforcazione può dar luogo a fenomeni caotici.

5.3 “Classici” esempi di mappe caotiche


Nel paragrafo 5.1 si sono esaminati alcuni casi di sistemi discreti in dimensione uno e con dinamica caotica. Ci
si aspetta che, aumentando la dimensione dello spazio, le eventualità di generare caos non possano che aumentare.
Qui di seguito verranno richiamate alcune delle più note mappe che presentano fenomeni complessi o caotici.
Esempio 5.3.1 La mappa di Henon H : R2 → R2 data da
) * ) * ) * ) *
ξn+1 1 + ηn − αξn2 xn+1 a − byn − x2n
= oppure =
ηn+1 βξn yn+1 xn

che sono equivalenti, giacché la seconda si ottiene dalla prima mediante la trasformazione (x, y) := (αξ, αβ −1 η),
e dove α ≡ a e β ≡ −b < 1 sono costanti positive.
Si nota che lo Jacobiano vale in ogni punto −β = cost e quindi, a meno che sia β = 1 , la mappa non conserva
l’area.
Essa può essere considerata come la composizione successiva di:
( ( (
ξ′ = ξ ξ ′ = βξ ξ′ = η

⇒ ′

η = 1 + η − αξ 2
η =η η′ = ξ

In figura è illustrato il caso α = 1.3 β = 0.3 .

+3 +3 +3

0 0 0

-3 -3 -3

-6 -6 -6
-6 -3 0 +3 -6 -3 0 +3 -6 -3 0 +3

Non è difficile verificare che, per opportuni valori di α, β , esiste un’ampia zona del piano formata dai punti
i quali, al crescere del numero di iterazioni della mappa, non si perdono verso l’infinito. Essi, al contrario, hanno
dinamica che dopo un breve transiente, ed indipendentemente dal punto di partenza (purché scelto nella zona
detta), si svolge su una tipica figura “di area nulla” sulla quale la dinamica rimane viva ed erratica.

Note di Sistemi Dinamici


278 Capitolo 5. Comportamento caotico dei Sistemi

Tale insieme prende il nome di Attrattore di Henon . Esso naturalmente contiene i due punti fissi della mappa
e cioè i punti ξe± = (ξe± , ηe± ) dati da

1−β 0 √ 1 4α
ξe± := − 1± 1+δ ; ηe± = βξe± ; δ := ;
2α (1 − β)2
/
Studiando la linearizzata in ξe± , che ha autovalori λ1,2 = −αξe ± α2 ξe2 + β , ed esaminando le condizioni per
le quali una delle due autodirezioni sia espansiva (e l’altra contrattiva),
7 si riconosce
8 che la posizione (ξe+ , ηe+ ) è
comunque instabile, mentre l’altra lo è solo se α > α1 := 3α0 := 3 14 (1 − β)2 .
Si ottiene un attrattore dalle caratteristiche ben distinte con il valore β = 0.3 e quindi α0 ∼ 0.12 . Inoltre,
chiamati α2 := 1.06, ed α3 := 1.55 , si ha

rclα < α0 i punti vanno all’infinito;


α0 <α < α3 dipende dai valori iniziali:
α0 <α < α1 l’attrattore è il punto fisso stabile;
α2 <α < α3 l’attrattore può essere espansivo;
α3 <α i punti vanno all’infinito.

Con i valori β = 0.3, α = 1.4 si ha la nota figura:

0.4
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
-0.4
-1.5 -1 -0.5 0 0.5 1 1.5

0.19 0.17 0.166

0.17 0.165 0.165

0.15 0.16 0.164


0.6 0.64 0.68 0.72 0.76 0.8 0.74 0.765 0.79 0.77 0.7733 0.7767 0.78

nella quale si riconosce che l’attrattore ha sensibilmente una struttura di prodotto fra una varietà unidimensionale
regolare (e tangente all’autovettore instabile relativo all’autovalore λ = −1.923 . . .) ed un insieme di Cantor.
Per confronto, si veda qui di seguito l’effetto della mappa dopo una sola iterazione nel caso β = 0.3, α = 1.3 ;
in essa è anche mostrato l’attrattore che, in questo caso, è costituito da sette punti periodici, e quindi del tutto
regolare.

+3
A
B
C

B
0

D C
A
D
-6
-1.5 0 +1.5

Sempre numericamente si nota che l’errore (e quindi l’incertezza) cresce rapidamente con il numero di iterate:
d(ξn , ξn′ ) ∝ αn d(ξ0 , ξ0′ ), a ≈ 1.52 .
Pertanto per quasi tutti gli ξ0 , e con l’ipotesi che d(ξ0 , ξ0′ ) ≪ 1 , si ha che l’esponente di Liapunov λ(ξ) :=
limn→∞ n1 ln ∥df n (ξ)∥ vale λ ≈ 0.42 ed il fatto che esso sia positivo fa dichiarare espansivo (o “strano”) l’attrattore.

M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 279

Va detto però che l’attrattore si ripiega su se stesso e non interseca trasversalmente alcuna varietà stabile: esso
è non iperbolico (vedi oltre).
Si può notare inoltre che per α ∈ (1.052, 1.082) si genera una cascata di raddoppi di periodi nel piano (ξ; α)
del tutto analoga a quella della mappa quadratica.
La storia di questo modello si può riassumere nel seguente grafico:

PDE : Navier Stokes −→ (Fourier) −→ Lorenz


Lorenz −→ (Runge Kutta) −→ Flusso
Flusso −→ (Sezione) −→ m. di Poincaré
m. di Poincaré −→ (Ipotesi) −→ m. di Henon
m. di Henon −→ (Numerico) −→ AttrattoreA

Esempio 5.3.2 Il ferro di cavallo di Smale, o “Smale horseshoe”.


È un esempio di mappa f : R2 → R2 che sul quadrato D := [0, 1] × [0, 1] ha infiniti punti periodici eppure è
strutturalmente stabile.
Siano dati λ ∈ (0, 12 ), e µ > 2 . La mappa f è definita da
) ′* ) *) * ) ′* ) *) * ) *
x λ 0 x x −λ 0 x 1
= oppure = +
y′ 0 µ y y′ 0 −µ y µ
) *
x
a seconda che il punto appartenga ai rettangoli
y
N O N O
H0 := [0, 1] × 0, µ1 oppure H1 := [0, 1] × 1 − µ1 , 1 .

Pertanto, dette V0 := f (H0 ) ed V1 := f (H1 ) le immagini dei due rettangoli H0 ed H1 rispettivamente, si


vede facilmente che è
V0 := [0, 1/λ] × [0, 1] e V1 := [1 − λ, 1] × [0, 1] .
Sull’insieme (H0 ∪ H1 )c è conveniente non definire la mappa e lasciare che sia nilpotente: f ((H0 ∪ H1 )c ) = ∅ ; o anche, e ciò
facilita l’immaginazione, la si può rendere interpretabile con una deformazione “plastica” del quadrato D (vedi figura). In ogni caso,
detto D0 := D \ (H0 ∪ H1 ) , e quindi con (H0 ∪ H1 )c = D c ∪ D0 = H0c ∩ H1c , si assume che
D ∩ f ((H0 ∪ H1 )c ) = (D ∩ f (D c )) ∪ (D ∩ f (D0 )) = ∅ .
Segue allora che
D ∩ f 2 (D) = D ∩ (f (D ∩ f (D)) ∪ f (D c ∩ f (D))) = D ∩ f (D ∩ f (D))
e cioè che la mappa f2 porta in D solo punti provenienti da D ∩ f (D) ; essa inoltre li lascia in D ∩ f (D) . Sussiste, anzi, la
più generale relazione
Jk := D ∩ f k (D) = D ∩ f (D ∩ f k−1 (D)) = [D ∩ f ]◦k (D) ⊆ Jk−1 ;
e questa, per 0 ≤ j ≤ k , fornisce
Jk ∩ Jj = Jk , o anche D ∩ f j (D) ∩ f k (D) = D ∩ f k (D) .
Da queste, con J0 := D e per k = 0, 1, . . . si ricava la
Jk+1 = D ∩ f (D) ∩ · · · ∩ f k+1 (D) = Jk ∩ f k+1 (D)
= Jk ∩ f (D ∩ f k (D)) = Jk ∩ f (Jk ) = D ∩ f (Jk ).
¹
D C

¹-1
1 1
D
H1
C f(V0)
1-1/¹
V0 V1 f(V1)
1/¹
H0
0 A B 0 0 00
A B A0 B C0 D B00 D
1 0 ¸ 0 ¸ 1-¸ 1 A00 C00

f(D) f2(D)

È chiaro allora che la mappa inversa risulta tale che

Note di Sistemi Dinamici


280 Capitolo 5. Comportamento caotico dei Sistemi

1 f-1(D) 1
H1
1-1/¹
V0 V1
1/¹ 1/¹
¸ 1 1 1/¸-1 1/¸
H0 1
0 0 0

La prima cosa da notare è che segmenti “orizzontali” e “verticali” vengono trasformati in segmenti aventi gli
stessi caratteri; e ciò a causa della linearità della mappa e del fatto che essa ha matrice diagonale. Inoltre, se V
è un qualsiasi rettangolo verticale di altezza unitaria, dato che esso interseca totalmente entrambi i rettangoli H0
ed H1 si riconosce che f (V ) ∩ D è costituito esattamente da due rettangoli verticali: l’uno in V0 l’altro in V1 ,
di ampiezza orizzontale λ volte quella di V ed altezza unitaria. Analoghe conclusioni valgono per i rettangoli
orizzontali H := µ & × [0, 1] con µ& ≤ µ e le loro preimmagini f −1 (H) ∩ D .
Si osservi che, pur esistendo unica l’immagine inversa f −1 (x) ∈ D di ogni x ∈ V0 ∪ V1 , la mappa f non
è invertibile su D giacché tutti i punti che sono in D \ (V0 ∪ V1 ) si perdono sotto l’azione delle f −1 ; ed allo
stesso modo, un qualsiasi V (o, rispettivamente, H ) non può essere l’immagine inversa (l’immagine) di alcun
sottoinsieme di D . Ad esempio:

f −1 (f 2 (D)) ̸= f (D) ed f −1 (f (V )) ̸= V, ed anche f (f −1 (H)) ̸= H .

Per lo stesso motivo, ad esempio i punti del rettangolo [b′′ , c′′ ] × [0, 1] non sono f 2 − immagini di alcun punto in D ;
infatti la loro f −1 − immagine è una striscia verticale, contenuta in H0 , e fatta da punti che non sono f − immagini
di alcun x ∈ D giacché essa ha intersezione non vuota con la striscia [λ, 1 − λ] × [0, 1]. L’unica invertibilità valida
è quella per la quale

f −1 (f (Hσ )) = Hσ , ed f (f −1 (Vσ )) = Vσ , in quanto


−1
Vσ = f (Hσ ), ed Hσ = f (Vσ ), σ ∈ {0, 1} .

Si osservi poi che:


c
• l’insieme J1 = D ∩ f (D) = V0 ∪ V1 =: σ−1 ∈{0,1} Vσ−1 , è l’insieme di quei punti che erano in H0 o in H1
al passo precedente quello “attuale”; ciò perché le V0 = f (H0 ) ed V1 = f (H1 ) implicano x ∈ Vσ quando
f −1 (x) ∈ Hσ .

• L’insieme J2 = D ∩ f (D ∩ f (D)) = D ∩ f (D) ∩ f 2 (D) consiste di quattro strisce verticali:


b
D ∩ f (D ∩ f (D)) = D ∩ f (V0 ∪ V1 ) = D ∩ f (Vσ−2 )
σ−2 ∈{0,1}
b b
= Vσ−1 ∩ f (Vσ−2 ) = D ∩ f (Hσ−1 ) ∩ f 2 (Hσ−2 )
σ−i ∈{0,1} σ−i ∈{0,1}
i=1,2 i=1,2

esso infatti coincide esattamente con quei punti che erano in H0 o in H1 sia per t = −1 che per t = −2 .
Introducendo un deponente per ogni iterazione, tale insieme può essere scritto sotto la forma:
c
σ−1 ,σ−2 ∈{0,1} Vσ−1 σ−2 ; ciò mette in risalto il fatto che f −1 (Vσ−1 σ−2 ) ⊆ Hσ−1 e che f −2 (Vσ−1 σ−2 ) ⊆ Hσ−2 .
Risulta in definitiva Vσ−1 σ−2 = Vσ−1 ∩ f (Vσ−2 ) = f (Hσ−1 ) ∩ f 2 (Hσ−2 ).

• Induttivamente, osservando che le Vσ′ \f (Vσ ) ⊂ Vσ′ e f (Vσ )\Vσ′ ⊂ Vσc′ implicano, tramite la (R3) del
§ V.1, che f (Vσ′ ∩ f (Vσ )) = f (Vσ′ ) ∩ f 2 (Vσ ), si prova che l’insieme
b 7 8
◦k
(D) = Vσ−1 ∩ f Vσ−2 ∩ f (· · · ∩ f (Vσ−k+1 ∩ f (Vσ−k ))) · · ·
σ−i ∈{0,1}
i=1,··· ,k
b
= Vσ−1 ∩ f (Vσ−2 ) ∩ f 2 (Vσ−3 ) ∩ · · · ∩ f k−1 (Vσ−k )
σ−i ∈{0,1}
i=1,··· ,k

= Jk = D ∩ f k (D) = D ∩ f (D) ∩ f 2 (D) ∩ · · · ∩ f k (D)

consiste di 2k strisce verticali; esso è formato da quei punti che erano in H0 o in H1 sia per t = −1 , che
per t = −2 , . . . , che per t = −k . Indicando tali strisce con

Vσ−1 ...σ−k := Vσ−1 ∩ f (Vσ−2 ...σ−k ) = Vσ−1 ∩ f (Vσ−2 ) ∩ · · · f k−1 (Vσ−k ),

M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 281

g
si ottiene (con “ ” indicante la condizione di “AND” logico)
b
◦k
(D) = Vσ−1 ...σ−k
σ−i ∈{0,1}
i−1,...,k
⎧ ⎫
⎨ 'hk b ⎬
'
= x∈D' f −i+1 (x) ∈ Vσ−i
⎩ ⎭
i=1 σ−i ∈{0,1}
⎧ ⎫
⎨ 'hk b ⎬
'
= x∈D' f −i (x) ∈ Hσ−i .
⎩ ⎭
i=1 σ−i ∈{0,1}

Ciascuna striscia Vσ−1 ...σ−k è di larghezza λk ed altezza unitaria; la famiglia {Vσ−1 ...σ−k }k=1,2,... è una
famiglia di compatti, non vuoti, che forma un sistema centrato. Pertanto, per k → ∞, l’intersezione totale è
non vuota. Infine, dato che limk→∞ λk = 0 , ogni successione σ := (σ−1 , σ−2 , . . . , σ−k ) ∈ YN
2, σ−i ∈ {0, 1} ,
individua (una ed) una sola linea verticale.
• In modo del tutto analogo si ragiona per la mappa f −1 , cambiando cioè tempi positivi con tempi nega-
tivi e corrispondentemente H con V . Ad esempio, definiti per σk ∈ {0, 1} ed h = 0, 1, . . . i rettangoli
Hσ0 ...σk := Hσ0 ∩ f −1 (Hσ1 ...σk ) si ha
b
D ∩ f −1 (D) ∩ f −2 (D) = Hσ0 σ1
σ0 ,σ1 ∈{0,1}
⎧ ⎫
⎨ 'h1 b ⎬
'
= x∈D' f +i (x) ∈ Hσi
⎩ ⎭
i=0 σi ∈{0,1}

• Ne segue che una successione bilatera (· · · , σ−1 , σ0 , σ+1 , · · · ) individua uno ed un solo punto x nel quadrato
D: ; ' <
'
x := Vσ−1 σ−2 ···σ−k ··· ∩ Hσ0 σ+1 ···σ+k ··· = x ∈ D ' f i (x) ∈ Hσi , i ∈ Z ;
sotto l’azione della mappa f esso è tale da restare nel quadrato per ogni t ∈ Z, si trova al tempo “attuale”
nel rettangolo Hσ0 , e si muove come indicato dall’operatore di shift S secondo la successione σ ad esso
associata. La posizione dell’evoluto di x al tempo j , ovvero l’appartenenza di f j (x) ad H0 o ad H1 , viene '
riconosciuta spostando lo zero di j posti verso destra se j > 0 , ed esaminando il nuovo valore σ0′ ≡ S +j (σ)'0 .

Questa struttura è estendibile a vari altri casi (vedi: [Wiggins 2 teor.3.3] opp. [Guckenheimer ]), e si possono
incontrare modelli in cui è presente anche una matrice di raggiungibilità A. Esiste allora A ⊂ D sul quale la
dinamica è coniugata ad un subshift finito (YZA , S) e, se A è irriducibile (vedi: [Walters]), A è un insieme di
Cantor. C∞ |σi −σi′ |
Scelta infine una metrica su YZ2 , ad esempio la d(σ, σ ′ ) = i=−∞ 2|i|
, si riconosce che lo shift S è
continuo, e siccome nel caso delle successioni bilatere S è anche invertibile su YZ2 , esso risulta un omeomorfismo
su ZN 2 , cosı̀ come f lo è (non su D , ma) su A . È proprio questo omeo che rappresenta su A la dinamica
di Smale che è pertanto caotica (punti periodici densi, orbite dense, dipendenza sensibile dal dato), infatti i due
sistemi costituiti dallo shift S su YZ2 e dalla f su D sono coniugati.
Si noti che in ogni caso A non è un attrattore, esso infatti non è un insieme attrattivo: infinitamente vicino
ad ogni suo punto c’è qualche orbita periodica; tuttavia esso è il più grande insieme invariante dell’insieme D . In
definitiva, la presenza di una horseshoe in un sistema fa sı̀ che (quasi tutti) i punti di A abbiano dinamiche che,
seppure raggiungono un qualche moto periodico, comunque instabile, lo fanno dopo un non prevedibile transiente.
L’essere dim > 1 d’altronde permette qualche ulteriore complicazione. Può succedere ad esempio che esistano
punti che ammettono contemporaneamente direzioni lungo le quali il sistema espande ed altre lungo le quali contrae.
Può anzi accadere che ciò si verifichi per molti o addirittura per tutti i punti di D .
Per rendersene conto in questo specifico caso si consideri ad esempio un punto fisso: x0 := (. . . 00.000 . . .). Si ha
che tutto il segmento orizzontale h0 ∋ x0 è parte della W s (x0 ), e certo non solo lui: lo sono anche le controimmagini
f −n di questo (che sono esattamente 2n segmenti orizzontali); per esse infatti accade che se m > n allora
|f m (f −n (y0 )) − x0 | < 1 per ogni y0 ∈ h0 , e quindi i punti di f −n (h0 ) collassano in x0 . Analogamente le
mappe future del segmento verticale v0 ∋ x0 sono nella W u (x0 ). Queste due infinità di segmenti si intersecano in
infiniti punti (omoclini per x0 ), che risultano essere una infinità numerabile e densa in A (vedi: [Guckenheimer]),
e ciascuno tale da ammettere una varietà stabile ed una instabile (coincidenti con le famiglie di segmenti di cui
sopra). #

Note di Sistemi Dinamici


282 Capitolo 5. Comportamento caotico dei Sistemi

Esempio 5.3.3 La “twist-map”, si veda: [Guckenheimer § 2.4].


Una palla si muove verticalmente rimbalzando su un piano orizzontale in moto traslatorio rettilineo in direzione
verticale e debolmente oscillante con legge armonica: z(t) = −r sin(ωt + φ0 ). Detta w(t) = −rω cos(ωt + φ0 ) la
velocità del tavolo, e con u− ed u+ le velocità che la palla possiede subito prima e subito dopo un singolo
urto, la condizione di urto (anelastico con coefficiente: α ∈ [0, 1] ) assegna

u+ (tj ) − w(tj ) = −α(u− (tj ) − w(tj )) .

Per il volo (a potenziale) l’ipotesi di piccole ampiezze di oscillazione da parte del tavolo dà con buona approssi-
mazione u− (tj+1 ) = −u+ (tj ), che insieme con la u− (tj+1 ) = −(tj+1 − tj )g + u+ (tj ) fornisce 2u+ (tj ) =
(tj+1 − tj )g . A sua volta, la condizione d’urto fornisce u+ (tj+1 ) − αu+ (tj ) = w(tj+1 )(1 + α).
In definitiva, introducendo le

2 2 2
φj := ωtj + φ0 , vj := ωu+ (tj ), γ= ω r(1 + α),
g g

si ottiene l’espressione della cosiddetta twist-map, definita su T × R dalla


) * ) *
φj+1 φj + vj
f := = .
vj+1 αvj − γ cos(φj + vj )

La mappa f è chiaramente un diffeomorfismo:



⎪ 1
⎨ φj−1 = φj − (γ cos φj + vj )
f −1 := α
⎩ vj−1 = 1 (γ cos φj + vj )

α
con ) *
1 1
∂f = ,
γ sin(φj + vj ) α + γ sin(φj + vj )

e quindi det ∂f = α . Numericamente si trova che esistono condizioni iniziali per le quali il moto rimane limitato,
e non periodico, anche se α = 1 .
Se α < 1 , siccome per ogni φ& è certamente |αv − γ cos φ|& ≤ α|v| + γ , e siccome α|v| + γ diviene minore di |v|
non appena |v| > γ(1 − α)−1 , se |vj | verifica questa 'limitazione si ha |vj+1 | < |vj |. A lungo andare, la striscia
D ⊂ T × R definita dalla condizione: D := {(φ, v) ' |v| ≤ ϵ + γ(1 − α)−1 } , risulta una regione positivamente
invariante, (infatti non ci può essere fuori di essa alcun punto di accumulazione perché esso sarebbe anche punto
fisso, e quindi risolvere v = αv − γ cos φ& che invece dà punti dentro D ).
e
Esisterà quindi un attrattore compatto non vuoto A := n≥0 f n (D).
Sia n0 il più grande intero tale che 2π n0 < γ(1 − α)−1 . È facile verificare che f ammette allora 2(n0 + 1)
punti fissi su T × R, le coordinate dei quali sono soluzioni dell’equazione
(
φ + 2nπ = φ + v
(φ, v) ∈ R2 ,
(1 − α)v = −γ cos(φ + v)

essi quindi sono dati da


) ) * *
1
(φ̄n , v̄n ) := arccos 2nπ(α − 1) , 2nπ , n ∈ (0, ±1, . . . , ±n0 ) .
γ

La loro stabilità si determina mediante lo studio degli autovalori della ∂f (φ̄n , v̄n ) e l’eventuale passaggio dei loro
moduli attraverso il valore uno. In tal modo, oltre agli evidenti punti di gomito che si hanno per i valori di γ tali
che 2nπ(1 − α)/γ = 1 , si trovano ulteriori biforcazioni in corrispondenza ai cambi di stabilità dei punti fissi (dal
lato φ̄n > π e cioè se sin(φ̄n + v̄n ) < 0 ).
Chiamati
/
γ1,n := 2nπ(1 − α) e γ2,n := 2 n2 π 2 (1 − α)2 + (1 + α)2

si ricava in definitiva il seguente diagramma biforcativo

M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 283

n=0
{ 3¼/2 n=1
n=2
n=3
Án n=4
n=5
°2,0
°2,1
¼ °
°1,1
°1,2
¼/2
che mostra come in γ1,n si generino dei nodi-selle, mentre in γ2,n si hanno raddoppi di periodi.
In figura, z = z(t) con v = 2nπ , sono accennati alcuni dei possibili moti fisici corrispondenti a possibili punti
fissi della mappa o a cicli periodici per essa.

periodo 1
n = 1 , γ>γ1,1

φj φj+1 = φj + 2π

periodo 1
n = 2 , γ>γ1,2

φj φj+1 = φj + 4π

periodo 2
n = 1 , γ>γ2,1
φj φj+1
Quando α = 1 la mappa non contrae (gli equilibri stabili sono centri). La sua azione può essere ricostruita
sul piano (φ, v) osservando che l’immagine della famiglia dei segmenti di retta φ + v = cost = κ, κ ∈ [0, 2π], è la
famiglia di segmenti
φ = κ, v = ξ − γ cos φ con ξ ∈ (κ − 2π, κ] ,
e quindi il parallelogramma R := abcd viene trasformato nella figura a′ b′ cic′ d′ .

v
5¼ ° =3¼
® =1
D

C Á
0
D

-2¼ B
-3¼ A C

-5¼ B ¼ 2¼

La presenza di infinite orbite periodiche può essere riconosciuta con un ragionamento simile a quello dell’esempio
precedente; infatti se γ = 2ω 2 r(1 + α)/g è sufficientemente grande (γ > 4π per α = 1 , e cioè se il punto d′ è al
di sotto del punto b) le intersezioni di R con f (R) sono una coppia di “rettangoli” disgiunti V1 , V2 contenuti in
strisce le cui controimmagini sono proprio due parallelogrammi disgiunti H1 , H2 per cui f (Hi ) ⊃ Vi ; ne segue la
classica struttura di horseshoe sulle intersezioni f 2 (H) ∩ f 1 (H) ∩ H ∩ f −1 (H) ∩ f −2 (H) etc.
Anche in questo caso sembra esistere, oltre alle possibili orbite periodiche, un attrattore “strano”, localmente
Cantor × varietà-1-dim, che è la chiusura delle W u della horseshoe. #

Esempio 5.3.4 Gli automorfismi del toro (vedi Es.1.4) sono le trasformazioni

F : Tn → Tn , F (θ) := A θ (mod 2π), con A ∈ L(n, Z), det A = ±1 ,

Note di Sistemi Dinamici


284 Capitolo 5. Comportamento caotico dei Sistemi

i
e cioè le trasformazioni agenti sui vettori θ ∈ Rn identificati dalle relazioni: θ ∼ θ ′ quando (θi − θ′ )/2π ∈ Z,
i = 1, . . . , n, e rappresentate da matrici A, n × n e ad elementi interi e determinante unitario.
Limitandosi al caso dim=2, sono allora trasformazioni lineari (e quindi dei diffeo del piano in sé) con A ∈
L(2, Z), Det A = 1 , e condizioni periodiche. Essi si dicono iperbolici (ed in tal caso sono anche ergodici) se
accade che |λ1,2 | ≷ 1 , e cioè se ammettono direzioni (rispettivamente) di espansività
) e di*contrattività. Come si è
m/k
già detto i punti periodici per tali morfismi sono densi su T . [Basta che sia p =
2
∈ Q2 per vedere che tale
n/k ) ′ *
m /k
2
punto è periodico di periodo al più k (tante sono le coppie (m, n), n, m ≤ k) dato che Ap = ∈ Q2 ].
n′ /k
#

Sotto-Esempio 3.4.1
Esempio 5.3.5 (continuazione dell’Esempio 5.3.4)
) *
2 1
Il gatto di Arnold : A= .
1 1
(
1
√ 2.6
L’operatore A ha autovalori λ1,2 = 2 (3± 5) ≃ entrambi reali e tali che λ1 ·λ2 = Det A = 1 . L’equazione
0.4

agli autovettori (r + s) = λ1,2 · s implica che gli autovettori sono (si ponga λ := 12 (3 + 5))
) * ) * ) * ) *
λ−1 1.6 1 − λ1 0.6
ϵu = ≃ ; ϵs = ≃ ,
1 +1 −1 −1

l’uno nella direzione di espansività, l’altro di contrattività della mappa.


Si nota poi che, essendo la trasformazione lineare, i segmenti vengono trasformati in segmenti (ovviamente su
R2 ), ed in particolare i seguenti punti si trasformano come indicato:

(0, 0) &→ (0, 0), (0, 1) &→ (1, 1), (1, 1) &→ (3, 2), (1, 0) &→ (2, 1) ;

pertanto si ha

4
3
2 2
1
4
3

Le due rette passanti per l’origine, che è l’unico punto fisso della mappa, e parallele rispettivamente ad ϵs ed ϵu ,
rappresentano in R2 le varietà W s,u (0, 0), e si avvolgono in modo denso sul toro T2 ; esse infatti hanno inclinazioni
che sono irrazionali, e come si è visto solo i punti con coordinate razionali sono periodici. Pertanto le dette varietà
si intersecano trasversalmente sul toro, e lo fanno in una infinità di punti, omoclini per l’origine. D’altra parte
la linearità della trasformazione impone che tali linee rette siano anche varietà stabile ed instabile per ciascuno di
questi punti, ed anzi la coppia di rette parallele ad ϵs,u e che si interseca in un qualunque punto di (0, 1] × (0, 1]
rappresenta le varietà stabile ed instabile di quel punto su T2 (e si avvolgono anch’esse in modo denso su T2 ).
La presenza di un insieme denso di punti omoclini, ad esempio per l’origine, permette di verificare facilmente
la transitività topologica della mappa: basta infatti, dati i due aperti U, V della definizione, scegliere in ciascuno
di essi un omoclino a zero, far evolvere l’intorno instabile di uno di essi e vederne l’intersezione, che sarà vicina
all’origine, con l’evoluto per tempi negativi dell’intorno sulla varietà stabile dell’altro; tale intersezione appartiene
ad una traiettoria che congiunge i due aperti.
La dipendenza sensibile dal dato è, infine, banalmente verificata data l’espansività. La mappa pertanto è
caotica su tutto T2 . #

M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 285

Esempio 5.3.6 (sotto-esempio dell’Esempio 5.3.4)


Sia dato l’automorfismo:
) *
1 1
A= .
1 0
(
11.6 √
L’operatore A ha autovalori λ1,2 = ± 5) ≃ 2 (1 entrambi reali e tali che λ1 · λ2 = Det A = −1 .
−0.6

Posto λ := 12 (1 + 5) l’equazione agli autovettori (r + s) = λ1,2 · s implica che gli autovettori sono
) * ) * ) * ) *
1 +1 1 1
ϵu = ≃ ; ϵs = ≃ ,
λ−1 0.6 −(1 + λ1 ) −1.6

l’uno nella direzione di espansività, l’altro di contrattività della mappa. Anche questa trasformazione è lineare,
e quindi trasforma segmenti in segmenti (su R2 ).
È agevole in questo caso riconoscere la coniugazione topologica con lo shift su YN 3 . A tale scopo si chiamino
a, b, c, d i “primi” omoclini dell’origine, e cioè le intersezioni, più vicine all’origine, delle rette y − δ1 = −λ1,2 (x −
δ2 ), δ1,2 ∈ {0, 1} , e si considerino i tre rettangoli 1, 2, 3 , che hanno per vertici i punti 0, a, b, c, d, (ed i loro
identificati modulo 1). Tali rettangoli, (ed i loro identici mod 1), ripartiscono il piano ed hanno immagini future
che sono totalmente e separatamente contenute nei rettangoli stessi.
Nella figura qui sotto sono stati messi in evidenza due gruppi di punti e, rispettivamente, i loro trasformati
(a, b, c, d) &→ (α, β, γ, δ) ed (o, e, f, k) &→ (o, ϵ, φ, κ)

k
2 ²f 2 Á
c c
d ¯ d
1 b®
1 3 3° 1 b 3
a ± a
2 3 1 ·
o 2 e 2
3 2
b ´ ® ¯
d´ ° 1 3 1 3
±

Ciò permette di scrivere la matrice di raggiungibilità di Markov (prescindendo dai bordi, per i quali sarà
necessario un procedimento di identificazione quando si hanno delle ripetizioni) data da
⎛ ⎞
0 0 1
A = ⎝1 0 1⎠ .
0 1 0

In definitiva si ottiene un sub-shift finito su YN3 , in quanto la presenza di una direzione di contrattività fa sı̀ che le
intersezioni infinite selezionino i punti di T2 . #

Esempio 5.3.7 Il solenoide .


9 ' :
Siano B := (x, y) ∈ R2 ' x2 + y 2 ≤ 1 e D := T × B . Su D sia definita la mappa f : D → D data,
per ogni b ∈ B , dalla funzione
) ) * ) ** ) *
1 bx 1 cos θ b e2πiθ
f (θ, b) := 2θ ; + := 2θ ; +
10 by 2 sin θ 10 2

[È facile vedere che per ogni θ̄ ∈ T l’insieme f (θ̄, B) := {f (θ̄, b)}b∈B è un cerchio di raggio 1/10 , e che il termine 12 e2πiθ colloca
il centro di f (θ, B) nel punto 12 (cos θ, sin θ) del cerchio B situato in θ ′ = 2θ ; in questo stesso cerchio c’è poi anche l’immagine di
f (θ + π, B) con centro in − 12 (cos θ, sin θ) ].

Note di Sistemi Dinamici


286 Capitolo 5. Comportamento caotico dei Sistemi

µ=µ0

f(µ0 ,B)

µ=2µ0 f(µ0+¼,B)

e
È evidente che le iterazioni successive della mappa selezionano un insieme invariante A ⊂ D := n>0 f n (D)
chiuso e non vuoto perché intersezione di immagini compatte di compatti. L’insieme A è invariante anche per
tempi negativi: ogni suo punto necessariamente ammette un’intera storia. Inoltre su ogni disco B di fissato
θ si ha che l’insieme B ∩ A è un insieme di Cantor (l’evoluto al passo n-esimo è costituito da 2n dischi di
raggio 10−n , e per ciascun punto di essi il disco stesso rappresenta la varietà stabile W s ). Per ogni punto di
A passa poi una varietà W u di dimensione uno e tangente ad A stesso in quel punto. È questa iperbolicità
che assicura la dipendenza sensibile dal dato, mentre la densità dell’insieme dei punti f -periodici e la transitività
topologica di A si dimostrano sfruttando le proprietà di contrazione della mappa su un arbitrario settore cilindrico
C(θ0 , b0 ) := Bϵ1 (θ0 ) × Bϵ2 (b0 ) (vedi: [Devaney ]). #

In questo ultimo esempio si vede con molta chiarezza perché l’insieme A venga chiamato attrattore. In
generale infatti si definisce:
Attrattore A per un sistema dinamico := un insieme non decomponibile, compatto, invariante, contenuto in
un intorno (Lebesgue positivo) che sia positivamente invariante e del quale contenere l’insieme ω -limite.
Talvolta si accettano, per la definizione di attrattore, anche proprietà meno restrittive: ad esempio si permette
che l’insieme attratto non sia tutto un intorno di A ma solo un insieme di misura positiva e contenente A ;
o addirittura può accadere di chiamare attrattore un insieme che, nemmeno essendo attrattivo, risulti chiuso
invariante non decomponibile né costituito solo da orbite periodiche, (ad esempio l’attrattore di Feigenbaum o
quello di Henon).
Comunque si assume che prendendo a caso condizioni iniziali nell’intorno di A la probabilità di trovarsi su A
sia strettamente positiva.
N.B. 5.3.8 Si ricordino le definizioni di
Insieme non decomponibile V ⊂ M := per ogni p, q ∈ V ed ϵ > 0 esiste una ϵ -catena fatta di punti di V
che connette p con q .
ϵ -catena che connette p, q := un insieme finito {x0 , x1 , . . . , xn } , con x0 = p, xn = q , ed i punti
{xi }i=0,1,...,n tali che esistano altrettanti istanti {ti }i=0,1,...,n per i quali è d(φ(ti , ti−1 , xi−1 ), xi ) < ϵ .
Si osservi che questa proprietà è conseguenza della più forte: Transitività topologica, (che, si ricorderà, è
l’esistenza di almeno una traiettoria densa nell’insieme), in quanto è chiaro che un’orbita è una particolare ϵ -catena.

In ogni caso si richiede che l’attrattore sia “quasi tutto” interessato alla dinamica. Si consideri ad esempio
il seguente diagramma:

Detta γ l’omoclina e pe il punto di equilibrio (instabile) si ha che γ ∪ {pe } è un insieme attrattivo, ed è


anzi un attrattore dato che [ γ ] ≡ γ ∪ {pe } .
Si noti (vedi: [Ruelle ’85]) che attrattori quasi periodici sono strutturalmente instabili e che sistemi conservativi
non danno luogo ad attrattori, malgrado spesso abbiano caratteristiche di dipendenza sensibile dal dato. Inoltre
sistemi quasi periodici, pur avendo aspetto assai irregolare e suggestiva turbolenza, non hanno necessariamente
dipendenza sensibile dal dato. [Ruelle ’85]
L’aggettivo “strano” viene aggiunto alle specifiche di un attrattore se esso contiene qualche coppia di omocline
trasverse, o comunque una qualche direzione di espansività: su di esso la dinamica ha dipendenza sensibile dal dato.

M. Lo Schiavo
5.3. “Classici” esempi di mappe caotiche 287

Un “buon” modo per misurare tale espansività è calcolare gli esponenti di Liapunov (vedi: [Guckenheimer ], opp.
[Seydel, Cap.5]) e vedere se sono maggiori di zero.
1
[Si è già richiamata nel paragrafo 1, la nozione di esponente di Liapunov η := limn→∞ m ln |∂f m (x)| per una mappa f ; esso
vuole essere una misura della capacità di amplificazione che ha la mappa, nel senso che vuole approssimativamente verificare la
|f m (x + δ) − f m (x)| ≃ |δ|emη , e tutto ciò per tempi lunghi. Per una equazione differenziale, se r è il raggio di una sfera' intorno
' ad
' r (t) '
x0 ed ri (t) gli assi principali del “ellissoide” che essa diviene al variare di t , si ha che ηi (x0 ) := limt→∞ limr→0 1t ln ' ir ' . Essi
risultano pertanto anche dei misuratori del quanto orbite vicine siano mutuamente convergenti o divergenti. Per ulteriori particolari si
suggerisce [Guckenheimer § 5.8]
La presenza di almeno un esponente di Liapunov strettamente positivo lascia supporre che il sistema ammetta dinamica caotica
(eventualmente intesa, più semplicemente, come una dinamica con dipendenza sensibile dal dato)].

Nei vari esempi visti qui sopra si nota che molti attrattori, ad esempio quello della mappa di Smale, hanno in
comune il fatto di ammettere definite direzioni di dilatazione e di contrazione in ogni punto dell’insieme. Ciò si
riassume brevemente dicendo che essi hanno proprietà di iperbolicità. Si rammenti la seguente definizione formale
valida, (vedi: [Guckenheimer ]), nel caso di un diffeomorfismo F di classe C r con r ≥ 1 .
Insieme iperbolico per un diffeomorfismo F : M → M := Un insieme I ⊂ M che sia: chiuso, non vuoto, F -
invariante, per il quale

(i) per ogni p ∈ I , esistono spazi vettoriali Es (p), Eu (p) tali che
⎧ s u
⎨ E (p) ⊕ E (p) = Tp I,

F∗ (p) E (p) = Es (F (p)),
s


F∗ (p) Eu (p) = Eu (F (p));

e ciò accade ad esempio se hanno come base gli autovettori di F∗ (p);


(ii) esistono c > 0 , e ρ ∈ (0, 1) tali che, per ogni m ∈ N
( s ? ?
x ∈ Es (p) ⇒ ?F∗+m (p) xs ? ≤ cρm ∥xs ∥
? ?
xu ∈ Eu (p) ⇒ ?F∗−m (p) xu ? ≤ cρm ∥xu ∥

e cioè F∗m (p) contrae i vettori di Es , per tempi futuri, almeno esponenzialmente ed uniformemente rispetto
ad p ∈ D ; e contrae quelli di xu ∈ Eu per tempi passati;
(iii) gli spazi Eu (p), Es (p) sono almeno continui al variare di p in I , e ciò accade ad esempio se cosı̀ sono le
loro basi.

Se il sistema ammette un attrattore iperbolico allora sussiste un teorema simile a quello visto per un solo punto
iperbolico di equilibrio:

Teorema 5.3.1 Sia I ⊂ M iperbolico per un diffeomorfismo F . Allora, dato ϵ > 0 , per ogni p ∈ I esistono
; ' <
s '
Wloc (p) := q ∈ I ' d(F +n (p), F +n (q)) ≤ ϵ, ∀n ≥ 0
; ' <
'
u
Wloc (p) := q ∈ I ' d(F −n (p), F −n (q)) ≤ ϵ, ∀n ≥ 0

tali che
s
(i) Wloc u
(p), Wloc (p) sono due varietà di regolarità C r tangenti rispettivamente a Es (p), Eu (p) e con le stesse
dimensioni (e quindi la linearizzazione è significativa);
(ii) esistono c > 0 , e ρ ∈ (0, 1) tali che
s
q ∈ Wloc (p) ⇒ d(F +n (q), F +n (p)) ≤ cρn d(p, q)
q∈ u
Wloc (p) ⇒ d(F −n (q), F −n (p)) ≤ cρn d(p, q)

e cioè la F n contrae almeno esponenzialmente;


(iii)
F +1 (Wloc
s s
(p)) ⊂ Wloc (F +1 (p))
F −1 (Wloc
u u
(p)) ⊂ Wloc (F −1 (p));

Note di Sistemi Dinamici


288 Capitolo 5. Comportamento caotico dei Sistemi

s u
(iv) Tp Wloc (p), e Tp Wloc (p) variano in modo continuo al variare di p.

Si definiscono di conseguenza, (e si trovano numericamente in questo modo), le


c∞ −n
Varietà stabile W s (p) := n=0 F
s
(Wloc (F +n (p))) ed è
M ' Z
s ' 1 n n
W (p) ≡ q ∈ I ' lim ln d(F (p), F (q)) < 0 .
n→∞ n

c∞
Varietà instabile W u (p) := n=0 F +n (Wloc
u
(F −n (p))) ed è
M ' Z
' 1
W u (p) ≡ q ∈ I ' lim ln d(F −n (p), F −n (q)) < 0 .
n→∞ n

N.B. 5.3.9 Le varietà W s (p), W u (p), malgrado localmente regolari, hanno spesso l’abitudine di ripiegarsi su se
stesse ed accumularsi in modo infinito. ♦

N.B. 5.3.10 Le varietà W s (p), W u (p) si hanno in corrispondenza rispettivamente al più grande negativo ed al più
piccolo positivo degli esponenti caratteristici (vedi: [Ruelle p.635]), nel senso che ad esempio, per η ≤ maxi {ηi < 0} ,
; ' <
'
W s (p) = W s (p, η) := q ∈ I ' d(F n (p), F n (q)) ≤ ϵ eηn , n≥0 ,

Nel caso di mappe bidimensionali, il teorema di Morse [Guckenheimer Teor 5.2.4] è utile per mostrare quando
un insieme I , invariante per la mappa, è anche iperbolico. Esso, in breve, riconosce iperbolico l’attrattore I quando
esistono campi di coni Sα (di apertura α < 1 )
b b
S := Sα (p), S& := Sαc (p)
p∈I p∈I

tali che
∂F S ⊂ S pur espandendo ogni vettore in S
∂F S& ⊂ S& pur contraendo ogni vettore in S& .
DS®(p)
S®(p) S®(f(p))
f

p f(p)

L’interesse nello stabilire se un attrattore sia o meno iperbolico risiede nel fatto che queste condizioni, se unite a
quelle di “ritorno” per esempio conseguenti alla presenza di orbite omocline, sono sufficienti (vedi: [Wiggins p.130])
ad assicurare la coniugazione con lo shift su YN . Sussistono a tale proposito i due teoremi di Moser e di Smale.
Quando non tutte le direzioni sono fortemente espansive o contrattive, ci può ancora essere la coniugazione
con lo shift su YN , però si ottengono degli insiemi di Cantor fatti con superfici e non con punti, in quanto tali
risultano essere le intersezioni tra le W s , W u , rimanendo “scoperte” delle direzioni e delle intere varietà sulle quali
la dinamica non è facilmente determinabile.

5.4 “Classici” esempi di flussi caotici


Per illustrare alcuni dei casi tipici di generazione di caos in sistemi governati da equazioni differenziali, oltre che
per concludere l’esame dei tipi più comuni di mappe di Poincaré (vedi: [§ 2]), verrà qui esaminato il

M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 289

Caso D.
Costruzione della mappa di Poincaré relativa ad un sistema di equazioni differenziali che ammetta (almeno)
un’orbita omoclina ad un qualche punto di equilibrio (iperbolico).
In tutto questo paragrafo si seguirà da vicino, anche nella notazione, i due citati testi [Wiggins 1] e [Wiggins
2], ai quali si rimanda per una più ampia discussione dell’argomento
Sia F : M → M un flusso (o una mappa) che ammette un insieme invariante I ; ad esempio, uno o più punti
di equilibrio: I = {pe , p′e , . . .} . Si definisce
Punto omoclino per I := un qualunque punto q ∈ M \ I tale che
lim φ(t, q) ∈ I e lim φ(t, q) ∈ I .
t→+∞ t→−∞

Se I ≡ pe è un singleton che possiede varietà stabile W s (pe ) ed instabile W u (pe ), dire che q è omoclino
per pe equivale a dire che q ∈ W s (pe ) ∩ W u (pe ) e quindi, per loro stessa definizione, tutta l’orbita γ (q) :=
{φ(t, q)}t∈R appartiene a W s (pe ) ∩ W u (pe ), (o, nel caso di mappe, γ (q) := {F n (q)}n∈Z ). Tale orbita si
chiamerà orbita omoclina a pe .
In modo analogo si hanno le definizioni di punti eteroclini e di orbite eterocline fra due punti di equilibrio pe
ed p′e . In questo secondo caso la somma delle dimensioni di W s (pe ) e di W u (p′e ) può anche essere maggiore di
n.
Si osservi che l’intersezione W s (pe ) ∩ W u (p′e ), cui l’eteroclina (o l’omoclina) necessariamente appartiene, può
sia coincidere con le varietà stesse sia esserne solo un sottoinsieme.
Intersezione trasversa fra W s (pe ) e W u (p′e ) := un’intersezione tale che
in ogni q ∈ W s (pe ) ∩ W u (p′e ) si ha Tq M = Tq W s (pe ) ⊕ Tq W u (p′e ) ;
e dovrà pertanto essere
n = dim Tq W s + dim Tq W u − dim (Tq W s ∩ Tq W u ) .
N.B. 5.4.1 In dim = 2 , due varietà (di dimensione uno) W u (pe ) e W s (pe ) di uno stesso punto pe possono
intersecarsi in modo trasverso, pur rispettando l’unicità della dinamica, solo se il sistema dinamico è discreto,
mentre ciò non è possibile per i sistemi continui. Il motivo dipende dal fatto che ciascuna orbita di una mappa
è una famiglia discreta di punti, mentre per un flusso essa stessa è un (arco connesso di) varietà regolare di
dimensione uno. Quindi il sapere che una traiettoria discreta {F n (q)}n∈N appartiene totalmente a un arco V
di una varietà regolare di dimensione uno invariante per una mappa F , non basta a concludere che essa coincida
con l’arco V . Questo invece è il caso se il sistema è continuo, se l’arco V è privo di equilibri, e se φ(t, t0 , x0 ) esiste
localmente ed è in V .
Nel caso particolare delle due varietà W s (pe ) e W u (pe ), il fatto che esse siano invarianti assicura che {F n (q)}n∈Z
appartiene a W s (pe ) ∩ W u (pe ) se q ∈ W s (pe ) ∩ W u (pe ); tuttavia questo non implica che la traiettoria coincida né
con la W s (pe ) né con la W u (pe ), né che siano W s (pe ) ≡ W u (pe ); ed anzi, per continuità, se l’intersezione in q è
trasversa tali saranno le intersezioni fra le due varietà in ciascun punto della traiettoria γ (q), che allora prende il
nome di omoclina trasversa, e può ancora essere sia contenuta che coincidere con tutto l’insieme W s (pe ) ∩ W u (pe ).

Alcuni esempi ben noti di omocline sono qui accennati:


• Il pendolo semplice presenta due omocline per il punto di equilibrio instabile; ciascuna di esse è simultanea-
mente W s e W u del punto di equilibrio. Se il pendolo non è forzato esse non si possono intersecare in modo
trasverso data la bassa dimensione dello spazio, (vedi: [Guckenheimer p.22]), e risultano solo delle separatrici.
• L’equazione di Duffing con potenziale a due pozzi: ẍ−x+x3 = 0 ammette due omocline. Se si forza il sistema
con un termine del tipo µ cos ωt, con µ ≪ 1 , l’equilibrio instabile (0, 0) diviene un’orbita periodica instabile
(T = 2π
ω ), il cui punto di Poincarè ha varietà W s e W u che si possono intersecare trasversalmente anche
altrove, (vedi oltre). Le orbite di tali intersezioni convergono verso quella periodica instabile per t → ±∞.
Sulla Poincaré stroboscopica (T = 2π/ω) si intuisce il caratteristico comportamento:

Note di Sistemi Dinamici


290 Capitolo 5. Comportamento caotico dei Sistemi

• L’equazione
C3 di Eulero non forzata nelle variabili pi := ai ωi , i = 1, 2, 3. Se a1 > a2 > a3 , sulla sfera
|K2 | = i=1 a2i ωi2 = l2 = cost si hanno selle in (0, ±l, 0) con quattro orbite eterocline che le connettono.
Piccole forzanti possono dare luogo ad eterocline trasverse.
i
• Vortici puntiformi nello spazio fisico, distanti 2ℓ , con circolazione c := ⃗v · d⃗τ , e che traslano con velocità
c
⃗v = 4πℓ ⃗e1 ∈ R3 . Nel sistema relativo al profilo delle linee di flusso si hanno tre eterocline che si rompono
facilmente se forzate con un potenziale periodico (vedi: [Wiggins 1]).

senza forzante con forzante periodica

Per poter studiare l’andamento asintotico della dinamica in presenza di omocline e deboli forzanti (periodiche)
è spesso conveniente costruire una Mappa di Poincaré che sfrutti il fenomeno di ritorno dovuto alla presenza
dell’omoclina. A tale scopo si consideri il seguente “esempio guida”, espresso in coordinate.
Sia σ̇ = v(σ), σ ∈ Rn , v ∈ C r≥1 (D), D ⊆ Rn aperto, un sistema con un punto di equilibrio iperbolico:
pe , individuato in coordinate dal vettore σe , e sia γ (σ0 ) := {φ(t, t0 , σ0 )}t∈R una sua omoclina (non erratica).
La mappa verrà costruita come composizione di due mappe: una che agisce solo nelle immediate vicinanze del
punto fisso pe , l’altra che trasporta, lungo l’omoclina, punti di un intorno del punto di equilibrio fino a tornare
nell’intorno stesso. Questa seconda, non risentendo degli effetti dovuto al punto di equilibrio, è sostanzialmente
una “rettificazione” quale quella vista nel Cap. III.
La costruzione della mappa di Poincaré può procedere secondo i seguenti passi, i primi quattro dei quali sono
solo preliminari semplificativi:

Passo 1. Si trasporta il punto fisso pe nell’origine. Si agisce cioè con una traslazione: σ =: σe + w , tale che

σ̇ = v(σ) −→ ẇ = v(σe + w) =: ve (w), ve (0) = 0 .

Passo 2. Si opera una trasformazione lineare, cosa possibile in virtù dell’iperbolicità dell’origine, che cambi la
base in una rispetto alla quale la matrice ∂ve (0) sia della forma:
) s *
A 0
∂ve (0) = ,
0 Au

ove le matrici As , Au sono di dimensioni [ms × ms ], [mu × mu ] rispettivamente, con ms + mu = n, ed hanno


rispettivamente ℜe λAs < 0, ℜe λAu > 0 . Si ottiene il sistema alle variazioni, equivalente a quello dato,
( s
ξ̇ = As ξ s + hs (ξ s , ξ u )
u u u u s u
; w ≡ (ξ s , ξ u ) ∈ Rs × Ru ≡ Rn
ξ̇ = A ξ + h (ξ , ξ )

con hs , hu ∈ C r−1 (D); hs (0, 0) = hu (0, 0) = 0, ∂hs (0, 0) = ∂hu (0, 0) = 0 .

Passo 3. Gli spazi

M ) * ' Z M ) * ' Z
s ξs ' u u ξs ' s
E (0) := ξ≡ ' ξ =0 ed E (0) := ξ≡ ' ξ =0
ξu ξu

sono invarianti rispetto alla dinamica dell’equazione variazionale, ed il teorema della varietà stabile (vedi § IV.1 e
s u
§ V.3) assicura l’esistenza delle varietà Wloc , Wloc relative all’origine, localmente invarianti rispetto alla dinamica

M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 291

dell’equazione alle variazioni, tangenti rispettivamente ad Es ed Eu , ed esprimibili localmente come grafici di


funzioni (regolari quanto la v ):

ψ s : N s (0) ⊂ Rs → Ru e ψ u : N u (0) ⊂ Ru → Rs
; <
s
Wloc = graph ψ s (ξ s ) := (ξ s , ψ s (ξ s ))
ξs ∈N (0)∩Es
; <
u
Wloc = graph ψ u (ξ u ) := (ξ u , ψ u (ξ u ))
ξu ∈N (0)∩Eu

Per poter meglio paragonare il flusso lineare con quello non lineare converrà poi usare come sistema di coordinate
locali proprio le ψ s e ψ u , e cioè introdurre le coordinate
( ) s*
xs = ξ s − ψ u (ξ u ), ξ
∈ N (0)
xu = ξ u − ψ s (ξ s ) ξu

ed ottenere per esse il sistema (


ẋs = As xs + ν s (xs , xu )
(4.18)
ẋu = Au xu + ν u (xs , xu )
nella quale ν s (0, xu ) = 0 , perché' lungo ξ s = ψ u (ξ u ) il campo è tangente alla Wloc u
e quindi ha nulle le sue
s '
s-componenti. In effetti ẋ (ξ(x)) x=(0,xu ) è necessariamente nullo lungo le linee ξ = ξ(t) che appartengono alla
u
superficie Wloc di equazione: xs (ξ) ≡ ξ s − ψ u (ξ u ) = 0 .
Analoghe conclusioni si traggono per ν u (xs , 0) = 0 . s
In tal modo le varietà Wloc u
(0, 0), Wloc (0, 0) risultano
“rettificate”.
A questo punto l’orbita γ , omoclina per l’origine, risulta trasformata in una curva Γ(q) := {φ(t, t0 , q)}t∈R ,
ove q è relativo ad un suo punto, e limt→±∞ φ(t, t0 , q) = 0 .
»u u (»
u) xu
´Ã §u²
Wu

s ´Ã
W »s xs

§s² §s²

§u²

s u
Passo 4. Si definiscono ora due sezioni che siano trasverse alle Wloc e Wloc rispettivamente, e cioè due
porzioni di superfici (n − 1)-dimensionali:
M ) s* ' Z
x ' s
Σsε : = x ≡ ∈ Rs × Ru ' |x | = ε, |xu | < ε
xu
M ) s* ' Z
x ' s
Σuε : = x ≡ ∈ Rs × Ru ' |x | < ε, |xu | = ε
xu

con ε tale che [Σsε ] ∪ [Σuε ] ⊂ N s (0) × N u (0), ove quest’ultimo è contenuto nell’intorno di definizione delle ψ s , ψ u .
s
Chiamati ns (x), nu (x) i versori normali)alle*sezioni, si è certi) s che la Σ* sia in ogni suo punto trasversa al campo
s s s
s ẋ A x +ν
per ogni x ∈ Σε se accade che ns (x) · ≡ ns (x) · ̸= 0 , (ed analoga per Σuε ). Ciò accade
ẋu Au xu + ν u
senz’altro se ε è sufficientemente piccolo data l’assunta iperbolicità dell’origine, ed anzi il campo è entrante su Σsε
ed uscente su Σuε .
s u
Sulle sezioni trasverse si definiscono poi le (superfici) sezioni di queste con le varietà Wloc (0, 0), Wloc (0, 0) e
quindi di dimensioni rispettivamente (n − 1 − mu ) = (ms − 1) ed (n − 1 − ms ) = (mu − 1), date da
M ) s* ' Z
x s '
Sεs : = Σsε ∩ Wloc
s
= x≡ ∈ Σ ' |x s
| = ε, |x u
| = 0
xu ε
M ) s* ' Z
x u '
Sεu : = Σuε ∩ Wloc
u
= x≡ ∈ Σ ' |x s
| = 0, |x u
| = ε .
xu ε

Note di Sistemi Dinamici


292 Capitolo 5. Comportamento caotico dei Sistemi

Passo 5. Sia x0 ∈ Σsε \ Sεs . Il flusso φ : t &→ φ(t, x0 ) =: (xs (t, x0 ); xu (t, x0 )) , soluzione della (CA), per
le proprietà dei punti fissi iperbolici trasporta, dopo un certo tempo τ0 = τ0 (x0 ) i punti x0 ∈ Σsε \ Sεs in punti
appartenenti a Σuε \ Sεu , (e si ha, evidentemente, limxu0 →0 τ0 (x0 ) = ∞).
Si definisce innanzi tutto la mappa di Poincaré risultato di tale evoluzione, e cioè
) s* ) s *
s s u u x0 x (τ0 (x0 ), x0 )
P0 : Σε \ Sε → Σε \ Sε data da x0 ≡ &→ .
xu0 xu (τ0 (x0 ), x0 )

Passo 6. Chiamati p e q i (punti) intersezioni dell’omoclina con le sezioni Σuε , Σsε rispettivamente, e quindi
contenuti in Sεu , Sεs rispettivamente, siano Up ⊂ Σuε ed Uq ⊂ Σsε due intorni di tali punti nelle Σuε , Σsε
rispettivamente. Dato che entrambi p e q sono su una stessa orbita che non contiene equilibri, e cioè l’arco della
omoclina “lontano” dall’origine, esiste un tempo finito T tale che φ(T, p) = q , ed inoltre, dato che la soluzione
φ è regolare almeno di classe r ≥ 2 , si può scegliere Up cosı̀ piccola che per ogni x1 ∈ Up esista τ1 (x1 ) tale che
φ(τ1 (x1 ), x1 ) ∈ Uq ; ed è chiaro che τ1 (p) = T .
xu
P1
Up S u² x1
§u²
p x0
P0
Ss² xs
q
Vq
Up S u² Uq
§u² s
§²
Si definisce la mappa individuata da questa seconda evoluzione mediante le
) s* ) s *
x1 x (τ1 (x1 ), x1 )
P1 : Up → Uq data da x1 ≡ →
& .
xu1 xu (τ1 (x1 ), x1 )

Passo 7. Si supponga esista un aperto Vq ⊂ Uq tale che P0 (Vq ) ⊂ Up . Ciò è possibile date le ipotesi di
regolarità e di iperbolicità. In tal modo si verifica la Vq ⊆ P1 (P0 (Vq )).

Passo 8. La mappa di Poincaré completa resta definita dalla composizione delle due

P
0 1 P
P := P1 ◦ P0 : Vq → Uq Vq −→ Up −→ Uq .

È chiaro che per conoscere l’esatta forma di tale mappa è necessario conoscere il flusso φ e quindi conoscere il
moto.
Il procedimento, tuttavia, è in parte locale nell’intorno di un equilibrio iperbolico e per il resto non risente
di altri equilibri; si può perciò agire in modo variazionale e sostituire alla P0 la sua linearizzata P0ℓ , calcolata
mediante il flusso linearizzato. Si ottiene
P0ℓ : Vq ⊂ Σsε → Σuε data, con τ0 = τ0 (x0 ), da
) s* ) As τ s *
x0 ℓ s u ℓ s u e 0 x0
x0 ≡ u →
& P 0 (x 0 , x 0 ) :=φ (τ0 , x 0 , x 0 ) := u .
x0 eA τ0 xu0

Allo stesso modo si sostituisce alla P1 la sua linearizzata

P1ℓ : Up ⊂ Σuε → Uq ⊂ Σsε data da


) s
*
x1
x1 ≡ =: p + u &→ P1 (p + u) ≡ P1 (p) + ∂P1 (p)u ≡ q + ∂P1 (p)u ,
xu1

e si noti che, siccome per costruzione x1 ≡ (xs1 , xu1 )T =: p + u è scelto in Σuε , e siccome è p = (0, xu1 )T , il vettore
u ha necessariamente espressione: u = (xs1 , 0)T , (con xs1 convenientemente piccolo ed |xu1 | = ε ).

M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 293

Si può mostrare (vedi: [Wiggins 1]) che tutte le approssimazioni fatte sono lecite all’ordine ε2 data l’iperbolicità
del punto pe , che se la mappa P ℓ := P1ℓ ◦ P0ℓ ha un punto fisso iperbolico allora ciò accade, all’ordine ε2 anche
alla P , e che le due mappe hanno corrispondenti proprietà di stabilità strutturale rispetto ai parametri, (almeno
per regolarità superiore a due).
Esempio 5.4.2 Equazioni differenziali ordinarie autonome in dimensione due.
Siano dati λ1 , λ2 , µ ∈ R, λ1 < 0 < λ2 , λ1 ̸= −λ2 , ed
(
ẋ = λ1 x + ν x (x, y; µ)
ẏ = λ2 y + ν y (x, y; µ)

Per tale sistema si ha allora xs ≡ x ed xu ≡ y . Inoltre, l’origine ammetta, per µ = 0 un’omoclina Γ,


intersezione (tangente) delle varietà W s (0, 0), W u (0, 0), che scompare per µ ̸= 0 , e lo fa in modo tale che per
µ < 0 la W u (0, 0) si avvolge “all’esterno” della varietà W s (0, 0), mentre accade il contrario per µ > 0 . Sia cioè:
µ ≶ 0 ⇒ φy (T, 0, 0+ ) ≶ 0 .
[Hanno un comportamento di questo tipo, ad esempio, le varietà dell’equazione di Duffing ẍ + µẋ − x + x3 = 0 ; tuttavia questa
equazione non verifica l’ipotesi λ1 ̸= −λ2 , e quindi per essa occorre modificare leggermente la discussione che segue].

xu
¦u ¦s
p
xs q
¹<0 ¹=0 ¹>0
Sulle sezioni Σsε , Σuε si specializzano i sottoinsiemi
M ) * ' Z
s x s '
Π := x≡ ∈ Σε ' x = ε, y ∈ (0, ε] ⊂ Σsε \ Wloc
s
y
M ) * ' Z
u x u '
Π := x≡ ∈ Σε ' |x| ≤ ε, y = ε ⊂ Σuε \ Wloc
u
.
y

x0 individua un punto che è in Πs se x0 = (xs0 , xu0 )T ≡ (ε, y0 )T con 0 < y0 ≤ ε . Per esso il flusso linearizzato
7 8T
è φℓ (t, x0 , y0 ) = eλ1 t x0 , eλ2 t y0 , e quindi l’istante τ0 = τ0 (ε, y0 ) per il quale φℓ (τ0 (ε, y0 ), ε, y0 ) appartiene a
Πu è soluzione della eλ2 τ0 y0 = ε , e ciò indipendentemente dal parametro µ purché piccolo. Pertanto è non vuoto
l’insieme Uq ∩ Πs sul quale definire la
) * ) λτ * ) *
ℓ s u ε e 1 0ε ε(ε/y0 )λ1 /λ2
P0 : Uq ∩ Π → Π è data da &→ = .
y0 eλ2 τ0 y0 ε

Per le citate proprietà di regolarità si ha che esiste a sua volta Up ⊂ Πu , intorno di p ≡ (0, ε)T , tale che
P1 (x, ε; µ) ⊂ Σsε per ogni punto
) * ) *
T 0 x
x1 ≡ (x, ε) = + =: p + u ∈ Up ;
ε 0

ed in particolare si ha P1 (0, ε; 0) = (ε, 0)T ≡ q . Con uno sviluppo di Taylor di centro il punto (p; 0) ≡ (0, ε; 0)
con incremento spaziale u ≡ (x, 0)T e per µ piccoli, si valuta allora
P1ℓ (p + u; µ) = P1ℓ (p) + ∂ P1ℓ (p) u + ∂µ P1ℓ (p) µ = q + s + b

ed è necessariamente s ≡ (0, ·)T e b ≡ (0, ·)T affinché il punto P1ℓ (p + u; µ) possa essere un punto di Σsε ; più
esplicitamente si ha: ) *
ℓ ℓ ℓ x
P1 (x, ε; µ) = P1 (0, ε; 0) + ∂P1 (0, ε; 0) + ∂µ P1ℓ (0, ε; 0)µ
0
) * ) *) * ) * ) *
ε 0 · x 0 ε
= + + =
0 a · 0 bµ ax + bµ
(la matrice ha necessariamente nullo l’elemento (1, 1) in modo che i punti P1ℓ (x, ε; µ), cosı̀ come q ≡ (ε, 0)T , siano
tutti punti di Σs . Inoltre le ipotesi sul segno del parametro µ, e sul fatto che la W u è “meno curva” quando µ
aumenta, danno b > 0 ).

Note di Sistemi Dinamici


294 Capitolo 5. Comportamento caotico dei Sistemi

Pertanto, con Vq := P0ℓ −1 Up ∩ Uq , si ricava la mappa completa


) * ) *
ε ε
P ℓ : Vq ∩ Πs → Πs data da &→ ;
y0 aε(ε/y0 )λ1 /λ2 + bµ

e quindi, posto ã := aε1+λ1 /λ2 e δ := −λ1 /λ2 si ha infine

(y, µ) ∈ (0, ε] × (0, ε] &→ P ℓ (y; µ) = ãy δ + bµ .

Stanti le ipotesi fatte, sussistono le seguenti possibilità:

(i) δ > 1 , che dà ∂y P ℓ (0, 0) = 0 . Per µ > 0 e piccolo, la P ℓ ha un punto fisso con ỹ > 0 stabile ed iperbolico,
e quindi il sistema ammette un’orbita periodica attrattiva (un ciclo limite stabile)
P`(y) ¹>0
¹=0

¹<0
y
y
e
¹>0

(ii) δ < 1 , che dà (∂y P ℓ (0, 0))−1 = 0 , Per µ < 0 e piccolo in valore assoluto, la P ℓ ha un punto fisso
con ỹ > 0 instabile ed iperbolico, e quindi il sistema ammette un’orbita periodica repulsiva (un ciclo limite
instabile)

P`(y) ¹>0
¹=0
¹<0

y
ye ¹<0
Eventuali simmetrie del campo possono portare a coppie di orbite del genere detto ed anche ad altre orbite
periodiche esterne all’intorno in esame

¹<0 ¹>0

Comunque si vede che nel caso di flussi in dim = 2 non si generano comportamenti caotici, almeno per la
presenza di omocline. #

Esempio 5.4.3 Equazioni differenziali ordinarie autonome in dimensione tre, e con un’omoclina relativa ad un
punto fisso iperbolico.
La linearizzata può avere o tutte le λ1,2,3 reali, oppure l’una reale e le altre due complesse coniugate. Sia, ad
esempio, −, −, + la segnatura degli autovalori nel primo caso, e +, −, − la segnatura rispettivamente della terza
radice e delle parti reali delle altre due nel secondo caso; (e basta cambiare t con −t per vedere che questi due
casi sono esaustivi).

Caso 2.1. λ1 < λ2 < 0 < λ3


Il sistema sia ridotto a ⎧ 1
⎨ ẋ = λ1 x + ν (x, y, z; µ)

ẏ = λ2 y + ν 2 (x, y, z; µ)


ż = λ3 z + ν 3 (x, y, z; µ)

M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 295

con ν 1,2,3 ∈ C r≥2 ∩ O(x2 + y 2 + z 2 ). In questo caso si ha xs ≡ (x, y) ed xu ≡ z . Inoltre l’origine ammetta
per µ = 0 un’omoclina Γ tangente nell’origine agli assi z ed y , e che scompare per µ ̸= 0 in modo che si abbia
µ ≶ 0 ⇒ φz (T, 0, 0, 0+) ≶ 0 . Per convenienza, si userà la norma | · |∞ .

Wuloc z
¦u P1
p´Su² ¦s ¹<0
Up Uq Wsloc
P0 Vq
q y
Ss² x
¹>0
§s² §s²

Sulle sezioni Σsε , Σuε si specializzano i sottoinsiemi


; ' <
'
Πs : = (x, y, z) ∈ Σsε ' |x| ≤ ε, y = ε, z ∈ (0, ε] ⊂ Σsε \ Wloc
s

; ' <
'
Πu : = (x, y, z) ∈ Σuε ' |x| ≤ ε, |y| ≤ ε, z = ε ⊂ Σuε \ Wloc
u
.

Un punto x0 è in Πs se x0 = (xs0 ; xu0 )T ≡ (x0 , ε; z0 )T con −ε < x0 ≤ ε e 0 < z0 ≤ ε ; per esso il flusso
linearizzato è
7 λ1 t 8
φℓ : (t, x0 , y0 , z0 ) &→ e x0 , eλ2 t y0 , eλ3 t z0 ,
e quindi l’istante τ0 = τ0 (x0 , ε, z0 ) per il quale φℓ (τ0 (x0 , ε, z0 ), x0 , ε, z0 ) appartiene a Πu è soluzione della eλ3 τ0 z0 =
ε . Pertanto è possibile definire la
⎛ ⎞ ⎛ ⎞
x0 x0 (ε/z0 )λ1 /λ3
P0ℓ : Uq ∩ Πs → Πu data da ⎝ ε ⎠ &→ ⎝ ε (ε/z0 )λ2 /λ3 ⎠ .
z0 ε

Per le assunte proprietà di regolarità, è non vuoto l’insieme Up ⊂ Πu , intorno di p ≡ (0, 0, ε)T , e tale che
P1 (x, y, ε; µ) ⊂ Σsε per ogni x1 ≡ (x, y, ε)T =: p + u ∈ Up ; ed in particolare si ha P1 (0, 0, ε; 0) = (0, ε, 0)T ≡ q .
Con uno sviluppo di Taylor si valuta allora
⎛ ⎞
x
P1ℓ (x, y, ε; µ) = P1ℓ (0, 0, ε; 0) + ∂P1ℓ (0, 0, ε; 0) ⎝y ⎠ + ∂µ P1ℓ (0, 0, ε; 0)µ
0
⎛ ⎞ ⎛ ⎞⎛ ⎞ ⎛ ⎞ ⎛ ⎞
0 a b · x eµ ax + by + eµ
= ⎝ε⎠ + ⎝0 0 ·⎠ ⎝y ⎠ + ⎝ 0 ⎠ = ⎝ ε ⎠
0 c d · 0 fµ cx + dy + f µ

(la matrice ha senz’altro nulli gli elementi della seconda riga per permettere che i punti P1ℓ (x, y, ε; µ), cosı̀ come
q ≡ (0, ε, 0)T , siano tutti punti di Σs . Inoltre le ipotesi sul segno del parametro µ danno f > 0 ).
Pertanto, con Vq := P0ℓ −1 Up ∩ Uq , e con & a := aελ1 /λ3 , &b := bελ2 /λ3 , &
c := cελ1 /λ3 , d& := dελ2 /λ3 ,
la mappa finale risulta essere (per z > 0 )
) * @ A
ℓ s s x axz |λ1 |/λ3 + &bz |λ2 |/λ3 + eµ
&
P : Vq ∩ Π → Π data da &→ & |λ2 |/λ3 + f µ .
z cxz |λ1 |/λ3 + dz
&

La condizione di punto fisso P ℓ (x, z) = (x, z), che permette di verificare la presenza di eventuali cicli nei quali
possa essersi biforcata l’omoclina, fornisce (con buona approssimazione vicino a questa) la relazione

az |λ1 |/λ3 )−1 (eµ + &bz |λ2 |/λ3 ) ∼ (eµ + &bz |λ2 |/λ3 )
x = (1 − &
0 1
z ∼ r(z; µ) := f µ + & cz |λ1 |/λ3 eµ + &bz |λ2 |/λ3 + dz
& |λ2 |/λ3 .

Note di Sistemi Dinamici


296 Capitolo 5. Comportamento caotico dei Sistemi

Siccome P1ℓ è invertibile, senz’altro &ad& − &


c&b ̸= 0 e quindi d,
&& c non possono essere simultaneamente nulli; ne segue
che la derivata in z = 0 di r(z; µ) può avere valore
(
∞ se |λ2 | < λ3 , o |λ1 | < λ3 ;
∂z r(0; µ) =: ∆ =
0 se |λ1 | > λ3 , e |λ2 | > λ3 .

In definitiva si hanno, localmente, i seguenti quattro casi (generici) l’evenienza dei quali dipende da effetti
globali della dinamica:

r(z,¹) r(z,¹) r(z,¹) r(z,¹)


¹>0 ¹>0
¹=0 z
e
ze ¹=0
¹<0 ¹<0
z z
¹>0 z
e z ¹>0
¹=0 z
¹<0 z
e ¹=0
¹<0
(1) (2) (3) (4)

(1) ∆ = 0 ed r(& z ; µ) < f µ. In tal caso, per µ > 0 e piccolo, la P ℓ ha un punto fisso z& > 0 stabile ed iperbolico,
e quindi il sistema ammette un’orbita periodica attrattiva (un ciclo limite stabile)

(2) ∆ = 0 ed r(& z ; µ) > f µ. In tal caso, per µ > 0 e piccolo, la P ℓ ha un punto fisso z& > 0 stabile ed iperbolico,
e quindi il sistema ammette un’orbita periodica attrattiva (un ciclo limite stabile)

(3) ∆ = ∞ ed r(& z ; µ) > f µ. In tal caso, per µ < 0 e piccolo, la P ℓ ha un punto fisso z& > 0 instabile ed
iperbolico, e quindi il sistema ammette un’orbita periodica repulsiva (un ciclo limite instabile)

(4) ∆ = ∞ ed r(& z ; µ) < f µ. In tal caso, per µ > 0 e piccolo, la P ℓ ha un punto fisso z& > 0 instabile ed
iperbolico, e quindi il sistema ammette un’orbita periodica repulsiva (un ciclo limite instabile).

il fatto che negli ultimi due casi la condizione di punto fisso si è potuta manifestare per valori di µ con entrambi
i segni, e cioè sia alla destra che alla sinistra (ma non in entrambe) del valore µ = 0 , si spiega osservando che
il meccanismo di ritorno può avvenire, nei due casi, secondo le seguenti due possibilità (a dipendere dagli effetti
globali della dinamica, che assegnano i segni delle costanti & a, &b, & &
c, d). Si osservi anzitutto che l’essere λ1 < λ2
implica che le mappe P0ℓ e P1ℓ agiscono, per µ = 0 , come in figura:
P 0` P1`
y

¦s ¦s
P0` (D)

z D x z
D
x ¦u x
oppure
P 0` P 1`
y

¦s ¦s
P0` (D)

z D x z
D
x ¦u x

Infatti: si denoti con T il tubo di flusso di basi Up , Uq che evolve intorno all’omoclina Γ, durante un “periodo
evolutivo” di durata ∆t ≈ τ1 necessario per passare da Πu a Πs ; e di questo si considerino solo le traiettorie che
passano per i punti x0 del “segmento” S := T ∩ Uq ∩ W s . Si congiungano poi (arbitrariamente e linearmente) i
punti di questo segmento con quelli del “segmento”: S ′ := Up ∩ W u ∩ {φℓ (−τ1 (x0 ), t0 , x0 )} . Come accennato
nella seguente figura, il risultato di tale costruzione è una superficie omeomorfa o ad un cilindro, oppure ad un

M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 297

nastro di Moebius. Più in generale, il sistema può “avvolgersi” intorno a Γ o un numero intero o un numero
semi-intero di giri rispettivamente, e corrispondentemente si ha r(z + ; µ) > f µ o r(z + ; µ) < f µ.

¦s ¦s
p
z
¦u ¦u
q
y
x
Ws S Ws S
Moebius cylinder
In tal modo si vede che la biforcazione può dar luogo a un ciclo solo se l’immagine P ℓ (D) viene spostata,
variando il parametro µ, verso le z positive (risp. negative) nel caso del nastro di Moebius (risp. del cilindro), e
quindi per valori di µ positivi (risp. negativi).
Anche in questo caso comunque il sistema biforca in una traiettoria periodica, e quindi il moto si mantiene
regolare.
Se però il campo è tale da ammettere per µ = 0 due omocline, (ad esempio perché simmetrico), e quindi una
delle due possibilità accennate qui in figura

¡+
¦u+
z ¦s+

y ¦s-
x
¦u-
¡-

allora, attribuito un indice + e − alle sezioni relative a ciascuna omoclina Γ+ e Γ− rispettivamente, si ha


che le varie possibilità, per µ = 0 , sono riassunte nella seguente figura
P(Πs+) P(Πs-)
Π s+ Π s+ Πs+
Π s- Π s- Π s-
z P(Πs-) P(Πs+) P(Πs-) P(Πs+)

x due cilindri Moebius e cilindro due Moebius


Pertanto, se il parametro µ viene variato opportunamente, può accadere che il meccanismo di ritorno sulla
sezione Πs generi strisce “orizzontali” e “verticali” con un comportamento strutturalmente simile a quello della
mappa a ferro di cavallo, e come tale caotico.

Hl Hr
P`(Hr )
x
P`(Hl )
z

In tal caso, come è anche possibile mostrare direttamente, la mappa P ℓ ammette insiemi invarianti che sono
iperbolici. #

Caso 2.2. λ1 =: ρ + iω, ρ < 0, ω > 0; λ2 = λ̄1 ; λ3 =: λ > 0.


Il sistema sia ridotto a ⎧ 1
⎨ ẋ = ρx − ωy + ν (x, y, z; µ)

ẏ = ωx + ρy + ν 2 (x, y, z; µ)


ż = λz + ν 3 (x, y, z; µ)
con λ > −ρ > 0 , e con ν 1,2,3 ∈ C r≥2 ∩ O(x2 + y 2 + z 2 ). Anche in questo caso si ha xs ≡ (x, y) ed xu ≡ z ,
'
tuttavia ora sono trasversali al campo (entrante) sezioni del tipo: Σsε := {x ≡ (x, y, z) ' |x| ≤ ε, y = 0, z ∈ (0, ε]} .

Note di Sistemi Dinamici


298 Capitolo 5. Comportamento caotico dei Sistemi

Per µ = 0 l’origine ammetta un’omoclina Γ che scompare per µ ̸= 0 e, come nel caso precedente, si abbia
µ ≶ 0 ⇒ φz (T, 0, 0, 0+) ≶ 0 ; tuttavia, diversamente dal caso precedente, l’omoclina deve seguire il campo nelle
sue rotazioni attorno all’asse z e quindi non sarà tangente ad alcun asse del piano (x, y) che passi per l’origine.
Si consideri dapprima µ = 0 . Sulle sezioni Σsε , Σuε , come primo tentativo, si specializzano le
; ' <
'
Πs : = (x, y, z) ∈ Σsε ' |x| ≤ ε, y = 0, z ∈ (0, ε] ⊂ Σsε \ Wloc
s

; ' <
'
Πu : = (x, y, z) ∈ Σuε ' |x| ≤ ε, |y| ≤ ε, z = ε ⊂ Σuε \ Wloc
u
.

Siccome il flusso linearizzato è


⎛ ρt ⎞
e (x0 cos ωt − y0 sin ωt)
φℓ (t, x0 , y0 , z0 ) = ⎝eρt (x0 sin ωt + y0 cos ωt)⎠ ,
eλt z0
l’istante τ0 = τ0 (x0 , 0, z0 ) per il quale il punto φℓ (τ0 (x0 , 0, z0 ), x0 , 0, z0 ) appartiene a Πu verifica la eλτ0 z0 = ε .
Pertanto è ⎛ ⎞ ⎛ ⎞
x0 x0 (ε/z0 )ρ/λ cos( ωλ ln ε/z0 )
P0ℓ : Uq Πs → Πu data da ⎝ 0 ⎠ &→ ⎝ x0 (ε/z0 )ρ/λ sin( ωλ ln ε/z0 ) ⎠ . (4.19)
z0 ε
Per poter stabilire la coniugazione con lo shift occorre che la mappa sia un omeomorfismo sulle sezioni trasverse,
si devono perciò evitare ritorni multipli su Πs prima che la traiettoria uscente da un qualsiasi (x0 , z0 ) arrivi in Πu .
Siccome la coordinata “radiale” contrae secondo eρt , ed il tempo di volo per un giro è 2π/ω , si ottiene quanto
detto scegliendo la Πs in modo non centrato rispetto all’origine e convenientemente piccola, e cioè assumendo:
; ' <
'
Πs : = (x, y, z) ∈ Σsε ' e2πρ/ω ε < x ≤ ε, y = 0, z ∈ (0, ε] ⊂ Σsε \ Wloc s

; ' <
'
Πu : = (x, y, z) ∈ Σuε ' z = ε, ed ∃(x0 ) ∈ Πs : P0ℓ (x0 ) ∈ Πu ⊂ Σuε \ Wloc u
.

y
z

¦s
x
x=²
q
x=²e2¼½/!

Trasformando le coordinate su Πu in coordinate polari (r, θ) di centro il punto p, la mappa P0ℓ è più
opportunamente espressa dalla:
⎛ ⎞ @ A @ A
x0 r(x0 , z0 ) x0 (ε/z0 )ρ/λ
ℓ s
P0 : Uq ∩ Π → Πu
data da ⎝ 0 ⎠ &→ = ,
z0 θ(x0 , z0 ) (ω/λ) ln ε/z0

e quindi
ω ε
θ(x0 , z0 ) = ln appartiene a (2kπ, 2(k + 1)π)
λ z0
se e solo se
0 1
z0 appartiene a ε e−2(k+1)πλ/ω , ε e−2kπλ/ω .

P`0
z y
x x
ha
z=²e-2k¼¸/!
vl vr

z=²e-2(k+1)¼¸/! hb P`0(ha)
¦s ¦u
P`0(hb)
x=²e2¼½/! x=² P`0(vr) P`0(vl)

M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 299

D’altra parte, per le proprietà di regolarità del sistema, esiste un intorno Up ⊂ Πu di p ≡ (0, 0, ε)T , la cui
immagine secondo P1 cade in Σs , e cioè P1 (x, y, ε; 0) ∈ Σs quando (x, y, ε) ∈ Up , e per il quale P1 (0, 0, ε; 0) = q
≡ (q x , 0, 0)T := Γ ∩ Πs , ove: q x = 2ε (1 + e2πρ/ω ).
Con uno sviluppo di Taylor si ha allora
⎛ ⎞
x
P1ℓ (x, y, ε; 0) = P1ℓ (0, 0, ε; 0) + ∂P1ℓ (0, 0, ε; 0) ⎝y ⎠
0
⎛ x⎞ ⎛ ⎞⎛ ⎞
q a b · x
= ⎝ 0 ⎠ + ⎝ 0 0 ·⎠ ⎝ y ⎠ ,
0 c d · 0

(la matrice ha nulli gli elementi della seconda riga in modo che i punti P1ℓ (x, y, ε; µ) cosı́ come (q x , 0, 0), siano
punti di Σs ).
Pertanto la Poincaré lineare, per µ = 0 , sarà

Pµ=0 :Vq ∩ Πs → Πs data da
⎛ ⎞ ⎛ ρ/λ K 7ω 8 7 8L ⎞
x x (ε z) a cos λ ln ε z + b sin ωλ ln ε z + q x
⎝ ⎠ &→ ⎝ ⎠
ρ/λ K 7ω 8 7ω 8L
z x (ε z) c cos λ ln ε/z + d sin λ ln ε/z

Si chiamino Qk i rettangoli
0 2π
O 0 2(k+1)π 2kπ
O
Qk := ε e ω ρ , ε × ε e− ω λ , ε e− ω λ ⊂ V ⊂ Πs .


Intersezioni di Pµ=0 (Qk ) con altri rettangoli Qi si possono avere secondo le due modalità mostrate qui di seguito.

P` P`

λ
(• ) Sotto l’ipotesi λ > −ρ > 0 , fissato α ∈ [1, −ρ ) è possibile scegliere (vedi: [Wiggins 2 Lem. 4.8.3]) k0 ∈ N
ed N ∈ N abbastanza grandi da far sı̀ che ogni immagine P ℓ (Qk ) intersechi in (almeno) due disgiunte “striscie
verticali” ciascun rettangolo Qi avente i ≥ k0 α
+N
≥ k0 . Pertanto il rettangolo
0 O 0 O
Q := ε e2πρ/ω , ε × ε e−2(k0 +N )πλ/ω , ε e−2k0 πλ/ω ⊂ V ⊂ Πs

è coniugato ad un alfabeto a 2N simboli, (una coppia di simboli per ogni striscia Qk0 +h con 0 ≤ h < N ), e la
dinamica rimane coniugata allo shift su YZ2N .
(• ) Nel secondo dei due casi in figura, (vedi ancora [Wiggins 1 ]) l’alfabeto avrà infiniti simboli e lo shift sarà un
subshift finito. Inoltre l’arbitrarietà di N mostra che si ha un infinità numerabile di “ferri di cavallo” ciascuno
con la sua infinità numerabile di punti di equilibrio, e sue proprietà caratteristiche.
Quando il parametro µ venga fatto variare l’omoclina, come si è detto, varierà anch’essa

z y y
z

x x

) *
ℓ ℓ eµ
e corrispondentemente la P diviene con buona approssimazione Pµ=0 + con f > 0 . Rinominando le

costanti e ponendo δ := |ρ|/λ si ottiene
) * ) *
x αxz δ cos(γ ln z + ϕ1 ) + eµ + q x
Pµ̸ℓ =0 : Vq ∩ Πs → Πs data da &→ .
z βxz δ cos(γ ln z + ϕ2 ) + f µ

Note di Sistemi Dinamici


300 Capitolo 5. Comportamento caotico dei Sistemi

Imponendo poi la condizione di punto fisso P ℓ (x, z) = (x, z) allo scopo di verificare la presenza di eventuali
cicli nei quali possa essersi biforcata l’omoclina, si ottiene (in prossimità di questa) la relazione

z = r(z; µ) := f µ + (eµ + q x )βz δ cos(γ ln z + ϕ2 )

e quindi qualcosa con il seguente comportamento

0 0
0 0 0

¹> ¹ ¹<
¹> ¹= ¹<
=
r(z;¹) 0
r(z;¹)

z z

±<1 ±>1

Per cui, se δ < 1 e µ = 0 si hanno una infinità numerabile di orbite periodiche, (come si è detto), mentre solo
un numero finito se µ ≶ 0 . Viceversa, se δ > 1 si ha una sola orbita periodica e solo se µ > 0 , ed altrimenti la
sola omoclina. La loro stabilità non è banale. Nel caso δ > 1 si ha stabilità come per l’omoclina, e la si studia
con gli invarianti di ∂P ℓ . Per δ < 1 tale studio è complicato dalla presenza di possibili biforcazioni tangenti nel
grafico qui sopra (vedi: [Wiggins 1]). È chiaro infine che eventuali simmetrie peggiorano la situazione. #

N.B. 5.4.4 Il meccanismo di ritorno dovuto alla presenza di un’orbita omoclina, e che via la horseshoe innesca il
procedimento di generazione del caos, non si può realizzare se una sola eteroclina è presente. Se però le eterocline
sono più di una, esse possono essere collegate fra loro in modo tale da permettere tale innesco. Nella seguente
figura si accenna ad un caso che permette una infinità di horseshoes purché (λ2 ρ)/(λλ1 ) < 1 , ed altrimenti il ciclo
eteroclino è attrattivo con transienti caotici. Un’eventuale perturbazione poi dà luogo ad una infinità numerabile
di horseshoes. ♦

P`12

P`01 P`02

P`11

Come ultimo esempio, ma non meno importante, di innesco del procedimento di ritorno nel caso di mappe,
verrà qui accennato il caso in cui una coppia di varietà W s (p0 ) e W u (p0 ), relative ad un punto di equilibrio p0 ,
che per un certo valore del parametro di controllo hanno intersezione non trasversa, rompono tale tangenza ed
ammettono intersezione trasversa. In tal caso la loro invarianza genera la presenza di una traiettoria omoclina che
può portare ad una geometria capace di generare horseshoes. Il teorema di Smale-Birkhoff, (vedi: [Guckenheimer
p.188 e 252]), assicura allora l’esistenza di un insieme sul quale la dinamica è topologicamente coniugata allo shift
finito.
Esempio 5.4.5 Sia F un diffeomorfismo da R2 in sé, e sia p0 un suo punto fisso ed iperbolico. Ad esempio la F
può essere la mappa di Poincaré di un’equazione alle derivate ordinarie che ammette un ciclo iperbolico (instabile).
Si supponga inoltre che le due varietà (non locali) W s (p0 ) e W u (p0 ) si intersechino in qualche punto q ̸= p0 in
modo trasverso; sia cioè q ∈ W s (p0 ) ∩ W u (p0 ). Come si è già detto, siccome entrambe W s (p0 ), W u (p0 ) sono
invarianti, anche l’orbita {F n (q)}n∈N deve appartenere a W s (p0 ) ∩ W u (p0 ). Si genera pertanto una omoclina
“trasversa” relativa a p0 e comportamenti come quello in figura. Detta D una regione a forma di “lobo” che
contenga una sola “ansa” tra le due varietà, la sua F -immagine non può che essere anche lei un lobo da uno dei due
lati della varietà, (a seconda della parità di F ), magari con qualche salto. Dopo un numero finito di iterazioni
della mappa F si ha che, seguendo la W u (p0 ) prima e la W s (p0 ) poi, si ritorna nell’intorno di p0 dal quale si era
partiti.
È chiaro come questo comportamento inneschi le horseshoes.

M. Lo Schiavo
5.4. “Classici” esempi di flussi caotici 301

f2(D)
P
f1(D) 3
f (D)
D

P0

f7(D) f6(D) f5(D) f4(D)

Esempio 5.4.6 Sia F un diffeomorfismo da R3 in sé, e sia (e cioè le direzioni iperboliche vengano espanse
e contratte più di quanto avvenga per quella tangente, [Wiggins 1 ]). Si assuma anche che le varietà stabile
ed instabile del toro si intersechino trasversalmente (per cui dim (Tq W s (p0 ) ∩ Tq W u (p0 )) = 1 per ogni punto
p0 ∈ T0 e per ogni q ∈ W s (p0 ) ∩ W u (p0 )), e che l’intersezione sia un altro toro T che risulta allora un toro
omoclino trasverso. Anche in questo caso l’invarianza di W s (p0 ), W u (p0 ) impone che le orbite di T appartengano
anch’esse a W s (p0 ) ∩ W u (p0 ), e quindi la presenza di un T ne implica infiniti altri. Su ciascun piano “radiale” si
ottiene una figura come quelle viste più sopra. Partendo cioè da un “lobo” D × T si ottiene un insieme invariante
che è un Cantor ×T. Naturalmente rimane incognita la dinamica relativa alla coordinata θ ∈ T.

Note di Sistemi Dinamici


302 Capitolo 5. Comportamento caotico dei Sistemi

M. Lo Schiavo
Capitolo 6

Alcuni Metodi Perturbativi

6.1 Gli sviluppi asintotici


Data una famiglia di campi v : (t, x, ε) ∈ R × M × V &→ v(t, x, ε) ∈ Tx M indiciata da un parametro ε ∈ N (0) ⊂
V ≡ Rm (e sufficientemente regolari rispetto a tutte le variabili), si consideri la famiglia di equazioni

ẋ = v(t, x; ε), x(t0 ) = x0 . (1.1)

Come è noto, salvo aumentare la dimensione dello spazio delle fasi ed aggiungere l’equazione ε̇ = 0, tale famiglia
può essere riscritta nella forma
) * ) * ) *
x v(t, x; ε) x0
ṡ = V (t, s) , con s= , V = , s(t0 ) = ,
ε 0 ε
ed è quindi lecito fare ricorso al teorema di dipendenza continua dal dato iniziale sia per quanto riguarda il modo
con cui la soluzione del problema (1.1) dipende dal dato x0 , sia per come dipende dal parametro ε ; (si veda a
questo proposito anche il Teorema 3.1 del §I.3).
Si supponga di conoscere la soluzione φ0 : t &→ φ0 (t, t0 , x0 ) della

ẋ = v(t, x; 0), x(t0 ) = x0 ; (1.2)

ci si vuole servire di tale conoscenza per individuare l’andamento delle soluzioni φ : t &→ φ(t, t0 , x0 ) della (1.1)
anche per valori non nulli del parametro ε , purché “convenientemente piccoli”: ∥ε∥ ∈ Bδ (0).
Segue dalle proprietà di dipendenza continua dal dato che, se ci si limita ad esaminare solo ciò che accade per
tempi limitati, si riconosce che la soluzione φ del sistema “perturbato”: (1.1) e quella φ0 del sistema non perturbato:
(1.2) non solo sono tanto più vicine fra loro quanto più piccola è la perturbazione, ma sono anche tali che la funzione
che esprime lo scarto è ben approssimata nell’intorno dell’istante iniziale dalla soluzione dell’equazione variazionale

u̇ = ∂x v(t, φ0 (t, t0 , x0 ); 0)u + ∂ε v(t, φ0 (t, t0 , x0 ); 0) 1m


con condizioni iniziali u(t0 ) = u0 finito, arbitrario, ed anzi scelto spesso u0 = 0 . Naturalmente tutto ciò è valido
purché il campo sia abbastanza regolare rispetto a (x, ε).
I metodi Perturbativi sono quelli che si servono di tale circostanza per studiare più in dettaglio la funzione
scarto: u(ε) := φ − φ0 .
Per sua stessa natura tale studio è locale rispetto a tutte le variabili presenti; e se, come talvolta accade, i
risultati cosı̀ ottenuti hanno validità globale, generalmente questo non può essere assunto apriori. Anche per questo
motivo, nel seguito non si distingueranno i punti sulla varietà dai loro rappresentanti su una qualche carta, ed i
problemi si intenderanno sempre assegnati in opportune coordinate, e quindi su prescelti sottoinsiemi di Rn .
I metodi di calcolo approssimato possono pensarsi suddivisi in

• Metodi locali: quelli che fin dall’inizio abbandonano la speranza di essere significativi anche lontano dai dati
assegnati, e qualora ciò accada è cosa non facilmente dimostrabile a priori. Essi sviluppano le funzioni in esame
mediante tecniche la cui validità è, in generale, ristretta a regioni limitate dello spazio delle fasi ampliato
e contenenti il dato iniziale. Se ne possono considerare come esempio i metodi che esprimono le soluzioni
mediante serie di potenze rispetto alla variabile indipendente (vedi Cap. I) o, più in generale, i vari metodi
perturbativi che cercano sviluppi delle soluzioni mediante somme di funzioni di una variabile “piccola” ε , che
nel caso precedente può essere identificata con l’incremento: (t − t0 ) della variabile indipendente.
• Metodi globali: quelli che si occupano di raccordare fra loro parti di soluzioni che siano valide solo localmente
in certe zone dello spazio delle fasi, ampliato sia con quello delle variabili indipendenti sia con quello dei
parametri, e di costruirne in tal modo una valida globalmente, o almeno in regioni più ampie delle precedenti
e che le contengono. Per essi il criterio conduttore è di eliminare quelle inconsistenze che provengono dalla
inesattezza degli sviluppi locali, spesso ridefinendo i parametri e le variabili in uso. Ne sono esempi i metodi
di strato limite o di scale multiple, o di sviluppi in ampiezza/fase.

303
304 Capitolo 6. Alcuni Metodi Perturbativi

• Metodi di Media: che studiano sistemi dotati di una qualche forma di periodicità e di regolarità, e cercano
di valutare i vari contributi, qualitativamente e quantitativamente diversi fra loro, dai quali sono composte
le soluzioni, certo esistenti su tutto lo spazio di definizione delle variabili. Essi si servono di tale periodicità
per individuare i diversi andamenti, per esempio a “tempi brevi” ed a “tempi lunghi”, che si producono nelle
soluzioni come conseguenza dei termini di campo più o meno rapidamente variabili. In generale tuttavia tali
metodi rimangono comunque locali rispetto ai valori dei parametri dello sviluppo.

Nel seguito, per semplicità, il parametro ε verrà supposto reale scalare. Inoltre, per poter essere più precisi sul
significato del termine: “piccolo”, si userà la seguente nomenclatura che, d’altra parte, è del tutto indipendente dal
fatto che quelle che si cercano sono soluzioni di un problema differenziale; ciò mostra, anzi, che la logica di fondo
dei metodi perturbativi è utilizzabile per risolvere in modo approssimato anche problemi non differenziali o con
campo non C 1 rispetto al parametro ε che, nelle definizioni che qui seguono, non è necessariamente “piccolo” né
positivo.

Siano f, g : R1 → R1 non identicamente nulle in un intorno N (ε0 ) di un certo punto ε0 ∈ R1 .


f = o (g) per ε → ε0 , o anche f ≪ (g) per ε → ε0 , significa che esiste ed è nullo il limε→ε0 (f /g).
Si assume pertanto che la f si annulli in almeno tutti i punti nei quali si annulla la g o, più in generale, che
esista una funzione positiva h(ε) tale che |f /g| ≤ h(ε) per ε ∈ N (ε0 ).

Esempi ε2 = o(ε) in ε0 = 0; ε sin(1/ε) ̸= o(ε) in ε0 = 0;


ε ̸= o(ε2 ) in ε0 = 0; ε sin(1/ε) = o(sin(1/ε)) in ε0 = 0.

f = O(g) per ε → ε0 significa che esistono ε+ > 0 ed M > 0 tali che per ε ∈ Bε+ (ε0 ) si ha |f (ε)| <
M |g(ε)| .

Esempi: ε2 = O(ε) in ε0 = 0; ε sin(1/ε) = O(ε) in ε0 = 0;


ε ̸= O(ε2 ) in ε0 = 0; ε sin(1/ε) = O(sin(1/ε)) in ε0 = 0;
ε2 = O(sin ε) in ε0 = 0; ε ̸= O(sin(1/ε)) in ε0 = 0.

f = Os (g) per ε → ε0 (o: f è strettamente dell’ordine di g ), significa che: f = O(g) e non è f = o(g).

Esempi: ε sin(1/ε) = Os (ε) in ε0 = 0; ε2 ̸= Os (sin ε) in ε0 = 0;


ε sin(1/ε) ̸= Os (sin(1/ε)) in ε0 = 0; ε2 ̸= Os (ε) in ε0 = 0;

f ∼ g , o anche: f ≈ g per ε → ε0 (si legga: f e g sono asintotiche, oppure: f “va come” g ), significa
che f = O(g) e, simultaneamente, g = O(f ).

Esempi: ε sin(1/ε) ̸∼ ε in ε0 = 0, 3ε ∼ ε in ε0 = 0.

faa di f per ε → ε0 (si legga: faa è approssimazione asintotica di f ), significa che f = faa + o (faa )
e cioè che limε→ε0 (f /faa ) = 1 .

Esempi: sin ε = (ε)aa in ε0 = 0, 3ε ̸= (ε)aa in ε0 = 0.

N.B. 6.1.1 Si osservi il cattivo uso di alcune locuzioni: ε e ε2 sono “circa” zero per ε → 0 ma non sono
asintotiche fra loro né lo sono a zero. La loro differenza ha la ε come approssimazione asintotica, infatti (ε −
ε2 ) − ε = o(ε); la loro differenza non ha la ε2 come approssimazione asintotica, infatti (ε − ε2 ) − ε2 ̸= o(ε2 ). In
ciò risiede il motivo per cui, nella definizione di approssimazione asintotica, si usa il rapporto (f − faa )/faa = o(1)
e non la differenza (f − faa ) = o(1) (vedi: [N.B. 6.1.4]).
Si ricordi, d’altra parte, che se lim f /g = 1 allora anche lim g/f = 1 ; dunque la relazione di approssimazione
asintotica tra f ed faa è simmetrica. Si noti, infine, che se g è monotona l’essere g = Os (1) equivale a che sia
1/g = Os (1).

M. Lo Schiavo
6.1. Gli sviluppi asintotici 305

N.B. 6.1.2 Nell’ipotesi che esista il ℓ := limε→ε0 |f /g| si ha che

f = O(g) ⇐⇒ f /g = O(1), ovvero: ℓ < 0;


f = o(g) ⇐⇒ f /g = o(1), ovvero: ℓ = 0;
f = Os (g) ⇐⇒ f /g = Os (1), ovvero: 0 < ℓ < ∞;
f ∼ g ⇐⇒ f /g ∼ 1;

ove naturalmente

⎪ O(1) significa |f /g| limitata per ε → ε0 ;


⎨ o(1) significa limε→ε0 f /g = 0;
f /g =
⎪ Os (1)
⎪ significa |f /g| limitata ma non infinitesima per ε → ε0 ;


∼1 significa ∃ L, M > 0 tali che L|f | < |g| < M |f | .

Attenzione. Si badi a non commettere errori di logica: 105 = O(1) è un nonsense, cosı̀ come anche 1.2 = O(1);
non si confondano, cioè, gli o.d.g. asintotici con “l’ordine di grandezza di un numero”, che è la parte intera del
log10 del numero, e non ha nulla a che fare con la ε . ♦

N.B. 6.1.3 Sussistono, per ε → ε0 , le

se f = o(g) ed è g = O(h), allora è anche f = o(h);


se f = o(g) ed è g = Os (h), allora è anche f = o(h);
se f = Os (g) ed è g ∼ h, allora è anche f = Os (h);
se f = Os (h) ed è g ∼ f, allora è anche g = Os (h).
se f = Os (g) ed è g = o(h), allora è anche f = o(h).

Infatti: f /h = (f /g) (g/h) lı̀ dove g ̸= 0 ; ed i valori per i quali è g = 0 sono anche tali che f = 0 . La prima
condizione implica subito la seconda. Per la terza occorre che i valori per i quali è |f | ≷ L|h| siano anche tali che
|g| ≷ M |h|, per certi L, M < ∞. Per l’ultima: |f | < M |g| < s|h|, per qualsiasi s > 0 comunque piccolo. ♦

N.B. 6.1.4 g = faa equivale a f = gaa ed implica f ∼ g che implica f = Os (g) ; tuttavia i viceversa
non sussistono: si pensi agli esempi visti sopra; è però vero che f ∼ g equivale a f = Os (g) quando esiste il
ℓ = limε→0 f /g .
Si osservi poi che
ε
f − g = o(g) equivale a (f − g)/g −→ 0
ε0

e quindi, per la stessa ragione,


ε
f − g = o(1) equivale a (f − g) −→ 0 ,
ε0

ma queste due coppie non sono fra loro equivalenti. In effetti

f − g = o(g) non implica f − g = o(1) se f e g sono non limitate,

si pensi per esempio alle f (ε) = ε−1 + ε−2 e g(ε) = ε−2 per ε → 0 ; cosı̀ come

f − g = o(1) non implica f − g = o(g) se f eg sono infinitesime,

si pensi per esempio alle f (ε) = ε e g(ε) = ε2 , per ε → 0 .


La prima delle due condizioni implica la −ε̂g ≤ (f − g) ≤ ε̂g in N (ε0 ), e quindi implica la seconda qualora
g = O(1) e (quindi) f = O(1).
La seconda delle due condizioni implica la prima se g = Os (1) e se si assume che f si annulli almeno in tutti
i punti dove si annulla la g . (Infatti: se (f − g) = o(1) e se g = Os (1) allora anche f = Os (1), giacché certo
f è limitata visto che g lo è, ed è chiaro che se g ammette limite anche f lo fa. Viceversa, se g non ammette
limite allora non lo può ammettere nemmeno f . Dunque se entrambe ammettono lo stesso limite (non nullo) allora
lim f /g = 1 ; se invece entrambe non ammettono limite, ma lo ammette la loro differenza e si annullano entrambe
simultaneamente, allora il rapporto (f − g)/g ammette limite nullo). ♦

Note di Sistemi Dinamici


306 Capitolo 6. Alcuni Metodi Perturbativi

Sia ora ε ∈ N (0) := (0, ε+ ] e l’asintoticità resta intesa per ε → 0 . Si definisce:


Funzione d’ordine (o: Funzione di gauge) δ(ε) := una funzione δ : (0, ε+ ] → R+ continua, monotona (in
generale strettamente), e tale che esista il limε→0 δ(ε) ∈ R+ ∪ {+∞}.

N.B. 6.1.5 La monotonia permette di escludere multipli zeri in N (ε0 ): si pensi agli esempi con sin(1/ε). ♦

N.B. 6.1.6 Se δ1 e δ2 sono due funzioni d’ordine (monotone nello stesso verso) allora anche δ1 · δ2 lo è. ♦

In questo capitolo si parlerà sempre di funzioni d’ordine monotone non decrescenti su (0, ε+ ], e l’asintoticità resta
intesa sempre per ε che tende a zero. Inoltre, sarà generalmente utile alla chiarezza indicare le funzioni con la
notazione generalmente riservata ai loro valori in un punto; per esempio, le funzioni d’ordine della ε potranno
essere anche indicate con δn (ε) per rimarcarne la variabile indipendente.
; <
Successione Asintotica di funzioni d’ordine := δn : (0, ε+ ] → R1 una successione di funzioni
n=0,1,2,...
d’ordine δn = δn (ε) tale che per ciascun n > 0 si abbia

δn = o(δn−1 ), con δ0 tale che δn = o(δ0 ) per ogni n.

Si dimostra che tale δ0 esiste sempre, e che è possibile sceglierlo o(1) se tutte
; le δn sono o(1).
<
n
Comoda famiglia di funzioni d’ordine è senz’altro quella dei monomi ε ma va tenuto presente che
n=0,1,..
queste non sono certo le uniche possibili funzioni d’ordine, né è necessario che le funzioni d’ordine siano funzioni
cosı̀ regolari.
; <
Successione Asintotica di funzioni fn (ε) := una successione fn : (0, ε+ ] → R1 di funzioni della
n=0,1,2,...
ε tali che per ogni n si abbia fn = Os (δn ) per una qualche successione asintotica di funzioni d’ordine δn .
Cm
Somma Asintotica di funzioni fn (ε) := una somma n=0 an fn (ε), con m ∈ N, con an ∈ R per ogni
n ∈ N, e tale che la {fn }n=0,1,... sia una qualche successione asintotica di funzioni della ε .
Le precedenti definizioni si estendono al caso di funzioni le quali, oltre che della ε , lo siano anche di altre variabili.
Sia φ = φ(ξ, ε) : D × (0, ε+ ] → Rm1 con D ⊆ Rm2 aperto; e siano fissati un certo ξ0 ∈ D ed un certo D0 ⊆ D ,
(e l’asintoticità resta intesa per ε → 0 ).
φ = O(δ) in ξ0 significa che tale è la f (ε) := φ(ξ0 , ε) .
φ = O(δ) in D0 significa che tale è ciascuna delle f (ε) := φ(ξ0 , ε) ottenute per ciascun fissato ξ0 nell’insieme
D0 .
φ = O(δ) uniformemente in D0 significa che tale è la famiglia delle f (ε) := φ(ξ, ε) in modo uniforme rispetto
alle ξ nell’insieme D0 .
Se φ = O(δ) in D0 , è generalmente possibile, eventualmente limitandosi a convenienti sottoinsiemi di D0 ,
scegliere una qualche norma ∥·∥D0 la cui scelta dipende da D0 rispetto alla quale individuare l’ordine della φ,
e cioè per la quale la funzione della ε data da f (ε) := ∥φ(ξ, ε)∥D0 risulta tale che f = O(δ). In particolare si
ha l’uniformità se la norma è la ∥·∥∞ su D0 . Per esempio ξε2 = o(ε) non uniformemente su R se la ∥·∥R
è quella del sup; in tal caso lo studio sui sottoinsiemi di R va ristretto ai sottoinsiemi compatti. Allo stesso
modo si può dichiarare ξ −1/2 ε2 = o(ε) addirittura in modo uniforme su (0, 1], se ci si accontenta della misura
. 1 −1/2 2
0 ξ ε dξ =: ∥φ(ξ, ε)∥(0,1] = 2ε2 .
Considerazioni analoghe si possono fare, ed analoghe definizioni vengono date, per le relazioni φ = Os (δ) e
φ = o(δ) .
A una funzione φ = φ(ξ, ε) si attribuisce un ordine di grandezza quando, fissati il modo (in particolare, per
il terzo di essi sia fissata una norma su D0 ) ed il tipo di asintoticità (ε → 0 ), si verifica una (rispettivamente)
delle relazioni di ordine stretto rispetto ad una qualche funzione d’ordine scelta in un qualche insieme di funzioni
d’ordine. In tal caso, tutto ciò viene riassunto con la locuzione “ φ è dell’ordine di δ ” o anche con: “ δ esprime
l’ordine di grandezza di g ” (nel modo prescelto in D0 , ed asintoticità per ε → 0 ):
g è dell’ordine di grandezza di δ := esiste una funzione d’ordine δ tale che

∥φ(ξ, ε)∥D0 = Os (δ) , o, più brevemente, φ = Os (δ) ) .

Data una funzione f = f (ε) continua e non identicamente nulla in ciascun (0, ς] con ς ∈ (0, ε+ ], si può
dimostrare (vedi: [Eckhaus Lemma 1.1.1]) che esiste una qualche δ0 tale che sia f = Os (δ0 ), e quindi f /δ0 = Os (1).
In altre parole, a una tale funzione è possibile attribuire un ordine di grandezza.

M. Lo Schiavo
6.1. Gli sviluppi asintotici 307
; <
Successione Asintotica, in D0 , di funzioni φn = φn (ξ, ε) := una successione φn (ξ, ε) tale che le
n=0,1,2,...
fn (ε) := ∥φn (ξ, ε)∥D0 diano luogo ad una successione asintotica di funzioni della ε ,
e cioè che si abbia {∥φn (ξ, ε)∥D0 }n=0,1,... = Os (δn ) per una comune ∥·∥D0 ed una certa successione asintotica
di funzioni d’ordine {δn (ε)}n=0,1,... ; e pertanto che per ciascun n ≥ 0 risulti φn (ξ, ε) = φn (ξ, ε)δn (ε), con
φ(ξ, ε = Os (1)), o almeno O(1).
Cm
Somma Asintotica (generalizzata), per ξ ∈ D0 := una somma n=0 φn (ξ, ε) tale che la successione di
funzioni {∥φn (ξ, ε)∥D0 }n=0,1,...,m risulti (appartenere a) una successione asintotica.
Cm
Somma Asintotica (ordinaria), per ξ ∈ D+ := D0 × Dp := una somma della forma: n=0 φn (ξ, p)δn (ε), nel-
la quale le φn sono funzioni della ξ ∈ D0 e di eventuali altri parametri p ∈ Dp , ma non della ε .
Le somme asintotiche vengono anche chiamate serie asintotiche, ma per ognuna di esse l’estremo superiore m della
somma è, di regola, finito.
La seguente è una restrizione della definizione data per le funzioni della ε .
Approssimazione Asintotica di φ(ξ, ε), in D0 := una funzione φaa (ξ, ε) tale che, una volta determinata una
funzione d’ordine δ0 (ε) che esprime in D0 l’ordine di grandezza della φ, in D0 risulti

φ(ξ, ε) − φaa (ξ, ε) = o(δ0 ), con δ0 tale che ∥φ(ξ, ε)∥D0 = Os (δ0 ) .
(0) (0)
Pertanto si ha che la φaa =: φaa è anche lei dell’ordine (stretto) δ0 e che φ0 := φaa /δ0 verifica la
φ
= φ0 + o(1) con φ0 = Os (1) .
δ0
Talvolta è utile ammettere la possibilità che la δ0 non sia O(1), e anzi che sia illimitata per ε → 0 . Quando anche
sia δ0 = O(1), è poi utile definire una approssimazione asintotica che sia “di ordine maggiore”, e cioè tale che

φ(ξ, ε) − φaa (ξ, ε) = o(δk ), per qualche δk = o(δ0 ) .

Nell’ipotesi che la φ e la φaa siano simultaneamente nulle tutto ciò equivale a dire che (φ − φaa ) = o(φaa ). È bene
osservare inoltre che la φaa è fortemente non univoca.

Il procedimento può essere iterato. Si chiami φ(1) tale o(1). Si definisca cioè
φ
φ(1) := − φ0 = o(1) .
δ0

Se ∥φ(1) ∥D0 è continua e non identicamente nulla in (0, ε+ ] si cerca, e si determina, il suo ordine di grandezza, e
quindi δ!1 tale che φ(1) = Os (δ!1 ). Per costruzione è certamente δ!1 = o(1).
(1) (1) (1)
Poi si cerca un’approssimazione asintotica della φ(1) , e cioè una φaa tale che φ(1) − φaa = o(δ!1 ). La φ1 := φaa /δ!1
risulta un’approssimazione asintotica della φ(1) /δ!1 , e verifica la

φ(1)
= φ1 + o(1) con φ1 = Os (1) .
δ!1

D’altra parte risulta δ0 · o(δ!1 ) = o(δ0 δ!1 ). Ne segue


N O N O
φ = δ0 φ0 + φ(1) = δ0 φ0 + δ!1 [φ1 + o(1)] = δ0 φ0 + δ0 δ!1 φ1 + o(δ0 δ!1 ).

Al successivo passo si pone φ(2) := φ(1) /δ!1 − φ1 . Si troveranno δ!2 = o(1) e φ2 tali che

φ(2)
= φ2 + o(1) con φ2 = Os (1) .
δ!2
N N OO
Ne segue φ = δ0 φ0 + δ!1 φ1 + δ!2 [φ2 + o(1)] e quindi

φ = δ0 φ0 + δ0 δ!1 φ1 + δ0 δ!1 δ!2 φ2 + o(δ0 δ!1 δ!2 ) .

Note di Sistemi Dinamici


308 Capitolo 6. Alcuni Metodi Perturbativi

Sviluppo Asintotico (generalizzato), in D0 , di φ ad m + 1 termini := la particolare approssimazione asinto-


tica all’ordine δm , per la funzione φ(ξ, ε), che si costruisce mediante il procedimento iterativo visto sopra, che usa
una qualche fissata norma ∥·∥D0 , una qualche successione (non necessariamente asintotica) di funzioni d’ordine
{δ!n (ε)}n=1,2,... , e la serie asintotica, ad m termini, costruita come detto:
⎧ m
⎪ φ(ξ, ε) =

⎪ = φ (ξ, ε) + δn (ε)φn (ξ, ε) + o(δm (ε)) ove

⎨ δ0 0
n=1

⎪ φn : = Os (1) (o almeno O(1)) per n = 0, 1, . . . , m



δn : = δ!1 · · · δ!n = o(δn−1 ), per n ≥ 1, δ0 = 1 ;

la successione {δn (ε)}n=1,2,... infatti è una successione asintotica giacché, per costruzione, ciascuna delle δ!i , per
i = 1, 2, . . . , n, è o(1) .
Generalmente le funzioni φn (ξ, ε) si cercano indipendenti dalla ε; (si veda il N.B. 6.1.26).

Sviluppo di Taylor
Sia x(ε) ∈ C ∞ ((N (0)) (infinitamente differenziabile in ogni ε ∈ (−ε0 , +ε0 ) ). Si chiama Polinomio di Taylor
all’ordine k il polinomio:

1 dh x
pk (ε) = a0 + a1 ε + a2 ε2 + . . . + ak εk , con ah := , h = 0, .., k < ∞.
h! d εh
Teorema. Se x(ε) ∈ C r (N (0)) (derivate continue fino all’ordine r compreso in un intorno N (0) dell’origine)
allora per ogni k < r il resto Rk (ε) è definito su N (0) e vale:
- ε
dh x (ε − η)h
Rk (ε) := x(ε) − pk (ε) = (η) dη ;
0 d εh h!

per cui, per ogni ε+ ∈ N (0) ed |ε| ≤ ε+ risulta:


' h '
Mk (ε+ ) k+1 'd x '
|Rk (ε)| ≤ |ε| con Mk (ε+ ) := max '' h (ε)'' .
(k + 1)! |ε|≤ε+ dε

Equivalentemente: dato ε+ ∈ N (0) esiste una costante c > 0 per la quale:

|Rk (ε)| ≤ c |ε|k+1 , o anche |Rk (ε)| = O(|ε|k+1 ) .


#
C∞
Se esiste il limk→∞ pk (ε) ≡ k=0 ak εk =: f (ε), e se tale limite coincide con la funzione x(ε), allora la
funzione x(ε) si dice analitica (reale), o anche x ∈ C ω (N (0)). Una funzione è analitica (reale) se e solo se
limk→∞ Rk (ε) = 0 per ogni |ε| < ε+ .
C n n
Esempio 6.1.7 n=0 an (ξ −ξ0 ) è uno sviluppo asintotico rispetto alle funzioni d’ordine (ξ −ξ0 ) di una funzione
f (ξ), con l’asintoticità intesa per ξ → ξ0 , quando si ha che:


⎪ lim (f (ξ) − a0 ) =0

⎪ ξ→ξ0


⎨ 1
lim (f (ξ) − a0 ) − a1 =0
ξ→ξ0 (ξ − ξ0 )

⎪ ) *

⎪ 1 1


⎩ lim (f (ξ) − a 0 ) − a 1 − a2 = 0
ξ→ξ0 (ξ − ξ0 ) (ξ − ξ0 )

con a0 ̸= 0 se
Cnf = Os (1), δ0 = 1, φ0 = a0 , δ1 = (ξ − ξ0 ), δ!k = (ξ − ξ0 ), δk = (ξ − ξ0 )k ; e cioè quando,
posto sn := k=0 an (ξ − ξ0 )k , si ha

(f (ξ) − sn )
lim = an+1 per n = 1, 2, . . . .
ξ→ξ0 (ξ − ξ0 )n+1

M. Lo Schiavo
6.1. Gli sviluppi asintotici 309

C K 7 8 L
Più in generale f (ξ) ∼ n=0 an (ξ − ξ0 )αn , con α > 0 , e quindi |an (ξ − ξ0 )αn | = o an−1 (ξ − ξ0 )αn−1 , se
accade che
N
= 7 8
rN (ξ) := f (ξ) − an (ξ − ξ0 )αn = o (ξ − ξ0 )αN .
n=0

N.B. 6.1.8 Si osservi che se f ammette una serie asintotica di potenze positive della (ξ − ξ0 ) i suoi coefficienti
sono univocamente determinati. Allo stesso modo si riconosce che se una certa funzione ammette uno sviluppo
asintotico ordinario rispetto ad una assegnata successione asintotica di funzioni d’ordine tale sviluppo è univoco.
Non è vero tuttavia il viceversa: una serie asintotica non individua una sola funzione φ. Esistono infatti funzioni
“trascendentalmente piccole”; ad esempio per le δn (ε) = εn tale risulta la e−ξ/ε che, come è noto, non ammette
sviluppo in serie di potenze della ε . Analogamente si ha che, ad esempio, ξ −1 non ammette in zero una serie
asintotica di potenze (positive). ♦

N.B. 6.1.9 Una data serie è asintotica a molte funzioni diverse. Una data funzione ammette molte diverse serie
asintotiche. ♦

N.B. 6.1.10 Una serie di Taylor è asintotica alla funzione che l’ha generata. Tuttavia lo è anche ad una che le sia
diversa per un addendo la cui serie asintotica di potenze sia nulla fino all’ordine prescelto. Per esempio, la funzione
somma ad m termini della serie stessa. ♦

N.B. 6.1.11 Se la serie, per esempio di potenze, è convergente certo il suo resto rN verifica, per ogni fissato ξ&
all’interno del cerchio di convergenza, la

=
& = N
rN (ξ) an (ξ& − ξ0 )n −→ 0 ,

n=N +1

ma ciò non è affatto necessario affinché la serie possa essere una serie asintotica: il resto di quest’ultima deve solo
tendere a zero più velocemente di (ξ − ξ0 )N per ξ → ξ0 ma non necessariamente per N → ∞. Anzi generalmente
accade che le serie asintotiche divergono per N grandi: si tratta quasi sempre di stimare il valore ottimale per N
per il quale l’approssimazione è la migliore possibile dati i valori delle funzioni d’ordine (e quindi del parametro
ε ) e dei loro coefficienti (e quindi della variabile ξ ) .
In effetti mentre la proprietà di essere convergente è una proprietà della sola serie, il fatto che una serie sia o
meno asintotica ad una certa funzione è una proprietà da verificare su entrambe, e quindi occorrerebbe conoscerle
entrambe. Se però si riesce in qualche modo a stimare quale sia il più piccolo dei coefficienti di una serie, che si
spera essere asintotica ad una certa incognita funzione, è opportuno interrompere la serie al termine precedente. ♦

N.B. 6.1.12 Siano m


=
! ε) + o(δm ) :=
φ(ξ, ε) = φ(ξ, φn (ξ)δn (ε) + o(δm )
n=0
=m
! ε) + o(δm ) :=
ψ(ξ, ε) = ψ(ξ, ψn (ξ)δn (ε) + o(δm )
n=0

due sviluppi asintotici ordinari e rispetto alla stessa successione asintotica di funzioni d’ordine. Sussistono le seguenti
proprietà.

• φ(ξ, ε) + ψ(ξ, ε) = φ(ξ, ! ε) + o(δm ) := Cm (φn (ξ) + ψn (ξ)) δn (ε) + o(δm ).


! ε) + ψ(ξ,
n=0
Cm
• c φ(ξ, ε) = n=0 c φn (ξ)δn (ε) + o(δm ), per c ∈ R.
C Cm
• φ(ξ, ε) · ψ(ξ, ε) = ( mn=0 φn (ξ) δn (ε)) · ( n=0 ψn (ξ) δn (ε)) + o(δ0 δm ).

• Se δh · δk = δh+k , (e allora δ0 = 1 ) si ha che


@ m @ AA
= =
φ(ξ, ε) · ψ(ξ, ε) = φh (ξ) · ψk (ξ) δn (ε) + o(δ0 δm ).
n=0 h+k=n

Note di Sistemi Dinamici


310 Capitolo 6. Alcuni Metodi Perturbativi

• Generalmente la differenziazione termine a termine non è lecita, contrariamente alle operazioni elementari
viste qui sopra. Tuttavia, se si assume che la funzione φ(ξ, ε) sia 7C r (N (0)), e come 8tale ammetta sviluppo
di Taylor fino all’ordine r , e quindi un resto integrale con kernel ∂ r+1 φ(ξ, ε)/∂εr+1 ε=s (ε − s)r /r!, la sua
approssimazione asintotica può essere derivata fino all’ordine r − 2 (ed r − 1 se anche l’ultima derivata è
limitata).
Cosı̀, si può derivare una serie asintotica ordinaria che sia uniforme sui compatti rispetto alla ξ ; ad esempio
quella di una funzione periodica rispetto alla ξ .
Analogamente, quando la funzione φ(ξ, ε) sia soluzione di una qualche equazione lineare a coefficienti svi-
luppabili, si può usare a ritroso l’equazione stessa per trovare che le derivate della funzione hanno come serie
asintotiche proprio le derivate della serie asintotica della funzione, (vedi: [Bender §3.8]).

Come prima applicazione del concetto di serie asintotica si cercherà ora di approssimare le radici di una equazione
algebrica “dipendente da un parametro”. Si indicheranno i punti sostanziali il metodo in forma generale, in modo
da poterli riconoscere, in seguito, anche nella risoluzione di problemi di altra natura.
Si consideri una famiglia di equazioni algebriche
0 1
φ(x, ϵ) = 0 , con φ(x, ε) ∈ C r D0 , (0, ε+ ] ;

ad esempio:
x2 + (ε − 4)x + (3 + 2ε) = 0 .

Ipotesi di lavoro. Si sa risolvere (o almeno stimare)la soluzione del caso “imperturbato”: ε=0

x2 − 4x + 3 = 0 ⇐⇒ (x − 1)(x − 3) = 0 ,
(1) (2)
dalla quale si legge che le due radici sono: x0 = 1 ed x0 = 3 .
Ipotesi aggiuntiva.
(1)
Le soluzioni: x(1) (ε) ed x(2) (ε) sono funzioni regolari della ε ∈ (0, ε+ ], e tali che limε→0 x(1) (ε) = x0 e
(2)
limε→0 x(2) (ε) = x0 . Esse pertanto ammettono uno sviluppo di Taylor in N (0).
Poi:

• Si inizia con il provare la cosa più semplice: e cioè i polinomi:


(1) (1) (1)
x(1) (ε) ∼ !(1) (ε) := x0 + x1 ε + x2 ε2 + . . .
= x
∼ x (2) (2) (2)
x(2) (ε) = !(2) (ε) := x0 + x1 ε + x2 ε2 + . . .

• Si ignorano le potenze superiori della ε , decidendo un qualche ordine k al quale fermare lo sviluppo.
Qui sia k = 2 .
!(1) (ε) ed x
• Si sostituiscono, una per volta, ciascuna delle due radici approssimate x !(1) (ε) nell’equazione
φ(x, ϵ) = 0 .
• Si sviluppa, totalmente rispetto alla variabile ε , ciascuna delle funzioni φ(! x(1) (ε), ε) e φ(! x(2) (ε), ε) cosı̀
(1)
ottenute. Cominciando con la prima: x !(ε) := x ! (ε), si calcola cioè la:
' ' '
' ' '
x(ε), ε) ∼
φ(! = φ' + ∂x φ ' ∆x + ∂ε φ ' ∆ε
(!
x(0),0) (!
x(0),0) (!
x(0),0)
1 ' 1 '
' '
+ ∂x (∂x φ ∆x + ∂ε φ ∆ε) ' ∆x + ∂ε (∂x φ ∆x + ∂ε φ ∆ε) ' ∆ε
2 (!
x(0),0) 2 (!
x(0),0)
' ' '
' ' '
=φ' + ∂x φ ' (x1 ε + x2 ε2 ) + ∂ε φ ' ε
(x0 ,0) (x0 ,0) (x0 ,0)
1 7 8 '' 1 7 8 ''
+ ∂x ∂x φ(x1 ε + x2 ε2 ) + ∂ε φ ε ' (x1 ε + x2 ε2 ) + ∂ε ∂x φ(x1 ε + x2 ε2 ) + ∂ε φ ε ' ε
2 (x0 ,0) 2 (x0 ,0)
' 17 8''
'
= φ(x(0), 0) + (φx x1 + φε ) ' ε+ φxx x21 + 2φxε x1 + φεε + 2φx x2 ' ε2 .
(x0 ,0) 2 (x0 ,0)

M. Lo Schiavo
6.1. Gli sviluppi asintotici 311

• Si richiede che il tutto valga zero, e cioè che la x


!(ε) sia soluzione, approssimata, del problema iniziale. Si
ricavano quindi ricorsivamente dalle equazioni valide per ciascun ordine di grandezza i valori delle x1 , x2 , . . .
necessari a tale scopo, e sempre che il problema sia non degenere, e cioè che sia φx (x0 , 0) ̸= 0 . Si trovano:
' K L ''
'
x1 = [−φε /φx ] ' , x2 = (−φxx x21 + 2φxε x1 + φεε )/(2φx ) ' .
(x0 ,0) (x0 ,0)

• L’unicità dello sviluppo di Taylor e le proprietà della φ fanno sı́ che in tal caso, e cioè nelle ipotesi dette, la
soluzione (ovvero ciascuna delle radici dell’equazione φ = 0 ) esista, unica, regolare, e tale che limε→0 x(ε) =
x0 . Pertanto, sempre in tali ipotesi, lo sviluppo x!(ε) esiste, unico, e con un errore O(εk+1 ) se la x !(ε) è stata
calcolata fino all’ordine k . Dunque tale x !(ε) è proprio una approssimazione asintotica (all’ordine k ) della
x(ε). Infatti (sia k = 1 ) il Teorema della funzione implicita e quello di Taylor assicurano che è possibile
stimare l’errore:

!(ε)| =: |R(ε)| ≤ M ε2 /2
|x(ε) − x con M := max |∂ε2 x(ε)| .
|ε|≤ε+

Esempio 6.1.13 Il seguente esempio è in qualche senso irragionevole dato che la x(ε) risulta facilmente calcolabile
in modo analitico. Tuttavia è utile per rendersi conto del metodo.
Sia data l’equazione
φ(x, ε) = x2 − 1 + ε = 0
√ √
che ha soluzioni (esatte) x(1) (ε) = + 1 − ε ed x(2) (ε) = − 1 − ε . Si imponga x !(1) 2
√(ε) = 1 − ε/2 − ε /8 + . . .,
(1)
che è la soluzione approssimata proveniente dallo sviluppo di Taylor della x (ε) = + 1 − ε , e l’errore è limitato
dalla derivata seconda di tale funzione nell’intorno [−ε+ , +ε+ ]. È chiaro che il ragionamento non può essere ripetuto
in generale quando la soluzione non è nota. Al variare di ε+ si ricava la seguente tabella (le due ultime colonne
sono l’errore valutato relativamente a ε = 0.37 e ε = 0.5 ).

Il grafico mostra la relativa disposizione delle radici.

+1 1 "

-1

Le linee tratteggiate danno le approssimazioni al primo ordine


delle radici relative ai due valori imperturbati, di tangenza,
e non danno luogo a biforcazioni.

Esempio 6.1.14 In questo esempio il problema è degenere; per esso il metodo non funziona, e vanno trovate altre
vie per trattarlo (cfr. oltre).
φ(x, ε) = x2 + ε = 0 .

Note di Sistemi Dinamici


312 Capitolo 6. Alcuni Metodi Perturbativi

È chiaro che per questa equazione il problema imperturbato non ha soluzione sviluppabile; infatti φ(x, 0) =
(1) (2)
x2 − 1 = 0 ha soluzioni x0 := x0 = x0 = 0 e quindi φx (x0 , 0) = 0 . Il seguente grafico mostra √ le due soluzioni
esatte ed è evidente che non si possano sviluppare in zero: la soluzione esatta, e cioè la funzione −ε, non ammette
sviluppo di Taylor nell’origine.

"

Il punto di biforcazione coincide con il valore imperturbato,


cosa tipica dei problemi degeneri.

Esempio 6.1.15 In questo esempio il problema è quasi degenere.


φ(x, ε) = x2 + (ε − 2.01)x + 1.01 = 0 .
(1) (2)
Il problema imperturbato ammette le due radici x0 = 1 , ed x0 = 1.01 e un successivo calcolo, per la prima,
fornisce x(1) ∼= 1 + 100 ε . È quindi un caso nel quale una piccola variazione di ε provoca una forte instabilità dei
risultati e solo valori “veramente piccoli” per la ε possono essere (alla disperata) accettati.
Domanda. Cosa fare nel caso di un tale problema quasi degenere? I segni indicatori sono:
• Le due radici imperturbate sono molto simili fra loro.
• La derivata ∂x φ in esse è molto piccola.
• Anche il primo coefficiente x1 risulta molto grande.
• Il valore della φ(!
x(ε), ε) risulta molto grande.
Le prime due rendono (o possono rendere) le soluzioni fortemente instabili, le seconde due rendono (o possono
rendere) i termini successivi degli sviluppi asintotici paragonabili o molto simili ai precedenti, e non decrescenti.
Risposta. Trattare il problema come se fosse degenere e ricorrere a metodi più potenti. In questo esempio si tratta
di specificare l’equazione φ(x, ε) = x2 + (ε − 2.01)x + 1.01 = 0 per qualche ε ragionevolmente piccolo, ad esempio
ε = −0.1 , e scrivere quella che si ottiene: x2 − 2.11 x + 1.01 = 0 nel seguente modo x2 − 2 x + 1 − 0.11 x + 0.01 = 0
e quindi risolvere:
φ(x, ε) = (x − 1)2 − 1.0 ε x + 0.1 ε = 0 .

Un secondo metodo che fa uso del concetto di serie asintotica è detto

Metodo del Bilancio Dominato


Esso è di particolare interesse in quei casi nei quali una serie di potenze non può assolvere all’incarico, e che quindi
si dimostra utile ad esempio nei problemi degeneri o nel caso di equazioni differenziali lineari con punti singolari
irregolari, (vedi: [Cap.I § 6]).
Si consideri dapprima un caso di problema algebrico degenere, ad esempio: (x − 2)2 (x − 3) + ε = 0 , per il
(1) (2)
quale il problema imperturbato ha radice x0 = x0 = 2 doppia e tale che φx (2, 0) = 0 .
(1) (2)
L’idea è cercare le due radici x (ε) ed x (ε) sotto la forma:
!(ε) = x0 δ0 (ε) + x1 δ1 (ε) + x2 δ2 (ε) . . . + xk δk (ε)
x
; <
per una qualche successione asintotica δh (ε) , e supponendo che biforchino da essa. Ciò comporta, in
k=0,1,...
questo esempio, che il termine dominante x0 δ0 (ε) dovrà essere tale che x0 = 2 e δ0 = 1 .

M. Lo Schiavo
6.1. Gli sviluppi asintotici 313

Domanda. Come trovare le altre?


Risposta. Certo ricorsivamente!
Inoltre. ciascuna delle δh deve essere “distintiva” e “bilanciante”,
ovvero tale da rendere (almeno) due termini di ciascuna equazione per il calcolo della corrispondente xh :

• dello stesso ordine di grandezza fra loro, e cioè “bilanciati”;

• entrambi dominanti rispetto agli altri, e cioè “distinti”;

ed è ovvio che conviene scegliere la più semplice di tutte quelle che danno luogo a questi risultati,
e che occorre scegliere (ove possibile) quelle che hanno un ricco problema all’ordine zero, quindi in particolare che
non sia degenere, e che forniscono risposte e/o soluzioni univoche.
Esempio 6.1.16 Si introduca, come primo tentativo, x ∼
= 2 + x1 δ1 nell’equazione:

φ(x, ε) = (x − 2)2 (x − 3) + ε = 0 . (1.3)

Se ne ricava la
−x21 δ12 + x31 δ13 + ε ∼
= 0.
Delle tre funzioni d’ordine: δ12 (ε), δ13 (ε), ε , la seconda rende il termine
√ subdominante, e quindi è da escludere.
Per bilanciare i due termini rimanenti è possibile
√ scegliere: δ 1 = ε . È chiaro che si sarebbe potuto scegliere
anche altre funzioni d’ordine, ad esempio: 2 ε + ε ln ε , etc. ma queste non sono altrettanto semplici. Ne seguono,
e solo per ε > 0 , le
√ √
x(1) ∼
=2+ ε , x(2) ∼=2− ε .

Per il termine del secondo ordine, e relativo alla prima di queste due, si sostituisce x ∼ = 2 + ε + x2 δ2 nella (1.3),
ottenendo:
√ √ √
−2x2 ε δ2 − x22 δ22 + ( ε)3 + 3x2 ε δ2 + 3x22 ε δ22 + x32 δ23 ∼
=0.
√ √
Si hanno δ23 ≪ δ22 , ε δ22 ≪ δ22 , εδ2 ≪ ε δ2 . Pertanto, omettendo i termini subdominanti (gli ultimi
due rispetto al secondo, il 4o rispetto al primo), si ricava
√ √
−2x2 ε δ2 − x22 δ22 + ( ε)3 ∼
= 0. (1.4)

A questo
√ punto vanno decisi i termini distintivi, qui: 1o e 2o ; 1o e 3o ; 2o e 3o ; che danno, rispettivamente:
3/4
δ2 = ε , δ2 = ε , δ2 = ε . Ne seguono sette possibilità per δ2 :

δ2 ≫ ε1/2 ; δ2 ∼ ε1/2 ; ε1/2 ≫ δ2 ≫ ε3/4 ; δ2 ∼ ε3/4 ; ε3/4 ≫ δ2 ≫ ε; δ2 ∼ ε; δ2 ≪ ε .

Di queste: la 1a e la 2a rendono δ2 ∼ δ1 e quindi da scartare. La 3a produce ε1/2 δ2 ≫ δ22 ≫ ε3/2 , e quindi solo
il primo termine dominante nella (1.4), che darebbe x2 = 0 e quindi in tal caso la successione non migliora. La 4a
implica che gli ultimi due termini della (1.4) bilanciano fra loro ma non sono dominanti, e quindi ancora x2 = 0 .
Anche la 5a assegna come dominante il solo primo termine, e la 7a assegna il solo secondo. Rimane pertanto solo
la 6a possibilità, che permette di porre (come scelta più semplice) δ2 = ε , scartare il secondo termine della (1.4),
e ricavare x2 = 1/2 . Se ne conclude la x(1) ∼= 2 + ε1/2 + ε/2 e, in definitiva, le tre radici

x(1) ∼
= 2 + ε1/2 + ε/2 , x(2) ∼
= 2 − ε1/2 + ε/2 , x(3) ∼
= 3 − ε/2 .

N.B. 6.1.17 Talvolta il metodo si applica anche a problemi per i quali la soluzione imperturbata: ε = 0 non esiste.
In tal caso può essere necessario ammettere limε→0 δ0 (ε) = ∞; il problema allora viene detto (generalmente)
singolare. ♦

N.B. 6.1.18 Il metodo può diventare molto laborioso, e quindi essere preferibile il ricorso ad altri, ancora più
potenti, quali ad esempio la stiramento (o “straining”) delle coordinate. Se ne esamineranno alcuni esempi più
avanti. Qui di seguito, invece, si accenna ad uno in particolare, di grande interesse anche per altri suoi sviluppi
successivi. ♦

Note di Sistemi Dinamici


314 Capitolo 6. Alcuni Metodi Perturbativi

Esempio 6.1.19 Un particolare straining di coordinate è quello che definisce a priori un cambio di coordinate, che
sembri il più opportuno e che magari sia suggerito da altri procedimenti quale il precedente Bilancio Dominato.
Per illustrarlo, si consideri l’equazione
φ(x, ε) = (x − 1)3 + ε x = 0 . (1.5)
Inserendovi la x ∼
= 1 + x1 δ1 si ricava x31 δ13 + ε = 0 da cui δ1 = ε1/3 ed x1 = −1 .
A questo punto, invece di considerare lo straining: x = 1 − ε1/3 , e cioè x1 costante, si introduce la
trasformazione di coordinate x↔y data da: x =: 1 + y ε1/3 .
Attenzione. La trasformazione vale in senso esatto, e non approssimato.

La trasformazione x = x(y) nella (1.5) fornisce εy 3 + ε + ε4/3 y = 0 ; per cui è opportuno introdurre una nuova
variabile asintotica: µ := ε1/3 ed un nuovo problema dato da:
ψ(y, µ) = y 3 + 1 + µ y = 0 . (1.6)
A partire dall’unica soluzione reale della (1.6) imperturbata, si prova con y! := −1 + y1 µ + y2 µ2 + ... + yk µk nella
(1.6) (non essendoci necessità di eventuali gauges µh ) i cui coefficienti restano valutati con facilità, e permettono
di esprimere la ricercata soluzione dalla (1.5) nella forma

x ∼ 1 + y ε1/3 = 1 + (−1 + y1 µ + y2 µ2 + ... + yk µk )µ ∼ 1 − ε1/3 + y1 ε2/3 + y2 ε + ... + yk ε(k+1)/3


È importante osservare, sempre che si badi a tenere conto anche dei termini subdominanti, e si completino i
calcoli iniziali in modo esatto, che in tal modo
• il problema assegnato si è trasformato in un problema ad esso del tutto equivalente;
• il nuovo problema ha radici semplici; quella che era una radice tripla è diventata una terna di radici semplici
costituita da una reale e due complesse.
• Il problema degenere aveva “le coordinate sbagliate”, e una poco felice unità di misura asintotica; il problema
trasformato è, invece, ben definito rispetto alla sua variabile e una giusta “scala” asintotica µ.
#

All’occorrenza si possono usare più di una scala per studiare le diverse soluzioni, anche a seconda delle loro
caratteristiche, e adattare una propria scala a ciascuna di esse, come nel prossimo esempio.
Esempio 6.1.20 Si consideri l’equazione
φ(x, ε) = x3 + ε x + 2ε2 = 0 . (1.7)

Il metodo del bilancio dominato avrebbe necessità di due scelte per la prima gauge: δ1 = −ε e δ1 = ε . Infatti,
inserendovi la x ∼ = 0 + x1 δ1 si ricava x31 δ13 + x1 ε δ1 + 2ε2 = 0 da cui δ1 = ε1/2 (primi due termini), oppure
2/3
δ1 = ε (primo e terzo), oppure δ1 = ε (ultimi due). La seconda, pur distintiva perché permette di bilanciare

il primo ed il terzo termine, non è significativa perché entrambi
√ non dominanti.
√ La prima fornisce x1 = ± −1 e
quindi soluzioni accettabili solo per ε < 0 , ovvero x(1) ∼ = −ε e x(2) ∼ = − −ε; l’ultima fornisce x(3) ∼= −2ε .
Invece del precedente procedimento in questo esempio si può√ seguire il metodo del cambio di coordinate, che ha
necessità di una sola scala. Infatti, se si introducono la µ := −ε insieme con x =: µ y nella (1.7) questa diviene
ψ(y, µ) = y 3 − y + 2µ = 0 . (1.8)
La (1.8) imperturbata ammette tre soluzioni reali semplici: y = ±1 e y = 0 , a partire dalle quali si ricavano le
serie di potenze:
y (1) = 1 − µ + O(µ2 ) , y (2) = −1 − µ + O(µ2 ) , y (3) = 0 + 2µ + O(µ2 ) .

Queste permettono di esprimere le ricercate soluzioni della (1.7) nella forma x = ε y . Queste però contrariamente
alle y (1,2,3) sussistono solo per valori negativi della ε . A tale proposito si noti che, ad esempio se non si fosse riusciti
a determinare anche la terza radice con la stessa µ usata per le altre due, si sarebbe potuto ricorrere all’altra δ1 ,
e cioè porre µ := ε . Si sarebbe ottenuto y (3) = −2ε + O(ε2 ) e cioè un risultato migliore del precedente, dato che:
• ha errore più piccolo: O(ε2 ) invece di O(|ε|3/2 );
• non adopera potenze razionali ma solo intere;
• individua la y (3) anche per ε > 0 . #

M. Lo Schiavo
6.1. Gli sviluppi asintotici 315

Qui di seguito viene illustrato un ulteriore esempio di uso del metodo del bilancio dominato in un caso nel quale
la soluzione non ammette uno sviluppo in serie di potenze. Si tratta infatti di una E.D.O. ordinaria lineare con un
punto singolare irregolare. Il metodo si applica come segue.

• Si consideri, per fissare le idee, l’equazione

x′′ + p(ξ)x′ + q(ξ)x = 0 , per la quale ξ0 sia singolare irregolare

cioè tale che almeno una delle due funzioni: la (ξ − ξ0 ) p(ξ) oppure la (ξ − ξ0 )2 q(ξ) è non analitica in ξ0 .
• Si pone x(ξ) =: eσ(ξ) , ove σ(ξ) è detto Fattore di Controllo, e si ottiene

σ ′′ + (σ ′ )2 + p(ξ)σ ′ + q(ξ) = 0 ;

• Di questa equazione si trascurano i termini piccoli per ξ → ξ0 e cioè si bilanciano i soli termini dominanti
[con ξ0 irregolare si può pensare ad un andamento in ξ0 del tipo: σ(ξ) ∼ (ξ − ξ0 )−α con α > 0 , e di
2
conseguenza σ ′′ /σ ′ ∼ (ξ − ξ0 )α = o(1)], e si risolve l’equazione cosı̀ ottenuta, controllando che la sua
2
soluzione σ0 (ξ) sia effettivamente tale da verificare l’assunto σ ′′ ≪ σ ′ , e/o le altre ipotesi fatte.
• Si pone σ0 := σ e calcola il termine correttivo sostituendo x(ξ) = eσ0 (ξ)+σ1 (ξ) nell’equazione iniziale, di nuovo
risolvendola rispetto a σ1 , (magari in modo approssimato)
• Si continua in tal modo fino a che il punto ξ0 risulti non più irregolare, oppure finché si sappia risolvere in
modo esatto ciò che rimane.
• Con un pò di fortuna la soluzione resta espressa o, almeno, localmente ben approssimata dalla
@∞ A
=
[σ0 (ξ)+σ1 (ξ)+...] α+n
x(ξ) ∼ e ai (ξ − ξ0 ) con a0 = 1, ed α > 0 .
n=0

Esempio 6.1.21 Sia data l’equazione di Airy (vedi: [Bender §3.4]):

ξ 3 x′′ = x , in ξ0 = 0 . (1.9)
C∞
Se esistesse una serie di Frobenius: n=0 an ξ α+n con a0 ̸= 0 e soluzione dell’equazione data, si avrebbe

= ∞
=
(α + n)(α + n − 1)an ξ (α+n+1) = an ξ (α+n) ;
n=0 n=0

α
tuttavia, la presenza di un unico termine di grado α : a0 ξ contraddice l’assunto a0 ̸= 0 .
Se invece si prova con la x(ξ) ∼= eσ(ξ) si ha
2
ξ 3 (σ ′′ + σ ′ ) = 1 (1.10)
2
e questa fa sperare che sia plausibile il tentativo: σ0′ (ξ) ∼ ξ −3 . Se ne ricava σ0 (ξ) ∼ ±2ξ −1/2 , che in effetti
2
verifica la σ ′′ = ± 23 ξ −5/2 ≪ ξ −3 = σ ′ . Si sono cosı̀ trovate le due soluzioni indipendenti, e quindi la soluzione
generale, in via approssimata.
Si assume poi che per ciascuna delle due σ0 (si inizi con σ0 = +2ξ −1/2 ) la σ ammetta uno sviluppo del tipo:

σ(ξ) = 2ξ −1/2 + σ1 (ξ) , con σ1 ≪ σ0 . (1.11)

Sostituendo ancora la x(ξ) = eσ(ξ) nell’equazione iniziale (1.9), e quindi in questo esempio sostituendo la (1.11)
nella (1.10), si ha
3 −5/2 2
ξ + σ1′′ + ξ −3 − 2ξ −3/2 σ1′ + σ1′ = ξ −3 . (1.12)
2
Ma è σ0 (ξ) ∼ ξ −1/2 , dunque ha senso assumere σ1 ∼ ξ β−1/2 con β > 0 e ricavarne la stima σ1′ ∼ ξ β σ0′ che
implica σ1′ ≪ ξ −3/2 . Pertanto non solo il secondo ma anche l’ultimo addendo nella (1.12) sono subdominanti, e
rimane la condizione
3 −5/2 3
ξ ∼ 2ξ −3/2 σ1′ che fornisce: σ1 (ξ) ∼ ln ξ .
2 4
Si controlla infine che questa stima fornisca σ1′′ (ξ) ∼ − 43 ξ −2 ≪ ξ −5/2 e che in effetti sia 3
4 ln ξ ∼ σ1 ≪ 2ξ −1/2 .

Note di Sistemi Dinamici


316 Capitolo 6. Alcuni Metodi Perturbativi

È ora possibile proseguire, e cercare un’ulteriore correzione ponendo


3
σ(ξ) = 2ξ −1/2 + ln ξ + σ2 (ξ) con σ2 (ξ) ≪ ln ξ .
4

Sostituendo nuovamente x(ξ) = eσ(ξ) nell’equazione di partenza (1.9), dalla (1.10) si ha

3 −2 2 3
− ξ + σ2′′ + σ2′ − 2ξ −3/2 σ2′ + ξ −1 σ2′ = 0.
16 2
3 1/2
In questa, il primo ed il quarto addendo sono dominanti, e si ricava quindi σ2 (ξ) ∼ − 16 ξ + cost .
Contrariamente ai termini già trovati, questa assegna alla x = x(ξ) un fattore indipendente dalla ξ ed uno correttivo
piccolo per ξ piccole.
Tale σ2 non viene compresa nello sviluppo di σ(ξ). Al contrario, prevedendo di dover trovare un termine
moltiplicativo del tipo w(ξ) = cost + o(ξ), si sostituisce nell’equazione (1.9) la particolare forma
) *
3
x(ξ) = w(ξ) · exp 2ξ −1/2 + ln ξ .
4

Si ricava, per la w(ξ), la condizione necessaria:


) *
3 −1 3
w′′ + ξ − 2ξ −3/2 w′ − ξ −2 w = 0 .
2 16

Di questa si calcola la soluzione mediante la sostituzione diretta di una serie sul tipo di quelle di Frobenius, ma
per intuire la quale occorre ancora un pò di lavoro, di nuovo mediante l’uso del bilancio dominato giacché l’origine
è ancora singolare irregolare.
Si ricava dapprima una stima dell’errore: e(ξ) := 1 − w(ξ) ed infine la

= −1
w(ξ) = 1 + an ξ n/2 con an = Γ(n − 12 ) Γ(n + 32 ) .
n=1
π4n n!

È disperante a questo punto riconoscere, servendosi della identità Γ( 12 ) = π , che:
' ' ' '
' an ' ' 16(n + 1) '
tale serie ha raggio di convergenza '
ρ = lim ' ' '
= lim ' '=0.
n→∞ an+1 ' n→∞ (2n − 1)(2n + 3) '

È rassicurante invece constatare, servendosi delle identità


) * ) * ) * ) *
−1 1 3 −1 1 5 3
a0 = Γ − Γ = 1 e a1 = Γ Γ = − ,
π 2 2 4π 2 2 16

che l’approssimazione ) *
√ 3 1/2
bd 2/ ξ 3/4
x (ξ) = e ξ 1− ξ ,
16
paragonata con la soluzione (in questo esempio) per x(1) = 6, x′ (1) = −0.3 , e calcolata in modo numerico,
sia particolarmente accurata. In figura è tracciato in tratteggio il grafico della funzione xbd (ξ) calcolata con il
bilancio dominato, e quello tracciato in linea continua della soluzione xnum (ξ) della stessa equazione, trovata con
metodi numerici.

500000

400000

300000

200000

100000

0.02 0.03 0.04 0.05

M. Lo Schiavo
6.1. Gli sviluppi asintotici 317
√ √
Il seguente grafico mostra i primi due termini correttivi: x(1) :=
√e
2/ ξ
e x(2) := e2/ ξ 3/4
ξ , insieme con il fattore
(3)
dovuto all’uso del procedimento di Frobenius: x := (1 − 3 ξ /16).

500000
x(2) x(1) 0.2 0.4 0.6 0.8 1
400000 0.975
0.95
300000
0.925
200000 0.9
0.875
100000
0.85
x(3)
0.825
0.02 0.03 0.04 0.05
0.8
#

Il successivo esempio applica il metodo del bilancio dominato a un caso nel quale esso non è strettamente
necessario, tuttavia mostra che, come nell’esempio precedente, con esso si possono ottenere informazioni ulteriori
non facilmente ricavabili con altri metodi.
C∞
Esempio 6.1.22 La funzione x(ξ) = n=0 ξ n /(n!)2 è definita per ogni ξ ∈ R, ma per ottenerne una buona
approssimazione per ξ grandi occorrono molti termini: per esempio per ξ ∼ 10000 occorrono circa 150 termini.
Se invece si nota che essa è soluzione dell’equazione

ξ x′′ + x′ = x

e si pone x(ξ) = eσ(ξ) si ricava la condizione necessaria ξσ ′′ + ξ(σ ′ )2 + σ ′ = 1 .


2
Per ξ → ∞ ci si aspetta una rapida crescita, e quindi è ragionevole l’ipotesi σ ′′ ≪ σ ′ , che dà
0 1
σ0′ (ξ) ∼ −1 ± (1 + 4ξ)1/2 /2ξ ∼ ±ξ −1/2 ;

d’altra parte, accettare σ ′′ ∼ (σ ′ )2 comporterebbe σ ∼ log ξ e questo non verifica σ ′ = 1 (conseguenza


dell’equazione in tale ipotesi). Cosı̀ invece si calcola σ0 = 2ξ 1/2 che, correttamente, fornisce (per ξ → ∞) la
stima |σ ′′ | = ξ −3/2 /2 ≪ (ξ −1/2 )2 .
Per il passo successivo si pone σ(ξ) = 2ξ 1/2 + σ1 (ξ) e si ricava

ξσ1′′ + ξ(σ1′ )2 + (2ξ 1/2 + 1)σ1′ + ξ −1/2 /2 = 0

con ξ 1/2 ≫ 1 , e σ1 (ξ) ≪ ξ 1/2 ; per esempio: σ1 ∼ ξ 1/2−β con β > 0 implica le stime ξσ1′ (ξ) ≪ ξ 1/2 ,
′′ −1/2
e ξσ1 (ξ) ≪ ξ . o o
Pertanto sono dominanti il 3 e 4 termine, che forniscono σ1 = −ξ −1 /4 e cioè

l’approssimazione asintotica
1/2
xaa (ξ) ∼ c ξ −1/4 e2ξ
che è uno sviluppo assai più veloce della serie precedente.
Cm n 2 (1)
In figura sono tracciati i grafici di due somme n=0 ξ /(n!) , la x con m = 100 termini e la x(2) con
m = 110 termini; quest’ultima è praticamente identica a quelle che si ottengono per valori superiori della m.
1/2
Insieme con esse è tracciato il grafico dell’approssimazione
C∞ asintotica x(3) := cξ −1/4 e2ξ per c = x(1)/e2 , valore
che la rende in ξ = 1 uguale alla x(1) = n=0 1/(n!)2 .
x(2)
8·10
84
x(3) x(1)
84
6·10
84
4·10
84
2·10

9200 9400 9600 9800 10000


Si osservi che il procedimento è lecito in quanto quella che si cerca è una sola (rispetto ai dati sulla ξ ) soluzione
della equazione assegnata e non tutta la famiglia delle soluzioni generali dell’equazione stessa. #

Nelle espressioni appena viste, come d’altra parte nel metodo di Frobenius, la differenza (ξ − ξ0 ) fra la variabile
indipendente ed il suo valore di riferimento, ha il ruolo di parametro piccolo.

Note di Sistemi Dinamici


318 Capitolo 6. Alcuni Metodi Perturbativi

N.B. 6.1.23 In generale, nell’uso dei metodi perturbativi il primo problema da risolvere è proprio quello di
procurarsi il parametro piccolo, ε , rispetto al quale eseguire lo sviluppo asintotico. Spesso la natura stessa del
problema è tale da permettere di individuare la ε fin dall’inizio, ma questo non è sempre il caso, né è sempre
evidente quale debba essere la successione di funzioni d’ordine δn (ε) rispetto alle quali calcolare la serie asintotica.
A tale scopo, è buona pratica “riscalare” le coordinate in modo da scrivere il problema rispetto a delle variabili
adimensionali. Successivamente si cerca di stabilire quale dei parametri o dei coefficienti sia, o sia opportuno
considerare, nettamente più piccolo degli altri presenti. Si passa poi ad applicare il particolare metodo prescelto
mantenendosi costantemente in contatto con il problema iniziale, e ciò al fine anche di evitare vertiginosi quanto
inutili calcoli. ♦

Si riassumerà qui brevemente la logica del principale procedimento usato negli esempi visti sopra, per poi poterlo
correggere all’occorrenza quando esso si dimostri poco attendibile.
Si indichi con P un problema assegnato, e che dipenda dal parametro ε ; (solo per fissare le idee si può pensare
a quello delle (1.1) più sopra, ma la tecnica vale comunque purché sussista una qualche forma di dipendenza continua
dai parametri). Si chiami poi P 0 il problema che si ricava quando in P si pone ε = 0 .

Ipotesi di lavoro. (senza la quale tutto il procedimento va riproposto).

Il problema P 0 si sa risolvere e fornisce una certa soluzione φ0 che si è in grado di valutare e può essere quindi
usata come punto di partenza.
Si noti che questa ipotesi può essere interpretata come un ulteriore vincolo sulla scelta della ε .
Accettata l’ipotesi detta, generalmente si inizia con il seguente metodo, del quale gli altri possono essere intesi
come “correzioni”.

Il Metodo perturbativo diretto

(o) Si calcola (o si stima) la soluzione φ0 del problema “imperturbato”: P 0.


(i) Si assume che tale soluzione φ0 sia approssimazione asintotica di grado zero della (incognita) soluzione
φ del problema P . Si assume cioè che sussista la
φ − φ0 = o(δ0 ) con ∥φ0 ∥D0 = Os (δ0 ) .
Si osservi che siccome la φ0 non dipende da ε questa ipotesi implica (generalmente) che δ0 = 1, e cioè che il
problema imperturbato abbia soluzione né troppo piccola né troppo grande rispetto alla scala dei coefficienti
e dei parametri. Anche questa ipotesi rappresenta un ulteriore vincolo sul procedimento di scelta delle scale
oltre che della ε .
(ii) Si sceglie, talvolta arbitrariamente, una certa successione asintotica di funzioni d’ordine: {δn (ε)}n=1,2,... .
Quando non si hanno altri vincoli o motivi particolari la scelta canonica è quella dei monomi: δn (ε) := εn
con n = 0, 1, . . . . Altre volte, occorre calcolare le δn (ε) una per una in modo che il problema continui ad
essere sensato ad ogni passo (vedi oltre).
(iii) Si suppone che la φ sia sviluppabile in somma asintotica; e cioè (nella notazione usata precedentemente
salvo rinominare le δn ) che sussista la
⎧ m
⎪ =
⎨ φ(ξ, ε) ∼ φ(ξ,
! ε) + o(δm (ε)) := φn (ξ, ε) δn (ε) + o(δm (ε)) ,
⎪ n=0

con tutte le φn (ξ, ε) = Os (1), o nulle, e le δn = o(δn−1 ) per n>0.

(iv) Si sostituisce questo sviluppo nell’originario problema P e si eseguono le varie operazioni presenti in esso
(cosa lecita dato che lo sviluppo è ad un numero finito di termini).
(v) Si determinano “in cascata” le funzioni φn richiedendo che esse verifichino il problema singolarmente ad ogni
ordine delle δn : n = 1, 2, . . . , m.
Tale richiesta equivale ad assumere che il presunto sviluppo sia effettivamente un’approssimazione asintotica
alla φ almeno fino all’ordine m .

N.B. 6.1.24 Il procedimento è semplice; il difficile è decidere quale sia il migliore m al quale arrestarlo, e quale
ne sia la validità rispetto alla variabile ξ . ♦

M. Lo Schiavo
6.1. Gli sviluppi asintotici 319

N.B. 6.1.25 Nello sviluppo di Taylor si ha il caso particolare:


1 dn '
'
δn = (ξ − ξ0 )n e φn (ξ, ε) = n
φ(ξ) ' .
n! dξ ξ=ξ0


N.B. 6.1.26 Generalmente le funzioni φn (ξ, ε) si cercano indipendenti dalla ε; anzi si parla di:
Sviluppo Regolare, o Uniforme, in D0 := uno sviluppo per il quale esistono {φn }n=1,2,... dipendenti dalla
sola ξ , tali che le ∥φn (ξ)∥D0 siano limitate in D0 e per n = 1, ..., m, e che sussista la
m
=
φ(ξ, ε) = φn (ξ) δn (ε) + o(δm (ε)) , n = 1, 2, . . . m. (1.13)
n=0

Sviluppo Singolare, in D0 , (lo sviluppo non il problema), := uno sviluppo per il quale, da un certo n0 in
poi, la seconda delle (1.13) non è più verificata. Tipicamente ciò accade in certe regioni del dominio D0 nel
quale la variabile ξ assume valori; per esempio per ξ “grandi”, oppure lungo linee di frontiera, dette Zone di non
uniformità. In tal senso lo sviluppo si può indicare come “non uniforme”. ♦

Si esamini ora il seguente esempio, di natura quasi universale, nel quale si applica il metodo diretto. In esso e
nel seguito verrà usata la notazione: vε per indicare la ∂ε v(x, ε) e analogamente vx per indicare ∂x v(x, ε), etc.
Inoltre, la successione {δn }n=0,1,2,... è a priori la successione dei monomi {εn }n=0,1,2,... . Infine, si farà generalmente
riferimento alla risoluzione di una E.D.O. rispetto alla variabile temporale t, ma è chiaro che questo servirà solo a
titolo esplicativo.
ESEMPIO PILOTA
Sia x appartenente ad un opportuno spazio funzionale X il cui spazio dei valori abbia la struttura di varietà n-
dimensionale. Sia v(x, ε) : X × N (0) → Tx X una famiglia di campi vettoriali dipendente dal parametro ε ∈ R1 ;
e sia L : X → X un operatore lineare sulla x e indipendente dalla ε . L’operatore L sia regolare rispetto a una
variabile indipendente ξ che, anche in vista delle applicazioni che si faranno nel seguito, verrà qui assunta scalare
reale, e generalmente indicata con la lettera t per intendere il tempo in un problema dinamico; è chiaro tuttavia
che il procedimento si estende anche al caso di variabili più generali o vettoriali. Il caso ε ∈ Rm , cosı̀ come quello
non autonomo: v = v(t, x; ε) è meno semplice, anche se spesso solo nella notazione, e verrà tralasciato.
Sia dato il problema P , da risolversi nello spazio X:
(
L(x) = v(x, ε)
Problema P : (1.14)
b(x, ε) = 0

ove b(x, ε) = 0 indica un insieme di condizioni iniziali e/o al contorno necessarie affinché il problema P risulti ben
posto, e cioè ammetta in X soluzione (incognita, esatta) x = x &(·, ε) unica e dipendente in modo regolare dai dati.
&(·, 0) =: x0 (t), soluzione del problema “imperturbato”, generalmente non lineare,
(i) Si calcola la funzione x = x
(
L(x) = v(x, 0)
Problema P0 :
b(x, 0) = 0 .
; < ; <
(ii) Scelta, per cominciare, la comoda successione dei monomi δk (ε) = εk , si ipotizza
k=1,2,... k=1,2,...

!(t, ε) + o(εk ) := x0 (t) + ε x1 (t) + ε2 x2 (t) + . . . + εk xk (t) + o(εk ) .


&(t, ε) ∼ x
x

! (qui per k = 2 ) al posto della x


(iii) In tale ipotesi si sostituisce x & nella (1.14), e la si sviluppa rispetto al
parametro ε (per brevità senza indicare la dipendenza dalla t)
L(&
x) ∼ L(!x) + o(ε2 ) = L(x0 ) + εL(x1 ) + ε2 L(x2 ) + o(ε2 )
' d ' 1 d2 ' (1.15)
' ' '
= v(!
x, ε) ' +ε v(!
x, ε) ' + ε2 2 v(! x, ε) ' + o(ε2 )
ε=0 dε ε=0 2 dε ε=0

(iv) Con l’aiuto del N.B. 6.1.27, più oltre, si ottiene (al secondo ordine e con tutte le derivate calcolate in (x0 , 0))
x) = L(x0 ) + εL(x1 ) + ε2 L(x2 )
L(!
0 1 1 0 N O 1
= v(x0 , 0) + ε x1 vx + vε + ε2 x21 vxx + 2 x2 vx + x1 vxε + vεε .
2

Note di Sistemi Dinamici


320 Capitolo 6. Alcuni Metodi Perturbativi

; <
(v) Di questa si cercano le soluzioni, e cioè le funzioni xi che rendono vera la presupposta identità
i=0,1,...
(1.15). A tale scopo occorre individuare le opportune condizioni ausiliarie, come segue.

(vi) Un analogo procedimento si esegue sulle condizioni ausiliarie, sulle quali si agisce come fatto sul campo v
ottenendo (al secondo ordine e con tutte le derivate calcolate in (x0 , 0))

b(x, ε) = b(x0 + εx1 + ε2 x2 ; ε) = 0 da cui


0 1 1 0 1
b(x0 , 0) + bx x1 + bε ε + bxx x21 + 2 [bx x2 + bxε x1 ] + bεε ε2 = 0 .
2
Per esempio, se b(x, ε) = 0 specifica una condizione iniziale del tipo
( 7 8
&(t = 0; ε) − a0 + a1 ε + a2 ε2 + . . . = 0
x
7 8
&˙ (t = 0; ε) − c0 + c1 ε + c2 ε2 + . . . = 0
x

le corrispondenti condizioni sono le


( ( (
x0 (0) − a0 = 0 x1 (0) − a1 = 0 x2 (0) − a2 = 0
... .
ẋ0 (0) − c0 = 0 ẋ1 (0) − c1 = 0 ẋ1 (0) − c2 = 0

(vii) Se ne ricava la successione di problemi tutti lineari, e distinti fra loro solo per i termini noti, nei quali le
derivate del campo sono tutte calcolate per x = x0 (t) e ε = 0 , e pertanto sono tutte funzioni note della
(sola) variabile indipendente t. Il primo, dopo il P 0 , è il problema
(
L(x1 ) = vx x1 + vε
Problema P1 : (1.16)
con condizioni ausiliarie sulla x all’ordine Os (ε)

dal quale si determina la particolare funzione x1 = x1 (t) che verifica le specificate condizioni iniziali. Questa,
insieme con la x0 = x0 (t) permette di scrivere il successivo problema al secondo ordine:
⎧ N O
⎨ L(x ) = v x + 1 x2 v + 2x v + v
2 x 2 1 xx 1 xε εε
Problema P2 : 2

con condizioni ausiliarie sulla x all’ordine Os (ε2 )
del quale si calcola la soluzione x2 = x2 (t). Poi, mediante le x0 (t), x1 (t), x2 (t), si scrive il problema al
terzo ordine:


⎪ 1N 3

⎪ L(x3 ) = vx x3 + x vxxx + 6x1 x2 vxx
⎨ 6 1 O
Problema P3 : +3x21 vxxε + 6x2 vxε + 3x1 vxεε + vεεε




con condizioni ausiliarie sulla x all’ordine Os (ε3 )

e cosı̀ via procedendo “a cascata”.

N.B. 6.1.27 La struttura dei calcoli è molto semplice: indicando brevemente con x(ε) la funzione x( · , ε), e
cioè sottointendendo l’insieme delle variabili indipendenti del problema L(x) = v(x), indicando con gli apici le
derivate totali rispetto alla variabile asintotica ε :

d d2
x′ := x(ε) , x′′ := x(ε) , etc,
dε dε2
indicando con i deponenti le derivate parziali, e con i campi calcolati in (x(ε), ε), quando v = v(x) si hanno le
⎧ ′
⎨ v (x(ε)) = vx xε

v ′′ (x(ε)) = vxx x2ε + vx xεε

⎩ ′′′
v (x(ε)) = vxxx x3ε + 3vxx xε xεε + vx xεεε .

M. Lo Schiavo
6.1. Gli sviluppi asintotici 321

Quando invece v = v(x; ε), sussistono le


⎧ ′

⎪ v (x(ε), ε) = vx xε + vε

⎨ v ′′ (x(ε), ε) = 7vxx x2 + vx xεε 8 + 2vεx xε + vεε

ε
′′′
7 3
8

⎪ v (x(ε), ε) = vxxx ε + 3vxx xε xεε + vx xεεε
x

⎪ 7 8

+ 3 vεxx x2ε + vεx xεε + 3vεεx xε + vεεε .

Stante la posizione x! = x0 + ε x1 + ε2 x2 + . . . + εk xk , e dato che le derivate della x


! devono essere calcolate nel
punto ε = 0 , si ha che

!ε (0) = x1 ,
x !εε (0) = 2! x2 ,
x !εεε (0) = 3! x3 ,
x etc.

Pertanto si conclude che i vari termini della (1.15) sono dati da


⎧ '
⎪ ′ '

⎪ v (!
x , ε) ' = vx x1 + vε

⎪ ' ε=0

⎪ '
⎨ v ′′ (!x, ε) ' = vxx x1 2 + 2vx x2 + 2vεx x1 + vεε
ε=0
⎪ ′′′ '
⎪ '


⎪ v (!
x , ε) ' = vxxx x1 3 + 6vxx x1 x2 + 6vx x3

⎪ ε=0
7 8

+ 3 vεxx x1 2 + 2vεx x2 + 3vεεx x1 + vεεε

ed in tutti i termini i campi sono calcolati in (x0 (t), 0). ♦

N.B. 6.1.28 La linearizzazione studia solo il termine x1 = x1 (t) con l’equazione variazionale (1.16). ♦

N.B. 6.1.29 Data la complessità della espressione generale, la cosa migliore è senz’altro ripetere volta per volta i
passaggi (i), . . . , (iv) sul particolare problema in esame. ♦

I seguenti due esempi mostrano che, sebbene la struttura vista sopra sia del tutto generale, tuttavia non è l’unica
possibile nell’uso degli sviluppi asintotici, e può essere ulteriormente adattata ai singoli problemi in esame.
Esempio 6.1.30 Trovare le soluzioni dell’equazione algebrica:

x3 − 4.001x + 0.002 = 0 .

Si denoti ε = 0.001 ; si ha l’equivalente equazione

x3 − (4 + ε)x + 2ε = 0

le cui soluzioni ordine zero sono: x0 = {−2, 0, +2}. Posto poi x = x0 + εx1 + ε2 x2 , si ricava (all’ordine
2)
x30 + 3x20 x1 ε + 3x0 x21 ε2 + 3x20 x2 ε2 − 4x0 − 4εx1 − 4ε2 x2 − εx0 − ε2 x1 + 2ε = 0 .
Per x0 = −2 , per esempio, questa fornisce

(12x1 − 4x1 + 4)ε + (−6x21 + 12x2 − 4x2 − x1 )ε2 = 0

da cui x1 = −1/2 ed x2 = 1/8 e cioè

x = −2 − 0.0005 + 0.1 · 10−6 + o(10−6 ) = −2 − 5 · 10−4 + o(10−6 ) .

Esempio 6.1.31 Sia f : t &→ f (t) continua, e sia dato il problema


(
ẍ = f (t)x
x(0) = 1 , ẋ(0) = 1 .

Si considera, arbitrariamente, un’altra equazione:

ẍ = εf (t)x

Note di Sistemi Dinamici


322 Capitolo 6. Alcuni Metodi Perturbativi

e si riservano per la x0 la totalità delle condizioni iniziali:


( (
x0 (0) = 1 xn (0) = 0
e quindi, per n > 0, si lascia
ẋ0 (0) = 1 ẋn (0) = 0 .

Se ne ricava: x0 = t + 1 ; e siccome d2 /dt2 è lineare ne segue la catena di equazioni, risolubili per integrazione
semplice,
ẍn = f (t) xn−1 n = 1, 2, . . . .
Per esempio si ha - t- - t-
s s
x1 (t) = (1 + ς)f (ς)dςds , xn+1 (t) = xn (ς)f (ς)dςds .
0 0 0 0
A solo titolo di esempio per mostrare la bontà delle approssimazioni cosı̀ trovate, in figura vi sono i grafici delle
funzioni trovate con il metodo detto (linea piena) e di quelle valutate numericamente (tratteggio) per tre diversi
valori della funzione coefficiente f (t).
2.2 2.2 2.2

2 2 2

1.8 1.8 1.8

1.6 1.6 1.6

1.4 1.4 1.4

1.2 1.2 1.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1

f(t) = t1/3 f(t) = t f(t) = sin 10t


Il seguente grafico è stato tracciato con la f (t) = 10 sin 10t e mostra che, invece, l’approssimazione x(2) e la
soluzione numerica x(1) si possono discostare sensibilmente qualora la funzione f (t) assuma valori sensibilmnte
maggiori della x0 (qui: Os (1)).
3.0
x(2) x(1)
2.75
2.5
2.25
2.0
1.75
1.5
1.25
0.2 0.4 0.6 0.8 1
#

Esempio 6.1.32 L’Oscillatore armonico debolmente smorzato.

m x′′ + η x′ + κ x = 0 , ove: “ ′
:= d/dτ ” , e con x(0) = 0, ẋ(0) = 1 .
/ η η
Si divida per m e si definiscano ω0 := k/m e (per futuri usi) ε := ≡ √ . Si ottiene la:
2mω0 2 mκ
η ′
x′′ + x + ω02 x = x′′ + 2 ε ω0 x′ + ω02 x = 0 . (1.17)
m
Successivamente, si può ulteriormente dividere tale equazione per ω02 , e riscalare la variabile temporale: ω0 τ &→ t.
In tal caso si ottiene il
(
ẍ + 2εẋ + x = 0
Problema P :
x(0) = 0 , ẋ(0) = 1 .

Nell’ipotesi ε ≪ 1 , con il metodo perturbativo diretto si ricava dapprima:


(
ẍ0 + x0 = 0
Problema P 0:
x0 (0) = 0, ẋ0 (0) = 1

che fornisce x0 (t) = sin t. Quindi


(
ẍ1 + x1 = −2ẋ0 = −2 cos t = −2ℜe eit
Problema P 1:
x1 (0) = 0, ẋ1 (0) = 0

M. Lo Schiavo
6.1. Gli sviluppi asintotici 323

che fornisce x1 (t) = −t sin t. Poi


(
ẍ2 + x2 = −2ẋ1 = 2(sin t + t cos t)
Problema P 2 :
x2 (0) = 0, ẋ2 (0) = 0
e questa, ricorrendo alla formula con il nucleo risolvente, fornisce
- t
172 8
x2 (t) = sin(t − s)(2 sin s + 2s cos s)ds = t sin t − t cos t + sin t .
0 2
N.B. 6.1.33 Come è noto questo risultato, cosı̀ come il precedente, si sarebbe anche potuto ottenere mediante
il “metodo delle ampiezze complesse”, e cioè svolgendo, come qui di seguito, il calcolo supponendo le coordinate
complesse.
Stante il fatto che l’assegnata equazione ẋ = v(t, x) ha campo tale che v(t, x) = v(t, x) , se x è soluzione
della data equazione e uscente da un certo x0 allora anche x̄ è soluzione della stessa equazione e uscente da x̄0 .
Dunque in tal caso condizioni iniziali reali implicano soluzioni reali, e non lede la generalità considerare l’assegnata
equazione nella variabile x come la parte reale di un’identica equazione su una variabile complessa z , e nel cercare
come soluzione particolare della prima la parte reale della (corrispondente) soluzione particolare della seconda.
Nel caso P 1 l’equazione è z̈ + z = −2it per cui, dato il particolare termine noto e data la risonanza fra la parte
omogenea e il termine noto, si cerca una soluzione della forma: z(t) = (z1 + z2 t)eit con z1 , z2 ∈ C1 . Dunque: ż =
(i(z1 + z2 t) + z2 ) eit , e quindi (a parte il comune fattore eit ) si ha la: (−z1 −z2 t+2iz2 )+z1 +z2 t = −2 , che implica
z1 arbitrario e z2 = i . L’identità ℜe (ieit ) = − sin t permette di concludere che x1 (t) = a cos t + b sin t − t sin t,
ed il dato iniziale dà a = b = 0 .
d
In modo analogo, sostituendo (z1 + z2 t + z3 t2 )eit nell’equazione z̈ + z = −2 dt (i t eit ) del problema P 2 si ottiene
2iz2 + 4iz3 t + 2z3 = −2i + 2t da cui: z3 = −i/2 e z2 = −1/2 , ovvero: x2 = a cos t + b sin t − 12 t cos t + 12 t2 sin t.
Imponendo su questa le condizioni ausiliarie si ottengono a = 0 , e b = 1/2 . ♦

In definitiva, il metodo perturbativo diretto fornisce per l’incognita x &(t, ε) la seguente somma asintotica a tre
termini (e quindi a meno di o(ε2 )):
1 7 8
xdir (t, ε) := sin t − εt sin t + ε2 t2 sin t − t cos t + sin t .
2
Quello trovato è uno sviluppo regolare, ma solo fintanto che t sin t è dell’ordine dell’unità. Ciò significa che per
t > Os (1) lo sviluppo non è uniforme e l’errore commesso diviene sensibile.
In questo esempio il tutto si può paragonare alla soluzione esatta, infatti l’ansatz: zeαt con α2 + 2εα + 1 = 0
ed ε < 1 fornisce
0/ 1 /
&(t, ε) = ae−εt sin
x 1 − ε2 t + ϕ0 ove a = 1/ 1 − ε2 , ϕ0 = 0 , (1.18)

che è analitica in (t, ε) ∈ R × (0, 1) e pertanto ammette un’unico sviluppo in serie di potenze della ε e valido per
ogni t. I suoi primi termini sono forniti (si veda il prossimo N.B.) dalla:
) *) *) *
1 1 1
&app (t, ε) = 1 + ε2
x 1 − εt + ε2 t2 sin t − ε2 t cos t , (1.19)
2 2 2
la quale all’ordine O(ε2 ) uguaglia esattamente lo sviluppo xdir trovato sopra.
N.B. 6.1.34 In questo e nei seguenti calcoli verranno adoperati i noti sviluppi, validi per piccoli valori della
variabile:
1 2 1 3 1 4
ln(1 + ε) ∼ ε − ε + ε − ε + ...
2 3 4
1 3 1 5
sin ε ∼ ε − ε + ε − ...
3! 5!
√ 1 1
1 − ε ∼ 1 − ε − ε2 − . . .
2 8
1 1 3
√ ∼ 1 + ε + ε2 + . . .
1−ε 2 8
1
∼ 1 − ε + ε2 − . . .
1+ε
e quindi, in particolare
) 0 *
/ ε2 1 0 ε2 t 1 0 ε2 t 1 1
2
sin( 1 − ε t) ∼ sin t 1 − ∼ sin t cos − sin cos t ∼ sin t − ε2 t cos t .
2 2 2 2

Note di Sistemi Dinamici


324 Capitolo 6. Alcuni Metodi Perturbativi

In figura sono riportati i grafici delle funzioni x0 , ε x1 , ed ε2 x2 /2 , valutate per ε = 0.01 ; la loro somma è xdir .
1 1 1
0.75 0.75 0.75
0.5 0.5 0.5
0.25 0.25 0.25

-40 -20 20 40 -40 -20 20 40 -40 -20 20 40


-0.25 -0.25 -0.25
-0.5 -0.5 -0.5
-0.75 -0.75 -0.75
-1 -1 -1

Nella successiva figura sono invece riportati, in corrispondenza a due valori della ε , i grafici delle due funzioni: la
&(t, ε) del problema, e lo sviluppo xdir (t, ε).
soluzione esatta x

1 3
0.75 2
dir
0.5 x xdir
1
0.25 e(t; ")
x e(t; ")
x
20 40 60 80 100 120 140 10 20 30 40
-0.25
-1
-0.5
-0.75 -2
-1 -3
" = 0:01 ; t 2 [0:0; 150:0] " = 0:1 ; t 2 [0:0; 40:0]

&app (t, ε) trovata nella (1.19) approssimando al secondo ordine la soluzio-


È confortante constatare che l’espressione x
ne esatta x&(t, ε) coincide precisamente, come si è notato, con la xdir (t, ε) determinata con il metodo perturbativo.
È però anche evidente che l’esponenziale ha bisogno di tutti i suoi infiniti termini per convergere correttamente,
e che già lo sviluppo del seno dà luogo a termini non uniformi. Quindi, sebbene la ricordata analiticità della
funzione assicuri che lo sviluppo trovato non possa essere “sbagliato”, nel senso che esso è certamente l’inizio di
una serie tale che aggiungendo a quelli trovati tutti gli altri infiniti termini si raggiunge il risultato corretto e per
ogni coppia dei valori t ed ε , tuttavia fermandosi ad un numero finito, ed anzi piccolo, di termini la stima risulta
accettabile solo limitatamente a valori piccoli della t. #

Nell’Esempio 6.1.32 si è incorsi in uno sviluppo non uniforme; ciò comporta che, per t grandi, è necessario
correggere il metodo diretto con altri metodi. Danno risultati accettabili, per quel sistema, i metodi di Media, di
Stiramento delle coordinate, di Scale Multiple (vedi oltre).
Esempio 6.1.35 L’equazione di Lighthill
(
(t + εx)ẋ + x = 1 t ∈ [0, 1]
(1.20)
x(1) = 2

L’equazione è debolmente non lineare, ma la ε moltiplica il termine di ordine massimo, e il problema perturbativo
rientra allora fra i cosiddetti Problemi di perturbazioni singolari; (quello in esame, tuttavia, è debolmente singolare
giacché non riduce l’ordine del problema differenziale).
Si noti subito, dal punto
' di vista qualitativo, che l’equazione permette di valutare esplicitamente la ẋ(1) =
[(1 − x(t))/(t + εx(t))] 't=1 < 0 e quindi di concludere che la x &(t, ε), che è positiva in t = 1 , cresce quando t
decresce dal valore 1 verso lo zero; infatti il denominatore non cambia segno né lo fa il numeratore. Tuttavia,
siccome su [0, 1] la ẋ è limitata (il valore minimo del suo denominatore in quella zona è 2ε ), ci si aspetta che tale
sia anche la x& . Si osservi poi che la parte non lineare della equazione è il solo termine
ε d 7 82
εxẋ = x0 + εx1 + ε2 x2 + . . .
2 dt) ) ** (1.21)
d x2 x2
= ε 0 + ε2 x0 x1 + ε3 x0 x2 + 1 + o(ε3 )
dt 2 2

circostanza, questa, che in questo esempio permette la risoluzione analitica dell’intera (1.20). È questo un caso
assai raro, che sarà di grande utilità per meglio interpretare alcuni dei metodi perturbativi che verranno usati per
correggere il metodo diretto.
Si cominci con quest’ultimo metodo. Servendosi della (1.21) il primo membro della (1.20) vale (all’ordine ε3 ):
) * ) *
d x20 d 0 1 d x2
t(ẋ0 + εẋ1 + ε2 ẋ2 + ε3 ẋ3 ) + (x0 + εx1 + ε2 x2 + ε3 x3 ) + ε + ε2 x0 x1 + ε3 x0 x2 + 1
dt 2 dt dt 2

M. Lo Schiavo
6.1. Gli sviluppi asintotici 325

Il problema imperturbato consiste nel (


tẋ0 + x0 = 1
Problema P 0:
x0 (1) = 2
da cui:
1 1 1 − x0 1 1
dx0 = dt e quindi = che dà: x0 (t) = 1 + ;
1 − x0 t 1−2 t t
d
più velocemente, si può notare che l’equazione fornisce (tx0 − t) = 0 .
dt
Ne segue il problema: ⎧ ) *
⎨ tẋ1 + x1 = −x0 ẋ0 = − d 1 x2

Problema P 1 : dt 2 0

⎩ x (1) = 0
1
) *2
1 2 1 1
da cui tx1 + x0 = cost e quindi tx1 + 1+ = 2 , ovvero
2 2 t
) 0 *
1 1 12 1
x1 (t) = 4− 1+ = − 3 (1 − t)(1 + 3t) .
2t t 2t

Il successivo problema è il:



⎨ tẋ + x = −(x ẋ + ẋ x ) = − d (x x )
2 2 0 1 0 1 0 1
Problema P 2: dt

x2 (1) = 0 .

1
ovvero tx2 + cost = −x0 x1 da cui x2 = (1 − t2 )(1 + 3t).
2t5
Allo stesso modo, e data la
) * ) 2 *
10 12 ξ2 ξ12 ξ2
ξ0 + ξ1 ε + ξ2 ε2 + ξ3 ε3 ∼ 0 + ξ0 ξ1 ε + 2 3
+ ξ0 ξ2 ε + (ξ1 ξ2 + ξ0 ξ3 )ε + + ξ1 ξ3 ε4 + O(ε5 )
2 2 2 2

si trovano:
tx3 + cost = −(x0 x2 + x21 /2) , e tx4 + cost = −(x0 x3 + x1 x2 ) ;
e quindi
1 1
x3 (t) = − (1 − t)(1 + 3t)(5 + 10t + t2 ) e x4 (t) = (1 − t2 )(1 + 3t)(7 + 14t − 5t2 ) .
8t7 8t9
In definitiva, e sostituendovi queste ultime relazioni, risulta
2
1+t (1 − t)(1 + 3t) 2 (1 − t )(1 + 3t)
xdir (t) = −ε + ε + ε3 x3 (t) + ε4 x4 (t) + o(ε4 ).
t 2t3 2t5
Nella seguente figura la xdir è tracciata insieme alle varie correzioni per ε = 0.01 , ed alla soluzione esatta x
&(t).

14 (0) x0
12 (2) x 0 + " x1 + "2x 2
(4)
10 (4) x 0 + " x1 + "2x 2
() (2) + " 3x3 + "4x 4
8 *
(*) x
e(t)
(0)
6 (1) x 0 + " x1
4 (3) x 0 + " x1 + "2x 2 + " 3x 3
2 (1) (3)

0.2 0.4 0.6 0.8 1


Si può osservare che la rappresentazione trovata è uniforme per tempi lunghi, ma il procedimento ha introdotto (nel
campo e) nella soluzione un punto di singolarità: t = 0 che non appartiene al dominio iniziale né è presente nella

Note di Sistemi Dinamici


326 Capitolo 6. Alcuni Metodi Perturbativi

) *
d 1 2
soluzione esatta. Quest’ultima, come si è notato, si determina esplicitamente risolvendo la tx + εx − t = 0 ,
dt 2
ed è: a) *
2 ) *
t t 1+t
&(t, ε) = − +
x +2 +4 .
ε ε ε
Da questa si vede che la x &(t, ε) è del tutto regolare su [0, 1], è limitata (per ε ̸= 0 ), e diviene tanto più singolare
quanto più piccola è la ε . Il procedimento ha trasferito le singolarità della derivata ẋ, che si trovano sulla retta
t + εx = 0, alla “soluzione” stessa e all’interno della regione in esame, e cioè per t = 0 . Lo sviluppo diretto
fallisce per t ∼ 0 .
È opportuno d’altra parte riconoscere che in virtù della
/ ξ1 0 ξ2 ξ2 1 2 0 ξ13 ξ1 ξ2 ξ3 1 3
1 + ξ1 ε + ξ2 ε2 + ξ3 ε3 ∼ 1 + ε + − 1 + ε + − + ε + o(ε3 )
2 8 2 16 4 2
la soluzione esatta x&(t, ε) ammette il seguente sviluppo in serie rispetto alla ε e fintanto che la t rimane Os (1)
@ T A + ,
t 2ε 0 1 1 4ε2 t ε0 1 1 ε2 0 0 1 12 1
&(t, ε) =
x −1 + 1 + 1+ + 2 ∼ 1+ + 2 4− 1+
ε t t t ε t t 2t t

& ha sviluppo i cui primi termini coincidono


e quindi, a parte la richiesta che sia lecito dividere per t/ε, la x
esattamente con la xdir trovata sopra. Ci si aspetta, tuttavia, che questo sviluppo diventi sempre meno affidabile
man mano che la t si avvia ad assumere valori sempre più piccoli.
Opportune correzioni per questo esempio si hanno con i metodi di Lighthill, o del Matching, (si veda oltre). #

6.2 Metodi di Stiramento delle Coordinate


In questo paragrafo vengono esposti alcuni dei principali metodi con i quali si cerca, e spesso si riesce, a correggere gli
sviluppi asintotici ottenuti con il metodo perturbativo diretto quando questo dia luogo ad espansioni non uniformi.
I primi di natura locale, sono poi seguiti da due metodi che hanno proprietà globali.
Notazione. Nel seguito si userà la seguente notazione.
Per(T) := la famiglia delle funzioni periodiche rispetto a un periodo T ;
f ∈ Per(T) := la funzione f è periodica di periodo T ;
f ∈ AP := la funzione f è quasi-periodica (cfr. § IV.2).

Metodo di Lindstet
Si inizierà qui con una breve giustificazione del metodo di Lindstet, un metodo che ha particolare rilievo in problemi
per i quali ci si aspetta una soluzione periodica, o strettamente o approssimativamente, rispetto a un qualche periodo
T . Il periodo stesso può essere noto a priori o incognito, e in entrambi i casi può o meno dipendere dal parametro
asintotico ε . Per tali sistemi le soluzioni (periodiche o approssimativamente tali) sono generalmente descritte in
modo non corretto dal metodo perturbativo diretto, che fornisce per esse soluzioni approssimate contenenti termini
non uniformi rispetto a t, e cioè termini secolari. Un tipico esempio può essere il seguente:

ẍ + ω02 x = ε f (t, x, ẋ; ε) (2.22)

con la funzione f periodica di periodo T(ε) rispetto al tempo, o indipendente da esso, e quindi comunque f ∈
Per(T(ε)) per la variabile t; per quanto riguarda le altre variabili, la funzione f si intenderà regolare quanto basta.
N.B. 6.2.1 In via del tutto preventiva, è conveniente notare che una E.D.O. lineare del tipo ẍ + a ẋ + b x = 0
può essere convenientemente trasformata in una che, sebbene ad essa equivalente, non contiene il termine di
smorzamento (quello proporzionale alla derivata prima). Inoltre, se il secondo coefficiente: a è piccolo rispetto al
terzo: b , l’equazione equivalente ha carattere oscillatorio o iperbolico a seconda del segno del solo coefficiente b .
Si osserva infatti che
(
l’equazione ẍ + a ẋ + b x = 0
at/2
diviene: e−at/2 (z̈ + c z) = 0 .
con: z(t) := e x(t) , c := b − a2 /4 ♦

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 327

N.B. 6.2.2 Sia φ(t, ε) una funzione regolare ed in Per(T) per ogni ε ∈ (0, ε+ ], con T indipendente dalla ε . Un
qualsiasi troncamento del suo sviluppo di Taylor (rispetto alla ε ) è anche uno sviluppo asintotico uniforme rispetto
alla t. Il metodo di Lindstet vuole servirsi di questa particolarità anche nel caso di periodi T = T(ε). A tale scopo,
ed in questo caso, il metodo propone una trasformazione della coordinata (indipendente):

τ = τ (t) := ω(ε) t con ω(ε) := 2π/T(ε)

mediante la quale si trasforma l’assegnata funzione φ nella ψ data da: ψ(τ, ε) := φ(τ /ω, ε). In tal modo
risulta
φ(t, ε) ∈ Per(T(ε)) ⇐⇒ ψ(τ, ε) ∈ Per(2π) ,
infatti:
τ (t) + 2π = ω t + 2π = (t + T)ω = τ (t + T) e quindi
φ(τ (t)/ω) = φ(τ (t + T)/ω) = ψ(τ + 2π) .
Ciò comporta che se uno sviluppo della funzione φ(t, ε) esiste (troncato a qualche k ) della forma:

Sviluppo di Lindstet φ(t, ε) ∼ ! (t), ε) := ψ0 (ω t) + ε ψ1 (ω t) + . . . + εk ψ(ω t) .


= ψ(τ

Il fatto che la φ sia in Per(T(ε)) implica che tale sviluppo, pur non essendo uno sviluppo ordinario e cioè pur
avendo le funzioni ψk ancora dipendenti dal parametro asintotico ε , eppure risulta uno sviluppo (generalizzato)
uniforme rispetto alla τ (data la 2π -periodicità della ψ ) e quindi rispetto alla t. In più, e ancora per il fatto che
2π non dipende da ε , si conclude anche che ciascuna delle funzioni ψk (τ ) è in Per(2π). È chiaro però che la
pulsazione ω deve essere “esatta”, e cioè esattamente uguale alla pulsazione della funzione φ. ♦

Quando si voglia usare lo sviluppo di Lindstet in un problema del quale si ignori (insieme alla soluzione esatta
del problema anche) l’esatta pulsazione, il precedente N.B. può essere ancora di aiuto. Infatti, occorrendo ora
approssimare anche la pulsazione ω mediante la ω ! (ε) := ω0 + ε ω1 + ε2 ω2 + ... + εk ωk , in generale diversa dalla
esatta ω del problema, si conclude che la differenza fra la soluzione esatta x & e quella approssimata x ! non rimane
costante ma cresce, a partire dall’istante t0 = 0 , secondo la funzione lineare τ = ω t. Tuttavia ciò accade solo
all’interno dell’intervallo di periodicità, se questo esiste. D’altra parte, l’assunta regolarità della soluzione (anche
approssimata) ed il teorema di Taylor assicurano che
' '
! ''
'∂ x
esistono ℓ := max ' ' e una costante c0 > 0
τ ∈[0,2π] ∂ τ '
ε∈(0,ε+ ]

tali che |!
x(ω t) − x ω t)| < c0 ℓ εk+2 |t| .
!(!

Pertanto, se si usa la x ! (all’ordine k ) come sviluppo di una x


&(t, ε) che sia regolare e periodica di periodo T(ε),
l’errore su di essa sarà valutato da

|&
x(ω t) − x ω t)| < c1 εk+1 + c0 ℓ εk+2 |t| ≤ (c1 + c0 ℓ L)εk+1 ,
!(!

purché i tempi nei quali si osserva tale errore siano tali che |t| ≤ L/ε, e cioè siano all’interno di un Intervallo
espansivo di ordine O(1/ε). In altre parole, quando la pulsazione della soluzione approssimata è diversa da
quella della soluzione esatta, l’uniformità è assicurata, ma soltanto per tempi O(1/ε).

In definitiva il metodo di Lindstet consiste nei seguenti punti.

• Si riscala la variabile indipendente t mediante una funzione lineare τ := ωt per la quale si assume valido
uno sviluppo asintotico; di questo vanno determinati i vari termini

ω := ω0 + εω1 + ε2 ω2 + . . . , con ωi = cost, i = 0, 1, . . . . (2.23)

All’ordine 2 si ha ) *
7 8 ω1 2 ω2
τ = τ (t) = ω0 + εω1 + ε2 ω2 t = 1+ε +ε ω0 t . (2.24)
ω0 ω0
• Considerata la variabile τ come indipendente, si ricavano le corrispondenti relazioni fra gli operatori di
derivazione. Per esempio, con ∂t := d/dt, ed ∂τ := d/dτ , etc., si ricavano (all’ordine 2)
7 8
∂t = ω ∂τ = ω0 + εω1 + ε2 ω2 ∂τ ,
K 7 8L (2.25)
∂t2 = ω 2 ∂τ2 = ω02 + 2εω0 ω1 + ε2 2ω0 ω2 + ω12 ∂τ2 ,

Note di Sistemi Dinamici


328 Capitolo 6. Alcuni Metodi Perturbativi

e quindi

ẋ = (ω0 + ε ω1 + ε2 ω2 ) ∂τ (X0 + ε X1 + ε2 X2 )
= ω0 X0′ + ε(ω0 X1′ + ω1 X0′ ) + ε2 (ω2 X0′ + ω1 X1′ + ω0 X2′ )
7 8
ẍ = ω02 + 2ε ω0 ω1 + ε2 (2ω0 ω1 + ω12 ) ∂τ2 (X0 + ε X1 + ε2 X2 )
7 8 7 8
= ω02 X0′′ + ε 2ω0 ω1 X0′′ + ω02 X1′′ + ε2 2ω0 ω2 X0′′ + ω12 X0′′ + 2ω0 ω1 X1′′ + ω02 X2′′

con le condizioni ausiliarie


X0 (0) + ε X1 (0) + ε2 X2 (0) = α ,
ω0 X0′ (0) + ε (ω0 X1′ (0) + ω1 X0′ (0)) + ε2 (ω2 X0′ (0) + ω1 X1′ (0) + ω0 X2′ (0)) = 0 .

• A partire dal problema iniziale si scrive il conseguente problema nella variabile τ , e su quest’ultimo problema
si applica il metodo perturbativo diretto:

x (t(τ )) =: X(τ ) ∼ X0 (τ ) + εX1 (τ ) + ε2 X2 (τ ) + . . . .

• Si esprime la funzione X(τ ) cosı̀ determinata nuovamente mediante la variabile iniziale t servendosi della

x(t) ∼
= X0 (τ (t)) + ε X1 (τ (t)) + . . .

• Se la x si suppone in Per(2π/ω) allora ciascuna delle Xk (τ ) va cercata in Per(2π). In particolare ciò


specifica il valore di ω0 in quello della pulsazione del problema imperturbato P 0 , che deve esistere ed essere
periodico altrimenti non è sostenibile l’assunto (2.23); inoltre, la stessa ipotesi indica per i termini ωk i valori
che rendono nulli gli eventuali termini secolari introdotti dal procedimento “diretto”.
• In definitiva, si usano le τ := ω(ε) t, ed α(ε) = α0 + ε α1 per trasformare la (2.22) (nella quale per brevità
si supponga f = f (x, ẋ)):
( (
ẍ + ω02 x = ε f (x, ẋ) ω 2 X ′′ + ω02 x = ε f (X, ω X ′ )
nella:
x(0) = α , ẋ(0) = 0 X(0) = α , ω x′ (0) = 0

e da questa ottenere la successione di problemi:


(
ω02 (X0′′ + X0 ) = 0
Problema P 0: (2.26a)
X0 (0) = α , ω0 X0′ (0) = 0

(
ω02 (X1′′ + X1 ) = f (X0 , ω0 X0′ ) − 2ω0 ω1 X0′′
Problema P 1: (2.26b)
X1 (0) = 0 , ω0 X1′ (0) + ω1 X0′ (0) = 0

⎧ 2 ′′ ′ ′ ′ ′
⎨ ω0 (X2 + X2 ) = ∂X f (X0 , ω0 X0 ) X1 + ∂ωX ′ f (X0 , ω0 X0 ) (ω0 X1 + ω1 X0 )

Problema P 2 : − 2ω0 ω2 X0′′ − ω12 X0′′ − 2ω0 ω1 X1′′ (2.26c)


X2 (0) = 0 , ω2 X0′ (0) + ω1 X1′ (0) + ω0 X2′ (0) = 0

nelle quali ci si è serviti dello sviluppo (con tutte le derivate calcolate in (X0 , ω0 X0′ )):
' 0 1
'
f (y, z) ' y=X ∼ = f X0 + ε X1 + ε2 X2 , ω0 X0′ + ε(ω0 X1′ + ω1 X0′ ) + ε2 (ω2 X0′ + ω1 X1′ + ω0 X2′ )
z=ωX ′

= f (X0 , ω0 X0′ ) + fy X1 + ε [fz (ω0 X1′ + ω1 X0′ )]
+ ε2 [fyy X2 + fzz (ω2 X0′ + ω1 X1′ + ω0 X2′ ) + fyz X1 (ω0 X1′ + ω1 X0′ )] .

Esempio 6.2.3 (continuazione dell’Esempio 6.1.32)

ẍ + 2 ε ω0 ẋ + ω02 x = 0 , con x(0) = 0 , ẋ(0) = 1 .

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 329

Con il metodo di Lindstet si pone τ = (ω0 + εω1 + . . .)t, e all’ordine due si ricava
K 2 7 8L
ω0 + 2εω0 ω1 + ε2 2ω0 ω2 + ω12 (∂τ2 X0 + ε∂τ2 X1 + ε2 ∂τ2 X2 ) +
+2(ω0 + εω1 + ε2 ω2 ) ω0 ε (∂τ X0 + ε∂τ X1 + ε2 ∂τ X2 ) + ω02 (X0 + εX1 + ε2 X2 ) =0
da cui ⎧ 2 2

⎪ ω0 (∂τ X0 + X0 ) = 0


⎨ ω 2 (∂ 2 X + X ) = − 2ω ω ∂ 2 X − 2ω 2 ∂ X
0 τ 1 1 0 1 τ 0 0 τ 0
(2.27)
⎪ ω 2
(∂
⎪ 0 τ 2 2
X + X ) = − 2ω ω ∂ 2
X − ω 2 2 2
1 ∂τ X0 − 2ω0 ω1 ∂τ X1


2 0 2 τ 0

− 2ω0 (ω0 ∂τ X1 + ω1 ∂τ X0 ) .
consistenti con le (2.26) visto che in questo esempio

f (y, z) ≡ −2ω0 z e quindi ε f (X, ωX ′ ) ∼


= 0 − 2εω02 X0′ − 2ε2 ω0 (ω0 X1′ + ω1 X0′ ) .
Ne segue X0 (τ ) = r0 cos (τ + ϕ0 ) e quindi
ω1
∂τ2 X1 + X1 = 2 r0 cos (τ + ϕ0 ) + 2 r0 sin (τ + ϕ0 ) .
ω0
Per non avere disuniformità bisogna ora evitare le risonanze, ma la cosa può non riuscire in modo semplice: in
questo esempio non basta scegliere ω1 = 0 giacché i termini risonanti sono troppi e l’unica possibilità è la soluzione
banale r0 = 0 . #

N.B. 6.2.4 Malgrado quanto appena visto sembri mostrare una scarsa utilità del metodo, è giusto notare che in
questo particolare esempio proprio il metodo di Lindstet avrebbe potuto dare un’ottima stima del risultato, e ciò
trasferendo tutto nel piano complesso.
Quando si cercano soluzioni periodiche infatti, se si ricorre a frequenze complesse (e quindi a correzioni che
possiedano ampiezze e fasi) si riesce spesso ad evitare termini non uniformi e a produrre un’ampiezza dipendente
dalla t. Va detto che tali adattamenti o funzionano bene o non funzionano affatto.
Nel caso in esame si pone X0 (τ ) = ℜe (Z0 (τ )) con Z0 (τ ) := α eiτ ed α ∈ C. Per trovare le opportune
condizioni iniziali da imporre sulla funzione Z0 occorre ripartire dalle x(0) = 0 ed ẋ(0) = 1 . Dato che t = 0
implica τ = 0 , e che ∂t = ω ∂τ , per la Z(τ ) le (2.25) forniscono le
K L
ℜe [Z(0)] = 0, e ℜe (ω0 + εω1 + ε2 ω2 + . . .)∂τ Z(0) = 1 .

All’ordine zero, e ponendo Z0 (0) ≡ α =: r0 eiϕ0 con r0 , ϕ70 ∈ R, dalla prima di queste
8 si può ricavare ϕ0 = ±π/2
e cioè α = ±i r0 ; ma allora dalla seconda risulta ∓ℜe ω0 + ε ω1 + ε2 ω2 + . . . r0 = 1 . Questa condizione non
basta a determinare una ω non banale, e quindi per calcolare i coefficienti dell’espansione asintotica della ω è
necessario proseguire nell’esame dei problemi agli ordini maggiori.
Di nuovo con Z0 = αeiτ , dalla seconda delle (2.27) si ricava, all’ordine uno,
7 8 7 8
ω02 ∂τ2 Z1 + Z1 = 2 ω0 ω1 − i ω02 α eiτ , con Z1 (τ ), ω0 , ω1 , α ∈ C .

Se allora si pone ω1 = i ω0 , si può assumere Z1 (τ ) = 0 e ottenere dalla terza delle (2.27) il semplice problema al
secondo ordine 7 8
∂τ2 Z2 + Z2 = 2ω0−1 ω2 − 1 + 2 α eiτ ,
che fornisce soluzioni non risonanti (e quindi τ -uniformi) purché si scelga ω2 = −ω0 /2 .
7 8
In definitiva τ = 1 + iε − ε2 /2 ω0 t e di conseguenza dalla α = ±i r0 si ricava
⎧ 0 1 0 1
⎨ x(t) = ℜe αei(1+iε−ε2 /2)ω0 t = e−εω0 t ℜe ±i r0 ei(1−ε2 /2)ω0 t
⎩ 77 8 8
= ∓r0 e−εω0 t sin 1 − ε2 /2 ω0 t ; con r0 = r0 (ε) ∈ R .

Le condizioni iniziali forniscono quindi ∓(1 − ε2 /2)r0 = 1 da cui r0 = (1 + ε2 /2). ♦

Questo esempio mostra che quando i metodi di stiramento delle coordinate funzionano, allora il loro risultato è
molto buono: si è trovata l’esatta dipendenza dal tempo (al secondo ordine in ε ) sia dell’ampiezza che della parte
oscillatoria. Purtroppo però questo non è facilmente prevedibile a priori e quindi conviene ricorrere comunque ad
altri metodi, se non altro che per controllo.
In ogni modo, per avere ulteriori informazioni su come affrontare il problema nel caso generale accennato nella
(2.22) è suggeribile la seguente strategia.

Note di Sistemi Dinamici


330 Capitolo 6. Alcuni Metodi Perturbativi

La “Determining Equation”
Passo 1. Si introducono opportune coordinate di fase che trasformino il problema in uno equivalente, del primo
ordine. Per l’equazione (2.22) opportune coordinate sono (u, v) tali che u ≡ x e

⎨ u̇ = ω0 v
ε (2.28)
⎩ v̇ = − ω0 u + f (u, ω0 v)
ω0
Ad esempio per l’oscillatore lineare la f si specializza nella fosc. = −2ω0 ẋ ≡ −2ω02 v e la seconda delle (2.28)
lin.
fornisce la nota ẏ = ω0 v̇ = −ω02 x − 2ε ω0 y .
Il problema imperturbato P 0 della (2.28) mostra chiaramente l’esistenza di un punto di equilibrio nell’origine:
(xe , 0) ≡ (0, 0), circondato da tutta un’infinità di traiettorie chiuse (e quindi periodiche).
Passo 2. Si introducono opportune coordinate “azione-angolo” che possano mettere in luce l’eventuale esistenza
di cicli, o di moti periodici, che in via asintotica si avvicinano a quelli del P 0 . In questo esempio le opportune
coordinate sono (r, θ) tali che (
u = r cos θ
v = r sin θ
Passo 3. Mediante le coordinate (r, θ) il problema (2.28) si trasforma in uno ad esso ancora equivalente dato da
⎧ ε

⎨ ṙ = f (r cos θ, ω0 r sin θ) sin θ
ω0
ε (2.29)

⎩ θ̇ = − ω0 + f (r cos θ, ω0 r sin θ) cos θ
ω0 r
Il problema imperturbato P 0′ del (2.29) mostra ancora chiaramente l’esistenza di un’infinità di traiettorie (r =
cost, θ = −ω0 t) che risultano “periodiche” nella varietà del toro unidimensionale (e cioè per identificazione dei
valori di θ “modulo 2π ”).
Passo 4. Per risolvere tale difficoltà, si deduce dal problema (2.29) un’equazione, solo conseguenza della (2.29) e
non ad essa equivalente, servendosi del fatto che, per ipotesi, è possibile di eliminare la variabile t dall’equazione
(2.29). Infatti si è assunto che la funzione f non dipende dalla t, e per ε convenientemente piccoli la θ(t) è
senz’altro invertibile in virtù della: θ(t) ∼ − ω0 t. La citata equazione si calcola sostituendo d/dt con −ω0 d/dθ
nella prima delle (2.29), ottenendo:
dr ε
= − 2 f (r cos θ, ω0 r sin θ) sin θ + O(ε2 ) (2.30)
dθ ω0
Passo 5. Il teorema della funzione implicita assicura che per ε ̸= 0 , purché convenientemente piccolo, anche il
sistema (2.28) ammette un punto di equilibrio vicino all’origine. Inoltre, siccome θ̇(ε = 0) è ben diverso da zero,
anche le traiettorie con dati iniziali (u(0), v(0)) = (α, 0) ed α piccolo, si avvolgono (per θ decrescenti) almeno
una volta intorno a tale equilibrio. Esiste cioè una funzione (regolare) Φ(α, ε) della α = r(θ = 0) che individua il
valore della r(θ = −2π, ε), ed è certo tale che α = Φ(α, 0). In particolare, se per qualche α0 = r(0) accade che
anche r(−2π) = α0 (almeno al primo ordine) allora essa individua una traiettoria r(θ, ε) ∼ cost per il sistema
(2.29) che per ε → 0 si avvicina alla sua corrispondente r(θ, 0) = α0 del problema imperturbato.
In altre parole, si assume di poter sviluppare la r(θ) soluzione della (2.30) a partire dalla condizione iniziale
r(0) = α in modo che (almeno al primo ordine) la sua approssimazione asintotica sia costante quando lo è quella
all’ordine zero. Dalla (2.30) e con la posizione r(θ) ∼ r0 (θ) + ε r1 (θ) + ... , si ottiene innanzi tutto la
r0 (0) = α = r0 (θ) , e (2.31a)
d r1 1
= − 2 f (α cos θ, ω0 α sin θ) sin θ (2.31b)
dθ ω0
Passo 6. Si usa poi la (2.31b) (il cui secondo membro non dipende dalla ε ) e la 2π -periodicità della funzione f
(che per ipotesi non dipende da t) per concludere che
- 2π
1 F (α)
r1 (−2π) = 2 f (α cos θ, ω0 α sin θ) sin θ dθ =:
ω0 0 ω02
Passo 7. La prima intersezione dell’orbita (u(t), v(t)) uscente dalle condizioni iniziali (α, 0) con l’asse v = 0
risulta ben approssimata già al primo ordine dalla cosiddetta Mappa di primo ritorno o
Mappa di Poincarè !
Φ(α, ε) := α + ε r1 (−2π) ,
e sono significative le seguenti osservazioni.

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 331

• L’equazione F (α) = 0 , e cioè la Φ(α, ε) = α , individua le condizioni iniziali α0 sulla retta r(θ = 0)
per le quali anche la variata ha soluzione r ∼ cost. Essa prende il nome di
- 2π
Determining Equation F (α) = 0 = f (α cos θ, ω0 α sin θ) sin θ dθ . (2.32)
0

• La condizione
F (α0 ) = 0 insieme con F ′ (α0 ) ̸= 0
individua una soluzione semplice (non molteplice) della F (α) = 0 , e corrisponde a condizioni iniziali per le
quali la soluzione è del tipo r ∼ cost ed è isolata. Essa prende il nome di ciclo limite della (2.28). Il segno
della derivata F ′ (α0 ) dà inoltre informazioni sulla stabilità del ciclo stesso.
• Per ogni α0 soluzione semplice (non molteplice, positiva) della F (α) = 0 esiste α = α(ε) tale che
limε→0 α(ε) = α0 e che per ε piccoli la traiettoria (u(t), v(t)) uscente da (u(0), v(0)) = (α(ε), 0) è pe-
riodica con periodo T(ε) regolare e tale che limε→0 T(ε) = T(0) ≡ 2π/ω0 . Ciò implica che anche in questo
caso lo sviluppo di Lindstet sussiste, uniforme in intervalli O(1/ε).
• Dei problemi ricorsivi (2.26) relativi allo sviluppo di Lindstet vanno cercate le soluzioni 2π -periodiche rispetto
alla variabile τ , cosa possibile se α0 è soluzione semplice della (2.32).

Nel caso dell’oscillatore lineare: ẍ + 2εẋ + x = 0 visto nell’Esempio 6.1.32, la funzione f = f (x, ẋ) si specializza
nella: fosc. (x, ẋ) = −2ω0 ẋ ≡ −2ω02 v ; pertanto la determining equation risulta:
lin.
- 2π - 2π
F (α) = f (α cos θ, ω0 α sin θ) sin θ dθ = 2α ω02 sin2 θ dθ ,
0 0

che si annulla se e solo se α = 0 . In altre parole, l’oscillatore smorzato non ha soluzioni periodiche diverse dalla
soluzione costante. Diverso è il caso seguente.

Esempio 6.2.5 Si consideri la

equazione di Van Der Pol ẍ + ω02 x = ε ω0 (1 − x2 ) ẋ (2.33)

e cioè la f dell’Eq. (2.22) si specializza per l’equazione di Van der Pol nella fV dP (x, ẋ) = ω0 (1 − x2 )ẋ .
È chiaro che la soluzione del problema P 0 è oscillatoria, pertanto ci si aspetta che, per ε convenientemente
piccoli lo sia anche quella del problema (2.33). Tuttavia, il termine di smorzamento cambia segno (non solo con
la ẋ stessa come nell’esempio 6.1.32, ma anche) con la |x| quando questa transita per 1 , ed anzi nell’intorno del
punto (x = 0, ẋ = 0) il segno è l’opposto di quello della 6.1.32. Pertanto è possibile, ma non cosı̀ evidente, che vi
sia una qualche oscillazione autonoma (e cioè non forzata).
Su di essa si agisce con le posizioni introdotte nella (2.25):

t = (ω0 + εω1 ) τ , e x (t(τ )) =: X(τ ) ∼ X0 (τ ) + εX1 (τ )

che forniscono 7 8
∂t = (ω0 + εω1 ) ∂τ , e ∂t2 = ω02 + 2ε ω0 ω1 ∂τ2 .
e quindi ⎧ ′ ′ ′
⎨ ẋ = (ω0 + εω1 ) ∂τ (X0 + ε X1 ) = ω0 X0 + ε(ω0 X71 + ω1 X0 )

8
ẍ = (ω02 + 2ε ω0 ω1 ) ∂τ2 (X0 + ε X1 ) = ω02 X0′′ + ε 2ω0 ω1 X0′′ + ω02 X1′′


X0 (0) + εX1 (0) = α , X0′ (0) + εX1′ (0) = 0 .
Il problema P 0 assegna X0 (τ ) = α cos(τ ) e quindi il problema P 1

ω02 X1′′ + ω02 X1 = −2 ω0 ω1 X0′′ + (1 − X02 )ω02 X0′

diviene ⎧
⎨ X1′′ + X1 = 2 ω1 α cos τ − α (1 − α2 cos2 τ ) sin τ ,
ω0

X1 (0) = 0 , X1′ (0) = 0 .

Note di Sistemi Dinamici


332 Capitolo 6. Alcuni Metodi Perturbativi

La sua soluzione è:


α N 0 ω1 1 O
X1 (τ ) = − 2 (α2 − 4) τ cos(τ ) + 8 − α2 (3 − cos(2τ )) − 16 τ sin(τ )
16 ω0

e mostra che (α ̸= 0 ) esiste un termine secolare:


ω1
secol(τ ; α, ω1 ) := 2 (α2 − 4) τ cos(τ ) − 16 τ sin(τ ) .
ω0

D’altra parte, la determining equation vale:


- 2π ) *
α2
F (α) = α ω02 (1 − α2 cos2 θ) sin2 θ dθ = α π ω02 1−
0 4

e quindi si annulla per α = 2 . Inoltre, in tale valore, la F ′ (α = 2) è negativa. √


Se ne conclude l’esistenza di un ciclo limite attrattivo tanto più vicino alla circonferenza x2 + ẋ2 = 2 quanto
più ε è vicino a 0 . Si osserva inoltre che per α = 2 il termine secolare secol(τ ; α = 2, ω1 ) si annulla solo se
ω1 = 0 , e cioè se l’approssimazione (all’ordine uno) costruita con il metodo di Lindstet (e per α = 2 ) coincide con
quella del metodo perturbativo diretto il quale, si osservi, in questo esempio e per α = 2 non contiene termini
secolari.
Le due seguenti figure mostrano il ciclo limite dell’equazione (2.33), costruito numericamente e con la soluzione
trovata qui sopra, in corrispondenza ai due valori ε = .1 e ε = 0 . Nel grafico di sinistra i due cicli sono praticamente
indistinguibili, e la curva tracciata a tratti è, per confronto, la circonferenza di raggio 2 ; in quello di destra invece
i due cicli sono sensibilmente diversi.

2 2

1 1

-2 -1 1 2 -2 -1 1 2
-1 -1

-2 -2

" = 0:1 " = 1: 0


#

Metodo di Rinormalizzazione
Si procede inizialmente come nel metodo di Lindstet, ma non si applica il perturbativo diretto sulla (assunta)
funzione x(t(τ )); si ricava invece lo sviluppo x(τ ) direttamente a partire dallo sviluppo (non uniforme) xdir (t) =
x0 (t) + εx1 (t) + . . . trovato con il metodo perturbativo diretto nel problema iniziale, e sostituendo in tale sviluppo
l’espressione inversa della (2.24)
) *−1
1 1 ω1 2 ω2
t = τ ∼ 1+ε +ε τ
ω ω0 ω0 ω0
) ) 2 * *
ω1 ω1 ω2 2 τ
∼ 1− ε+ − ε − . . . .
ω0 ω02 ω0 ω0

Infatti, data la forma presunta per la ω , si possono usare i seguenti sviluppi validi (all’ordine due) per ξ ≪ 1

(1 + aξ + bξ 2 )−1 ∼ 1 − aξ + (a2 − b)ξ 2 , (2.34a)


2 −2 2 2
(1 + aξ + bξ ) ∼ 1 − 2aξ + (3a − 2b)ξ . (2.34b)

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 333

Alla base di questo metodo (e, in seguito, di altri simili) c’è la seguente idea. La scelta dei coefficienti ωn introdotti
dal procedimento va fatta seguendo la:
Regola di Lighthill: rendere ciascun termine dello sviluppo non più singolare del precedente.
Non è difficile rendersi conto che entrambi i metodi di Lindstet e di Rinormalizzazione, che suppongono τ = 0
quando t = 0 , sono inefficaci nel caso dell’equazione di Lighthill. Un’applicazione del metodo di rinormalizzazione
può essere vista nel prossimo § 3. Qui, invece, è preferibile estendere il procedimento dello stiramento delle coordinate
introducendo metodi sempre più potenti, in quanto sempre più elaborati, il primo dei quali è il seguente.

Metodo di Lighthill
Si riscala la variabile indipendente t mediante uno sviluppo in funzioni non necessariamente lineari e da determi-
narsi, di una nuova variabile τ :

t = t(τ ) ∼
= τ + εt1 (τ ) + ε2 t2 (τ ) + . . . con ti = ti (τ ) regolari, i = 1, 2, . . . . (2.35)

Poi, a partire dal problema iniziale si scrive il conseguente problema nella variabile τ, e su quest’ultimo problema
(come nel caso di Lindstet) si applica il metodo perturbativo diretto:

x (t(τ )) =: X(τ ) ∼ X0 (τ ) + εX1 (τ ) + ε2 X2 (τ ) + . . . . (2.36)

Le espressioni trovate sopra:


+ ) *,
ω1 ω12 ω2 τ K L
t ∼
= 1−ε + ε2 2 − =: ν0 + ε ν1 + ε2 ν2 τ
ω0 ω0 ω0 ω0

mostrano che il metodo di Lindstet è in realtà un caso particolare del metodo di Lighthill.
Considerata la variabile τ come indipendente, e con t′ = t′ (τ ) = ∂τ t = (1 + ε t′1 + ε2 t′2 + . . .), si ricavano le
relazioni ) *2 ) *
1 1 1 1 1 t′′
∂t = ′ ∂τ ∂t2 = ′
∂ 2
τ + ′
∂ τ ′
∂τ = ′ 2 ∂τ2 − ′ 3 ∂τ .
t t t t (t ) (t )
Queste, mediante le (2.34a), si possono specializzare (al secondo ordine) nelle
1 2
∂t = ∂τ ∼ (1 − ε t′1 + (t′1 − t′2 )ε2 )∂τ ,
(1 + ε t′1 + ε2 t′2 )
+ ,
2 1 2 (ε t′′1 + ε2 t′′2 ) (2.37)
∂t = ∂τ − ∂τ
(1 + ε t′1 + ε2 t′2 )2 (1 + ε t′1 + ε2 t′2 )
0 1N N O O
2
∼ 1 − 2ε t′1 + ε2 (3t′1 − 2t′2 ) ∂τ2 − εt′′1 + ε2 (t′′2 − 2t′1 t′′1 ) ∂τ .

Servendosi di queste espressioni si ricavano (qui all’ordine uno) le relazioni


dx
∼ (1 − ε t′1 ) (X0′ + εX1′ )
dt
d2 x N O
2
∼ (1 − 2ε t′1 ) (X0′′ + ε X1′′ ) − εt′′1 (X0′ + ε X1′ )
dt
ovvero, più specificamente, le trasformazioni
dx 0 1
∼ X0′ + ε X1′ − t′1 X0′
dt
d2 x 0 1
2
∼ X0′′ + ε X1′′ − t′′1 X0′ − 2t′1 X0′′ .
dt
Queste vanno usate per determinare non solo le x1 , x2 , . . . ma anche le funzioni t1 , t2 , . . .. Come si è già accennato,
nel metodo di Lighthill, come negli altri metodi di stiramento delle coordinate, l’idea guida è quella di scegliere
i parametri ω1 , ω2 , . . ., e qui le funzioni t1 (τ ), t2 (τ ), . . . introdotte dal metodo, in modo tale da rendere
uniforme lo sviluppo ottenuto. Ove questo non fosse possibile, le scelta vanno operate in modo da seguire la regola
di Lighthill.
Ultimato il procedimento, e servendosi delle inverse delle (2.35) e delle (2.36), si esprime la funzione x(t(τ ))
nuovamente mediante la variabile iniziale t.

Note di Sistemi Dinamici


334 Capitolo 6. Alcuni Metodi Perturbativi

Esempio 6.2.6 (continuazione dell’Esempio 6.1.35)


(
(t + εx)ẋ + x = 1
x(1) = 2, t ∈ [0, 1] .

Si provi con il Metodo di Lighthill: t = τ + εt1 (τ ) + . . . , e quindi (si veda la (2.34b))


1
∂t = ∂τ , e x(t(τ )) = X0 (τ ) + εX1 (τ ) + ε2 X2 (τ ) + . . . .
1 + εt′1
Sostituendole nella (6.2.6) si ottiene (all’ordine uno)
(
(τ + εt1 + εX0 )(∂τ X0 + ε∂τ X1 ) + (1 + εt′1 )(X0 + εX1 ) = (1 + εt′1 )
(2.38)
X0 (τ ∗ ) + εX1 (τ ∗ ) + . . . = 2 ,

ove τ ∗ è un qualche valore tale che t(τ ∗ ) = τ ∗ + εt1 (τ ∗ ) + . . . = 1 .


∗ ∼ ∗
Si assuma anche per il punto τ ∗ uno ∗ ∗
( sviluppo asintotico: τ = τ0 + ετ1 + . . .. Dalla definizione di τ si ottiene
τ0∗ = 1
τ0∗ + ετ1∗ + εt1 (τ0∗ ) = 1 , da cui e quindi τ ∗ = 1 − εt1 (1) con t1 (1) ancora da determinare.
τ1∗ = −t1 (1)
Si sostituisce comunque questa espressione nella seconda delle (2.38), e si ricava

2 = X0 (1 − εt1 (1)) + εX1 (1 − εt1 (1)) ∼ X0 (1) − ε (t1 (1)∂τ X0 (1) − X1 (1)) , (2.39)

dalla quale si inducono delle possibili condizioni iniziali sulla X(τ ), e cioè:

X0 (1) = 2 e X1 (1) = t1 (1)∂τ X0 (1) .

D’altra parte si è visto che il metodo diretto è non singolare all’istante iniziale t = 1, e che invece singolarità si
manifestano per t piccoli; ciò comporta che non è necessario stirare la coordinata t vicino al valore 1 e che quindi
non lede la generalità assumere t1 (1) = 0 e ottenere τ ∗ = 1 . Ciò finalmente assegna le necessarie condizioni
iniziali sulle X0 e X1 ; esse vengono fornite dalla (2.39) e sono: X0 (1) = 2 , X1 (1) = 0 . È opportuno notare a
questo punto che, qualora si fosse adoperato il metodo di Lindstet con t = (ν0 + εν1 )τ invece della (2.35), questo
ragionamento avrebbe portato alla scelta t1 (1) ≡ ν1 = 0 , la quale però avrebbe banalizzato il problema.
A partire dalla (2.38) si calcola il problema all’ordine zero per la X(τ ); esso è

τ ∂τ X 0 + X 0 = 1 1+τ
e dà X0 (τ ) = .
X0 (1) = 2 τ

Ancora dalle (2.38) segue quello all’ordine uno, con X1 (1) = 0 come condizioni iniziali,
) *
1 1 t′1
τ ∂τ X1 + X1 = − (t1 + X0 ) ∂τ X0 + (1 − X0 )t′1 = t1 + 1 + − . (2.40)
τ τ2 τ
Se fosse t1 (τ ) ≡ 0 si avrebbe il Metodo Diretto già visto, che dà una singolarità del terzo ordine. Per evitarlo
si può seguire la regola di Lighthill, che qui consiglia di scegliere t1 (τ ) in modo da annullare il secondo membro:
cosı̀ la X1 sarà singolare quanto la X0 e non di più.
Annullare il secondo membro significa imporre l’equazione differenziale
) * ) *
1 1 1 ′ 1 1 1
2
t 1 + 1 + = t 1 equivalente a ∂ τ t 1 = 2+ 3
τ τ τ τ τ τ
e quindi - ) *
τ
1 1 1 1
t1 (τ ) + cost = 2
+ 3 ds da cui t1 (τ ) = cτ − 1 − .
τ s s 2τ
Per la scelta fatta t1 (1) = 0 . Ne seguono

3 3τ 2 − 2τ − 1 3τ 2 − 2τ − 1
c= ; t1 (τ ) = ; t = t(τ ) = τ + ε . (2.41)
2 2τ 2τ
A sua volta, avendo annullato il secondo membro della (2.40), per la X1 si ha
c1
τ ∂τ X1 + X1 = 0 da cui X1 (τ ) = ,
τ

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 335

e la X1 (1) = 0 fa dedurre c1 = 0 . Ne risulta infine


1
xLig (t) = X(t(τ )) = 1 + + O(ε2 ) , (2.42)
τ (t)

da calcolare, ora, sulla τ = τ (t) inversa della t = t(τ ) trovata nella (2.41).
Si risolve quindi la (2 + 3ε)τ 2 − 2(ε + t)τ − ε = 0 ottenendo
1 0 / 1
τ (t) = t + ε + (t + ε)2 + ε(2 + 3ε) . (2.43)
2 + 3ε
A partire da questa, sembra corretto proseguire con la stessa logica di approssimazioni asintotiche che si è seguita
fin qui, e cioè: (con ξ := t + ε ) sostituire nella (2.42) lo sviluppo della (2.43)
@ A ) *
1 1 2 + 3ε 1 2 + 3ε
= / ∼
τ ξ 1 + 1 + ε(2 + 3ε)/ξ 2 ξ 2 + ε(2 + 3ε)/2ξ 2
) * ) * ) * ) ) **
2 + 3ε 2 + 3ε 1 3 1 1 3 1
∼ 1−ε ∼ +ε 1−ε 2 ∼ 1+ε −
2ξ 4ξ 2 ξ 2ξ 2ξ ξ 2 2ξ 2

e tramite questo ottenere: ) *


1 3/2 1
x(t) ∼ 1 + +ε − . (2.44)
t+ε t + ε 2(t + ε)3

In tal modo però si trova una singolarità in t = −ε (indipendente dalla x), e questa è poco convincente quanto poco
lo era quella in zero; quindi, se non si conoscesse la soluzione esatta, tutto il metodo sembrerebbe poco attendibile.
È invece stupefacente, in questo esempio, che sostituendo la (2.43) direttamente nella X(τ ) = 1 + τ1 + O(ε2 ) dà
luogo, con un pò di algebra, all’espressione esatta:
a) * ) *
2
t t t+1
&(t) = − +
x +2 + 4 ≡ xLig (t; ε) .
ε ε ε

Il metodo in esame, quando funziona, lo fa bene ma senza preavviso. In generale ciò non accade quando la ε
moltiplica la derivata di ordine massimo. (vedi anche: [Wasow]).
N.B. 6.2.7 Uguagliare a zero il secondo membro dell’equazione sulla ampiezza Xn (τ ) non è sempre la cosa migliore;
in questo esempio è conveniente, ma non è detto che lo sia in generale. Lo scopo è sempre quello di avere il termine
correttivo non più singolare del precedente, e le singolarità spostate possibilmente fuori dell’intervallo in esame. ♦

N.B. 6.2.8 Il fatto che lo sviluppo diretto abbia introdotto una singolarità per t = 0 avrebbe potuto suggerire
l’uso del metodo di Lindstet con la particolare scala τ = t/ε. Il suo uso in questo esempio, tuttavia, fornisce una
equazione indipendente dalla ε e sostanzialmente identica alla equazione iniziale. Per cui, seppure in questo caso
accade che tale equazione si sappia risolvere, ciò non è certo generale o prevedibile a priori. Infatti anche qui la
logica da seguire dovrebbe essere quella descritta per giungere alla (2.44). ♦
) *
ξ2 2 ξ
Per concludere, e in vista di futuri riferimenti, si osservi che per ξ = Os (ε) si ha 2 + ≫ 2 +2 , e
√ ε ε ε
√ √
quindi, mediante l’approssimazione a + δ ∼ a + δ/(2 a) (valida per a ≫ δ ), si calcola la stima
a) * ) * a) * ) *
2
t t+1 t2 2 t
+2 +4 = + +2 +2
ε ε ε2 ε ε
T ) *) *−1/2 T
t2 2 t t2 2 t2 2 t + 2ε
∼ + + +2 + = + +√ .
ε2 ε ε ε2 ε ε2 ε t2 + 2ε
#

I metodi fin qui introdotti sono di natura locale, e quindi talvolta inadatti a trattare casi di rilevante interesse.
Verranno ora citati due metodi di calcolo approssimato che si rivolgono a problemi di natura globale (o, almeno,
localmente più estesi).

Note di Sistemi Dinamici


336 Capitolo 6. Alcuni Metodi Perturbativi

Metodo delle Scale Multiple


L’idea, valida soprattutto se si conosce, o si suppone a priori, quale sia l’andamento qualitativo della soluzione, è
quella di introdurre due o più ascisse temporali che operino sulla x indipendentemente le une dalle altre, ciascuna
agente su una scala diversa. Per esempio: se ci si aspettano dei comportamenti “a tempi lunghi”, e cioè tempi che
siano Os (1) quando t ≫ 1 , è ragionevole supporre

t=t t1 := εt, t2 := ε2 t, etc.

Quando sembri sufficiente, si inizia con due: (t, t1 ). Poi, se non è presente alcuna potenza negativa della ε si
assume lo sviluppo
x(t; ε) ∼ [X0 (t, t1 ) + εX1 (t, t1 )]t1 =εt ;
altrimenti, se appare una potenza ε−1 , risulta più ragionevole tentare con
K L
x(t; ε) ∼ X0 (t, t1 ) + εX1 (t, t1 ) + ε2 X2 (t, t1 ) t1 =εt

Su queste vanno applicati operatori differenziali quali i seguenti:


d
= ∂t + ṫ1 ∂t1 + ṫ2 ∂t2 + . . . = ∂t + ε ∂t1 + ε2 ∂t2 + . . .
dt
(2.45)
d2 7 82 7 8
= ∂t + ε ∂t1 + ε2 ∂t2 + . . . 2
= ∂tt 2
+ 2ε ∂tt + ε2 ∂t21 t1 + 2∂tt
2
+ ... .
dt2 1 2

Al primo ordine, si ricavano le seguenti espressioni


⎧ d

⎨ x ∼ ∂t X0 + ε(∂t1 X0 + ∂t X1 )
dt
2 (2.46)

⎩ d x ∼ ∂ 2 X + ε(2∂ 2 X + ∂ 2 X )
tt 0 tt1 0 tt 1
dt2
ed è importante notare che, con questo procedimento,

le “costanti di integrazione” ad ogni passo risultano funzioni degli altri tempi caratteristici;

la logica rimane quella di determinarle seguendo la Regola di Lighthill.


Esempio 6.2.9 (continuazione dell’Esempio 6.2.6)
(
(t + εx)ẋ + x = 1
x(1) = 2, t ∈ [0, 1] .

Si adoperi il Metodo delle Scale Multiple sebbene in questo esempio il metodo non si dimostrerà particolarmente
efficace; lo sarà invece molto di più in successivi Esempi.
Si considera, oltre a quello iniziale, un solo ulteriore tempo caratteristico: t∗ , e data l’analisi qualitativa fatta
sopra, sarà opportuno supporre che tale tempo sia un “tempo breve”, ovvero una variabile temporale che sia Os (1)
quando t ≪ 1 . Siano cioè
1 d 1
t∗ := t, e quindi = ∂t + ∂t∗ ,
ε dt ε
da imporre sulla ipotizzata
K L
x(t, ε) = X0 (t, t∗ ) + εX1 (t, t∗ ) + ε2 X2 (t, t∗ ) t∗ =t/ε

Come primo tentativo il problema in esame fornisce


0 7 81 0 1 17 8 7 8
t + ε X0 + εX1 + ε2 X2 ∂t + ∂t∗ X0 + εX1 + ε2 X2 + X0 + εX1 + ε2 X2 = 1 ,
ε
da cui
⎧ ) *
⎨ 7t + εX + ε2 X 8 1 ∂ ∗ X + ∂ X + ∂ ∗ X + ε∂ X + ε∂ ∗ X + ε2 ∂ X + 7X + εX + ε2 X 8 = 1

0 1 t 0 t 0 t 1 t 1 t 2 t 2 0 1 2
ε

⎩ X0 (1, 1/ε) = 2, X1 (1, 1/ε) = 0, X2 (1, 1/ε) = 0 .
(2.47)

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 337

Se ne ricava una successione di problemi ai vari ordini, dei quali il dominante è quello all’ordine O(1/ε):

t ∂t∗ X0 = 0 ;

questa equazione dichiara X0 funzione della sola t. Per determinarla si userà l’equazione all’ordine successivo.
Questa diviene
t ∂t X0 + t ∂t∗ X1 + X0 = 1 (2.48)
mentre quella all’ordine O(ε) è

t ∂t X1 + t ∂t∗ X2 + X0 ∂t X0 + X0 ∂t∗ X1 + X1 = 0 . (2.49)

Si osservi che l’equazione all’ordine O(ε2 ) non si può trovare partendo dalla (2.47); in essa infatti occorrerebbe
aggiungere non solo il termine ε3 X2 nel primo fattore ma anche l’addendo ε2 ∂t∗ X3 nel secondo.
La (2.48) implica
1 0 1
X1 (t, t∗ ) =
1 − X0 − tẊ0 t∗ + b(t) ,
t
nella quale la regola di Lighthill consiglia di annullare il coefficiente di t∗ , e cioè di ricavare la forma della funzione
X0 richiedendo che sia X0 t − t = cost =: a. Questa fornisce X0 = 1 + a/t, e la condizione iniziale assegna a = 1 .
Dalla (2.49) si ha allora ) *
1 1
t ∂t∗ X2 + t ḃ − 2 1+ +b = 0
t t
) *2 ) *2
1 d 1 c 1 1
sulla quale la regola di Lighthill fornisce tḃ + b = − 1+ da cui b= − 1+ ≡ X1 , e
2 dt t t 2t t
la condizione iniziale dà c = 2 .
In sintesi si ottiene di nuovo ed esattamente, quindi nulla di meglio, dello sviluppo perturbativo diretto.

Un’alternativa potrebbe essere quella di ricominciare tutto da capo sostituendo, nell’equazione iniziale, al posto
della variabile t la sua corrispondente εt∗ . Si ottiene cosı̀
0 1 )1
∗ 2 3
εt + εX0 + ε X1 + ε X2 ∂t∗ X0 + ∂t X0 + ∂t∗ X1
ε
*
7 8
+ ε∂t X1 + ε∂t X2 + ε ∂t X2 + X0 + εX1 + ε2 X2 = 1

2

che fornisce la successione di problemi, dei quali il primo all’ordine O(1):

t∗ ∂t∗ X0 + X0 ∂t∗ X0 + X0 = 1

il secondo all’ordine O(ε)

t∗ ∂t X0 + t∗ ∂t∗ X1 + X0 ∂t X0 + X0 ∂t∗ X1 + X1 ∂t∗ X0 + X1 = 0 (2.50)

e (qualora servisse) all’ordine O(ε2 ):

t∗ ∂t X1 + t∗ ∂t∗ X2 + X0 ∂t X1 + X0 ∂t∗ X2 + X1 ∂t X0 + X1 ∂t∗ X1 + X2 ∂t∗ X0 + X2 = 0 .


7 8
La prima equazione potrebbe dare ∂t∗ X0 t∗ + 12 X02 − t∗ = 0 da cui X02 +2t∗ X0 +c−2t∗ = 0 . Il condizionale
qui vuole rimarcare il fatto che in generale tale equazione non si riesce a risolvere esattamente, e che l’eventualità
che ciò possa accadere è del tutto casuale e in generale non prevedibile a priori; quindi il metodo sembra comunque
da abbandonare. Per il solo scopo di vederne le modalità di svolgimento, tuttavia, si proseguirà qui il calcolo
intrapreso. Si calcola facilmente (con c costante rispetto alla t∗ e funzione da determinare della t)
/
X0 = −t∗ + t∗ 2 + 2t∗ − c(t) ,
T
1 1 2
e la condizione al bordo dà − + + + c(1) = 2 e quindi c(1) = −4 − 2/ε . Per trovare la funzione
ε ε2 ε
c = c(t) occorre servirsi dell’equazione all’ordine O(ε): la (2.50) che, date le
−ċ t∗ + 1
∂t X0 = / , e ∂t∗ X0 = −1 + / ,
2 t∗ 2 + 2t∗ − c(t) t∗ 2 + 2t∗ − c(t)

Note di Sistemi Dinamici


338 Capitolo 6. Alcuni Metodi Perturbativi

fornisce

∗ (t∗ + 1) t∗ 2 + 2t∗ − c
t ∂t∗ X1 + √ X1 + √ (−ċ) + X0 ∂t∗ X1 = 0
∗ 2
t + 2t − c∗ 2 t∗ 2 + 2t∗ − c
ovvero
/
2(t∗ 2
+ 2t∗ − c)∂t∗ X1 + 2(1 + t∗ )X1 − ċ t∗ 2 + 2t∗ − c ;

ancora la regola di Lighthill suggerisce ċ = 0 .


Il metodo ha fornito la soluzione esatta del problema assegnato, cosa questa fortunata ma prevedibile dato che
si era già visto precedentemente che la soluzione esatta di questa equazione si riesce a calcolare e dipende solo dalla
variabile riscalata: t∗ = t/ε. D’altra parte, come si è rimarcato, l’equazione trovata per la funzione X0 è altrettanto
difficile quanto quella iniziale e coincide con quella che si ottiene applicando ad essa il metodo di Lindstet; pertanto
anche questa seconda applicazione del metodo è da considerarsi fallita. #

Esempio 6.2.10 Problema di Friedrichs semplificato


(
εẍ + ẋ = κ
(2.51)
x(0) = 0, x(1) = 1.

Quello in esame è un problema differenziale con condizioni al contorno e tuttavia con soluzione unica: verificata per
esempio la prima condizione, esiste unico il valore del parametro di integrazione affinché sia vera anche la seconda.
Infatti dopo una prima integrazione si ha

d 0 t/ε 1 d 0 t/ε 1
ε e ẋ = κ et/ε = ε κe
dt dt

dalla quale si ricava ẋ = c1 e−t/ε + κ. Questa, con la condizione x(0) = 0 , dà x(t) = c2 (1 − e−t/ε ) + κt, ed è
possibile verificare anche la seconda condizione se si pone c2 = (1 − κ)(1 − e−1/ε )−1 . Pertanto la soluzione esatta
risulta
1−κ 0 −t/ε
1
&(t; ε) = κt +
x 1 − e (2.52)
1 − e−1/ε
Come problema perturbativo esso è invece un problema singolare: qualora si proceda ad applicare il Metodo Diretto
si trova, all’ordine zero,
( (
ẋ0 = κ x0 (t) = κt + c3
che dà
x0 (0) = 0, x0 (1) = 1 x0 (0) = 0, x0 (1) = 1.

Contrariamente al problema iniziale che è del secondo ordine quello che si è ottenuto è un problema differenziale del
primo ordine, e dunque: il valore dell’unico parametro di integrazione che rimane libero non potrà in generale sod-
disfare entrambe le condizioni ausiliarie imposte nel problema assegnato (dato che esse sono fra loro indipendenti).
Se ne dovrà scegliere una sola, in base al suo significato fisico e/o ragionamenti qualitativi.
Sia per esempio κ < 1 . Se si preferisse la x0 (0) = 0 , e cioè se si accettasse x0 (t) = κt, si avrebbe x0 (1) =
κ < 1 ; quindi vicino a t = 1 prima o poi occorrerebbe ẋ > κ e perciò ẍ > 0 . Ma l’equazione afferma che
ẍ = (κ − ẋ)/ε e di conseguenza, per ẋ > κ, si ha ẍ < 0 . È più ragionevole perciò assumere, per la funzione x0 ,
la seconda delle condizioni ausiliarie.

x a
x dirett
ta

tta
un

esa
es

pr a
· dirett
t t

&(t; ε) per due valori della ε , con κ = 0.6 , e conferma la discussione appena
La figura mostra la soluzione x
fatta.

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 339

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1

" = 0.01 " = 0.08


Sia allora x0 (t) = κt + (1 − κ) ; la soluzione è non valida, perché non nulla, nell’intorno di t = 0 , e ciò in modo
tanto più significativo quanto più si è vicini allo: strato limite (o “boundary layer”): 0 ≤ t ≪ 1 nel quale un
valore (1/ε)-grande per la − ẍ permette alla ẋ (per quanto grande ne sia il valore in t = 0 ) di raggiungere in
breve il valore κ, che è Os (1).
Riconosciuta la presenza di due strati limitrofi risulta ragionevole ricorrere al metodo delle Scale Multiple. Siano
(come nell’Esempio 6.2.9)

1 K L
t∗ := t e x(t, ε) = X0 (t, t∗ ) + εX1 (t, t∗ ) + ε2 X2 (t, t∗ ) t∗ =t/ε .
ε
Si hanno:
d 1 d2 2 2 2 1 2
= ∂t + ∂t∗ , e = ∂tt + ∂tt∗ + ∂∗∗ ;
dt ε dt2 ε ε2 t t
e quindi
⎧ d 1

⎨ x ∼ ∂t∗ X0 + ∂t X0 + ∂t∗ X1 + ε (∂t X1 + ∂t∗ X2 )
dt ε

⎩ d2
1 1 7 2 8 7 2 8
2
x ∼ 2 ∂t2∗ t∗ X0 + 2∂tt∗ X0 + ∂t2∗ t∗ X1 + ∂tt 2
X0 + 2∂tt 2
∗ X1 + ∂t∗ t∗ X2 .
dt ε ε
Con tali posizioni il problema in esame (2.51) fornisce rispettivamente

O(1/ε) : ∂t2∗ t∗ X0 + ∂t∗ X0 = 0


O(1) : ∂t2∗ t∗ X1 + ∂t∗ X1 = κ − 2∂tt
2
∗ X 0 − ∂t X 0

O(ε) : ∂t2∗ t∗ X2 + ∂t∗ X2 = −∂tt


2 2
X0 − 2∂tt∗ X 1 − ∂t X 1

con le condizioni ausiliarie (


X0 (0, 0) = X1 (0, 0) = X2 (0, 0) = 0, ed
X0 (1, 1/ε) = 1, X1 (1, 1/ε) = X2 (1, 1/ε) = 0 .

Si noti che la prima equazione non rappresenta il problema all’ordine zero ma quello all’ordine massimo O(1/ε), e
come tale vale a tempi brevi, infatti la X0 si suppone Os (1) ad ogni tempo, e resta comunque il termine dominante

della soluzione. Si ha facilmente et ∂t∗ X0 =: −a2 (t) e quindi
(
∗ −t∗ a1 (0) + a2 (0) =0
X0 (t, t ) = a1 (t) + a2 (t)e con
a1 (1) + a2 (1)e−1/ε = 1

e quindi l’equazione relativa alla X1 diviene


∗ ∗ ∗
∂t2∗ t∗ X1 + ∂t∗ X1 = κ + 2ȧ2 e−t − ȧ1 − ȧ2 e−t = ȧ2 e−t + (κ − ȧ1 ) .
∗ ∗
Posto Y (t, t∗ ) := ∂t∗ X1 (t, t∗ ) si ha ∂t∗ (et Y ) = ȧ2 + (κ − ȧ1 )et , da cui
∗ ∗
∂t∗ X1 =: ȧ2 (t)t∗ e−t + κ − ȧ1 (t) + &
a3 (t)e−t

e quindi
∗ ∗
X1 (t, t∗ ) = a4 (t) + a3 (t)e−t + (κ − ȧ1 (t))t∗ − ȧ2 (t)t∗ e−t .
Affinché per t = Os (1) fissato, e quindi per t∗ = t/ε ≫ 1 , non possa avvenire che X1 ≫ Os (1) ∼ X0 contrariamente
all’assunto sviluppo regolare, è opportuno porre
( (
ȧ1 = κ a1 (t) = κt + b1
e cioè
ȧ2 = 0 a2 (t) = b2 ;

Note di Sistemi Dinamici


340 Capitolo 6. Alcuni Metodi Perturbativi

e le condizioni ausiliarie danno b2 = −b1 e κ + b1 + b2 e−1/ε = 1 ovvero b2 = −(1 − κ)(1 − e−1/ε)−1 . Ne


segue
1−κ 0 −t/ε
1
xScMlt (t, ε) ∼ κt + 1 − e .
1 − e−1/ε
Si osservi che questa soluzione addirittura coincide con la soluzione esatta (2.52) che si è trovata all’inizio dell’e-
sempio, ed è quindi valida anche se t/ε = O(1) . #

Esempio 6.2.11 (continuazione dell’Esempio 6.2.3) ẍ + 2ε ω0 ẋ + ω02 x = 0 .


Si suppongano dapprima due soli tempi caratteristici: t e t1 := εt. Servendosi delle relazioni (2.45) sugli operatori
d/dt e d2 /dt2 , e quindi delle (2.46), il problema iniziale fornisce (al primo ordine)
( 2
∂tt X0 + ω02 X0 = 0
2
∂tt X1 + ω02 X1 = −2 ∂tt
2
1
X0 − 2 ω0 ∂t X0

inoltre, siccome t = 0 se e solo se t1 = 0 , le condizioni ausiliarie x(0) = 0 ed ẋ(0) = 1 forniscono le

X0 (0, 0) = 0, X1 (0, 0) = 0, ∂t X0 (0, 0) = 1, ∂t1 X0 (0, 0) + ∂t X1 (0, 0) = 0 .

Nel problema iniziale l’operatore differenziale contiene unicamente tempi O(1) (comunque t ≪ O(1/ε) e dunque
t1 ≪ 1 ), ciò conferma che il problema all’ordine zero è in realtà un problema alle derivate ordinarie, ed è pertanto
accettabile risolverlo mantenendo gli altri tempi caratteristici come parametri, lentamente variabili. Si ricava in
tal modo (
X0 (t, t1 ) = a(t1 ) cos ω0 t + b(t1 ) sin ω0 t
a(0) = 0, b(0) = 1
Le due funzioni a, b assegnano la dipendenza della X0 dal tempo t1 , e cioè da tempi con correzioni O(ε). D’altra
parte anche X1 è O(ε), e dunque per poter risolvere il problema all’ordine uno in tutti i suoi aspetti occorre ora
scrivere anche il problema concernente la X1 (t, t1 ) . Esso è
2
∂tt X1 + ω02 X1 = 2(a′ + ω0 a) sin ω0 t − 2(b′ + ω0 b) cos ω0 t ,

ed è opportuno scegliere (sempre per evitare risonanze)

a′ (t1 ) + ω0 a(t1 ) = 0 e b′ (t1 ) + ω0 b(t1 ) = 0 ,

sulle quali i detti dati iniziali: a(0) = 0 e b(0) = 1 forniscono

a(t1 ) = 0, b(t1 ) = e−ω0 t1 , e quindi X0 (t, t1 ) = e−ω0 t1 sin ω0 t .

Questa espressione è valida finché t ∼ O(1/ε) e contiene termini O(ε).


Inoltre si vede che la X1 ha rispetto alla t lo stesso andamento della X0 e cioè X1 (t, t1 ) = ! a(t1 ) cos ω0 t +
!b(t1 ) sin ω0 t, pertanto se si cerca una valutazione all’ordine ε si deve interrompere il procedimento a questo punto
e senza aggiungere il termine εX1 (ovvero ponendolo uguale a zero) giacché esso è una correzione della X0 , sia
per i tempi brevi che per7 i tempi lunghi, di un ordine di grandezza inferiore. In tal modo, all’ordine uno si trova 8
x(t, ε) ∼ e−εω0 t sin ω0 t e lo stesso risultato si troverà con il metodo di media per quanto concerne i tempi lunghi .
Entrambi i metodi falliscono sulla correzione alle frequenze [che come si sa dalla soluzione esatta è solo O(ε2 )].
La convenienza nell’usare questo metodo rispetto a quello della media del prossimo paragrafo sta nel fatto che
questo delle scale multiple è più facilmente estendibile agli ordini successivi. Si ricordi tuttavia che per ottenere
tale incremento nel grado di approssimazione è necessario ricominciare tutto il procedimento fin dall’inizio, e
permettere cosı̀ a tutte le correzioni ai vari ordini, e provenienti dalle varie ipotesi sui tempi caratteristici, di
raggiungere l’espressione finale. A tale scopo si estendono innanzi tutto le relazioni (2.46) nelle
⎧ d

⎨ x ∼ ∂t X0 + ε(∂t1 X0 + ∂t X1 ) + ε2 (∂t2 X0 + ∂t1 X1 + ∂t X2 )
dt
⎪ 2
⎩ d x ∼ ∂ 2 X + ε(2∂ 2 X + ∂ 2 X ) + ε2 (∂ 2 X + 2∂ 2 X + 2∂ 2 X + ∂ 2 X )
tt 0 tt1 0 tt 1 t1 t1 0 tt2 0 tt1 1 tt 2
dt2
mediante le quali il problema di questo esempio fornisce
⎧ 2 2
⎨ ∂tt X0 + ω0 X0 = 0

2
∂tt X1 + ω02 X1 = −2∂tt
2
X0 − 2 ω0 ∂t X0

⎩ 2
1
2 2 2 2
∂tt X2 + ω0 X2 = −∂t1 t1 X0 − 2∂tt 2
X0 − 2∂tt1
X1 − 2 ω0 ∂t1 X0 − 2 ω0 ∂t X1 ,

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 341

con le condizioni ausiliarie




⎨ X0 (0, 0, 0) = 0 ; X1 (0, 0, 0) = 0 ; X2 (0, 0, 0) = 0 ;
∂t X0 (0, 0, 0) = 1 ; ∂t X1 (0, 0, 0) = −∂t1 X0 (0, 0, 0) ;


∂t2 X0 (0, 0, 0)+∂t1 X1 (0, 0, 0) + ∂t X2 (0, 0, 0) = 0 .

Se ne ricava successivamente
X0 (t, t1 , t2 ) = a(t1 , t2 ) cos ω0 t + b(t1 , t2 ) sin ω0 t
a(0, 0) = 0, b(0, 0) = 1
e quindi
2
∂tt X1 + ω02 X1 = − 2 ω0 (−∂t1 a(t1 , t2 ) sin ω0 t + ∂t1 b(t1 , t2 ) cos ω0 t)
− 2 ω02 (−a(t1 , t2 ) sin ω0 t + b(t1 , t2 ) cos ω0 t) .

Come già all’ordine uno, la regola di Lighthill suggerisce di porre ∂t1 a + ω0 a = 0 e ∂t1 b + ω0 b = 0 , che si
risolvono nelle:
a(t1 , t2 ) = !a(t2 )e−ω0 t1 con !
a(0) = 0 ,
b(t1 , t2 ) = !b(t2 )e−ω0 t1 con !b(0) = 1 .
Anche in questo caso la scelta di annullare il secondo membro dell’equazione del problema al primo ordine fà
sı̀ che X0 ed X1 abbiano lo stesso andamento rispetto alla t, e cioè cos(ω0 t + ϕ) e quindi non lede scegliere
X1 (t, t1 , t2 ) = 0 .
Per determinare le funzioni ! a e !b occorre ora servirsi dell’equazione all’ordine successivo. Con queste posizioni,
a(t2 )e−ω0 t1 cos ω0 t + !b(t2 )e−ω0 t1 sin ω0 t, all’ordine ε2 si ottiene
e con X0 (t, t1 , t2 ) = !
2
∂tt a(t2 )e−ω0 t1 cos ω0 t − ω02 !b(t2 )e−ω0 t1 sin ω0 t
X2 + ω02 X2 = − ω02 !
+ 2ω0 ∂t2 !a(t2 )e−ω0 t1 sin ω0 t − 2ω0 ∂t2 !b(t2 )e−ω0 t1 cos ω0 t
a(t2 )e−ω0 t1 cos ω0 t + 2ω02 !b(t2 )e−ω0 t1 sin ω0 t
+ 2ω02 !

che fornisce a = −ω0 !b


2∂t2 ! insieme con 2∂t2 !b = ω0 !
a, da cui 4∂t22 !b + ω02 !b = 0 . Seguono !b(t2 ) =
!b0 cos(ω0 t2 /2+ϕ2 ) e ! a(t2 ) = −!b0 sin(ω0 t2 /2+ϕ2), ed i dati iniziali assegnano ϕ2 = 0 e !b0 = !b(0) = 1 .
Ne risulta finalmente
) ) * ) * *
ω 0 t2 ω 0 t2
X0 (t, t1 , t2 ) = e−ω0 t1 cos sin ω0 t − sin cos ω0 t
2 2
e pertanto ) *
ε2 ω0 t
x(t, ε) = e−εω0 t sin ω0 t − + o(ε2 )
2
Il primo dei seguenti grafici mostra l’ottimo accordo fra le seguenti soluzioni del problema dell’Esempio 6.2.11
(calcolate per ε = 0.1 , e quindi “grande”): la X0 (t, εt) approssimata a due tempi e la soluzione esatta x &(t, ε). Nel
secondo grafico viene mostrata la differenza x &(t, ε) − X0 (t, εt, ε2 t)
&(t, ε) − X0 (t, εt), e nel terzo la differenza x
1 0.02 0.02
0.75
0.5 0.01 0.01
0.25

10 20 30 40 50 10 20 30 40 50 10 20 30 40 50
-0.25
-0.5 -0.01 -0.01
-0.75
-1 -0.02 -0.02

e(t; ") ed X0 (t; "t)


x e(t; ") ¡ X0 (t; "t)
x e(t; ") ¡ X0 (t; "t; "2 t)
x

Il successivo metodo si presta a trattare problemi singolari, ed in special modo quelli per i quali il metodo
perturbativo diretto fallisce in determinate zone della regione di interesse, o anche aventi condizioni al contorno
che non possono essere totalmente verificate.

Note di Sistemi Dinamici


342 Capitolo 6. Alcuni Metodi Perturbativi

Metodo del Matching Asintotico


Il metodo consiste nel generare soluzioni separatamente valide in zone fra loro limitrofe, e nel farle coesistere, deter-
minando i parametri necessari affinché ciò possa accadere, paragonandole sulle frontiere (o sulle zone intermedie)
dei vari insiemi di regolarità. Il difficile risiede nel fatto che il problema assegnato è uno solo, e che, se anche si
riesce a definire un ragionevole insieme di problemi atti ad individuare tutte le variabili in gioco, non è affatto detto
che le loro soluzioni abbiano espansioni nelle zone interessate espresse tramite le semplici x ∼ x0 + ε x1 + ε2 x2 + . . .
trovate mediante il metodo perturbativo diretto. Al contrario, i vari termini vanno in generale determinati ad ogni
passo del procedimento di risoluzione. Inoltre, e per ciascuna delle diverse scale delle variabili indipendenti, occorre
in generale introdurre diverse funzioni dipendenti.
In sintesi, il metodo può essere riassunto nei seguenti passi.

(1) Si individua il Problema Esterno, a partire da quello dato, e si risolve il suo problema all’ordine dominante,
determinandone la regione di regolarità.

(2) Si individua la Zona Interna, o: “Boundary Layer”, e cioè quella nella quale tale sviluppo non è uniforme,
o in cui qualche dato o condizione non possono essere verificati. Qui e nel seguito si supporrà che essa sia
unica, ma questo solo per semplicità di esposizione.

(3) Si introduce una variabile indipendente “Interna”, che possa essere Os (1) nella zona interna, e si definisce il
“Problema Interno”, relativo a una qualche (opportuna) funzione di tale variabile.

(4) Si completa l’identificazione delle variabili (e degli sviluppi asintotici) determinando le corrette funzioni
d’ordine con le quali riscalare i problemi cosı̀ trovati (e quelli relativi ai successivi ordini) in modo che essi
abbiano soluzioni non degeneri nelle rispettive regioni.

(5) La determinazione delle costanti di integrazione e strutturali va risolta (anche in base ai dati ausiliari)
mediante il matching, e cioè paragonando fra loro gli sviluppi delle variabili interna ed esterna, nella zona
nella quale esse si sovrappongono. Ciò comporta (almeno) una delle seguenti

(5a) Quando esse siano totalmente note, si richiede che il limite interno della soluzione esterna sia uguale al
limite esterno della soluzione interna, ovvero che

lim xest (t, ε) = lim xint (τ, ε)


ε→0 ε→0
t→int τ →est

(5b) Introdotta una variabile intermedia, che sia Os (1) se valutata fra le due zone, si paragonano gli sviluppi
delle due trovate sopra: la soluzione interna e la soluzione esterna, entrambi espressi in funzione della
(stessa) variabile intermedia, e si richiede che essi abbiano lo stesso limite intermedio quando la variabile
intermedia sia mantenuta Os (1) ed ε tenda a zero.
(5c) Si esprimono ciascuna delle: soluzione interna e soluzione esterna rispetto alla variabile dell’ “altra”
soluzione (rispettivamente esterna e interna), poi se ne calcolano gli sviluppi asintotici (rispetto al
parametro), infine si paragonano i loro troncamenti, espressi rispetto una stessa variabile.

(6) Si individua la parte comune delle due soluzioni ricavandola da tale paragone (il: “matching”).

(7) Si scrive la Soluzione Composta, funzione della sola variabile esterna, mediante la:

Soluzione Composta := sol.esterna + sol.interna - sol.intermedia .

Il seguente esempio ha carattere introduttivo al metodo, ed è incompleto data la sua semplicità.


Esempio 6.2.12 (continuazione dell’Esempio 6.2.10) Problema di Friedrichs semplificato
(
εẍ + ẋ = κ
(2.53)
x(0) = 0, x(1) = 1.

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 343

Per risolvere il problema, una volta riconosciuto il fatto che in una zona del dominio lo sviluppo diretto fallisce,
(nel caso in esame tale zona è una sola, quella nella quale t = Os (ε)), occorre scegliere le variabili interne adatte
a quella zona, sia dipendenti che indipendenti. Per quella indipendente, si vedrà che un primo tentativo viene
suggerito dal problema esterno all’ordine zero (cfr. il successivo N.B. 6.2.14) che suggerisce di assumere τ = t/ε;
è bene osservare tuttavia che non è affatto detto che essa debba coincidere con quella usata (o che si userebbe)
nel metodo delle scale multiple. Per quella dipendente, da intendersi funzione della sola variabile interna, si deve
introdurre una variabile X = X(τ, ε) che sia Os (1) quando la variabile interna τ è Os (1) e che risolva il
problema interno senza eccessiva degenerazione. In questo esempio, ancora in base ai N.B. 6.2.13 e 6.2.14, avviene
addirittura che la xest (t(τ ), ε) rimanga Os (1) anche nella zona interna, e quindi si proverà con X(τ, ε) = x(t(τ ), ε),
e cioè a definire il problema interno sostituendo nell’equazione data alla x la X senza ulteriori fattori di scala.
Le condizioni ausiliarie da assegnare sulla X(τ, ε) sono solo quelle che la riguardano, e cioè quelle imposte sulla
x nella regione interna: τ = Os (1); analogamente, le condizioni ausiliarie per il problema esterno sono da cercarsi
solo nella zona esterna.
Nel dettaglio, sulla funzione x(t, ε) si definisce innanzi tutto, e per t = Os (1), il
(
2
ε∂tt x + ∂t x = κ
Problema Esterno (2.54)
x(1, ε) = 1

da risolversi in generale mediante il metodo perturbativo diretto. In effetti, in questo particolare esempio è possibile
calcolare fin dall’inizio la soluzione esatta di tale problema, infatti si trova

κt + (1 − κ) + ε c1 (e−1/ε − e−t/ε ) ∼
= xest (t, ε) (2.55)

che dipende ancora dalla costante c1 , ed è chiaro che se si fa uso anche dell’altra condizione al contorno, quella in
t = 0 , il valore della costante viene determinato e la funzione (2.55) diviene la soluzione esatta del problema (2.53)
già trovata nell’Esempio 6.2.10. Tuttavia quando si usa il metodo del matching tale procedimento non è corretto,
giacché comporta imporre sulla variabile esterna una condizione fuori dalla zona esterna, e cioè nella zona di non
uniformità t ≪ 1 . Di conseguenza, a questo livello si può solo controllare che il troncamento 0 x della x ≡ xest
(valutato nuovamente per t = Os (1)) coincida con la soluzione x0 (t) = κt + (1 − κ) del problema esterno allo stesso
ordine, cosa che qui avviene indipendentemente dalla c1 .
Il passo successivo consiste nell’introdurre una variabile indipendente interna che sia Os (1) nella zona interna
e una dipendente da essa che sia anch’essa Os (1) nella zona interna. Per quanto riguarda la prima, qui si supporrà
del tipo τ = t/δ(ε), con δ(ε) ≪ 1 ; ed esempio τ := t/ε, da confermare. Per quanto riguarda l’altra, siccome
il primo troncamento della variabile esterna 0 x è Os (1) nella regione interna, si può sperare in una corretta
definizione della variabile dipendente interna evitando altri fattori di scala, e limitandosi a provare con la sostituzione
x(t(τ, ε), ε) ≡ X(τ, ε) nel problema dato. (In generale occorre determinare il fattore di scala in virtù del quale la
soluzione X del problema interno (che è per costruzione Os (1) nella zona interna) possa esprimere una variabile
interna xint dello stesso ordine di quella esterna (si veda il prossimo N.B.6.2.13). Infine, delle due condizioni
x(0) = 0 ed x(1) = 1 risulta accettabile (in quanto agente nella zona interna) solo quella conseguenza dalla prima
X(0, ε) = 0 ; l’altra infatti darebbe X(1/ε, ε) = 1 e cioè una condizione fuori della regione interna (t = 1 implica
τ = 1/ε ≫ 1 ).
Servendosi della ∂τ = ε∂t si conclude che il problema interno è dato, per τ = Os (1), da
(
∂τ2 X + ∂τ X = εκ
Problema Interno (2.56)
X(0, ε) = 0 ,

da risolversi in generale mediante il metodo perturbativo diretto. In questo particolare esempio accade invece che
la soluzione esatta anche di questo problema sia esplicitamente calcolabile:

X(τ, ε) = c0 (1 − e−τ ) + εκτ ∼ xint (τ, ε) ,

e che il primo troncamento 0x della xint coincida con la soluzione del problema interno all’ordine zero.
N.B. 6.2.13 Come si è già accennato, nel caso in esame (2.53) la supposta uguaglianza fra la X(τ, ε) e la
x(t(τ ), ε) è plausibile perché la soluzione ordine zero trovata sopra, e cioè la κt + (1 − κ), calcolata per t = ετ
diviene κετ + (1 − κ) che è anch’essa (come la variabile esterna) Os (1) per τ = Os (1). Inoltre il problema che
si ottiene per la X è accettabilmente non degenere. In altri casi invece (si veda l’Esempio 6.2.23 più oltre) K può
accadere che la soluzione X0 = Os (1) del problema L interno all’ordine dominante sia solo proporzionale tramite
un coefficiente β0 (ε) non necessariamente Os (1) al primo troncamento interno 0 x della variabile x, e cioè che
sia β0 (ε)X0 (τ ) = 0 (x(τ, ε)), o anche: β0 (ε)X0 (τ ) + β1 (ε)X1 (τ ) + ... ∼
= xint (τ, ε). ♦

Note di Sistemi Dinamici


344 Capitolo 6. Alcuni Metodi Perturbativi

N.B. 6.2.14 La variabile interna va scelta con l’idea di diminuire quanto più possibile la degenerazione del problema
interno. Quando la zona interna è nell’origine, cosa che verrà indicata con t ≪ 1 , si può agire come segue. Si pone
τ := t/δ(ε) e si cerca la migliore δ(ε) ≪ 1 che verifichi le citate richieste: che il problema interno abbia soluzione
X non degenere ed Os (1) in tale zona. In questo esempio, e data la fortunata circostanza X(τ, ε) = Os (x(t, ε)) ,
si ottiene:
δ δ2
∂τ2 X + ∂τ X = κ ,
ε ε
; <
ε
e pertanto, delle tre possibilità: δ/ε −→ ∞, cost, 0 , si ha che la prima dà X ′ = 0 che è fortemente degenere;
0
l’ultima fornisce ∂τ2 X = 0 ovvero X = c1 τ + c2 , che diventa grande per τ → ∞ oppure è fortemente degenere,
e quindi non paragonabile con il limite interno della xest , che invece è finito. Rimane dunque la sola possibilità
δ ∼ ε , che conferma il tentativo fatto. ♦

N.B. 6.2.15 Il caso in esame è anche particolarmente fortunato perché, come si è detto, permette la risoluzione
esplicita dei problemi interno ed esterno con ε ̸= 0 . In generale si dovranno risolvere i loro sviluppi diretti che in
questo caso, invece, non sono disponibili: il metodo perturbativo diretto applicato all’equazione εẏ + y = κ fallisce
infatti miseramente, dato che fornisce xn (t) = cost = 0 per ogni n > 0 . ♦

Anche il problema interno (2.56) (cosı̀ come il (2.54)) è un problema non ben posto: l’equazione è del secondo
ordine e manca una condizione, iniziale o al contorno, che permetta la determinazione della costante c0 , e cioè
anche della sua parte Os (1).
Metodo del matching operare le scelte dei coefficienti o delle funzioni ancora incognite (qui si determina la
costante c0 ) in modo da rendere uguali gli andamenti dello sviluppo interno e dello sviluppo esterno quando si
effettua tale paragone in quella zona, l’intermedia, dove non si ha né t = Os (1) né τ = Os (1), e dove si presume
che i due sviluppi debbano coincidere.
A tale scopo si può:

• provare semplicemente a paragonare il limite (in questo esempio) per t → 0 della soluzione esterna con il
limite per τ → ∞ della soluzione interna (si veda il Punto 5a più sopra);

• (più correttamente) definire una variabile intermedia che sia Os (1) nella zona intermedia e paragonare gli
sviluppi in tale zona (si veda il Punto 5b);

• (ove necessario) valutare i primi termini che si ottengono troncando gli sviluppi (dei primi termini) interno
in funzione della variabile esterna ed esterno in funzione della variabile interna, e paragonando fra loro ciò
che tali termini forniscono quando valutati nella zona intermedia (si veda il Punto 5c).

Nell’esempio in esame si ha
x0 = κt + (1 − κ) valida in t = Os (1),
−τ
X0 = c0 (1 − e ) valida in τ = Os (1);
√ √
la variabile intermedia può essere η := t/ ε = ε τ ; ed infatti essa è Os (1) nella regione intermedia, (vedi
N.B. 6.2.16 più oltre). Fissata tale variabile intermedia, si richiede che sussista un unico

Limite intermedio lim xest (t(η, ε), ε) = lim xint (τ (η, ε), ε)
ε→0 ε→0
η=Os (1) η=Os (1)

o, più in generale, che le due funzioni


K est L K int L
x (t, ε) t=t(η) e x (t, ε) t=t(η) abbiano un medesimo andamento.

Qui si sono indicate con xest ed xint le espressioni dei due sviluppi asintotici della medesima variabile dipendente
x(t, ε) (l’incognita del problema iniziale) validi rispettivamente nelle regioni esterna ed interna; essi quindi sono
generalmente le soluzioni perturbative dirette dei problemi esterno ed interno, possibilmente riscalati dopo il para-
gone con gli sviluppi che si ottengono a partire dai tentativi: xint (τ, ε) ∼
= xest (t(τ ), ε) ed xest (t, ε) ∼
= xint (τ (t), ε)
(cfr. oltre).
Come già detto nel N.B. 6.2.13, la xint può anche differire dalla X(τ (η, ε), ε) per una funzione di scala β0 (ε);
tuttavia ciò non accade nell’esempio in esame.

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 345

Il calcolo dei due limiti intermedi delle soluzioni interna ed esterna fornisce in questo esempio rispettivamente:
√ √
lim xest (t/ ε, ε) = √lim κ ε + (1 − κ) = (1 − κ),
√ ε→0 ε→0
t/ ε=Os (1)
√ √
lim xint (τ ε, ε) = √lim c0 (1 − e−1/ ε
) = c0 ;
√ ε→0 ε→0
τ ε=Os (1)

est int
inoltre, tali valori coincidono rispettivamente con quelli dei limiti limt→0 0x e limτ →∞ 0x . Uguaglian-
doli fra loro si assegna alla costante c0 il valore (1 − κ).
Si costruiscono in tal modo i due sviluppi

xest (t, ε) = κt + (1 − κ) + o(1) valido in t = Os (1)


xint (τ, ε) = (1 − κ)(1 − e−τ ) + o(1) valido in τ = Os (1)

mediante i quali si può infine costruire il primo termine di una soluzione unica:

C0,0 (t, ε) ∼ xest (t, ε) + xint (τ (t), ε) − xcom (η(t), ε) .

In questa la xcom è la parte comune, il cui termine dominante è assegnato dal comune valore dei limiti determinato
con il matching; nell’esempio esso è 0 0 x = 0 0 x = (1 − κ). In definitiva per l’Eq. (2.53) si ha (al primo ordine)
la soluzione
xAMP (t) ∼ κt + (1 − κ)(1 − e−t/ε ) uniforme su tutto [0, 1] (2.57)
da paragonare con la soluzione esatta (2.52) trovata precedentemente nell’Esempio 6.2.10.
Qualora si voglia proseguire ed aumentare di ordine, e dato che sono stati trovati i due termini 0 x e 0 x,
occorre risolvere i problemi sia esterno sia interno relativi all’ordine successivo. Tuttavia, dalla X0 si ricava
X0 (τ (t)) = c0 (1 − e−t/ε ) che non ammette sviluppo per t = Os (1). Occorre quindi limitarsi a supporre che il
suo primo troncamento coincida con il termine dominante che si ottiene mantenendo t = Os (1), e cioè la costante
c0 :
0 x = κt + (1 − κ) = ε κ τ + (1 − κ)

0 0x = (1 − κ)
0x = c0 (1 − e−τ ) = c0 (1 − e−t/ε )
0 0 x = c0 .

In questo esempio, tuttavia, neanche questo è sufficiente a tale prosecuzione e occorre limitarsi allo sviluppo al primo
ordine (2.57) giacché, come si è notato, lo sviluppo perturbativo del problema esterno fornisce: ∂t x1 = −∂t2 x0 = 0
la cui risposta è banale e non permette ulteriori sviluppi. #


N.B. 6.2.16 Se come variabile intermedia si usa una η̃ := t/δ(ε), con δ(ε) non necessariamente la ε ma comunque
tale che Os (ε) ≪ δ(ε) ≪ 1 , il risultato deve rimanere lo stesso. È questa una delle richieste fondamentali: che la
soluzione intermedia non sia accettabile solo per un particolare specifico andamento della variabile intermedia ma,
al contrario, che il suo andamento sia comune alle soluzioni esterna e interna non per una sola scelta della scala
δ(ε), ma per tutto un insieme di suoi possibili valori che ne comprenda sia alcuni per i quali la soluzione esterna
rimane significativa, sia altri per i quali ciò accade a quella interna. ♦

N.B. 6.2.17 Come già accennato, ci sono altri due limiti che si sarebbero potuti adoperare in alternativa a quelli
intermedi. Essi sono: il “limite interno” della soluzione esterna ed il “limite esterno” della soluzione interna, si veda
oltre. In questo esempio essi coincidono con i limiti già calcolati, e cioè il limt→0 0 xest ed il limτ →∞ 0 xint . Il
sussistere dell’uguaglianza fra questi ultimi tuttavia non garantisce in generale che i due sviluppi siano entrambi
validi quando espressi nella prescelta variabile intermedia e questa è Os (1), ma certo lo lascia sperare. ♦

N.B. 6.2.18 Il metodo va abbandonato qualora i limiti necessari per il matching non esistano. Il procedimento
va interrotto o modificato qualora le funzioni che si determinano non siano sviluppabili. ♦

Glossario

È utile la seguente terminologia, già usata nel precedente esempio.

Note di Sistemi Dinamici


346 Capitolo 6. Alcuni Metodi Perturbativi

Variabili esterne: (t, x) := variabili indipendenti o dipendenti (possibilmente adimensionali) basate sulle
grandezze originarie.
Regione esterna := la regione in cui le variabili esterne rimangono Os (1) quando ε → 0 , e che in tal modo è
di uniformità per lo Sviluppo esterno.
Problema esterno := il problema assegnato, del quale si cerca soluzione nella Regione esterna.
Sviluppo esterno xest (t, ε) := lo sviluppo asintotico
=
xest (t, ε) := αn (ε)xn (t)
n=0

della funzione delle variabili esterne che è soluzione del Problema esterno nella Regione esterna. Ove possibile,
esso viene determinato risolvendo con il metodo perturbativo diretto il Problema esterno.
Limite esterno := il limite per ε → 0 e con le variabili esterne che rimangono Os (1), e quindi con quelle
interne che si avviano verso la Regione esterna.
Variabili interne: (τ, X) := variabili indipendenti o dipendenti (possibilmente adimensionali) ottenute risca-
lando quelle esterne con opportune funzioni d’ordine della ε in modo tale che esse risultino Os (1) nella Regione
interna.
“Opportune” significa in modo tale da ottenere un Problema interno non degenere ed uno Sviluppo interno uniforme
nella Regione interna.
Regione interna := la regione di non uniformità per lo Sviluppo esterno, e di uniformità per quello interno. In
essa le variabili interne rimangono Os (1).
Problema interno := il problema che si definisce sulle variabili interne, opportunamente riscalate in modo che
esso abbia
soluzione X(τ, ε) uniforme ed Os (1) nella Regione interna.

Sviluppo della variabile interna X(τ, ε) :=lo sviluppo asintotico della soluzione X del problema interno
=
X(τ, ε) = X0 (τ ) + β&n (ε)Xn (τ ) , X0 (τ ) = Os (1)
n=1

Ove possibile esso viene determinato risolvendo con il metodo perturbativo diretto il Problema interno, quest’ultimo
inteso come problema nelle variabili interne.
Si noti che per costruzione β̃0 = 1 , e quindi, per esprimere la variabile originaria x mediante lo Sviluppo interno,
talvolta è necessario riscalare la variabile interna X con un’ulteriore funzione d’ordine β0 (ε) che renda il suo
termine dominante consistente con quello della x anche quando viene espresso in funzione delle variabili esterne.
Un iniziale tentativo può essere il richiedere che il termine β0 (ε)X0 (τ (t), ε) sia bilanciato da xest (t, ε), e cioè che
sia β0 (ε)X0 (τ (t), ε) = Os (xest (t, ε)). Il risultato di tale adattamento di scala è lo Sviluppo interno.
Sviluppo interno xint (τ, ε) := lo sviluppo asintotico
=
xint (τ, ε) := βn (ε)Xn (τ ), β0 non necessariamente Os (1)
n=0

della variabile dipendente x (incognita dell’iniziale problema assegnato) in funzione delle variabili interne, ottenuto
mediante la richiesta che il suo ordine di grandezza sia paragonabile a quello della xest .
Limite interno := il limite per ε → 0 e con le variabili interne Os (1), e quindi con quelle esterne che si
avviano verso la regione interna.
Affinché il metodo possa funzionare è necessario che il problema interno contenga ogni elemento essenziale scartato
dal problema esterno, ed inoltre che esso abbia minima degenerazione.
Sviluppo Composto := un qualunque sviluppo asintotico C(t, ε) che si riduca a quello esterno quando le
variabili esterne sono Os (1), e a quello interno quando le variabili interne sono Os (1); ad esempio si può scegliere:

⎨ sviluppo esterno quando le variabili esterne = Os (1)

C := sviluppo intermedio quando le variabili intmd. = Os (1)


sviluppo interno quando le variabili interne = Os (1)
e quindi costruirlo mediante la:
C(t, ε) := xest (t, ε) + xint (τ (t), ε) − xcom (η(t), ϵ) .

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 347

Principio del Paragone Asintotico, o “Asymptotic Matching Principle” A.M.P. :=


il richiedere che le stime degli andamenti non dipendano dal percorso seguito per effettuare il calcolo e che siano le
stesse, ovviamente quando espresse rispetto alle stesse variabili.
A tale scopo occorre ulteriormente definire gli
Operatori di troncamento p e q := gli operatori che troncano, rispettivamente agli ordini p e q , gli
sviluppi esterno xest e interno xint dell’incognita x del problema:
p
= q
=
p x(t, ε) := αn (ε)xn (t) q x(τ, ε) := βn (ε)Xn (τ ) .
n=0 n=0

Essi sono gli operatori che, agendo sulla stessa grandezza fisica x, (e quindi non necessariamente sulle espansioni
delle soluzioni dei problemi interno ed esterno), ne assegnano l’andamento stimato al prescelto ordine di grandezza.
Il Principio del Paragone Asintotico impone (per esempio)
N 0 1 O 0 1
q p x (t, ε) = p q x (τ, ε)
t=t(τ ) τ =τ (t) τ =τ (t)

αn+1 (ε) βn+1 (ε)


L’A.M.P. è valido purché gli sviluppi siano tali che e siano o(εc ) con c ∈ R+ , e cioè
αn (ε) βn (ε)
per funzioni d’ordine algebriche. Inoltre il procedimento va interrotto o modificato se le funzioni non sono più
sviluppabili.
N.B. 6.2.19 Se come Sviluppo Composto si assume in particolare:

Cp,q x := px + qx − q px ,

l’A.M.P. implica la richiesta


p (Cp,q x) = px e q (Cp,q x) = qx . ♦

N.B. 6.2.20 Nell’esempio precedente si è richiesta l’uguaglianza 0 0x = 0 0x che valevano rispettivamente c0


ed (1 − κ) . ♦

Esempio 6.2.21 (Problema di Friedrichs)


(
εẍ + 2ẋ + 2x = 0
x(0) = 0, x(1) = 1 .

Analogamente a quanto si è fatto nell’Esempio 6.2.10, si inizia con il riconoscere che la regione interna è per t ≪ 1 .
Infatti, se si impone la condizione x(0) = 0 alla soluzione all’ordine zero si ricava x0 (t) = αe−t = 0 che non
permette alla x alcuna crescita verso il valore 1 a meno che da un certo punto in poi per t ∈ [0, 1] le tre funzioni
x, ẋ, ẍ diventino simultaneamente non negative, e ciò contrasta con l’equazione assegnata.
Si scrive quindi il Problema esterno
(
εẍ + 2ẋ + 2x = 0
Problema esterno
x(1) = 1 ,

ed il suo problema all’ordine zero


( (
ẋ + x = 0 x0 (t) = e1−t
P E.0 := da cui
x(1) = 1 α0 (ε) = 1 .

Si nota che la x0 è Os (1) anche nella regione interna, e ciò giustifica il tentativo: X(τ, ε) = Os (x(t(τ, ε), ε)) e
τ := t/δ(ε), mediante le quali il Problema Interno assume la forma
ε 2
∂τ2 X + ∂τ X + 2X = 0, X(0) = 0 .
δ 2 (ε) δ(ε)

⎪ 0 alta degenerazione
ε ⎨
ε
Per trovare δ(ε), delle tre possibilità −→ 1 che implica alta degenerazione
δ 2 (ε) 0 ⎪ ⎩
∞ che implica soluzioni ragionevoli

Note di Sistemi Dinamici


348 Capitolo 6. Alcuni Metodi Perturbativi

si sceglie la terza, per esempio: δ(ε) := ε . Ne segue il


(
X ′′ + 2X ′ + 2εX = 0
Problema interno
X(0) = 0 .

Il suo problema all’ordine zero è

P I.0 := X ′′ + 2X ′ = 0, X(0) = 0
7 8
del quale è soluzione X0 (τ ) = a 1 − e−2τ con τ = t/ε.
Per individuare la soluzione composta C0,0 si può sviluppare le due funzioni: la 0 x ≡ x0 (t) e la 0x ≡ X0 (τ ),
ciascuna espressa nella variabile “sbagliata” e cioè:
0 1
0x = e1−ετ ∼ e(1 − ετ + o(ε)) ⇒ 0 0 x = e
t=t(τ )
0 1 0 1
0x = a 1 − e−2t/ε ⇒ 0 0x = a
τ =τ (t)

e siccome la prima risulta già espressa in funzione della variabile esterna è immediato imporre l’A.M.P. che fornisce
0 0 = a = e = 0 0. Si calcola infine lo sviluppo composto sommando i tre contributi:

C0,0 x = 0x + 0x − 0 0x = e1−t − e1−2t/ε .

È istruttivo, a questo punto, paragonare il risultato ottenuto non solo con quello esatto:
1 0 1 1
1−t 1−2t/ε
&(t, ε) =
x e − e ≡ C0,0
1 − e(1−2/ε) 1 − e(1−2/ε)
ma anche con quello fornito dal metodo delle scale multiple, con la scala t∗ := t/ε e con β0 = 1 . Questo avrebbe
dato la seguente equazione sulle funzioni X0 = X0 (t, t∗ ) ed X1 = X1 (t, t∗ ):
) * ) *
2 1 2 2 1
ε ∂t + 2 ∂t∗ + ∂tt∗ (X0 + β1 X1 ) + 2 ∂t + ∂t∗ (X0 + β1 X1 ) + 2 (X0 + β1 X1 ) = 0
ε ε ε
con X0 (0, 0) = X1 (0, 0) = 0, X0 (1, 1/ε) = 1, X1 (1, 1/ε) = 0
dalla quale, con β1 = ε , si ricavano le

O(1/ε) : ∂t2∗ X0 + 2 ∂t∗ X0 = 0 (2.58)


2
O(1) : 2∂tt∗ X0 + ∂t2∗ X1 + 2∂t X0 + 2∂ X1 + 2X0 = 0 .
t∗ (2.59)

L’equazione (2.58) fornisce X0 = a(t)e−2t +b(t), sulla quale la condizione X0 (0, 0) = 0 assegna a(0)+b(0) =
0 , e la X0 (1, 1/ε) = 1 dà a(1)e−2/ε + b(1) = 1 . L’equazione fornisce allora
∗ ∗ ∗
−4ȧ e−2t + 2(ȧe−2t + ḃ) + 2(ae−2t + b) + ∂t2∗ X1 + 2 ∂t∗ X1 = 0
7 8
e la regola di Lighthill assegna ȧ − a = 0 e ḃ + b = 0 . Ne segue X0 = c et−2t/ε − e−t e mediante la seconda
condizione ausiliaria se ne conclude che
e1−t 0 1
xScMlt (t) = 2(1−1/ε)
1 − e2t(1−1/ε) ∼ e1−t − e1+t−2t/ε .
1−e
7 8
Si osservi che la differenza fra questa e lo sviluppo composto C0,0 = e1−t 1 − et(1−2/ε) trovato con l’A.M.P. risulta
(et − 1)e(1−2t/ε) ∼ e−2t/ε ed è quindi apprezzabile solo fintanto che t ∼ O(ε).
Il primo dei seguenti grafici mostra le due soluzioni xScMlt e xAMP := C0,0 , il secondo la loro differenza.
3 0.06

2.5 0.05
0.04
2
0.03
1.5
0.02
1
0.01
0.5
0.2 0.4 0.6 0.8 1
-0.01
0.2 0.4 0.6 0.8 1

xScMlt e xAMP xScMlt - xAMP

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 349

Per calcolare l’approssimazione al passo successivo


0 il metodo
1 del 0Matching
1 prevede di scegliere la corretta
funzione d’ordine successiva sviluppando entrambe 0 x (τ, ε) e 0 x (t, ε). In questo esempio, tuttavia,
lo sviluppo di e(1 − e−2t/ε ) non è possibile, e quindi si procede con il metodo perturbativo diretto applicato
indipendentemente a entrambi i problemi interno ed esterno, e con l’ipotesi che a ogni passo le funzioni d’ordine αi
e βi necessarie ai due sviluppi siano le medesime. Assumendo α1 = ε = β1 , i problemi al primo ordine risultano

⎨ ẋ + x = − 1 ẍ = − 1 e1−t
0
P E.1 := 2 2

con x(1) = 0 ,

e ( 7 8
X ′′ + 2X ′ = −2X0 = −2e 1 − e−2τ ,
P I.1 :=
con X(0) = 0,

e questi forniscono rispettivamente

1 − t 1−t 7 8 7 8
x1 (t) = e e X1 (τ ) = −τ e 1 + e−2τ + c 1 − e−2τ
2

Pertanto i troncamenti O(ε) rispettivamente di xest e di xint (t(τ ); ε) ≡ X(τ, ε) risultano


0 1 1 − t 1−t
1x (t, ε) = e1−t + ε e
0 1 2
7 8 7 7 8 7 88
1x (τ, ε) = e 1 − e−2τ + ε −τ e 1 + e−2τ + c 1 − e−2τ

Per trovare il valore della costante c si calcolano gli sviluppi


0 1 ) * 0
1 − ετ ε1
1x (τ, ε) = e1−ετ 1 + ε ∼ e(1 − ετ ) 1 +
2 2
0 1 0 1 ) 0 1 0 1*
t
1x (t, ε) = e 1 − e−2t/ε + ε − e 1 + e−2t/ε + c 1 − e−2t/ε
ε
0 1
e siccome 1x (t, ε) = e + ε (c − e t/ε) + o(ε) sussistono i troncamenti
) ) **
1 e
1 1x = e 1 + ε −τ = e (1 − t) + ε
2 2
) *
et
1 1x = e + ε c − = e(1 − t) + ε c .
ε

Questi confermano la scelta α1 = β1 = 1 , e implicano c = e/2 . Alternativamente si può fare ricorso a una
variabile intermedia η := t/δ(ε) con ε ≪ δ(ε) ≪ 1 e trovare, prima

1 − δη 1−δη 0 ε 1
xest ∼ e1−δη + ε e = e (1 − δη) + (1 − 2δη) ;
2 2
poi, sostituendo τ = δη/ε nella 1 x, il corrispondente sviluppo esterno: e(1 − δη) + εc. Ciò conferma: c = e/2 .
In conclusione lo sviluppo composto al primo ordine è
) * 0 1 0 1
1−t e 0 −2t/ε 1
C1,1 x = e 1−t
1+ε + e −e−2t/ε − et +e−2t/ε + ε −e
2 2
ε 0 1
= e1−t − (1 + t)e1−2t/ε + (1 − t)e1−t − e1−2t/ε .
2
&(t, ε) che qui risulta:
Anche in questo particolare esempio il tutto può essere confrontato con la soluzione esatta x
√ √
exp −t(1 + 1 − 2ε)/ε − exp −t(1 − 1 − 2ε)/ε
&(t, ε) =
x √ √
exp −(1 + 1 − 2ε)/ε − exp −(1 − 1 − 2ε)/ε

Note di Sistemi Dinamici


350 Capitolo 6. Alcuni Metodi Perturbativi

I seguenti grafici mostrano le tre funzioni: la soluzione esatta x &(t, ε), la composita all’ordine zero: C0,0 (t, ε) (la
linea a tratti), e quella all’ordine uno: C1,1 (t, ε) per i tre valori: ε = 0.3, ε = 0.1, ε = 0.01 .

2 .0 3.0 3.0
1.75 e
x
C1,1 2.5 2.5
1.5 C0,0
1.25 2.0 2.0
1 .0 1.5 1.5
0.75 1.0 1.0
0.5
0.25 0.5 0.5
0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1

² = 0.3 ² = 0.1 ² = 0.01

N.B. 6.2.22 Tipicamente lo studio degli sviluppi viene effettuato nel seguente ordine: 0 x → 0 x → 1 x →
1x → 2 x . . . , a meno che si riesca a risolvere prima tutto il problema esterno poi quello interno: la parte
delicata del procedimento infatti è decidere quali debbano essere le corrette funzioni d’ordine αi (ε) e βi (ε). ♦

(
(t + εx)ẋ + x = 1
Esempio 6.2.23 (continuazione dell’Esempio 6.2.6)
x(1) = 2, t ∈ [0, 1] .
(
(t + εx)ẋ + x = 1 t ∈ (0, 1]
Problema Esterno
x(1) = 2

con il suo problema all’ordine zero


( ⎧
⎨ 1
tẋ + x = 1 0x =1+
P E.0 := da cui t
x(1) = 2 ⎩
α0 (ε) = 1.

Tale soluzione, cosı̀ come tutto lo sviluppo diretto, non è uniforme per t → 0 . Si sceglie pertanto una variabile
interna “breve”, e cioè che sia Os (1) quando t = o(1); si assumerà della forma τ := t/δ(ε) con δ(ε) = o(1). Se
ne ricava un tentativo di sviluppo
1 1
xint (τ ) ∼ 1 + ∼ che è Os (δ −1 ) per τ = Os (1).
δτ δτ
Per introdurre una variabile interna X che sia Os (1) per τ = Os (1) si prova allora a porre β0 := δ −1 insieme
con ) *
d 1 1
X(τ, ε) := δ(ε)xint (t(τ, ε), ε), e x = ∂τ X .
dt δ δ
Queste, poste nel problema iniziale, danno
0 ε 1 1 1 0 ε 1
δτ + X 2 ∂τ X + X = 1, ovvero τ+ X ∂τ X + X = δ ,
δ δ δ δ2
sulla quale non si danno condizioni ausiliarie nella regione interna. Si hanno le tre possibilità:

⎪ 0 di nuovo l’equazione esterna
ε ⎨
ε
−→ ∞ che implica alta degenerazione
δ 2 (ε) 0 ⎪ ⎩
1 che implica soluzioni ragionevoli

Ricavati in tal modo δ(ε) := ε1/2 , τ := ε−1/2 t, e X := ε1/2 x , si può finalmente definire il

Problema Interno : (τ + X)∂τ X + X = ε1/2 , senza condizioni ausiliarie.

Il suo problema all’ordine zero è

P I.0 := (τ + X)∂τ X + X = 0

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 351

del quale è soluzione τ X0 + X02 /2 = cost, ovvero X0 (τ, ε) = −τ ± τ 2 + 2c .
Ne risulta una prima approssimazione:
⎧ ⎧ 0 / 1
⎨ xest (t, ε) ∼ 1 + 1 ⎨ xint (τ, ε) ∼ ε−1/2 −τ ± τ 2 + 2c
t
⎩ ⎩ β (ε) = ε−1/2
α0 (ε) = 1 0

dalla quale seguono


0 1 ) *
1 1 1
0 x(t, ε) = 1+ e quindi 0 0x = =
t=t(τ ) ε1/2 τ ε1/2 τ t
insieme con @ T A
0 1 0 / 1 t 2cε
−1/2
0 x(τ, ε) =ε −τ (t) ± τ 2 (t) + 2c = −1 ± 1+ 2 .
τ =τ (t) ε t
Sviluppando quest’ultima come funzione esterna, e cioè per t = Os (1), si ha
) ) **
t cε c2 ε2
0 x ∼ −1 ± 1 + − + . . . (2.60)
ε t2 2t4

che implica 0 0 x = ct−1 se il segno è positivo, oppure −2t/ε − c/t se il segno è negativo. Affinché l’A.M.P.
sia corretto, va scelto il segno positivo, ed il √
valore c = 1 .
In definitiva quindi si valuta X0 = −τ + τ 2 + 2 .
N.B. 6.2.24 Si noti che se le funzioni α0 e β0 sono state scelte correttamente, nell’operare il paragone si deve
ritrovare c = cost. ♦

Si può infine calcolare il primo sviluppo composto:


@ T A
t 2ε
C0,0 x = 0x + 0x − 0 0x = 1 + −1 + 1+ 2 .
ε t

Se si intende salire di ordine si può ricavare dalla (2.60) il successivo troncamento:

1 0x = t−1 − εt−3 /2 ;

questo suggerisce α1 (ε) = ε anche se non lo assicura, dato che la α1 è assegnata dalla 1 x. Comunque è lecito
il tentativo:
1
xest ∼ 1 + + εx1 (t)
t
da sostituire nel problema esterno. Ne segue all’ordine ε (come d’altronde si era già visto nell’Esempio 6.1.35)
( @) *2 A
tẋ1 + x1 = −x0 ẋ0 1 1
PE.1 := che dà tx1 (t) = − 1+ −4
x1 (1) = 0 2 t

dalla quale si ricava x1 (t) = −(1 − t)(1 + 3t)/2t3 . In definitiva si stima


1 ε
xest (t, ε) ∼ 1 + − 3 (1 − t)(1 + 3t) ,
t 2t
e quindi
0 1 1 ε
1x − 3 (1 − t)(1 + 3t) .
(t, ε) = 1 +
t 2t
Dato che il troncamento 1 0 x è già noto, si usa questa espressione per determinare il corrispondente 0 1 x. Si
inizi con il calcolare la funzione
0 1 1 ε
1 x(t, ε) ∼ 1 + 1/2 − 3/2 3 (1 − ε1/2 τ )(1 + 3ε1/2 τ )
t=t(τ ) ε τ 2ε τ
che va sviluppata in ε come funzione interna, e cioè per τ = Os (1) . Se ne ricava un possibile sviluppo interno:
) * ) * ) *
1 1 1 1 1
xint ∼ ε−1/2 ε1/2 + − 3 (1 + 2ε1/2 τ − 3ετ 2 ) ∼ ε−1/2 − 3 + 1− 2 . (2.61)
τ 2τ τ 2τ τ

Note di Sistemi Dinamici


352 Capitolo 6. Alcuni Metodi Perturbativi

Questo, innanzi tutto permette di valutare


0 1 ) *
−1/2 1 1 1 ε
0 1 x (t, ε) = ε − = − 3
τ 2τ 3 t 2t
che, risultando uguale alla 1 0 x, conferma la scelta α1 (ε) = ε . Poi, per quanto riguarda la scelta della funzione
β1 (ε), si osserva che la (2.61) fornisce
) * ) *
−1/2 1 1 1
1 1x = ε − 3 + 1− 2 (2.62)
τ 2τ τ
ed è quindi ragionevole il tentativo: β1 (ε) = 1 . Con tale posizione, dalla (2.61) segue
+ ) * ) *,
1 1 1
X = ε1/2 xint ∼ ε1/2 ε−1/2 − 3 + 1− 2
τ 2τ τ
ovvero X ∼ Os (1) + ε1/2 Os (1) quando τ = Os (1).
Si prova pertanto con X ∼ X0 + ε1/2 X1 da sostituire nel problema interno:
0 1
τ + (X0 + ε1/2 X1 ) (∂τ X0 + ε1/2 ∂τ X1 ) + (X0 + ε1/2 X1 ) = ε1/2 . (2.63)

N.B. 6.2.25 Si badi a non confondere fra loro i seguenti termini (e ricordando che δ(ε) = ε1/2 ):

(i) X0 (τ ) = −τ + τ 2 + 2c , soluzione del problema interno all’ordine zero;
0 1
−1/2
(ii) 0 x (τ, ε) = ε X0 , primo troncamento di xint ;
0 1
−1/2 −1
(iii) 0 0 x (τ, ε) = ε τ ; primo troncamento intermedio;
0 1 7 −1 8
−1/2
(iv) 0 1 x (τ, ε) = ε τ − 2τ −3 .
Si osservi anche che β1 (ε) = 1 nella 1 1 x non implica né è implicato che tale sia anche nella 1 x (solo accennata
nella (2.61) e da confermare più oltre) né, a maggior ragione, nella 1 X ; ed infatti il coefficiente della X1 è
risultato ε1/2 . ♦
In tal modo, oltre al problema P I.0 , la (2.63) fornisce anche il problema:
P I.1 := (τ + X0 )∂τ X1 + X1 ∂τ X0 + X1 = 1 .
0 1
Quest’ultimo equivale a ∂τ τ X1 + X0 X1 − τ = 0 da cui
/
X1 (τ ) = (τ + c1 )(τ + X0 )−1 = (τ + c1 )/ τ 2 + 2 .
Per trovare il valore della costante c1 occorre uguagliare 1 1 x con 1 1x . Il primo è espresso nella (2.62)
che permette la trasformazione
0 1 + ) * ) *, ) * ) *
−1/2 1 1 1 1 1 1
1 1 x (t, ε) = ε − + 1 − = 1 + − ε + .
τ 2τ 3 τ 2 τ =τ (t) t t2 2t3
Per calcolare 1 1x occorre prima troncare la xint = ε−1/2 X(τ, ε):
0 1 0 0 11 0 / 1 τ + c1
−1/2 1/2 −1/2 2+2 + √
1 x (τ, ε) = 1 ε X 0 + ε X 1 = ε −τ + τ
τ2 + 2
poi trasformare quest’ultima come funzione della variabile esterna t, infine svilupparla come funzione esterna, e
cioè con t = Os (1). Lo sviluppo del primo addendo è stato calcolato nella (2.60); fermandosi al primo ordine
1 ε
esso vale ( − 3 ). Il secondo addendo fornisce
t 2t
t + c1 ε1/2 c1 1/2 1
√ ∼ 1+ ε − 2 2ε .
2
t + 2ε t 2t
Di conseguenza ) * ) *
0 1 1 c1 1/2 1 1
1 x (t, ε) ∼ 1+ + ε −ε 2 + 3
t t t 2t
e quindi l’A.M.P. impone c1 = 0 . Ciò conferma la (2.61), e fornisce
) / *
int −1/2 −1/2 2
τ
x (τ, ε) ∼ ε X(τ, ε) ∼ ε −τ + τ + 2 + √ .
τ2 + 2

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 353

Per proseguire ulteriormente, si deve prolungare lo sviluppo di 1 x oltre i termini in ε1/2 ed ε già trovati, e
scrivendo 2 1 x avere un suggerimento su α2 (ε), coefficiente di x2 (t) da trovarsi mediante il problema esterno;
. . . etc.
Al passo successivo si ha

1 (1 − t)(1 + 3t) (1 − t2 )(1 + 3t)


xest (t, ε) ∼ 1 + −ε 3
+ ε2 + ...
t 2t 2t5
valida per t = Os (1) ; insieme con la
T 3 2
int −1/2 t t2 2 t 2 t + 4ε
x (t, ε) = ε X(τ (t), ε) ∼ − + 2
+ + √ + ε
ε ε ε 2
t + 2ε (t + 2ε)3/2
2

valida per τ = t/ε1/2 = Os (1) . Si ritrova allora


T
t t2 2
C0,0 x(t, ε) = 1 − + +
ε ε2 ε
valida su tutto [0, 1] . Va però osservato che la successiva

C1,1 x(t, ε) =
1x + 1x − 1 1x
) * @ T A
1 (1 − t)(1 + 3t) t t2 2 t
= 1+ −ε + − + + +√
t 2t3 ε ε2 ε t2 + 2ε
) ) **
1 1 1
− 1+ −ε 2 + 3
t t 2t
T
t t t2 2 3ε
= √ − + 2
+ +
t + 2ε ε
2 ε ε 2t

non è valida per t ≪ ε (ovvero τ ≪ ε ) a causa dell’ultimo termine che risulta grande in tale regione, ovviamente
contenuta in quella interna. Secondo quanto
√ si è trovato subito dopo il N.B. 6.2.8, per avvicinarsi alla soluzione
esatta tale termine dovrebbe valere 2ε/ t2 + 2ε . #

Esempio 6.2.26 Sia data l’equazione


( √
4εẍ + 6 tẋ − 3x + 3 = 0
x(0) = 0, x(1) = 3 .

Il suo Problema (esterno) all’ordine zero è


1 1
P E.0 := ẋ − √ x + √ = 0
2 t 2 t
√ √ √
da cui e− t x − e− t = c0 e quindi x0 (t) = 1 + c0 e t . Ovviamente la regione interna (di singolarità dei
coefficienti) è t = o(1), e la condizione nella regione esterna: x(1) = 3 fornisce c0 = 2e−1 .
Per il problema interno si pongano, con δ ≪ 1
d 1
x(t) = β0 (ε)X(τ (t)) , e t = δ(ε) τ , e quindi = ∂τ .
dt δ(ε)
Si ottiene il primo tentativo di problema interno
⎧ √

⎨ 4 ε X ′′ + 6√ τ X ′ − 3X + 3 = 0
δ2 δ β0

⎩ X(0) = 0 .

La scelta ε/δ 2 ∼ 1/ δ (ovvero δ = ε2/3 ), e la scelta β0 = 1 , forniscono il definitivo

⎨ ′′ 3 √ ′ 3ε1/3
X + τX − (X − 1) = 0
Problema interno 2 4

X(0) = 0 .

Note di Sistemi Dinamici


354 Capitolo 6. Alcuni Metodi Perturbativi

Il suo problema all’ordine zero è


3 √ ′
P I.0 := X ′′ + τX = 0 ,
2
3/2
con soluzione X ′ eτ = c̃ = cost. Quindi, servendosi della
- τ ) ) * ) **
3/2 2 2 2 3/2
e−s ds = Γ −Γ , τ ove
0 3 3 3
- ∞ - ∞ - ζ
z−1 −t z−1 −t
Γ(z) := t e dt , e Γ(z, ζ) := t e dt = Γ(z) − tz−1 e−t dt
0 ζ 0

si ricava - τ ) ) * ) **
−s3/2 2 2 3/2
X0 (τ ) = c̃ e ds =: κ Γ −Γ ,τ .
0 3 3
Il matching richiede l’uguaglianza tra X0 (∞) = κ Γ(2/3)7 e x80 (0) = 1 + c0 ; e il fatto che X(∞) sia finito conforta
la scelta β0 = 1 . Ne seguono X0 (τ ) = (1 + c0 ) − κ Γ 2/3, τ 3/2 con κ = (1 + c0 )/Γ (2/3) e la soluzione composta
) *

t 2 t3/2
C0,0 = x0 (t) + X0 (τ (t)) − (1 + c0 ) = 1 + c0 e − κ Γ , .
3 ε
La seguente figura mostra le due soluzioni: quella calcolata numericamente e la C0,0 , valutate per ε = 0.1 ; per
tale valore di ε esse risultano manifestamente simili.
3
2.5
Num
2
C00
1.5
1
0.5

0.2 0.4 0.6 0.8 1

Per la successiva approssimazione si riparta, con α1 (ε) = ε , dalla


( √
4ε (ẍ0 + εẍ1 ) + 6 t (ẋ0 + εẋ1 ) − 3 (x0 + εx1 − 1) = 0
x0 (1) = 3 , x1 (1) = 0 .

t
Mediante la x0 (t) = 1 + c0 e , si ottiene il
⎧ √ ) *

⎨ ẋ − √ 1 2 c0 e t 1 1
1 x 1 = − √ ẍ0 = − √ −
P E.1 := 2 t 3 t 6 t t t3/2


x1 (1) = 0

da cui d(e− t
x1 )/dt = −c0 (t−3/2 − t−2 )/6 e quindi
) *
c0 √t 2 1
x1 (t) = e √ − −1 .
6 t t
Su questa non si potrà calcolare il limite interno: t → 0 . Tuttavia è possibile calcolare il troncamento per τ = O(1)
della: 0 1' ) 1 1* '
√ 0 ε0 2 1
' t '
( 1 x)(τ, ε) = x0 (t) + εx1 (t) ' 2/3 = 1 + c0 e 1+ √ − −1 ' 2/3
t=ε τ 6 t t t=ε τ

si ha infatti
) 1*
1/3 1/2 1 0 2/3 2 ε1/3
( 1 x)(τ, ε) = 1 + c0 exp(ε τ ) 1 + ε √ − −ε
6 τ τ
0 τ τ 3/2 1 0 ε1/3 ε2/3 ε 1
∼ 1 + c0 1 + ε1/3 τ 1/2 + ε2/3 + ε 1− + √ −
2 6 6τ 3 τ 6
+ 0 1 0 1 0 ,
1 τ 1 τ 3/2
1 1
∼ 1 + c0 1 + ε1/3 τ 1/2 − + ε2/3 + √ +ε +
6τ 2 6 τ 6 12
e quindi ) *
√ t t3/2 ε 0 2 2 1
( 1 1 x) (t, ε) = 1 + c0 1 + t+ + + 1+ √ − .
2 6 12 t t

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 355

Per quanto riguarda il problema interno si inizia con



4 6 τ
(X0 + β1 X1 ) + 1/3 (X0′ + β1 X1′ ) − 3 (X0 + β1 X1 − 1) = 0 ,
′′ ′′
ε1/3 ε

dalla quale, se si sceglie β1 = ε1/3 e si usa la


0 1 - τ
1 + c0 3/2
X0 (τ ) = 1 + c0 − κΓ 2/3, τ 3/2 ≡ . ∞ −s3/2 e−s dτ ,
0 e ds 0

segue il ( √
4X1′′ + 6 τ X1′ − 3 (X0 − 1) = 0
P I.1 :=
X1 (0) = 0
3/2 3/2
Si ha 4d(eτ X1′ )/dτ = 3eτ (X0 − 1)
che fornisce, con τ0 un punto della zona interna (per esempio τ0 = 0 ),
) - 1*
′ −τ 3/2 3 τ s3/2 0 3/2
X1 = e c1 + e c0 − Γ(2/3, s ) ds
4 τ0

da cui segue - - -
τ
3/2 3 τ
3/2
s
3/2
0 1
X1 (τ ) = c1 e−s ds + e−s eσ X0 (σ) − 1 dσ ds .
0 4 0 τ0

Si nota però che sussistono le relazioni


- τ ∞
=
−s3/2 (−1)k
e ds = τ 1+3k/2
0 k!(1 + 3k/2)
k=0
- s =∞
3/2 1
eσ dσ = s1+3k/2
0 k!(1 + 3k/2)
k=0
- τ - s =∞
3/2 3/2 an
e−s eσ dσ ds = τ 2+3n/2
0 0 n=0
2 + 3n/2

= (−1)k
Γ(u, z) − Γ(u) = − z u+k
k!(u + k)
k=0

e quindi le

=∞ =∞
2/3 1 3n/2
eσ Γ(2/3, σ 3/2 ) = Γ(2/3) σ +σ gm σ 3m/2
n=0
n! m=0
- s ∞
= ∞
=
3/2 3/2
e−s eσ Γ(2/3, σ 3/2 )dσ = Γ(2/3) ℓn s1+3n/2 + hn s2+3n/2
0 n=0 m=0
- τ - s =∞ =∞
3/2 3/2 ℓn hn
e−s eσ Γ(2/3, σ 3/2 )dσds = Γ(2/3) τ 2+3n/2 + τ 3+3n/2
0 0 n=0
2 + 3n/2 n=0
3 + 3n/2

ove
n
= n
=
(−1)(n−h) (−1)n−k
an : = ; ℓn : = ;
(n − h)!h!(1 + 3h/2) k!(1 + 3k/2)(n − k)!
h=0 k=0
=m =n
(−1)k+1 gm (−1)n−m
gm : = 2 ; hn : = .
k=0
k!( 3 + k)(m − k)! m=0
(n − m)! + 2 + 3m/2

Pertanto si riconosce che


) ) * ) **
2 2 2 3/2
X1 (τ ) = c1 Γ −Γ , τ
3 3 3
) *
3 = c0 an + Γ(2/3) ℓn hn
+ + τ τ 2+3n/2 .
4 n=0 2 + 3n/2 3 + 3n/2

Note di Sistemi Dinamici


356 Capitolo 6. Alcuni Metodi Perturbativi

Se ne conclude che ( 1 x)(t, ε) ∼ X0 (τ (t)) + ε1/3 X1 (τ (t)) non ha singolarità in t = 0 , cosa che invece accade
alla x1 (t), e che quindi per il primo ordine il metodo del matching non è accettabile. Ciò non produce alcun
miglioramento alla C0.0 .

Sperando di ottenere un risultato migliore si può provare con il Metodo delle scale multiple. Siano t =: δ(ε) t∗
ed
x(t, ε) = X0 (t, t∗ ) + β1 (ε)X1 (t, t∗ ) + β2 (ε)X2 (t, t∗ ) + β3 (ε)X3 (t, t∗ ).
d 1 d2 1 2
Si ottiene: = ∂t + ∂t∗ , ed = ∂t2 + 2 ∂t2∗ + ∂tt∗ . Ne segue
dt δ dt2 δ δ
⎧ ) * ) *
1 2 2 √ 1

⎪ 2
4 ε ∂t + 2 ∂t∗ + ∂tt∗ (X0 +β1 X1 + β2 X2 + β3 X3 ) + 6 t ∂t + ∂t∗

⎪ δ δ δ


× (X0 + β1 X1 + β2 X2 + β3 X3 ) − 3 (X0 + β1 X1 + β2 X2 + β3 X3 − 1) = 0



⎪ X0 (0, 0) = 0, X1 (0, 0) = 0, X2 (0, 0) = 0, X3 (0, 0) = 0


X0 (1, 1/δ) = 3, X1 (1, 1/δ) = 0, X2 (1, 1/δ) = 0, X3 (1, 1/δ) = 0.
√ √
Con ε/δ 2 = 1/ δ , ovvero nuovamente con δ = ε2/3 , e con β1 = δ , β2 = δ , β3 = δ 3/2 , si hanno le
equazioni 0 1
√ √
O(1/ δ) : 4∂t2∗ + 6 t∗ ∂t∗ X0 = 0
0 √ 1 √
O(1) : 4∂t2∗ + 6 t∗ ∂t∗ X1 − 3(X0 − 1) + 6 t ∂t X0 = 0
√ 0 √ 1 √
O( δ) : 4∂t2∗ + 6 t∗ ∂t∗ X2 − 3X1 + 6 t ∂t X1 + 8∂tt∗ X0 = 0
0 √ 1 √
O(δ) : 4∂t2∗ + 6 t∗ ∂t∗ X3 − 3X2 + 6 t ∂t X2 + 8∂tt∗ X1 = 0
72 8
Dalla prima segue X0 (t, t∗ ) = a(t)Γ 3, t∗3/2 + b(t) e quindi la seconda dà
0 √ 1 0 √ 1 )2 * 0
√ 1
4∂t2∗ + 6 t∗ ∂t∗ X1 + 6 t ȧ − 3a Γ , t∗3/2 + 6 t ḃ − 3b + 3 = 0
3

per cui, la regola di Lighthill suggerisce



⎪ 1 ( √

⎨ ȧ − √ a = 0 t
2 t a(t) = a∗ e
⇒ √

⎪ 1 1 b(t) = 1 + b∗ e t
⎩ ḃ − √ b = − √
2 t 2 t

insieme con le condizioni ausiliarie


⎧ ) * ⎧ ) *
⎪ 2 ⎪ 2

⎨ X 0 (0, 0) = a ∗ Γ + b∗ + 1 = 0 ⎪ b
⎨ ∗ = −1 − a ∗ Γ
3 3
) * ⇒

⎪ 2 1 ⎪
⎪ 2+e
⎩ X0 (1, 1/δ) = a∗ eΓ , + b∗ e + 1 = 3 ⎩ a∗ = 7 7 8 7 2 88
3 ε e Γ 23 , 1
ε −Γ 3

0 72 8 7 2 8 1−1
1
In definitiva, con le ulteriori posizioni γ := 1−Γ 3, ε /Γ 3 ed a∗ = −κ γ , al primo ordine si ricava
lo sviluppo + ) * ) *,
√ √ 2 ∗3/2 2
X0 (t, t∗ ) = 1 − e t
+ a∗ e t
Γ , t −Γ .
3 3
e quindi, all’ordine zero si trova
√ √ 0 1
xScMlt
0 (t, ε) = 1 + (c0 γ + (γ − 1)) e t
− κγe t
Γ 2/3, t3/2 /ε .

La figura mostra la xScMlt


0 valutata per ε = 0.1 .

M. Lo Schiavo
6.2. Metodi di Stiramento delle Coordinate 357

3
2.5
2
1.5
1
0.5

0.2 0.4 0.6 0.8 1



72 ∗3/2
8
Le scelte fatte forniscono ancora X1 (t, t ) = a1 (t)Γ 3 , t + b1 (t) e la regola di Lighthill implica a1 (t) =
b1 (t) = 0 .
Pertanto dalla terza equazione, e ricordando che ∂z Γ(u, z) = −z u−1 e−z , si trova
0 √ 1 6a∗ 1/2 ∗ 3/2
4∂t2∗ + 6 t∗ ∂t∗ X2 = −8∂tt∗ X0 = √ et −t .
t

t∗ 3/2 ∂X2 3a∗ e t
Segue e ∗
= a2 (t) + t∗ √ da cui (ricorrendo alle condizioni ausiliarie)
∂t 2 t
√ ) √ + ) * ) *,*
∗ 3a∗ e t 2 t∗ −t∗ 3/2 2 1 ∗3/2 1
X2 (t, t ) = − √ e + Γ , t −Γ
2 t 3 9 3 3
+ ) * ) *,
2a2 (t) 2 ∗3/2 2
− Γ , t −Γ + b2 (t)
3 3 3

Per il calcolo dei coefficienti a2 , b2 occorre servirsi della quarta equazione, quella all’ordine δ , sulla quale la regola
di Lighthill dà
+ ) * ) *, 0 1
√ 2 ∗3/2 2 √
0 = −3X2 + 6 t ∂t X2 = Γ , t −Γ 2a2 − 4 t ȧ2
3 3
√ ) + ) * ) *,*
0 √ 1 3a∗ e t √ −t∗3/2 1 1 ∗3/2 1
+ −3b2 + 6 t ḃ2 + ∗
t e + Γ , t −Γ .
t 3 3 3

Se ne conclude √ √
t t
a2 (t) = ae , b2 (t) = be
che dà √ ) + ) * ) *,*
∗ a∗ e t √ ∗ −t∗3/2 1 1 ∗3/2 1
X2 (t, t ) = − √ t e + Γ , t −Γ
t 3 3 3

) + ) * ) *,*
2 2 ∗3/2 2
+e t b− a Γ , t −Γ
3 3 3
L’esame degli sviluppi in serie del primo termine mostra che la condizione X2 (0, 0) = 0 è da esso verificata; quindi
occorre solo che sia b = 0 . D’altra parte si ha
) + ) * ) *,*
1 −δ−3/2 1 1 −3/2 1
X2 (1, 1/δ) = 0 = − a∗ e √ e + Γ , δ −Γ
δ 3 3 3
+ ) * ) *,
2 2 −3/2 2
− ea Γ , δ −Γ
3 3 3

che d’à ) + ) * ) *, 2 *
1 1 1
e−1/ε + ε1/3 Γ , −Γ 3
3 ε 3
a = −3 a∗ ε−1/3 c∗ con c∗ := ) ) * ) ** .
2 1 2
2 Γ , −Γ
3 ε 3
Pertanto + ) * ) *,

2 ∗3/2 2
2/3 ∗ 1/3 t
ε X2 (t, t ) = ε 2a∗ c∗ e Γ , t −Γ
3 3
√ ) + ) * ) *,*
2/3 e t √ ∗ −t∗3/2 1 1 ∗3/2 1
− ε a∗ √ t e + Γ , t −Γ .
t 3 3 3

Note di Sistemi Dinamici


358 Capitolo 6. Alcuni Metodi Perturbativi

Essendo t∗3/2 = t3/2 /ε e ricordando che a∗ = −κγ se ne conclude che


) *
√ √ 2 t3/2
xScMlt (t, ε) ∼1 + (c0 γ + (γ − 1))e t − κγ e t Γ ,
3 ε
I ) ) * ) ** 3/2
J
1/3

t 2 2 t3/2 e−t /ε
+ 2ε κγ e c∗ Γ −Γ , +
3 3 ε 2
√ + ) * ) *,
e t 1 1 t3/2
− ε2/3 κγ √ Γ −Γ ,
3 t 3 3 ε

Ad esempio, e per ε = 0.1 , / si calcolano i particolari valori:


(1 + c0 )
c0 = 2/e ∼ 0.73576 , κ= ∼ 1.28184 ,
Γ (2/3)
Γ (2/3)
γ= 0 1 ∼ 1.00002 ,
Γ (2/3) − Γ (2/3, 1/ε)
a∗ = −κγ ∼ −1.28186 , c∗ ∼ 0.15303 ,
che permettono di tracciare i seguenti grafici dei quali il primo gruppo è relativo alle soluzioni mediante le Scale
multiple, il secondo mostra un paragone fra la x0 e la somma xScMlt
1 + xScMlt
2 + xScMlt
3 , e il terzo è riepilogativo.
3 3 0.2 0.4 0.6 0.8 1
2.5 2.5 -0.2
2 2
-0.4
1.5 1.5
-0.6
1 1
0.5 0.5 -0.8

0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 -1

xScMlt
1 xScMlt
2 xScMlt
3

3
2.5
xScMlt
1
+ xScMlt + xScMlt
2 3
2
1.5
1
² = 0.1
0.5

0.2 0.4 0.6 0.8 1

3
2.5
xScMlt
1+2+3
2 xScMlt
0

1.5 C00
Num
1
0.5

0.2 0.4 0.6 0.8 1


In definitiva si riconosce che anche le Scale Multiple non forniscono alcun miglioramento alla prima soluzione
composta C0,0 trovata con l’A.M.P. la quale, d’altra parte, si dimostra già accettabilmente corretta. #

6.3 Il pendolo fisico e l’equazione di Duffing


Si voglia discutere l’equazione del pendolo fisico:
θ̈ + ω02 sin θ = 0, θ0 ∈ R, (3.64)

M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 359

con ω02 := g/ℓ, e condizioni iniziali opportune affinchè sia ∥θ(t)∥∞ < ∞.
Come si è visto nel Cap.III § 4, la funzione 12 θ̇2 − ω02 cos θ è un integrale primo del moto; se ne deduce che
1 2 1
θ̇ = ω02 cos θ + θ̇02 − ω02 cos θ0 (3.65)
2 2
e che se E 0 := (1/2ω02 ) θ̇02 − cos θ0 è maggiore di +1 allora il valore della funzione θ̇2 (t) rimane strettamente
positivo per ogni t ∈ R, e quindi la θ(t) cresce indefinitamente. Se invece è −1 ≤ E 0 < 1 , risulta ben definito
ed in [0, π) il valore, massimo durante il moto, dell’arco θ
' ) *'
' 1 2 '
'
θM := 'arccos − θ̇ + cos θ0 '' ;
2ω02 0

e dovendo essere θ̇2 ≥ 0 , dalla (3.65) si ricava che |θ(t)| < θM , per ogni t.
Si ponga θ(t) =: αx(t); per costruzione risulta x ∈ [−1, +1] per ogni t ∈ R, e cioè risulta x = Os (1) . È
questa, in generale, la condizione da richiedere alle variabili sulle quali adoperare i vari metodi perturbativi. Tale
condizione risulta quindi verificata nella seconda delle eventualità viste, con α ≡ θM . Se poi le condizioni iniziali
sulla (3.64) sono addirittura tali che θM ≡ α ≪ 1 , allora la (3.64) stessa, sviluppata rispetto al parametro piccolo
α (si badi bene, e non rispetto all’incognita soluzione), diviene
) *
2 1 3 3 1 5 5 7
αẍ + ω0 αx − α x + α x + O(α ) = 0.
6 5!

Tutto ciò permette, ma solo dopo aver eseguito la discussione appena fatta ed essersi quindi serviti dell’integrale
primo del moto e di tutte le sue conseguenze circa la limitatezza e gli ordini di grandezza delle soluzioni, di concludere
che il sistema definito dalla (3.64) ha soluzioni che risultano descritto convenientemente bene, se localmente ed in
forma approssimata, dalla equazione del seguente esempio.

Esempio 6.3.1
l’Equazione di Duffing ẍ + ω02 x = εbx3 ; ε, b, ω0 ∈ R. (3.66)
Quando l’equazione (3.66) proviene dalla equazione (3.64), le costanti ε, b, ω0 sono legate a quelle del pendolo
fisico dalle relazioni:
α2 ω02 ω02 1 g
= εb con 0 < ε ≡ α2 ≡ θM
2
≪1 e b := := ∈ R+ . (3.67)
6 6 6 ℓ
I valori numerici che verranno usati per tracciare i grafici più avanti sono:

ℓ = 1m, ω02 = 10s−2 , b ∼ 1.666s−2,



θM = 5 o = 5 ∼ 0.087 , e quindi
360 (3.68)
2 εb θ2
ε = θM ∼ 0.0076 , 2 = M ∼ 0.00127.
ω0 6

È la (3.66) l’equazione che si vuole ora studiare; e lo si farà anche per valori negativi di b, data l’importanza che
essa autonomamente ricopre in molte altre applicazioni.
Innanzi tutto si osserva che sulla (3.66) si può nuovamente usare la metodologia vista nel citato paragrafo § III.4,
e cioè la discussione con i Metodi Qualitativi. Infatti anche l’equazione (3.66) ammette l’integrale primo:

1 2 ω02 2 εb 4
E = E (x, ẋ) := ẋ + V (x) con V (x) := x − x + V& .
2 2 4

Per riferimento, si può paragonare quest’ultima equazione con l’equazione del pendolo fisico:
sin θM x
ẍ + ω02 = 0, (3.69)
θM
2
nella quale ε = θM e 6b = ω02 . L’energia potenziale VP F della (3.69), con la scelta VP F (0) = V (0) = 0 ,
risulta
) 2 * ) *
ω02 ω2 θM θ4 ω02 2 εb 4
VP F (x) := 2
(1 − cos(θM x)) ∼ 20 x2 − M x4 4
+ o(θM ) = x − x + o(ε2 ) .
θM θM 2 24 2 4

Note di Sistemi Dinamici


360 Capitolo 6. Alcuni Metodi Perturbativi

3000

2000
V PF (x) 1000

-75 -50 -25 25 50 75


V (x) -1000

-2000

-3000

A seconda del segno di b possono darsi per la (3.66) i due casi:

b<0 “molla forte” e b > 0 “molla debole”


2000 2000

1000 1000

-40 -20 20 40 -40 -20 20 40

-1000 -1000

-2000 -2000

/
Il caso b > 0 ammette tre equilibri: xs = 0 ed xED 2
± = ± ω0 /εb, analogo a quello del pendolo per il quale si
hanno xs = 0 ed xP ±
F
= ±π/θ M
, cosı̀ disposti (se si assumono le (3.68)):
B √
ω02 /εb = 6/θM ∼ 28.1 < π/θM ∼ 36.0 ,

e si noti che entrambi sono |x± | ≫ 1 quest’ultimo essendo, sotto le attuali ipotesi, il massimo valore accettabile
per la |x| del pendolo.
In corrispondenza a condizioni iniziali tali che: x0 ∈ (x− , x+ ) e con
) * ) *
1 1 εb 4 ω4
E 0 := ẋ20 + V (x0 ) = ẋ20 + ω02 x20 − x0 tale che E 0 ∈ (0, V (x± )) ≡ 0 , 0 ,
2 2 2 4εb
si hanno traiettorie periodiche che racchiudono l’origine.
È interessante osservare che sussistono le valutazioni
ω04 3ω02 2ω02
V (|xED
± |) = = 2
∼ 1969.7 , VP F (|xP F
± |) = 2
∼ 2626.2 ,
4εb 2θM θM

e tali valori mostrano che le traiettorie del pendolo rimangono oscillazioni (limitate) anche se la E 0 è (un pò) più
grande di quanto necessario per l’analoga richiesta sulla (3.66). Per quest’ultima, tutte le traiettorie sono di questo
tipo nel caso b < 0 , e quindi quest’ultimo verrà inteso come un sottoinsieme dei precedenti.
Si assumano condizioni iniziali tali che ẋ0 = 0 e quindi con 0 < r0 := |x0 | che indica l’ampiezza massima
dell’oscillazione. Se b > 0 , o se si discute il pendolo, si assuma anche la condizione di periodicità del moto:
r0 < |x± |). Il caso particolare del pendolo si riconosce in r0 = 1 . Introducendo per brevità la (facile) funzione
d’ordine
δ = δ(ε) := εb/2ω02 , che nel pendolo fisico vale: δ P F = θM 2
/12 ∼ 0.00063 ,
si ottiene
/ B B
2(E 0 − V (ξ)) = ω0 r02 (1 − δ r02 ) − ξ 2 (1 − δ ξ 2 ) = ω0 (r02 − ξ 2 ) (1 − δ (r02 + ξ 2 )) .

In tali ipotesi, se nella relazione (valida per 0 < |x| ≤ x0 ≡ r0 , e per t0 = 0 )


- x - x
dξ 1 dξ
t=− / =− / /
r0 2(E 0 − V (ξ)) ω 0 r0 2
r0 − ξ 2 1 − δ (r02 + ξ 2 )
si operano le sostituzioni: ξ =: +r0 cos ϕ, dξ = −r0 sin ϕ dϕ, si ricava (senza fare approssimazioni)
- ϕ
1 r0 sin ϕ dϕ
t= / /
ω0 0 r0 (1 − cos ϕ) 1 − δ r02 (1 + cos2 ϕ)
2 2
- ϕ - ϕ (3.70)
1 dϕ 1 dϕ
= B = / B ,
ω0 0 2 2
1 − δ r0 (2 − sin ϕ) ω 0 1 − 2 δ r 2
0 0 1 + δε r02 sin2 ϕ

M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 361

ove si è chiamata
) *
δ 7 8 εb εb 2 εb
δε := ∼ δ 1 + 2δ r02 = 1+ r ∼ δ ≡ ,
2
1 − 2δ r0 2ω02 ω02 0 2ω02

e si osservi che la δε ha sensibilmente lo stesso valore della δ ; ad esempio nel caso del pendolo fisico esse sono
entrambe (all’ordine O(ε2 )) δε ∼ δ = ε/12 ∼ 0.00063 .
Tramite la (3.70) si può calcolare l’espressione esatta del periodo dei moti7 periodici
8 soluzioni della (3.66), e cioè
quelli uscenti da dati iniziali (se b > 0 ) tali che r0 < |x± | ed E 0 = r02 1 − δ r02 /2 . Essa è:
- π/2
4 dϕ
T = / B . (3.71)
ω0 1 − 2 δ r02 0 1 + δε r02 sin2 ϕ

Qualora invece sia sufficiente solo una stima del periodo, ed inoltre sussista l’ipotesi εb/ω02 ≪ 1 e quindi δ ∼ δε ≪ 1
jB
come nel caso (3.68), ci si può servire dello sviluppo: 1 1 + δε r02 sin2 ϕ ∼ 1 − (1/2)δε r02 sin2 ϕ mediante il
quale si valuta
4 0π π 1 4 7 8 0π π 1
2 2 2
T∼ / − δ ε r0 + . . . ∼ 1 + δ r 0 − δ r0 + . . .
ω0 1 − 2 δ r02 2 8 ω0 2 8
) * ) * (3.72)
4π 1 3 2 2π 3 εb 2
∼ + δ r0 + . . . ∼ 1+ r .
ω0 2 8 ω0 8 ω02 0

Ciò mostra che diversamente dal caso lineare il periodo delle oscillazioni della (3.66), anche se piccole, dipende in
modo esplicito dall’ampiezza massima r0 delle oscillazioni stesse.
Quando la (3.66) proviene dalla (3.69) la
) definizione di θM e la scelta ẋ0 = 0 assegnano r0 = 1 , e si ritrova il
2 *
2π θM
valore (già valutato nel §III.4) TP F ∼ 1+ ∼ 1.9869 × (1.0 + 0.000476).
ω0 16

N.B. 6.3.2 Ovviamente, anche il periodo esatto del pendolo fisico può essere calcolato a partire dal suo integrale
primo E = ẋ2 /2 + V = cost. Per esso si ha ẋ2 = 2ω02 (cos θM x − cos θM )/θM2
, da cui
- 1
4θM dx
TP F = / .
ω0 0 2(cos θM x − cos θM )

Per esprimerlo più convenientemente si possono usare le seguenti posizioni


) * ) *
2 θM 2 θM x 2 θM x
7 8
2(cos θM x − cos θM ) = 4 sin − sin &2
=: 4 δ − sin =: 4δ&2 1 − sin2 ψ ,
2 2 2
1 θ x θM θ x θ dx dψ
sin M =: sin ψ , cos M dx = cos ψ dψ , /M = B ,
&
δ 2 2δ& 2 &
2δ 1 − sin ψ2
1 − δ&2 sin2 ψ

tramite le quali, e servendosi della loro conseguenza


- 1 - 1 - π/2
θM dx θ dx dψ
B = B M = B ,
θM θ x
0 4(sin2 2 − sin2 M2 ) 0 2δ& 1 − sin2 ψ(x) 0 &2 2
1 − δ sin ψ

si ottiene una più conveniente espressione per il valore esatto del periodo del pendolo:
- 1 - π/2
4θM dx 4 dψ
TP F = / = B (3.73)
ω0 2(cos x − cos θM ) ω0
0 0
1 − δ&2 sin2 ψ

Nell’ipotesi di piccoli valori per la costante θM ≡ ε , e quindi per δ& := | sin θM /2| ≪ 1 , si può ottenere
la stima di tale periodo. Infatti, a partire dalle seguenti relazioni, (delle quali la (3.74a) e la (3.74c) sono tanto
più vere quanto più ε > 0 è vicino allo zero, e quindi, in questo caso, quanto più è piccola l’ampiezza massima
dell’oscillazione): ) *'
1 1 ' ε
√ ≃ 1 + ε − (1 − ε)−3/2 (−1) ' = 1+ ; (3.74a)
1−ε 2 ε=0 2

Note di Sistemi Dinamici


362 Capitolo 6. Alcuni Metodi Perturbativi

- π
π
sin2 ψ dψ = ; (3.74b)
0 2
ε2 ε3
sin ε ≃ 0 + ε − 0+ . (3.74c)
2 6
si ha, successivamente:
- @ A
4 π
δ&2 sin2 ψ
TP F ≃ 1+ dψ , (per la (3.74a));
ω0 0 2
@ A
2π δ&2
= 1+ , (per la (3.74b));
ω0 4
) *
2π θ2
≃ 1+ M , (per la (3.74c)),
ω0 16

ed è quindi evidente che, contrariamente a quanto accade per l’oscillatore armonico lineare, anche nel caso di piccole
oscillazioni il periodo del pendolo fisico dipende dall’ampiezza massima θM dell’oscillazione, e cioè dall’energia
iniziale.
Nei passaggi qui sopra sono state usate
Il cosiddetto Integrale ellittico di prima specie che compare nella (3.73), convergente quando δ& := | sin θM /2| < 1 ,
si sarebbe potuto esprimere anche con l’aiuto delle funzioni ipergeometriche, (si veda § I.6):
- ) * ∞
π/2
dψ & ≡ F 1 1 π = (1/2)n (1/2)n &2n
B =: K(δ) , , 1; δ 2 := δ , (3.75)
2 2 2 n=0 n!(1)n
0
1 − δ&2 sin2 ψ

e fornisce il valore esatto del periodo del pendolo fisico: TP F = 4K(δ)/ω & 0 . Il valore che si è stimato qui sopra:
7 2
8
2π 1 + θM /16 /ω0 ne è una prima approssimazione valida solo nel caso in cui l’ampiezza massima dell’oscillazione:
θM sia piccola (e ciò accade
+ quando è, piccola l’energia E 0 ). In tal caso sin θM /2 ∼ θM /2 e i primi due termini
θ2
della serie (3.75) sono 1 + ( 12 )( 12 ) M
4 .
Lo stesso procedimento permette di esprimere anche il periodo (3.71) dei moti oscillatori dell’equazione di
Duffing in modo alternativo a quanto fatto nella (3.72). Si ha infatti
) B * ) *
4 2 4 7 2
8 π 1 2
T = / K − δε r0 ∼ 1 + δ r0 1 − δε r0
ω0 1 − 2 δ r02 ω0 2 4
) * ) * (3.76)
2π 3 2 2π 3 εb 2
∼ 1 + δ r0 + . . . ∼ 1+ r .
ω0 4 ω0 8 ω02 0

Per poter procedere (in modo non numerico) a una stima anche delle soluzioni della (3.66) si può ricorrere ai
metodi perturbativi. Sia, come detto sopra, ẋ(0) = 0 ed |x(0)| < |x± |, e si inizi con il
Metodo Perturbativo Diretto.
Il problema P 0 per la (3.66) è ben noto, e dà soluzioni 2π/ω0 -periodiche:

x0 (t) = r0 cos (ω0 t + ϕ0 ) .

Se si attribuiscono tutte le condizioni iniziali alla x0 (t, ε), la r0 ≡ |x0 (0)| coincide con la r0 ≡ |x(0)|, e corrisponde
all’ampiezza massima dell’oscillazione (e come tale vale 1 ) e quindi ϕ0 = 0 .
All’ordine uno si ha
) *
1 3
ẍ1 + ω02 x1 = br03 cos3 ω0 t = br03 cos 3ω0 t + cos ω0 t
4 4

infatti (con c.c ad intendere il complesso coniugato del termine che lo precede)
) *3 ) *
eiψ e−iψ e3iψ 3eiψ 1 3
cos3 ψ = + = + c.c. + + c.c. = cos 3ψ + cos ψ .
2 2 8 8 4 4

M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 363

Date le risonanze, si prova con z1 e3iω0 t + z2 teiω0 t (si veda il N.B. 6.1.11 del paragrafo 1), ottenendo
) * ) *
1 3
0 = −9ω02 z1 + ω02 z1 − br03 e3iω0 t + 2iω0 z2 − br03 eiω0 t ,
4 4
da cui: z1 = br03 /(−32ω02), e z2 = 3br03 /(8iω0 ). Di conseguenza, la soluzione completa del problema P 1 è
3b 3 b
x1 (t) = r1 cos(ω0 t + ϕ1 ) + r t sin ω0 t − r3 cos 3ω0 t
8ω0 0 32ω02 0
nella quale si nota subito una non uniformità dello sviluppo asintotico per tempi grandi. Imponendo le condizioni
iniziali x1 (0) = ẋ1 (0) = 0 si ottiene ϕ1 = 0 e r1 = br03 /32ω02 , da cui infine
εb 0 1
xdir (t, ε) = r0 cos ω0 t + r0
3
cos ω 0 t − cos 3ω 0 t + 12ω 0 t sin ω 0 t . (3.77)
32ω02
Nel caso (3.67) si ha b/32ω02 = 1/192 e quindi il coefficiente della x1 , calcolato per ε = θM 2
∼ 0.0076 , vale
2
ε/192 = θM /192 = 0.00003967 .
La seguente figura mostra il grafico della soluzione x &(t, ε) dell’equazione (3.66) trovata numericamente in
corrispondenza ai valori detti sopra, e la differenza fra questa e la xdir .
1
0.0004

0.5 0.0002

5 10 15 20 5 10 15 20

-0.5 -0.0002

-0.0004
-1

e(t; ")
x e(t; ") ¡ xdir (t; ")
x
#

N.B. 6.3.3 Si osservi che il primo addendo dell’espressione trovata è la correzione O(ε) della soluzione del problema
omogeneo la quale, volendo, si può anche scrivere come xom (t) = r cos(ω0 t + ϕ) con
r = r0 + εr̃1 + ε2 r̃2 + . . . e ϕ = ϕ0 + εϕ̃1 + ε2 ϕ̃2 + . . . .
Nayfeh ([§4.1]), per esempio, prosegue risolvendo solo i problemi particolari e lascia le costanti in gioco ancora
dipendenti dal parametro ε . Si tratta di paragonare
r0 cos(ω0 t + ϕ0 ) + εr1 cos(ω0 t + ϕ1 ) + ...
= (r0 cos ϕ0 + εr1 cos ϕ1 + . . .) cos ω0 t
− (r0 sin ϕ0 + εr1 sin ϕ1 + . . .) sin ω0 t
con
r cos (ω0 t + ϕ) = (r0 + εr̃1 + . . .) cos(ϕ0 + εϕ̃1 + . . .) cos ω0 t
− (r0 + εr̃1 + . . .) sin(ϕ0 + εϕ̃1 + . . .) sin ω0 t .
Le condizioni ausiliarie sono comunque
d d d
x(0) = x0 (0), x(0) = x0 (0) e x1 (0) = 0, x1 (0) = 0
dt dt dt
e permettono la determinazione delle (r0 , r̃1 , ϕ0 , ϕ̃1 ) altrettanto bene quanto quella delle (r0 , r1 , ϕ0 , ϕ1 ).
Sotto l’aspetto del mantenere il contatto con quanto si sta facendo, il risolvere uno per uno i vari problemi P n
ai vari ordini ivi comprese le equazioni omogenee e le condizioni ausiliarie, può essere preferibile. ♦

Come si è osservato, nel correggere una soluzione periodica nelle coordinate (x, ẋ) il metodo diretto ha generato
una soluzione non valida per tempi grandi; in più la correzione risulta poco credibile anche per quanto riguarda la
periodicità, che si è persa.
Per tentare di evitare tali inconsistenze occorre usare qualche altro metodo, e l’intrinseca natura periodica dei
moti in esame consiglia di iniziare con il:

Note di Sistemi Dinamici


364 Capitolo 6. Alcuni Metodi Perturbativi

Metodo della media


Si consideri un “sistema azione-angolo” della forma
(
ṙ = 0
θ̇ = −ω0 ;

e la seguente variazione O(ε) di tale sistema


(
ṙ = ε f (1) (r, θ, ε)
(3.78)
θ̇ = −ω0 + ε f (2) (r, θ, ε)

con f (1,2) = O(1) e 2π -periodiche nella loro seconda variabile. Per esempio
(
ṙ = ε(a + b cos θ)
con r0 , a, b, ω0 ∈ R . (3.79)
θ̇ = −ω0

Introdotta la nuova variabile ϕ := −ω0 t − θ la seconda delle (3.78) fornisce, per ε = 0 , la ϕ̇ = 0 , e quindi il
sistema iniziale può anche essere scritto come:
(
ṙ = ε f&(1) (t; r, ϕ; ε)
(3.80)
ϕ̇ = ε f&(2) (t; r, ϕ; ε)

per il quale ci si aspetta che le coordinate (r, ϕ) siano “lentamente variabili”, ed in cui la (f&(1) , f&(2) ) rappresenta
un campo quasi periodico rispetto a t, C 1 rispetto ad (r, ϕ, ε) e uniformemente rispetto a t. L’equazione (3.80)
risulta cioè del tipo: (
ẋ = ε f (t, x, ε) ,
Forma AP standard (3.81)
f : R1 × Rn × (0, ε+ ] → Rn ,
con
f (·, x, ε) ∈ AP ovvero: f “quasi-periodica” rispetto a t ∈ R,
uniformemente per x ∈ K, con K ⊂ Rn compatto, (3.82)
ed f (t, ·, ·) ∈ C 1 (K × (0, ε+ ]), uniformemente per t ∈ R1 .

Si supponga di avere un problema del tipo (3.80) con la f che verifichi le ipotesi (3.82).

Teorema 6.3.1 (si veda: [Hale Cap.V § 3])


Esiste una funzione u : R1 × Rn × (0, ε+ ], u = u(t, y, ε), continua, quasi periodica rispetto a t, la quale (pur
potendo non essere O(1) per ε → 0 ) verifica simultaneamente ed uniformemente rispetto a t ∈ R e y ∈ K ⊂ Rn
compatto le relazioni

⎪ ε u(t, y, ε) = o(1),


⎨ ε ∂y u(t, y, ε) = o(1),
(3.83)

⎪ ∂t u(t, y, ε) − f (t, y, 0) + f 0 (y) = o(1),


∂ty u(t, y, ε) − ∂y f (t, y, 0) + ∂y f0 (y) = o(1),
ove -
1 t
f0 (y) := lim f (t, y, 0)dt ; (3.84)
t→∞ T 0
(e si noti che nella (3.84) la y viene trattata come parametro indipendente, e che non occorre calcolare il limite se
la f è periodica di periodo T ). La funzione u(t, y, ε) è tale che la

x = h(y) := y + εu(t, y, ε) data da x &→ y h−1 (x) = y(t, x, ε) (3.85)

definisce una trasformazione di coordinate su R × K × (0, ε+ ].

Servendosi della trasformazione (3.85), l’equazione (3.80) diviene (rispetto alle nuove variabili) l’equivalente
equazione: 0 1
(1I + ε∂y u(t, y, ε)) ẏ = εf0 (y) + ε f (t, y, 0) − f0 (y) − ∂t u(t, y, ε)
0 1 (3.86)
+ ε f (t, y + εu(t, y, ε), ε) − f (t, y, 0) .

M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 365

Su quest’ultima si può notare che, in virtù della regolarità della f e delle caratteristiche su elencate per la funzione
u , gli ultimi due addendi del secondo membro hanno le stesse proprietà della f ed in più sono o(ε) .
In conclusione: esiste una trasformazione di coordinate, che per ε piccoli è quasi l’identità, a seguito della
quale l’equazione che si ottiene a partire da quella data (3.81) ne è (al primo ordine) la media temporale:

ẏ = ε f0 (y) + εf1 (t, y, ε), (3.87)

infatti il termine correttivo f1 (t, y, ε) che si calcola dalla (3.86) ha le stesse proprietà della f ed è o(1). In più si
verifica che la soluzione x = x(t, ε) della (3.81) e la soluzione y = y(t, ε) della (3.87) restano, per tempi O(1/ε),
distanti fra loro O(ε) se tali sono stati i loro dati iniziali.

N.B. 6.3.4 Se la differenza f (t, x, 0) − f0 (x) è un polinomio trigonometrico avente per coefficienti funzioni intere
CN 1
della x, la corretta trasformazione è addirittura indipendente dalla ε ed è data dalla u(t, x) := k=1 ak (x) eiωk t
CN iω k
nella quale i coefficienti sono quelli per i quali f (t, x, 0) − f0 (x) = k=1 ak (x)eiωk t . ♦
'
Inoltre, se x0 è uno zero isolato della determining equation f0 (x) = 0 , e detta A0 la matrice ∂x f0 'x=x , mediante
0
l’ulteriore posizione y =: x0 + z si può trasformare il sistema dato nel sistema quasi lineare:

ż = ε A0 z + ε g(t, z, ε)

(ove g(t, z, ε) ha le stesse proprietà della f ed è o(1)), e sul quale è agevole usare i teoremi di continuità per
gli sviluppi perturbativi (vedi: [Hale §IV.4]). Se ne deduce (si osservi che in questo esempio la x rappresenta
grandezze lentamente variabili) la
'
Proposizione 6.3.1 Se la matrice A0 := ∂x f0 'x=x è iperbolica, allora:
0

(i) x(t, ε) := x0 + z(t, ε) + εu(t, x0 + z, ε) è l’unica soluzione di ẋ = εf (t, x, ε) sufficientemente prossima a x0


che verifichi x(t, 0) = x0 ed abbia le stesse proprietà delle funzioni f e g (e cioè sia continua, o quasi
periodica, o periodica, o limitata, a seconda che tali siano f e g );
(ii) le proprietà di stabilità della x(t, 0) sono determinate dalla segnatura delle parti reali degli autovalori della
matrice A0 .

In modo analogo si possono trattare sistemi del tipo

ẋ = εfb (t, x) + εfℓ (εt, x)

con fb , fℓ regolari almeno quanto la precedente f , con fℓ almeno C 2 rispetto a x, con fb quasi periodica in t,
e con fℓ periodica di periodo T = O(1) nella sua prima variabile (il “tempo lento”: t1 = εt) e, come tale, quasi
costante sui tempi O(1). Sotto tali ipotesi si ottiene l’equazione mediata:

ẋ = ε f&0 (x) + ε fℓ (εt, x) (3.88)

ove f&0 è la media di fb ; e quindi la (3.88) può essere riscritta nella

d
“Guiding equation” x = f&0 (x) + fℓ (t1 , x) (3.89)
dt1
che ha campo T -periodico nella variabile t1 . Se ne ricava la

Proposizione 6.3.2 Se l’equazione (3.89) ammette una soluzione x


!0 (t1 ) ≡ x
!0 (εt), che sia (T/ε)-periodica nella
variabile t, allora la funzione

!0 (εt) + z(εt, ε) + εu(t, x


x(t, ε) := x !0 (εt) + z(εt, ε), ε)

ha le proprietà (i) come enunciate nella Proposizione 6.3.1, e la funzione z(εt, ε) è ora soluzione dell’equazione
quasi lineare:
ż = εA(εt)z + εg(t, εt, z, ε)
'
con A(εt) := ∂x (f&0 + fℓ ) 'x=!x e con g(t, εt, z, ε) quasi periodica nella sua prima variabile, T -periodica
0
nella seconda, ed o(1).

Note di Sistemi Dinamici


366 Capitolo 6. Alcuni Metodi Perturbativi

Nell’esempio (3.79) che si sta discutendo si ha f (t, x, ε) = a + b cos ω0 t e quindi l’equazione mediata per la
prima componente è ẏ = εa dalla quale risulta x(t, ε) = x0 + εat + o(ε).
Questa stessa espressione si sarebbe potuta ottenere anche come applicazione del secondo Corollario qui sopra,
e cioè considerando
fb (t, x) = b cos ω0 t ed fℓ (t, x) = a .
d
Se ne ricava f&0 = 0 ed A0 = 0 , e quindi il problema mediato !0 (εt) = x0 +aεt.
x = a , la cui soluzione è x
d(εt)
Pertanto in entrambi i modi si trova
x(t, ε) = x0 + εat + o(ε) .
Tale espressione va confrontata con la soluzione esatta del problema (3.79):
εb
&(t, ε) = x0 + εat +
x sin ω0 t .
ω0
Si noti che la differenza fra le due espressioni è un termine oscillatorio, piccolo per tempi grandi, cosı̀ come era
piccolo, in quanto rapidamente oscillante, il termine cos ω0 t rispetto al termine a, che invece è comunque presente
anche a tempi lunghi.
Si noti infine che, per la terza delle (3.83), la funzione u(t, x, ε) è (se non in modo esatto, almeno approssimato)
l’integrale rispetto al tempo della parte oscillante del campo, e cioè della differenza f (t, x, 0) − f0 (x); in questo
esempio risulta proprio u(t, x, ε) = (b/ω0 ) sin ω0 t . #

N.B. 6.3.5 In effetti è possibile applicare il metodo della media anche ad equazioni, quali ad esempio l’equazione
di Duffing (3.66), il cui campo non sia della forma (3.81), purchè per esse il problema all’ordine zero abbia soluzioni
periodiche. Per far ciò si introduce l’ulteriore trasformazione di coordinate che esprime le coordinate attuali relative
a tale evoluzione in funzione di quelle dei dati iniziali. Se anche queste ultime vengono assunte come, debolmente,
dipendenti dal tempo, si può studiare il sistema differenziale che ne regola l’evoluzione sfruttando il fatto che la
debole dipendenza dal tempo e le ipotesi sulla soluzione del problema all’ordine zero forniscono un campo O(ε) e
quasi periodico, e quindi adatto all’applicazione del metodo di media.
Per vederlo, si consideri un’equazione del tipo
ẋ = v(t, x, ε) := g1 (x) + ε g2 (t, x, ε) , con t &→ g2 ( · , x, ε) ∈ Per(T), (3.90)
e per la quale si sospettano soluzioni T -periodiche a meno di coefficienti “lentamente variabili”. La (3.90) può essere
trasformata mediante il seguente schema generale (salvo il caso in cui siano presenti risonanze) in una equazione
sulla quale usare il metodo di media. A tale scopo si indichi con q ∈ Rn il vettore dei dati iniziali, e con
x0 = x0 (t, q), x0 : R1 × Rn → Rn , la soluzione generale, T -periodica rispetto alla t, del problema all’ordine
zero della ẋ = v(t, x, ε). Sussista cioè l’identità
d
x0 (t, q) = v(t, x0 (t, q), 0) con q ∈ Rn .
dt
Si assuma poi che la q dipenda esplicitamente dal tempo (oltre che dalla ε che però qui va considerata solo come
un parametro, e non una variabile), e quindi che la derivata totale d/dt della x0 (t, q(t)) risulti, invece,
v(t, x0 (t, q(t)), 0) + ∂q x0 (t, q(t)) q̇(t) .
Quest’ultimo vettore è ciò che si eguaglia a quello assegnato: v(t, x0 (t, q(t)), ε).
In tal modo la soluzione del problema (3.90) resta espressa (all’ordine O(ε)) dalla funzione x0 (t, q(t)), ove
d
x0 (t, q) è la soluzione del problema ridotto: x = v(t, x, 0) ≡ g1 (x) con condizioni iniziali x(0) = q,
dt
e con q = q(t) la funzione che (ancora all’ordine O(ε)) è soluzione dell’equazione
∂q x0 (t, q) q̇ = ε vε (t, x0 (t, q); 0) ≡ ε g2 (t, x0 (t, q), 0) , (3.91)
con condizioni iniziali ricavate dall’equazione originaria (3.90).
L’equazione (3.91) ha la forma corretta per l’uso del metodo di media, che ne permette la risoluzione O(ε)
mediante quella dell’equazione mediata:
- t
ε
q̇ = (∂q x0 (t, q))−1 g2 (t, x0 (t, q), 0) dt ,
T 0

M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 367

generalmente più semplice della (3.91). Essa fornisce il vettore q = q(t) delle condizioni iniziali delle soluzioni
del problema (3.90) lentamente variabili, giacché mediando le componenti brevi si sono ridotte a delle costanti.
Inoltre, per quanto detto nelle Proposizioni precedenti, i valori q0 che annullano il campo medio della (3.91)
corrispondono a quelle soluzioni x(t, q0 ) del problema assegnato: (3.90) che hanno per 0 < ε ≪ 1 le stesse proprietà
di periodicità delle x0 (t, q0 ) del suo problema all’ordine zero, e che hanno caratteristiche di linearizzazione e di
stabilità decise dalla matrice di campo della (3.91).
In altre parole, si assume che anche quando ε ̸= 0 ed è q = q(t), sia verificata (all’ordine zero) la
@ A @ A
∂ ω0 y0 −ω0 r sin(ω0 t + ϕ)
x0 (t, q) = v(t, x0 (t, q), 0) = = ,
∂t −ω0 x0 −ω0 r cos(ω0 t + ϕ)

ma che questo non comporti, come sarebbe nel caso perturbativo diretto, assegnare alle (r, ϕ) i loro valori (r0 , ϕ0 )
relativi alle condizioni iniziali all’ordine zero, bensı̀ ne permetta ancora la dipendenza funzionale dal tempo.
Pertanto, dall’assegnata equazione:

d
x(t, q) = v(t, x(t, q), ε) ∼
= v(t, x0 (t, q), 0) + εvε (t, x0 (t, q), 0) (3.92)
dt
si ricava (all’ordine ε ) per le coordinate q l’equazione

∂q x0 (t, q) q̇ = ε vε (t, x0 (t, q), 0) .


Si consideri ad esempio un’equazione del tipo

ẍ + ω02 x = ε f (x, ẋ) . (3.93)

Si è già ripetutamente notato che il suo problema P 0 ha soluzione, con y := ẋ/ω0 :


) * ) *
x0 (t; r, ϕ) +r cos(ω0 t + ϕ)
x0 (t, q) ≡ := . (3.94)
y0 (t; r, ϕ) −r sin(ω0 t + ϕ)

Questa viene intesa come una particolare trasformazione (dipendente dal tempo), detta
Trasformazione di Van Der Pol
) * ) * ) *
r x(t; r, ϕ) +r cos(ω0 t + ϕ)
q = &→ := , (3.95)
ϕ y(t; r, ϕ) −r sin(ω0 t + ϕ)
ovvero / 0 1
r= x2 + y 2 , ϕ = −ω0 t − arcsin(y/r) ∩ arccos(x/r) .

Essa pertanto è un’usuale trasformazione di coordinate da cartesiane: (x, y) a polari (r, θ) nella quale la variabile
angolare θ è data da θ = −(ω0 t + ϕ). Come si è detto, la soluzione (3.94) del problema imperturbato della (3.93)
è tale da rendere costanti entrambe le (r, ϕ).
Per applicare il metodo ed arrivare alla (3.91) si suppone che anche la soluzione x(t, q) del problema completo
(3.93) abbia la stessa struttura x0 (t, q) di quella del suo P 0 , e cioè sia data dalla (3.94) nella quale però anche
la r e la ϕ sono dipendenti dal tempo: x(t, q) = x0 (t, q(t)), in modo debole. Cosı̀ la x e la y sono ancora tali da
permettere, all’ordine zero, la sostituzione: ẋ = ω0 y ed ω0 ẏ = ẍ = −ω02 x; e il bilanciamento dei termini
introdotti dalla esplicita dipendenza dal tempo delle (r, ϕ) quando ε ̸= 0 avviene all’ordine O(ε).
Nel dettaglio, e posto per brevità −θ := ω0 t + ϕ, l’equazione (3.92) relativa alla (3.93) si specializza, per
mezzo delle (3.95), nella
) * ) *) * @d A ) *) *
+rω0 sin θ + cos θ + sin θ ṙ dt x cos θ − sin θ ṙ
+ = =
−rω0 cos θ + sin θ − cos θ rϕ̇ d sin θ + cos θ r θ̇
dt y (3.96)
) * ) * ) *
+ṙ cos θ − r θ̇ sin θ ω0 y 0
= = + .
+ṙ sin θ + r θ̇ cos θ −ω0 x ε f (x0 , ω0 y0 )/ω0

Se ne ricava ) * ) * +) * ) *,
ṙ cos θ + sin θ ω0 y −rω0 sin θ
= + ,
rϕ̇ sin θ − cos θ −ω0 x + εf /ω0 rω0 cos θ

Note di Sistemi Dinamici


368 Capitolo 6. Alcuni Metodi Perturbativi

e l’assunta forma (3.95) permette di concludere


) * ) *@ 0
A
ṙ ε cos(ω0 t + ϕ) − sin(ω0 t + ϕ) '
rϕ̇
=
ω0 − sin(ω0 t + ϕ) − cos(ω0 t + ϕ) f' r cos(ω0 t+ϕ),
,
−ω0 r sin(ω0 t+ϕ)

e cioè ottenere la ⎧ '


ε '

⎪ ṙ = − f ' r cos(ω0 t+ϕ), sin(ω0 t + ϕ)
⎨ ω0 −ω r sin(ω0 t+ϕ)
ε ' 0 (3.97)

⎪ '
⎩ rϕ̇ = − f ' r cos(ω0 t+ϕ), cos(ω0 t + ϕ)
ω0 −ω r sin(ω t+ϕ)
0 0

che è un’equazione della forma ẋ = ε f (t, x, ε) con campo (2π/ω0 )-periodico rispetto alla variabile t.
Ad esempio nel caso dell’oscillatore lineare debolmente smorzato si è visto che è f (x, ẋ) ≡ −2ω0 ẋ e quindi si
hanno ( (
ṙ = −2ε ω0 r sin2 (ω0 t + ϕ) ṙ = −ε ω0 r
con medie:
rϕ̇ = −2ε ω0 r sin(ω0 t + ϕ) cos(ω0 t + ϕ) rϕ̇ = 0
da cui segue la soluzione x(t, ε) ∼ e−εω0 t sin ω0 t, già trovata con il metodo delle Scale Multiple nell’Esempio 6.2.11,
e che si ridiscuterà nel successivo Esempio 6.3.8.

N.B. 6.3.6 Come si intuisce dalla (3.92), il risultato (3.97) si sarebbe potuto ottenere direttamente servendosi
della (3.91) nella quale ancora q := (r , ϕ)T . Infatti, la (3.91):
−1
q̇ = ε (∂q x0 (t, q)) vε (t, x0 (t, q); 0)
riferita all’equazione (3.93) fornisce (all’ordine uno) lo stesso risultato trovato sopra:
) * ) *−1 ) *
ṙ cos(ω0 t + ϕ) −r sin(ω0 t + ϕ) 0
=ε .
ϕ̇ − sin(ω0 t + ϕ) −r cos(ω0 t + ϕ) f (r, ϕ)/ω0
Il metodo viene anche chiamato “Metodo delle ampiezze lentamente variabili”, giacché può essere discusso, in
modo alternativo, introducendo le
Variabili “lente”: q := r cos ϕ , p := r sin ϕ .
Con lo stesso procedimento seguito nel N.B. 6.3.5, e sfruttando la forma della soluzione del problema all’ordine
zero, si assume anche qui che la soluzione x(t) abbia la struttura (3.94), qui espressa nel seguente modo:
( (
x = +q cos ω0 t − p sin ω0 t q = +x cos ω0 t − y sin ω0 t
ovvero
y = −q sin ω0 t − p cos ω0 t p = −x sin ω0 t − y cos ω0 t .
La derivata di queste ultime dà
(
q̇ = −(ẏ + ω0 x) sin ω0 t + (ẋ − ω0 y) cos ω0 t
ṗ = −(ẏ + ω0 x) cos ω0 t − (ẋ − ω0 y) sin ω0 t ,

dalla quale, in base alle stesse considerazioni fatte nel N.B. 6.3.5, si ricavano le

⎧ ε ⎪ x = r cos(ω0 t + ϕ)
⎪ ⎪

⎨ q̇ = − f (x, ω0 y) sin ω0 t ⎨ = +q cos ω t − p sin ω t
ω0 0 0
ε con

⎩ ṗ = − f (x, ω0 y) cos ω0 t ⎪
⎪ y = −r sin(ω 0 t + ϕ)
ω0 ⎪

= −q sin ω t − p cos ω t
0 0

Anche in queste si può riconoscere l’espressione (3.91):


) * ) *−1 ) * ) *) *
q̇ ε ∂q x ∂p x 0 ε cos ω0 t − sin ω0 t 0
= = ,
ṗ ω0 ∂q y ∂p y f (x, ω0 y) ω0 − sin ω0 t − cos ω0 t f (x, ω0 y)
(
q = r cos ϕ
e ovviamente le coordinate (r, ϕ) si ricollegano a queste tramite le e quindi
p = r sin ϕ
( (
q̇ = ṙ cos ϕ − r ϕ̇ sin ϕ ṙ = +q̇ cos ϕ + ṗ sin ϕ
e
ṗ = ṙ sin ϕ + r ϕ̇ cos ϕ rϕ̇ = −q̇ sin ϕ + ṗ cos ϕ

M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 369

Esempio 6.3.7 (continuazione dell’Esempio 6.3.1)


Si può finalmente applicare il metodo di media all’equazione di Duffing (3.66):
ẍ + ω02 x = εbx3 ; ε, b, ω0 ∈ R.
È chiaro che il suo problema P 0 ha soluzione data dalla (3.94) e che essa rientra nel tipo di equazione (3.93) con
la funzione f (x, ẋ) specificata da: f (x, ẋ) := b x3 . Pertanto, direttamente dalla (3.97) si ricava l’equazione:
⎧ ) *
⎪ εb 3 3 εb 3 3 1

⎨ ṙ = − r cos ϕ sin ϕ = − r sin 2ϕ + (− sin 2ϕ + sin 4ϕ)
ω0 0 ω0 0 8 8
) *

⎪ εb 2 εb 2 3 1 1
⎩ ϕ̇ = − r0 cos4 ϕ =− r0 + cos 2ϕ + cos 4ϕ ;
ω0 ω0 8 2 8
ovvero ⎧


εb ⎛ ⎞ ⎛ 7 8 ⎞''
⎨ ṙ = − f1 (t, r, ϕ) f1 r3 14 sin 2ϕ + 18 sin 4ϕ '
ω0 ⎠'
con ⎝ ⎠ := ⎝ 7 8 '

⎪ εb f2 r2 38 + 12 cos 2ϕ + 18 cos 4ϕ 'ϕ=ω t+ϕ
⎩ ϕ̇ = − f2 (t, r, ϕ)
ω0 0

e cioè un’equazione della forma ẋ = εf (t, x, ε) con campo (2π/ω0 )-periodico rispetto alla variabile t.
Le equazioni risolventi si possono ottenere o direttamente dalla (3.91) con q := (r , ϕ):
) * ) *) *
ṙ ε cos(ω0 t + ϕ) − sin(ω0 t + ϕ) 0
= .
r ϕ̇ ω0 − sin(ω0 t + ϕ) − cos(ω0 t + ϕ) br3 cos3 (ω0 t + ϕ)
o anche, introdotte le variabili “lente”: q := r cos ϕ e p := r sin ϕ, dalle loro derivate:

⎪ d
⎨ q̇ = (r cos ϕ) = −(ẏ + ω0 x) sin ω0 t + (ẋ − ω0 y) cos ω0 t
dt

⎩ ṗ = d (r sin ϕ) = −(ẏ + ω x) cos ω t − (ẋ − ω y) sin ω t ,
0 0 0 0
dt
che, come nel N.B. 6.3.6, qui forniscono:
εb 7 3 83 εb 7 3 83
q̇ = − r cos3 (ω0 t + ϕ) sin ω0 t ṗ = − r cos3 (ω0 t + ϕ) cos ω0 t .
ω0 ω0
Anche in queste si può riconoscere l’espressione (3.91), dato che per la (3.93) si ha f (x, ω0 y) = b x3 :
) * ) *−1 ) * ) *) *
q̇ ∂q x0 ∂p x0 0 ε cos ω0 t − sin ω0 t 0
= = .
ṗ ∂q y0 ∂p y0 ε b x30 /ω0 ω0 sin ω0 t cos ω0 t b x30
Alternativamente, partendo direttamente dal sistema mediato
⎧ ⎧
⎨ ṙ = 0 ⎨ r = r0
3 εb 2 si trova 3 εb 2
⎩ ϕ̇ = − r ⎩ϕ = − r t + ϕ0
8 ω0 8 ω0 0
Comunque, si conclude che correggendo opportunamente la frequenza con termini all’ordine ε si può esprimere
la soluzione (uscente da ẋ(0) = 0 , e mediante la −θ = ω0 t + ϕ) con la
xmed (t) = r0 cos θ(t) , con
) *
3 εb 2 (3.98)
θ(t) = −ω0 t 1 − r ∼ 3.1623 t · (1 − 0.000476) ,
8 ω02 0
da paragonare con lo sviluppo diretto xdir trovato precedentemente (si veda la (3.77)). In figura è tracciato il
grafico della differenza fra le soluzioni esatta (numerica) e mediata, e della differenza xmed (t) − xdir (t), per ε come
nella (3.68).
0.0004
0.0004

0.0002 0.0002

5 10 15 20 5 10 15 20

-0.0002 -0.0002

-0.0004
-0.0004

e(t) ¡ xmed (t);


x xmed (t) ¡ xdir (t)

Note di Sistemi Dinamici


370 Capitolo 6. Alcuni Metodi Perturbativi

Si osservi che la soluzione (3.98) è del tutto in accordo con i risultati precedenti per quanto riguarda la correzione
(all’ordine ε ) sul periodo del moto. Non dice molto invece circa la correzione sulle ampiezze, in quanto questa
può essere considerata come una correzione a tempi brevi.

Per valutare la correzione sulle ampiezze, si può provare con i Metodi di Stiramento delle Coordinate.
Il Metodo di Lindstet applicato all’equazione (3.66) fornisce all’ordine uno, con ω sviluppato asintoticamente a
partire dalla stessa ω0 della equazione P 0 ,
0 1 0 1 0 13
(ω02 + 2ε ω0 ω1 ) ∂τ2 X0 + ε∂τ2 X1 + ω02 X0 + εX1 = εb X0 + εX1 .

Ne seguono il problema all’ordine zero:

∂τ2 X0 + X0 = 0 con soluzione X0 (τ ) = r0 cos(τ + ϕ0 ) ;

ed il problema all’ordine uno:

b ω1 2
∂τ2 X1 + X1 = 2 X03 − 2 ∂ X0
ω0 ω0 τ
) *
b 3 3 1 ω1
= 2 r0 cos(τ + ϕ0 ) + cos 3(τ + ϕ0 ) + 2 r0 cos(τ + ϕ0 ).
ω0 4 4 ω0

Per evitare le disuniformità dovute alla risonanza è opportuno imporre

3b 3 ω1
r +2 r0 = 0 .
4ω02 0 ω0

Se ne ricava
3 3εb 2
ω0 ω1 = − b r2 e quindi ω ∼ ω0 (1 − r ).
8 0 8ω02 0
Ciò comporta che a secondo membro dell’equazione ordine uno rimane il solo termine (b/4ω02 )r03 cos 3(τ + ϕ0 ), e
che quindi una sua soluzione particolare è X1p (τ ) = −(b/32ω02)r03 cos 3(τ + ϕ0 ). A questa va aggiunta la soluzione
dell’equazione omogenea X1om (τ ) = r1 cos(τ +ϕ1 ), e sulla loro somma vanno imposte le condizioni iniziali all’ordine
uno: ⎧
⎪ b

⎨ X1om (0) + X1p (0) = +r1 cos ϕ1 − r3 cos 3ϕ0 = 0
32ω02 0

⎪ 3b 3
⎩ ∂τ X1om (0) + ∂τ X1p (0) = −r1 sin ϕ1 + r sin 3ϕ0 = 0
32ω02 0
In definitiva, la soluzione della (3.66) uscente dalle condizioni ẋ(0) = 0 ed x(0) = r0 è data, all’ordine ε, da
(ϕ0 = ϕ1 = 0 , r1 = (b/32ω02) r03 , e quindi)

εb
xLind (t) ∼ r0 cos ωt + r3 (cos ωt − cos 3ωt)
32ω02 0
) *
3εb 2
con ω ∼ ω0 1 − r .
8ω02 0

Contrariamente alla xdir ottenuta con la (3.77), tale soluzione non contiene termini secolari.
Nel caso particolare dell’equazione del pendolo (3.69) si è detto che r0 = 1 e che εb/ω 2 = θM 2
/6 ∼
2 2
0.00127 , e quindi che (3εb/8ω0 ) = θM /16 . Si ritrova che la prima correzione al periodo del pendolo fisico è
) 2 *
2π θM 2
TP F ∼ 1+ in quanto: ω ∼ ω0 (1 − θM /16). A sua volta, la correzione alle ampiezze del pendolo fisico
ω0 16
(non forzato) è εr1 = εb/32ω02 = θM
2
/192 ∼ 0.0000394 . In definitiva, e con entrambe le correzioni sulle ampiezze
e sulle frequenze valide anche a tempi brevi, si è provato che la soluzione dell’equazione del pendolo (3.69) è data
2
(all’ordine θM ≪ 1 ) da
) * +) * , + ) * ,
θ2 θ2 θ2 θ2
xLind (t) = 1 + M cos 1 − M ω0 t − M cos 3 1 − M ω0 t .
192 16 192 16

In figura è tracciata la differenza tra la soluzione esatta (numerica) e la xLind (t).

M. Lo Schiavo
6.3. Il pendolo fisico e l’equazione di Duffing 371

-6
7.5·10
-6
5·10
-6
2.5·10

5 10 15 20
-6
-2.5·10
-6
-5·10
-6
-7.5·10

All’equazione (3.66) si può anche applicare il Metodo di Lighthill. Per far ciò, vi si pongano

t ∼ τ + εt1 (τ ) insieme con x(t(τ )) ∼ X0 (τ ) + εX1 (τ ) + . . . .

Tramite le relazioni viste sopra fra ∂t e ∂τ si ottiene all’ordine uno:

X0′′ + ε (X1′′ − t′′1 X0′ − 2t′1 X0′′ ) + ω0 (X0 + εX1 ) = εbX03

da cui segue X0 (τ ) = r0 cos ω0 τ e, all’ordine ε :

∂τ2 X1 + ω02 X1 = t′′1 ∂τ X0 + 2t′1 ∂τ2 X0 + bX03 .

La regola di Lighthill suggerisce di cercare le soluzioni di questa equazione imponendo le ulteriori condizioni:
t′′1 = 0 , e 34 br03 − 2ω02 r0 t′1 = 0 ; di queste, la seconda evita le risonanze giacché annulla il coefficiente di cos ω0 τ
a secondo membro, e la prima è richiesta per favorire la minima degenerazione. Si osserva che con tali scelte il
risultato in questo caso è identico a quello ottenuto in precedenza.

Si può poi applicare il Metodo di Rinormalizzazione all’equazione (3.66). Si pongono


ω1
ωt = τ con ω ∼ ω0 + εω1 + . . . , e quindi ω0 t ∼ τ − ε τ ,
ω0
direttamente nell’espressione generale non uniforme trovata con il metodo diretto:
+
dir
x (t) = r0 cos(ω0 t + ϕ0 ) + ε r1 cos(ω0 t + ϕ1 )
,
3b 3 b 3
+ r t sin(ω0 t + ϕ0 ) − r cos 3(ω0 t + ϕ0 ) .
8ω0 0 32ω02 0

Mediante la cos(τ − ε ω
ω0 τ ) ∼ cos τ +
1 ω1
ω0 ετ sin τ si ricava
+
x(τ ) ∼ r0 cos(τ + ϕ0 ) + ε r1 cos(τ + ϕ1 )
) * ,
ω1 3b 3 b 3
+ r0 + r τ sin(τ + ϕ0 ) − r cos 3(τ + ϕ0 ) .
ω0 8ω02 0 32ω02 0

Affinché questa espressione non produca termini “secolari”, e cioè termini risonanti o non uniformi, si impone:
ω1 = −(3b/8ω0) r02 ritrovando anche in tal caso l’espressione già ottenuta con gli altri metodi.
Infine, all’equazione di Duffing (3.66) si può anche applicare il Metodo delle Scale Multiple. Servendosi della
7 2 2
7 88 7 8
∂tt + 2ε ∂tt1
+ ε2 ∂t21 t1 + 2∂tt
2
2
X0 + ε X1 + ε2 X2

con t1 := ε t e t2 := ε2 t) si ricava la
2 2 2
ẍ ∼ ∂tt X0 + ε(2∂tt1
X0 + ∂tt X1 ) + ε2 (∂t21 t1 X0 + 2∂tt
2
2
2
X0 + 2∂tt1
2
X1 + ∂tt X2 )

e quindi la (3.66) fornisce i seguenti problemi


2
O(1) : ∂tt X0 + ω02 X0 = 0
2
O(ε) : ∂tt X1 + ω02 X1 = b X03 − 2∂tt
2
1
X0
O(ε2 ) : 2
∂tt X2 + ω02 X2 = 3b X03X1 − ∂t21 t1 X0 − 2∂tt
2
1
2
X1 − ∂tt2
X0

con le condizioni iniziali derivate dalle x(0) = r0 ed ẋ(0) = 0 .

Note di Sistemi Dinamici


372 Capitolo 6. Alcuni Metodi Perturbativi

Limitandosi al solo tempo ordine uno: t1 , si ottiene la soluzione dominante:

X0 (t, t1 ) = r(t1 ) cos(ω0 t + φ(t1 )) ≡ α(t1 ) cos(ω0 t) + β(t1 ) sin(ω0 t)

con α(0) = r0 e β(0) = 0 . Per cui il secondo termine del secondo membro dell’equazione O(ε) diviene
2
−2∂tt1
X0 = −2ω0 (β ′ (t1 ) cos(ω0 t) − α′ (t1 ) sin(ω0 t)) .

Per il primo è opportuno (senza esplicitamente indicare la dipendenza di r, φ, α, β da t1 ) servirsi della


3 1
b X03 =: b r3 cos3 (ω0 t + φ) ≡ b r3 cos(ω0 t + φ) + b r3 cos(3ω0 t + 3φ)
4 4
3 1
= b (α2 + β 2 ) (α cos(ω0 t) + β sin(ω0 t)) + b r3 cos(3ω0 t + 3φ0 )
4 4
Ne segue che per evitare risonanze è sufficiente che siano verificate le
3
b (α2 + β 2 )α − 2ω0 β ′ = 0 3b β′ α′
4 da cui (α2 + β 2 ) = = − .
3 8ω0 α β
b (α2 + β 2 )β + 2ω0 α′ = 0
4
Se ne deducono le α2 + β 2 = cost = r02 , β ′ = (3br02 /8ω0 )α , β ′′ + (3br02 /8ω0 )2 β = 0 , ed analoghe per α .
Pertanto 7 8 7 8
β(t1 ) = r0 sin (3br02 /8ω0 )t1 + ψ α(t1 ) = r0 cos (3br02 /8ω0 )t1 + ψ ,
7 8
e siccome le condizioni iniziali assegnano β(0) = 0 si ottengono ψ = 0 e α(t1 ) = r0 cos (3br02 /8ω0 )t1 per cui
anche con questo metodo si ritrova la (3.98). #

Il seguente è un ulteriore esempio di applicazione del metodo di media ad una equazione la cui soluzione all’ordine
zero ha proprietà di periodicità.
Esempio 6.3.8 (continuazione dell’Esempio 6.1.32).
(
ẍ + 2ε ω0 ẋ + ω02 x = 0
x(0) = 0, ẋ(0) = 1 .

Per adoperare il metodo di media su tale equazione, si operano in essa le posizioni


( (
x = +r cos(ω0 t + ϕ) ẋ = +ṙ cos(ω0 t + ϕ) − r(ω0 + ϕ̇) sin(ω0 t + ϕ)
che danno
y = −r sin(ω0 t + ϕ) ẏ = −ṙ sin(ω0 t + ϕ) − r(ω0 + ϕ̇) cos(ω0 t + ϕ) .

Analogamente al caso precedente, se ne ricava la matrice


) *
+ cos(ω0 t + ϕ) −r sin(ω0 t + ϕ)
∂q x0 (t; r, ϕ) = .
− sin(ω0 t + ϕ) −r cos(ω0 t + ϕ)
7 d
8T
D’altra parte, il vettore εvε (x0 ; 0) in questo caso vale 0 , −2ε ω0 dt !0 , e quindi si hanno le
x
) * ) *) * ) *
ṙ cos(ω0 t + ϕ) − sin(ω0 t + ϕ) 0 −2ε ω0 r sin2 (ω0 t + ϕ)
= =
ϕ̇ − 1r sin(ω0 t + ϕ) − 1r cos(ω0 t + ϕ) 2 ε ω0 r sin(ω0 t + ϕ) −ε ω0 sin 2(ω0 t + ϕ)
) *
−2r sin2 (ω0 t + ϕ)
e cioè un campo ε f (t, r, ϕ) := ε ω0 la cui media temporale è
− sin 2(ω0 t + ϕ)
- 2π ) *
1 −r
ε f0 (r, ϕ) = ε f (ω0 t, r, ϕ) dt = ε ω0 .
2π 0 0

Risulta:
r(t) = r0 e−ε ω0 t , ϕ(t) = ϕ0 ,
e le condizioni iniziali forniscono
x(t) ∼ e−ε ω0 t sin ω0 t .

M. Lo Schiavo
6.4. Ancora sull’equazione di Duffing 373

Allo stesso modo, nelle coordinate q = r cos ϕ, p = r sin ϕ, si ricava


) * ) *) * ) *
q̇ cos ω0 t − sin ω0 t 0 − sin ω0 t
=ε = 2 ε ω0 (q sin ω0 t + p cos ω0 t)
ṗ − sin ω0 t − cos ω0 t −2 ω0 y0 − cos ω0 t
) * ) *
q̇ q
la cui media è = −ε ω0 .
ṗ p
Si è cosı̀ trovato l’andamento esponenziale valido a tempi lunghi ma, come c’era da aspettarsi, non la correzione
dei tempi brevi sulla frequenza. Per avere quest’ultima o si procede con il metodo di media (vedi: [Krylov -
Bogoliubov - Metropolski, opp. Nayfeh p.173 ]), oppure si ricorre ad altri metodi. #

6.4 Ancora sull’equazione di Duffing


Si prenda nuovamente in esame l’equazione di Duffing ma, diversamente da quanto fatto nel §3, la si consideri
forzata da una sollecitazione esterna che verrà qui assunta di tipo armonico:

ẍ + ω02 x = εbx3 + f cos ωt .

Di questa si cercano soluzioni periodiche di periodo 2π/ω ed isolate, in quanto sono queste che ci si aspetta siano
le dirette e non transienti conseguenze (regolari) della forzante f cos ωt.
Il ben noto caso lineare coincide con il problema all’ordine zero: ε = 0 . Purché ω sia diversa da ω0 , la sua
soluzione è definita per ogni t e vale

f
!0 (t) = a0 cos ω0 t + b0 sin ω0 t +
x cos ωt . (4.99)
ω02 − ω2

L’insieme delle funzioni f : t &→ f (t) periodiche ed aventi un certo (minimo) periodo T si indicherà con: Per(t).

Proposizione 6.4.1 La soluzione (4.99) è isolata ed in Per(2π/ω) (qualunque siano i valori di ω0 ed ω ) (se
e) solo se ρ20 := a20 + b20 = 0 .

Dimostrazione Qualora fosse ω0 = nω con n = 2, 3, . . . , la soluzione vale ρ0 cos(nωt + ϕ0 ) + n2f−1 cos ωt,
che è in Per(2π/ω) ma non isolata: infatti ρ0 ̸= 0 costituisce parametro per tutta una famiglia di soluzioni in
Per(2π/ω). Se poi ω0 /ω ̸∈ N , e ρ0 ̸= 0, allora la soluzione è quasi-periodica, oppure è periodica ma non in
Per(2π/ω). Si parla in questo secondo caso di subarmoniche della forzante. "

Si prenderà perciò in esame solo il caso a0 = b0 = 0 . Il problema ordine ε è

f
P1 : ẍ1 + ω02 x1 = br03 cos3 ωt ; con r0 := ;
ω02 − ω 2

di questo si cerca una soluzione particolare della forma z1 e3iωt + z2 eiωt . Si trovano

br03 3br03
z1 = e z2 =
4(ω02 − 9ω 2 ) 4(ω02 − ω 2 )

e di nuovo la parte relativa alla soluzione armonica dell’omogenea associata viene scartata: a1 = b1 = 0 .
Iterando il procedimento si determinano le “risonanze”: ω0 /ω = 3, 5, 7, . . . che occorre escludere, l’una dopo
l’altra, per poter determinare i vari coefficienti. Il metodo dà risultati attendibili per ω0 /ω lontano dagli interi
dispari.

La presenza di un semplice termine di smorzamento del tipo η ẋ con η = Os (1) è già sufficiente ad evitare
l’insorgere di risonanze, o di soluzioni non isolate in Per(2π/ω). Si ha infatti

ẍ + η ẋ + ω02 x = εbx3 + f cos ωt . (4.100)

Note di Sistemi Dinamici


374 Capitolo 6. Alcuni Metodi Perturbativi

All’ordine zero, con lo stesso procedimento di sopra, si ha una soluzione (particolare) della forma: zeiωt purché
f f
z = =: / 2 e−iϕ
ω02 − ω 2 + iηω (ω0 − ω 2 )2 + η 2 ω 2
A questa parte della soluzione va aggiunta quella relativa all’equazione omogenea associata, che però è comunque
un termine non periodico:
⎧ )B *

⎪ ce −ηt/2
cos 2 η2
ω0 − 4 t + ϕ̃ se η 2 /4 < ω0 ,



⎪ (c1 + c2 t) e−ηt/2 se η 2 /4 = ω0 ,

⎪ B

⎩ η η 2
c1 e−( 2 +∆)t + c2 e−( 2 −∆)t se η 2 /4 > ω0 , con ∆ := η4 − ω02 .

Esiste quindi un’unica soluzione della (4.100) in Per(2π/ω); essa è data da:

⎪ f

⎨ r0 := / 2
(ω0 − ω 2 )2 + η 2 ω 2
!0 (t) = r0 cos(ωt + ϕ)
x con

⎪ ηω
⎩ tan ϕ := 2
ω0 − ω 2

tgψ ψ ψ
π π
k
ω
ω0 π/2 0 π/2
ω ω
ω0 ω0

(con tale notazione, la fase è comunque positiva, ed è invece la r0 a poter assumere valori anche negativi).
Si noti che l’addendo nella soluzione generale relativo all’equazione omogenea associata, se inserito nel secondo
membro dell’equazione all’ordine uno:
ẍ1 + η ẋ1 + ω02 x1 = bx30 ;
continua a dare un termine forzante non periodico, o periodico non Per(2π/ω), che può essere considerato un O(ε)
dell’omogenea associata stessa.
Si prosegue pertanto con il problema particolare all’ordine uno:
) *
3 1
ẍ1 + η ẋ1 + ω02 x1 = br03 cos(ωt + ϕ0 ) + cos 3(ωt + ϕ0 ) .
4 4

Ancora con una funzione del tipo: z1 e3iωt + z2 eiωt si ricavano


⎧N O
⎪ 1
⎨ −9ω 2 + 3iηω + ω02 z1 = br03 e−3iϕ
4
⎪ N O 3 3 −iϕ
⎩ 2 2
−ω + iηω + ω0 z2 = br0 e
4
da cui, con tan ϕ1 := 3ηω/(ω02 − 9ω 2 ) , segue

⎪ br03 −3i(ϕ+ϕ1 )

⎨ z1 = 4/(ω 2 − 9ω 2 )2 + 9η 2 ω 2 e

0

⎪ 3br03

⎩ z2 = / 2 e−iϕ .
4 (ω0 − ω 2 )2 + η 2 ω 2

In definitiva il procedimento prosegue purché ω0 /ω sia sufficientemente lontano da un intero dispari, e η sia grande.
Altrimenti lo sviluppo diretto fallisce; le ampiezze possono diventare troppo grandi o, comunque, il risultato
non accurato: anche se con f piccole, si hanno più soluzioni in Per(2π/ω) e non provenienti solo dalla forzante,
ma anche dall’equazione omogenea associata.
Con lo smorzamento e la forzante entrambi piccoli:
1 1
ηε := η ed fε := f ,
ε ε

M. Lo Schiavo
6.4. Ancora sull’equazione di Duffing 375

si hanno comportamenti interessanti per ω 2 ∼ ω02 + εη con η = Os (1). In tali ipotesi l’equazione diviene
ẍ + ω02 x = ε(−ηε ẋ + bx3 + fε cos ωt) ; (4.101)
e si osservi che, se anche si ponesse ηε ̸= 0 in questa equazione, ciò non sarebbe sufficiente a rimuovere le eventuali
risonanze.
Appare naturale eseguire una trasformazione di Van Der Pol di frequenza ω :
(
x = +r cos(ωt + ϕ)
(4.102)
y = −rω sin(ωt + ϕ) ,

che come si è visto implica ( 71 8


ṙ ∼ − ẏ + ωx sin(ωt + ϕ)
7ω 8
rϕ̇ ∼ − ω1 ẏ + ωx cos(ωt + ϕ) ,
o anche ( 71 8 (
q̇ = − ẏ + ωx sin ωt q := r cos ϕ
7ω 8 ove (4.103)
ṗ = − ω1 ẏ + ωx cos ωt p := r sin ϕ
Per esempio nelle coordinate (r, ϕ), dalla (4.101) e con εβ := ω 2 − ω02 si ricava
⎧ ε7 8
⎨ ṙ = − βx − ηε ẋ + bx3 + fε cos ωt sin(ωt + ϕ)
ω
⎩ rϕ̇ = − ε 7βx − η ẋ + bx3 + f cos ωt8 cos(ωt + ϕ) .
ε ε
ω
nelle quali resta inteso che x = +r cos(ωt + ϕ) ed ẋ = −rω sin(ωt + ϕ).
Considerato poi che cos3 θ = 34 cos θ + 14 cos 3θ , e ricordate le formule per le medie delle funzioni trigonometriche,
la (4.102) implica che la media di quest’ultima equazione risulta:
⎧ ) *
⎪ ε 1 1

⎨ ṙ = − ω 2 ηε ωr − 2 fε sin ϕ
) *

⎪ ε 1 3 3 1
⎩ rϕ̇ = − βr + br + fε cos ϕ .
ω 2 8 2
Alternativamente, l’uso della (4.103) avrebbe fornito
⎧ ) *
⎪ ε 3 2 2
⎪ q̇ = −
⎨ βp + ηε ωq + b(q + p )p
2ω 4
) * (4.104)

⎪ ε 3 2 2
⎩ ṗ = − βq + ηε ωp + b(q + p )q + fε .
2ω 4
(
ṙ = 0
Si ha una soluzione periodica quando e cioè, nel caso ηε = 0 , quando
ϕ̇ = 0

3 3
ϕ = 0, π ed βr + br ± fε = 0 (4.105)
4
che vanno intese come condizioni sulla terna ϕ, r, β .
Nel caso ηε ̸= 0, la condizione di periodicità è invece

⎨ fε sin ϕ = ωrηε

) *2
3 (4.106)

⎩ fε2 = ω 2 r2 ηε2 +r 2
β + br2 .
4

I valori dei parametri ϕ, r, β che verificano questo sistema individuano le soluzioni della (4.101) in Per(2π/ω),
certamente esistenti se (ma eventualmente non solo se) β ̸= 0 . Infatti, per assegnati ηε , fε , β, b , quanto detto
sul metodo di media comporta che per ogni soluzione isolata (r0 , ϕ0 ) della (4.106) esiste una soluzione 2π ω -periodica
della (4.101) per ciascun ε ∈ (0, ε+ ]; essa inoltre, per ε → 0 , tende alla soluzione r0 cos(ω0 t+ ϕ0 ) del suo problema
all’ordine zero purché sia
) ) * * ' '
∂ ωrηε − fε sin ϕ ' ωηε −fε cos ϕ0 ''
Det '
(r0 , ϕ0 ) = ' ̸= 0. (4.107)
∂(r, ϕ) βr + 34 br3 + fε cos ϕ β + 94 br02 −fε sin ϕ0 '

Note di Sistemi Dinamici


376 Capitolo 6. Alcuni Metodi Perturbativi

Caso ηε = 0
Siano (r0 , ϕ0 ) soluzione (isolata) della (4.105). Si ha ϕ0 = 0, π come nel caso lineare. Si fissi ϕ = 0 e si
accetti la possibilità di avere sia r ≥ 0 che r < 0 . Si ponga inoltre
) * ) *
3 3
g(r) := r εβ + εbr2 := r ω 2 − ω02 + εbr2 ;
4 4

per esempio nel caso particolare in cui l’equazione di Duffing proviene da quella del pendolo fisico,
) *
1
g(r) = r ω 2 − ω02 + ω02 θM
2 2
r .
8

I possibili andamenti della funzione g(r) sono mostrati in figura nel caso εb > 0 (e cioè “molla debole”, cosı̀ come
il pendolo fisico)

g g g

r0 r r0* r
r
-fϵ
-fϵ 1 2 3
-fϵ

ω2>ω02 ω2=ω02 ω2<ω02

per cui, dalla (4.105) segue che

(• ) per ω 2 > ω02 (ed εb > 0 ) si ha un solo valore possibile per r0 e quindi una sola soluzione in Per(2π/ω),
sfasata di π rispetto alla forzante. Il sistema si comporta in modo analogo al caso lineare, salvo la correzione su
r0 dovuta al termine piccolo 34 εbr2 . È da notare però che per ω che si avvicina a ω0 l’equazione lineare si
comporta in modo totalmente diverso:
r
0

=
=

0
fϵ = 0


r ω
ω0
essa infatti prevede r0 sempre più grandi: r0 = f /|ω02 − ω 2 |.


(• ) per ω 2 = ω02 (ed εb > 0 ) l’equazione (4.101) ammette, con fε ̸= 0 , una soluzione ω -periodica, e
questo comportamento è ben diverso dal caso lineare.

(• ) per ω 2 < ω02 (ed εb > 0 ) l’equazione (4.107) individua tre diversi valori per la r0 , due in fase ed uno
in controfase, oppure solo un valore in controfase, a seconda dell’ampiezza della forzante fε . Di questi solo il più
piccolo in modulo è quello corrispondente alla soluzione lineare, e cioè quello che si trova con lo sviluppo diretto
visto prima.
N.B. 6.4.1 Tutti i segni vanno cambiati nel caso in cui εb < 0 (detto anche “molla forte” in quanto, allontanandosi
dall’origine, è più robusta del lineare. ♦

g g g

r0 r r r 0* r
-fϵ
-fϵ 3 2 1
-fϵ
ω2>ω02 ω2=ω02 ω2<ω02

M. Lo Schiavo
6.4. Ancora sull’equazione di Duffing 377

Sul piano (|r|, ω) questi comportamenti si possono osservare nei diagrammi: risposta in frequenza delle soluzioni
in Per(2π/ω). La linea g(r) = 0 è evidentemente ω 2 − ω02 + 34 εbr2 = 0 e cioè un ramo di iperbole equilatera; si
hanno allora rispettivamente i due casi:

(• ) il caso molla debole εb > 0 , (come il pendolo fisico),

r r contr
infase ofa
1
se
fϵ =
fas
e

0
3 3
f ϵ= f 2 ω0 2
ω ω0 ω
1 e
as
fϵ=f ontrof
c

(• ) il caso molla forte: εb < 0


r r
fϵ=0
se fϵ=0
fa fϵ=0
in e
trofas
n
ω0 co
ω ω0 ω

I grafici mostrano che, contrariamente al caso lineare, si possono trovare soluzioni 2π


ω -periodiche e di ampiezze
limitate anche per ω molto prossimo a ω0 .
Ve ne saranno anzi più di una per certi opportuni valori di fε : “entrainment” o “phase locking” .
La loro stabilità è decisa dai segni degli autovalori della matrice (4.107).

N.B. 6.4.2 Lo sviluppo diretto, applicato sulla

ẍ + ω 2 x = ε(βx − ηε ẋ + bx3 + fε cos ωt)

avrebbe dato all’ordine uno:

ẍ1 + ω 2 x1 = βx0 + ωηε r0 sin(ωt + ϕ0 ) + br03 cos3 (ωt + ϕ0 ) + fε cos ωt) =


) *
3 1
= βa0 − ωηε b0 + br02 a0 + fε cos ωt + br03 cos 3ϕ0 cos 3ωt
4 4
) *
3 1
+ βb0 + ωηε a0 + br02 b0 sin ωt + br03 sin 3ϕ0 sin 3ωt ;
4 4

e da questa, con l’ulteriore richiesta che non vi siano termini secolari, si riottengono le condizioni viste sopra. ♦

Agli stessi risultati si può giungere anche discutendo le (equivalenti) equazioni ottenute nelle variabili definite
dalla (4.103). Sul piano di tali variabili q, p , detto piano di Van der Pol, i punti di equilibrio corrispondono alle
soluzioni del tipo r0 cos(ωt + ϕ0 ) con r0 e ϕ0 costanti. Per quanto visto sopra possono esistere fino a tre tali
punti per fε sufficientemente piccolo, ω 2 < ω02 , ed εb > 0 ; essi inoltre sono sull’asse p = 0 dato che
ϕ0 = 0, π ; sarà allora possibile individuarli con le coordinate (qi , 0) con i = 1, 2, 3 .
Per studiare le caratteristiche qualitative della dinamica nell’intorno di tali punti, può essere opportuno esa-
minare il sistema linearizzato di (4.104). Nell’intorno di ciascuno dei punti (qi , 0), e sempre per ηε = 0 , esso
risulta
) * @ 7 8 A) *
q̇ 0 −ε β + 34 bqi2 /2ω q
= 7 8 ;
ṗ 3 2
ε β + 4 bqi /2ω 0 p

Note di Sistemi Dinamici


378 Capitolo 6. Alcuni Metodi Perturbativi

chiamando, come sopra, g(r) := εr(β + 34 br2 ) si ha


@ A
1 0 −g(qi )/qi
Ai = , i = 1, 2, 3 . .
2ω ∂r g(qi ) 0
Queste matrici hanno (traccia nulla e) determinante tali che

1 ⎨ > 0 in i = 1
⎪ =⇒ centro
2
4ω Det Ai = g(qi )∂r g(qi ) > 0 in i = 2 =⇒ centro
qi ⎪

< 0 in i = 3 =⇒ sella .
D’altra parte si può osservare che il campo della (4.104) con ηε = 0 verifica le condizioni necessarie affinchè il
∂ q̇ ∂ ṗ ∂2 H
sistema sia Hamiltoniano, e cioè l’uguaglianza ∂q = − ∂p =: ∂q∂p ; per la (4.104), il loro comune valore è
ε
dato da − 2ω · 32 bpq e resta ben definita la funzione Hamiltoniana
) ) * *
ε 1 3 3
H (q, p) = − β + bq 2 p2 + bp4 + f (q)
2ω 2 4 16
1 3
con f (q) = 2 βq 2 + 16 bq 4 + fε q + cost e quindi
) *
ε 1 3 7 2 82
H (q, p) = − β(q 2 + p2 ) + b q + p2 + fε q + cost
2ω 2 16
oppure ) *
ε 2 3 εfε
r β + br2 −
H (r, ϕ) = − r cos ϕ + cost .
4ω 8 2ω
Si noti che la H è simmetrica nello scambio q → −p ovvero ϕ → −ϕ, e siccome per r ≫ 1 è
) *
ε 2 3
H (r, ϕ) = − r β + br2 + O(r) ,
4ω 8
si ha che per r grandi la H è costante sulle circonferenze di centro l’origine.
L’esistenza stessa della funzione H implica inoltre che i due primi punti di equilibrio, data la loro stabilità,
sono centri non solo del sistema lineare, ma anche del sistema non lineare (4.104)) (vedi anche: [Nota 3 §III.5]);
nella vicinanza di essi si presenta il fenomeno dei battimenti (“slow varying periodic amplitude”)

5
γ=-1
fϵ=-0.5
a1=-3.0 -10 -5 5
a2=-0.51
a3=2.53
ce=-.6551

sull’omoclina invece si ha una modulazione di frequenza: la fase cresce da 0 a 2π e modula ω .

Caso ηε ̸= 0
Il caso ηε ̸= 0 , (ovviamente meno semplice) si può intuire dai seguenti diagrammi:

5 r
1 f
ϵ gr
a
nd

-10 -5 5 3
i

ω decrescente
2 piccoli
f ω
ϵ

ω0

M. Lo Schiavo
Appendice

Le seguenti Appendici sono intese come un promemoria, NON come parte del testo o del programma. Esse conten-
gono molti (forse troppi) richiami a cose che si dovrebbero conoscere o, almeno, aver vagamente visto per rendersi
conto dei passaggi e delle affermazioni fatte nel corso. Solo alcuni degli argomenti qui citati è opportuno siano stu-
diati, se non altro che per risparmiare tempo nell’usarli al momento opportuno, e verranno specificamente indicati
a lezione. Gli altri possono servire come manuale di (a volte oscure) definizioni e proprietà. È chiaro che tutte sono
presenti nella bibliografia indicata alla fine del testo.

A.1 Richiami di Analisi Funzionale. ( I )


Al solo scopo di poter meglio comprendere e apprezzare il contenuto dei teoremi fondamentali, e non certo per
svilupparne la teoria peraltro vastissima e di enorme interesse, viene qui fornito un vago promemoria di alcune delle
definizioni e delle maggiori caratteristiche di quelle strutture, sempre più specializzate, che prendono i nomi di:
Topologia , Metrica , Norma , Struttura Euclidea .
Si vedrà che gli spazi sui quali queste strutture vengono introdotte possono essere intesi ciascuno un caso speciale
del precedente, e pertanto le varie proprietà verranno ereditate da sinistra verso destra.

Sia X un insieme, da considerarsi lo spazio ospite. Si definiscono:


Topologia τ := una famiglia di sottoinsiemi di X, detti Aperti, tale che:

(i) contiene lo spazio: X ed il vuoto: ∅ ,

(ii) contiene l’unione qualunque e l’intersezione finita di suoi sottoinsiemi.

Spazio topologico := la coppia (X, τ ).


Esempio 1.1 Topologia banale: τ := {X, ∅} ; τ := {X, ∅, A} , τ := {X, ∅, A, B, A ∩ B, A ∪ B} ,
Topologia discreta: τ := 2X := {A ⊆ X} . #

Intorno N (x) di x ∈ (X, τ ) := un insieme contenente (almeno) un elemento della topologia che contenga x.
Base di intorni di x := una famiglia Bx di aperti contenenti x e tale che ogni aperto contenente x contenga
almeno un elemento B ∈ Bx .
Base della topologia τ := una famiglia B di aperti tale che ogni elemento di τ sia esprimibile come unione
di elementi della base.
Pertanto una famiglia B è una base per una topologia τ
se e solo se B contiene una base di intorni per ogni x ∈ X .
Un ricoprimento B di X è una base per τ
[Royden VIII.2, Kolmogorov § II.5 Teor.2] se e solo se per ogni x ∈ B1 ∩ B2 esiste
B3 ∈ B tale che x ∈ B3 ⊂ B1 ∩ B2 .
Subbase della topologia τ := una famiglia BB di aperti tale che la famiglia di intersezioni finite di elementi di BB sia una base
B per τ . 9 ' :
In tal caso τ:= O ∈ 2X ' x ∈ O ⇒ ∃B ∈ B con x ∈ B ⊂ O è certo chiusa per unioni qualunque ed intersezioni finite ed ha B
; <
come base (infatti x ∈ O1 ∩ O2 ⇒ ∃B3 : x ∈ B3 ⊂ O1 ∩ O2 ∈ ). τ
Ne segue in particolare che una famiglia Sα non vuota
α∈A
di insiemi può essere una subbase per una topologia sull’insieme ∪α∈A Sα .
È anche conveniente ricordare [Reed Simon p.96] i seguenti assiomi che possono, o meno, essere richiesti alla topologia dello spazio
in esame.
1o assioma di numerabilità := per ogni x ∈ X esiste una base Bx di intorni di x che sia (non più che) numerabile; e cioè per
; <
ogni x ∈ X esista una successione Nn (x) di intorni di x tale che per ogni N (x) esista n̄ per il quale accade che Nn̄ (x) ⊂ N (x) .
n∈N
2o assioma di numerabilità := la topologia τ ammette una base B numerabile.
Pertanto il secondo assioma implica il primo, ma non gli equivale: la topologia discreta su un insieme non numerabile non verifica il
secondo assioma mentre verifica il primo.
Punto x interno ad un sottoinsime E ⊂ X := un punto appartenente ad un intorno che sia interamente con-
tenuto nell’insieme E .
Tutti i punti di un aperto E sono pertanto punti interni ad E .

379
380 APPENDICE

Punto di aderenza, o di contatto, di E ⊂ X := un punto x ∈ X, e non necessariamente di E , tale che ogni


suo intorno contiene punti di E .
Punto di accumulazione, o cluster, di E ⊂ X := un punto x ∈ X, e non necessariamente di E , tale che ogni
suo intorno contiene punti di E distinti da x stesso.
Punto isolato di E := un punto di X che, essendo di aderenza per E , non è di accumulazione per E . Esso
pertanto è necessariamente un punto di E .

A volte i punti di accumulazione di E vengono chiamati punti limite per l’insieme E . Più propriamente però
si definisce:
Punto limite di una successione := un punto tale che ogni suo intorno contiene quasi tutti (cioè tutti a partire
da un qualche ν ∈ N) i punti della successione; nel caso in cui un tale punto esista, (e lo spazio sia T2, vedi oltre),
esso è unico, e la successione si dirà convergente. Una successione può invece ammettere più di un punto di
accumulazione, ed in tal caso non è convergente. [si pensi per esempio a (1, 12 , 1 − 12 , 13 , 1 − 13 , 14 , 1 − 14 . . .) che
ammette zero ed uno come punti di accumulazione].
N.B. 1.1.2 Non è detto che il punto limite sia un punto della successione, nè che, appartenendo i punti della
successione ad un qualche insieme questi contenga anche il punto limite della successione stessa. Inoltre si veda il
prossimo N.B. 1.1.3 ♦

Insiemi chiusi in (X, τ ) := gli insiemi Oc := X\O con O ∈ τ; e cioè i complementari in X degli aperti di
X.
Chiusura [E], in X, di un sottoinsieme E ⊂ X := l’intersezione di tutti i sottoinsiemi chiusi di X che conten-
gono E . Essa è quindi il più piccolo di tali insiemi.
È facile convincersi del fatto che i chiusi sono tutti e soli quegli insiemi che coincidono con la loro chiusura.
Inoltre entrambi coincidono con la collezione dei loro punti di aderenza. Infatti [E]c è l’unione di tutti gli aperti
che non contengono punti di E e quindi è fatto da punti interni ad E c . Pertanto un insieme è chiuso in X se e
solo se contiene tutti i suoi punti di accumulazione che sono in X (certo contiene tutti i suoi punti isolati); e quindi
quando contiene ogni punto di X che sia limite di una qualche successione di punti dell’insieme. È poi evidente che
la chiusura in X di un insieme è l’unione dell’insieme stesso e dei suoi punti di accumulazione appartenenti ad X
e che non gli appartengono.
Derivato, der(E), di E in X := l’insieme di tutti i punti di accumulazione di E in X.

Interno E, in X, di un sottoinsieme E ⊂ X := l’unione di tutti gli aperti di X contenuti in E .

∂E , in X, di un sottoinsieme E ⊂ X := [E]\ E ≡ [E] ∩ [E c ].
La frontiera di un insieme risulta pertanto costituita da soli punti isolati e da punti di accumulazione non interni
all’insieme (siano essi appartenenti all’insieme o meno), da quei punti cioè in ogni intorno dei quali si trovano sia
punti dell’insieme sia punti non dell’insieme. Inoltre, in quanto intersezione di chiusi la frontiera di un insieme
è chiusa.
È importante notare che i concetti finora introdotti, quali per esempio quelli di punto di accumulazione, di
limite, di convergenza etc. non sono concetti metrici bensı̀ topologici.
N.B. 1.1.3 Un punto p è di aderenza per un insieme E se esiste una successione di punti di E convergente a p;
ed è di accumulazione quando gli elementi della successione possono essere presi distinti a coppie.
Viceversa, affinché nell’affermazione qui sopra valga anche il solo se, e cioè affinché l’essere x ∈ [E] implichi
l’esistenza in E di una successione (numerabile) di punti che ammette x come limite, occorre supporre anche che
E verifichi il 1o assioma di numerabilità [Kelley cap.II teor.8]. ♦

Tale assioma è automaticamente verificato qualora τ provenga da una:


Metrica d su X := una funzione d(·, ·) : X × X → R+ ∪ {0} tale che sia:

(i) Definita positiva: d(x, y) ≥ 0 , d(x, y) = 0 ⇔ x = y ;

(ii) Simmetrica: d(x, y) = d(y, x) , ∀x, y ∈ X ;

(iii) Triangolare: d(x, z) ≤ d(x, y) + d(y, z) , ∀x, y, z ∈ X .

Spazio metrico := la coppia (X, d) .

M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 381
9 ' :
Palla, o sfera, Bε (x) di centro x e raggio ε > 0 := y ∈ X ' d(x, y) < ε .
Le sfere Bε (x) possono essere decretate: “aperti”; con esse lo sono tutti i sottoinsiemi U ⊂ X i punti y dei
quali sono contenuti in sfere Bε (x) contenute in U, e cioè gli insiemi costituiti da unioni di sfere.
Dato che y ∈ Bε (x) ⇔ d(x, y) < ε e che sussiste la d(x, z) ≤ d(xy) + d(yz), certo esiste Bε̂ (y) ⊂ Bε (x) purché
siano 0 < ε̂ ≤ ε − d(x, y). Le sfere possono allora essere usate come base per la detta topologia sullo spazio (X, d).
In tal modo lo spazio metrico assume anche la struttura di spazio topologico. Scegliendo poi ε = 1/n si riconosce
poi che tale spazio topologico verifica il primo assioma di numerabilità (ed anche il secondo se X è separabile, vedi
oltre). Tale topologia prende il nome di Topologia indotta dalla metrica
Esempio 1.4 La topologia discreta, per esempio sull’insieme degli interi Z, può essere costruita mediante la metrica
che l’insieme Z eredita da (R; | · |). Sono aperte le sfere B1/2 (n) e quindi ogni {n} .
La stessa topologia (non le stesse sfere) può essere ottenuta, su un qualsiasi insieme, mediante la metrica che vale
zero se due punti coincidono e vale uno altrimenti. È chiaro che i singleton: {x} sono aperti anche
9 ' in tale metrica,
: e
quindi gli insiemi sono tutti aperti (e chiusi). Con questa metrica {x} = B1 (x) = [B1 (x)] ̸= y ' d(x, y)
' ≤ 1 ≡ X
anche se, come per ogni altro spazio metrico, la chiusura di un insieme E è data da [E] = {x ' d(x, E) :=
inf y∈E d(x, y) = 0}. In questo caso avviene che la chiusura della sfera unitaria non coincide con alcuna immagine
inversa secondo d−1 (x, ·) di alcun insieme chiuso. #

Sia A un sottoinsieme di (X, τ ).


Topologia relativa ad A := la topologia τA definita su A dagli aperti OA := {O ∩ A; O∈ τ }.
N.B. 1.1.5 Si noti che un aperto (chiuso) nella τ A non è, in generale, aperto (chiuso) anche rispetto alla τ .
Tuttavia, se A è aperto (chiuso) in X allora ogni aperto (chiuso) rispetto alla τ A lo è anche rispetto alla τ .♦

Esempio 1.6 Una retta ed una circonferenza contenute in un piano sono sottoinsiemi chiusi del piano, ed en-
trambe (sotto)spazi topologici chiusi, rispetto alla topologia ereditata dalle intersezioni con le sfere in R2 , e quindi
anche aperti (come spazi topologici). Tuttavia, rispetto a tale topologia, la retta non è compatta, mentre lo è la
circonferenza . #

Sia poi ∼ una relazione di equivalenza fra gli elementi di X.


Topologia quoziente rispetto alla relazione ∼ := la topologia definita sulla famiglia delle classi di equivalenza:
; ' <
x∗ ∈ X\ ∼ dagli aperti U ⊂ X\ ∼ ' Π−1 (U ) ∈ τ ove Π : X → X\ ∼ è la proiezione canonica
Π(x) = x∗ ∋ x.
Esempio 1.7 Siano x, y ∈ R2 , e sia x ∼ y quando simultaneamente si ha x1 − y 1 ∈ Z ed x2 − y 2 ∈ Z. Si
chiama Toro T2 l’insieme T2 := R2 \ ∼ dotato della topologia quoziente. Esso eredita anche la struttura di gruppo
mediante la x∗ + y ∗ := (x + y)∗ . #

I seguenti sono possibili assiomi di separazione per uno spazio topologico (X, τ):
(T0) Punti x, y ∈ X distinti ammettono:
o un qualche intorno N (x) tale che N (x) ̸∋ y , oppure qualche intorno N (y) tale che N (y) ̸∋ x.
(T1) Punti x, y ∈ X distinti ammettono intorni N (x), N (y) tali che N (x) ̸∋ y ed N (y) ̸∋ x.
(T2) (Hausdorff) Punti x, y ∈ X distinti ammettono intorni disgiunti.
(T3) In aggiunta al (T 2) sia Regolare; si abbia cioè che per ogni chiuso K ⊂ X ed ogni x ∈ X \ K esistono due aperti N (K), N (x)
che siano disgiunti.
(T 32 ) In aggiunta al (T 2) sia Completamente Regolare; si abbia cioè che per ogni chiuso K ⊂ X ed ogni x ∈ X \ K esiste f : X → [0, 1]
continua tale che f (x) = 1 ed f (K) = {0} .
(T4) In aggiunta al (T 2) sia Normale; si abbia cioè che per ogni coppia di chiusi disgiunti K1 , K2 esistono due aperti N (K1 ), N (K2 )
che sono disgiunti.

Uno spazio topologico verifica (T 1) se e solo se ogni singleton {x} è chiuso. Di conseguenza ogni spazio (T 4) è anche uno spazio
(T 2) . . D’altra parte è chiaro che (T 2) ⇒ (T 1) . Ogni spazio metrico, se considerato topologico con la topologia indotta, verifica
l’assioma (T 4) , [Kolmogorov p.96]. Viceversa se uno spazio topologico (T 4) è anche a base numerabile allora la sua topologia τ
può essere indotta da una metrica.
La famiglia delle possibili topologie su uno spazio X risulta (parzialmente) ordinabile:
τ 1 più debole di τ2 := quando ogni O ∈ τ1 appartiene a τ
2 ; cioè quando: τ 1 ⊂ τ 2.
In tal modo le successioni in X che convergono rispetto a 2 τ
lo fanno anche rispetto a τ 1 . Pertanto se la topologia è troppo forte
allora “poche” successioni convergono; ad esempio per la discreta convergono solo successioni che da un certo indice in poi assumono e
mantengono lo stesso valore. Viceversa, una τ
troppo debole ammette “troppe” successioni convergenti. Ad esempio: τ = {∅, X, A} ,
dichiara convergente una qualunque successione fatta di punti in A .

Note di Sistemi Dinamici


382 APPENDICE

Insieme E ⊂ (X, d) limitato := esistono y ∈ X ed ε ∈ R tali che E ⊂ Bε (y).


B ⊂ A è denso in A := quando A ⊂ [B]. Quindi ogni punto di A è di aderenza per B e cioè: scelto
comunque x ∈ A, o esso appartiene a B oppure è un punto di accumulazione di punti di B .
B ⊂ X è ovunque denso := quando B è denso in X; ovvero: X ⊂ [B]; o anche: ogni punto dello spazio è
di aderenza per B .
B ⊂ X è affatto denso := quando la sua chiusura [B] non contiene alcun aperto di X, (i punti di aderenza
per B sono non interni) ed in tal caso vicino ad ogni y ∈ [B] cadono senz’altro punti di X \ B .
Esempio 1.8 Come è ben noto, l’insieme Q dei razionali è ovunque denso nell’insieme dei reali R, mentre in
quest’ultimo l’insieme degli interi Z è affatto denso. #

(X, τ ) separabile := uno spazio topologico che ammette un sottoinsieme non più che numerabile e (ciono-
nostante) ovunque denso. Ad esempio, Q è un tale insieme in R con la topologia standard. Con la topologia
discreta, invece, R non è separabile.
Sono certo separabili gli spazi a base numerabile; (e non lo sono, per esempio, quelli che ammettono una infinità
più che numerabile di aperti disgiunti). ; <
Uno spazio (X, τ ) separabile e metrico è a base numerabile; infatti se xn è ovunque densa certo avviene
; < n∈N
che B1/k (xn ) è una base numerabile per τ .
k,n∈N

Talvolta accade che lo spazio sia sufficientemente “semplice” da permettere l’introduzione di una struttura
lineare:
Spazio vettoriale V := un gruppo commutativo che sia un K -modulo rispetto ad un campo K .
Memento 1.1.9 #

• Un gruppo (commutativo) è un insieme sul quale è definita una operazione binaria che sia associativa,
(commutativa), con elemento neutro ed inverso;

• Un K -modulo è un gruppo (commutativo) descritto additivamente: “ ⊕ ” e tale che le operazioni del


campo K siano “riconosciute” da quella del gruppo; ciò è per dire che: a, b ∈ K ed x ∈ V implicano, per
esempio, (a + b)x = ax ⊕ bx, etc.

• Un campo è un anello commutativo senza divisori dello zero e con una unità moltiplicativa;

• Un anello è un gruppo rispetto ad una operazione “ + ” che ammetta anche un’altra operazione binaria “
· ” associativa e distributiva rispetto alla prima, e per la quale l’elemento neutro della prima: lo “zero”, è
annullatore totale.

Pertanto uno spazio vettoriale è un gruppo commutativo: ⊕ che sia distributivo rispetto alle operazioni “ +
” , “ · ” , e “ ⊕ ” , ed accetti l’unità moltiplicativa del campo. Esempi di spazi vettoriali sono lo
spazio dei polinomi, lo spazio delle funzioni C 0 ([a, b] → R) (e cioè delle funzioni definite su un intervallo chiuso
e limitato e a valori reali), lo spazio delle soluzioni di una equazione lineare. Non sono spazi vettoriali lo spazio
delle sestuple di numeri esprimenti le probabilità di uscita (per esempio) delle facce di un dado, oppure lo spazio
delle successioni di simboli in un qualche alfabeto, per esempio: (0,1,1,0,0,0,1,0,1,...)

Nel seguito si indicherà con V un qualsiasi spazio vettoriale su un campo K , che in generale è R o C.

Norma su V := una funzione ∥·∥ : V → R+ ∪ {0} che sia:

(i) definita positiva: ∥x∥ ≥ 0, ∀x ∈ V; ed ∥x∥ = 0 ⇐⇒ x = 0 ;

(ii) omogenea: ∥αx∥ = |α| ∥x∥ , ∀x ∈ V, α ∈ K ;

(iii) subadditiva: ∥x + y∥ ≤ ∥x∥ + ∥y∥ , ∀x, y ∈ V.

Si osservi che la (iii) implica facilmente la: | ∥x∥ − ∥y∥ | ≤ ∥x − y∥ .

M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 383

Spazio normato := la coppia (V, ∥·∥).


Esempio 1.10 Lo spazio delle funzioni C 0 ([a, b], R) definite su un intervallo chiuso e limitato, a valori reali,
.b
ed equipaggiato dalla funzione ∥f 7 ∥01 := a |f (t)| dt8 è uno spazio normato: l’integrale è quello di Riemann. Allo
stesso modo è normato lo spazio C ([a, b], R), ∥·∥2 delle funzioni continue da [a, b] in R equipaggiato della norma
.b
∥f ∥2 :=:= ( a |f (t)|2 dt)1/2 (anche ora l’integrale è quello di Riemann). Si osservi che, per definizione, tali spazi sono
limitati alle sole funzioni C 0 ([a, b], R) per le quali la norma indicata ha valore finito. Questi spazi verranno indicati
nel seguito con C10 ([a, b], R) e rispettivamente C20 ([a, b], R). Un altro spazio costruito sulle funzioni C 0 ([a, b], R) e
di grande interesse è quello per il quale la funzione norma è la ∥f ∥∞ := supt∈[a,b] |f (t)|. Lo spazio delle funzioni
C 0 ([a, b], R) tali che ∥f ∥∞ < ∞ verrà indicato con C∞ 0
([a, b], R). #

Non è difficile convincersi del fatto che ogni norma induce una metrica:

d(x, y) := ∥x − y∥ ;

e questa risulterà una metrica ben particolare in quanto sarà non solo omogenea: d(αx, αy) = |α|d(x, y), ma
anche tale che d(x, y) = d(x + c, y + c) = d(0, x − y). Pertanto sarà facile trovare metriche che non sono indotte da
alcuna norma. È chiaro allora che proprietà vere su spazi metrici saranno a maggior ragione vere su spazi normati
purchè essi vengano equipaggiati con la metrica indotta dalla norma.
Ancora più evoluta è infine la struttura di prodotto interno, detto anche
Prodotto scalare, o Struttura euclidea := una funzione ⟨ ·, · ⟩ : V × V → K che, nel caso reale, sia:

(i) definita positiva: ⟨ x, x ⟩ ≥ 0, ed ⟨ x, x ⟩ = 0 ⇐⇒ x = 0 ;


(ii) simmetrica: ⟨ x, y ⟩ = ⟨ y, x ⟩ , ∀x, y ∈ V;
(iii) bilineare: ⟨ αx + βy, z ⟩ = α ⟨ x, z ⟩ + β ⟨ x, z ⟩ ;

mentre nel caso complesso sia:

(i) definita positiva: ⟨ x, x ⟩ ≥ 0, ed ⟨ x, x ⟩ = 0 ⇐⇒ x = 0 ;


(ii) Hermitiana-simmetrica: ⟨ x, y ⟩ = ⟨ y, x ⟩ , ∀x, y ∈ V;
(iii) bilineare: ⟨ x, αy + βz ⟩ = ᾱ⟨ x, y ⟩ + β̄ ⟨ x, z ⟩ ;

Spazio euclideo := la coppia (V, ⟨ ·, · ⟩), con K ≡ R, e ⟨ ·, · ⟩ : V → R.


Spazio unitario := la coppia (V, ⟨ ·, · ⟩ ), con K ≡ C, e ⟨ ·, · ⟩ : V → C.
Ogni spazio euclideo
/ (unitario) può essere considerato uno spazio normato purchè si assuma come norma la
funzione ∥x∥ := ⟨ x, x ⟩ . Infatti, data la
Disuguaglianza di Schwarz := |⟨ x, y ⟩| ≤ ∥x∥ · ∥y∥
si ha che:
2 2 2 2 2
∥x + y∥ = ∥x∥ + ∥y∥ + 2|⟨ x, y ⟩ | ≤ ∥x∥ + ∥y∥ + 2 ∥x∥ ∥y∥ = (∥x∥ + ∥y∥)2 .

N.B. 1.1.11 La disuguaglianza di Schwartz è conseguenza della:

⟨ λx + y, λx + y ⟩ = λ2 ∥x∥2 + ∥y∥2 + 2λ⟨ x, y ⟩ ≥ 0,


2 2
e pertanto il suo discriminante |⟨ x, y ⟩|2 − ∥x∥ · ∥y∥ sarà senz’altro non positivo. ♦

Il motivo del fare ricorso agli spazi euclidei risiede ovviamente nella potenza delle strutture che sono state definite
su essi. Infatti, in virtù dell’essere questi non solo vettoriali normati ma anche metrici e topologici, risultano ben
definiti non solo il concetto di combinazione lineare fra vettori, ma anche di distanze tra vettori, limiti, convergenze
di successioni, etc., ed in più il concetto di angolo tra vettori, e quindi di proiezione ortogonale, di base ortonormale,
etc. Si ricordi che
Vettori ortogonali x⊥y := ⟨ x, y ⟩ = 0 .

Esempio 1.12 Oltre che il noto esempio della geometria classica: i=1 xi y i , un altro esempio di prodotto scalare,
.b
sullo spazio delle funzioni da C 0 ([a, b] → R) che abbiano a f 2 < ∞ (si veda l’Esempio 1.10) è quello nel quale
.b
la norma è ereditata dalla funzione: ⟨ x, y ⟩ := a x(t)y(t)dt; l’integrale è quello di Riemann. #

Note di Sistemi Dinamici


384 APPENDICE

Tuttavia strutture troppo sofisticate hanno ridotta applicabilità: se gli spazi in esame sono troppo complicati
per permetterne l’uso, occorre fermarsi, nella gerarchia vista, alle strutture più semplici. Queste ultime d’altra
parte, essendo poco potenti, avranno necessità di calcoli laboriosi con risultati meno efficaci. Ad esempio, il
concetto di convergenza, già presente negli spazi topologici, può essere in questi poco selettivo se la topologia non
è sufficientemente fine. Per
; renderla
< tale può convenire, qualora possibile, generarla per mezzo delle sfere, e trovare
n
cosı̀ che una successione xn è convergente a x ∈ X quando d(xn , x) −→ 0 ; è chiaro che in tal caso si parla
n∈N ∞
di convergenza in metrica; a sua volta, quando su spazi “semplici” si vogliano definire delle sfere “semplici”, e cioè
quando la metrica sia indotta da una norma, si parlerà di convergenza in norma, etc.
Quando è possibile si fa principalmente uso degli spazi metrici in quanto, come si è visto, essi già possiedono
notevoli proprietà topologiche (sono (T 4) nella topologia indotta dalla metrica) e ciò garantisce l’unicità in metrica
del limite delle successioni convergenti; ma, in più, su tali spazi è possibile introdurre il seguente importante criterio
(necessario):
Se una successione di punti in uno spazio metrico è convergente (ad un punto dello stesso spazio) essa neces-
sariamente verifica il Criterio di Cauchy; ovvero è una:
Successione di Cauchy := dato comunque ε > 0 esiste ν(ε) ∈ N tale che

per tutti gli n, m ≥ ν(ε) si ha d(xn , xm ) < ε .


; <
Infatti: se la successione xn è convergente ad x̄ e se n > ν(ε) si ha: d(xn , x̄) < ε/2 ; ma in tal caso per
n∈N
ogni m > n si ha che d(xm , xn ) ≤ d(xm , x̄) + d(xn , x̄) < ε .
; <
Memento 1.1.13 Sia fn una successione di funzioni definite su un sottoinsieme D di uno spazio metrico
n∈N
(X, d1 ) ed a valori in (Y, d2 ) . Sussistono le seguenti definizioni. #

Convergenza uniforme di fn ad f := dato comunque ε > 0 esiste ν(ε) ∈ N tale che, comunque si scelga
x ∈ D , se n ≥ ν(ε) si ha d2 (fn (x), f (x)) < ε .
Successione di funzioni uniformemente di Cauchy := dato ε > 0 esiste ν(ε) ∈ N tale che, comunque si scelga
x ∈ D , se n, m ≥ ν(ε) si ha d2 (fn (x), fm (x)) < ε .
È essenziale tener presente che la condizione di Cauchy non è sufficiente alla convergenza: vi sono molti esempi
di spazi metrici nei quali esistono successioni di punti che verificano il criterio di Cauchy e che ciononostante non
ammettono (in quello spazio) alcun punto limite. In generale il motivo per cui ciò avviene è che la metrica risulta
troppo poco selettiva per quello spazio, e quindi risultano di Cauchy anche successioni che, per quello spazio, non
sono “sufficientemente” convergenti.
Se, come è comodo, si vuole decidere circa la convergenza o meno di una successione (verso un punto che faccia
parte dello stesso spazio) solo controllando che essa verifichi il criterio di Cauchy, e cioè con un controllo sulla sola
metrica e fra punti “al finito” (e quindi che si conoscono), occorre o restringere quest’ultima ovvero ampliare lo
spazio.
Spazio metrico Completo := uno spazio cosı̀ ampio (rispetto alla metrica fissata) che ammette (un) punto
limite per ogni sua successione di Cauchy.
Come si è detto tale punto è unico in metrica.
Esempio 1.14 Lo spazio: C 0 ([a, b], R) delle f : [a, b] → R
Si osservi innanzi tutto, come visto nell’Esempio 1.10, che questo spazio può essere equipaggiato da varie e diverse
norme; entrambe quelle viste nel detto esempio sono effettivamente delle norme in tale spazio solo perché le funzioni
sono continue e l’integrale è quello secondo Riemann, in tal caso infatti f (t)(t1 − t2 ) = 0 per ogni t1 , t2 ∈ [a, b] e
t1 ≤ t ≤ t2 implicano che f (t) = 0 ∀t ∈ [a, b].
Fatto n o. 1 Lo spazio detto è completo rispetto alla metrica indotta dalla ∥f ∥∞ := supt∈[a,b] |f (t)|.
; <
Dimostrazione Se fn è di Cauchy rispetto ad essa, allora è anche Cauchy uniforme ed
n∈N

∃ν(ε) ∈ N : n, m > ν(ε) =⇒ |fn (t) − fm (t)| < ε per ogni t ∈ [a, b],

e pertanto la successione è uniformemente convergente.


Di conseguenza, per ciascun t la successione (numerica) {fn (t)} è di Cauchy, e quindi per il postulato di
completezza di R (e cioè in effetti per la definizione stessa di R) esiste il valore f (t) := limn→∞ fn (t). Sia
f : t &→ f (t) la funzione cosı̀ definita punto per punto; essa è il ∥·∥∞ -limite della successione in quanto, purché m ed
n siano abbastanza grandi ed m > n arbitrario, per tutti gli t ∈ [a, b] si ha che |fn (t)−f (t)| < ε+|fm (t)−f (t)| < ε .

M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 385

Inoltre essa risulta continua su [a, b], infatti è possibile trovare ν(ε) ∈ N e δ(ε) > 0 (indipendenti l’uno dall’altro)
tali che se n > ν(ε) ed h > δ(ε), allora:
|f (t + h) − f (t)| ≤ |f (t + h) − fn (t + h)| + |fn (t + h) − fn (t)|+
+ |fn (t) − f (t)| ≤ 3ε.
Ovvero: Il limite uniforme di funzioni continue è continuo.
.b
Fatto n o. 2 Lo spazio detto non è completo rispetto alla metrica indotta da ∥f ∥1 := a |f (t)|dt.
Dimostrazione Si consideri per esempio la successione:


⎨0 −1 ≤ t ≤ 0
fn (t) = nt 0 < t ≤ 1/n


1 1/n < t ≤ 1.
Essa converge puntualmente, non uniformemente, alla funzione
(
0 −1 ≤ t ≤ 0
f : [−1, 1] → R data da f (t) =
1 0 < t ≤ 1,

in quanto |f (t) − fn (t)| = |1 − nt| per 0 ≤ t ≤ 1/n, e quindi, fissato t0 basta che sia n(t0 ) ≥ ;
1/t0<per avere
∀t distanza nulla dal punto limite. Tale funzione, pur essendo il limite nella norma ∥·∥1 della fn , non
n∈N
appartiene allo spazio C ([−1, 1] → R). Né può esistere in C ([−1, 1]) una funzione g ̸= f che sia il limite in
0 0

norma ∥·∥1 della successione detta; infatti dovendo essere ∥f − g∥1 < ε per ogni ε ne segue ∥f − g∥1 = 0, e quindi
la f e la g possono differire solo su un insieme di punti che non contiene aperti, e g non può certo essere continua.
Nello spazio C 0 ([a, b], R) risulta Bε (f ) ⊂ B(b−a)ε (f ) perché ∥f ∥1 ≤ (b − a) ∥f ∥∞ , e pertanto τ ∞ ⊃
(∞) (1)

τ 1 e la ∥·∥∞ -convergenza
Cn implica la ∥·∥1 -convergenza. CIn Rn invece le due condizioni sono l’una conseguenza
n
i i i
dell’altra, giacché è i=1 |x | ≤ n supi∈{1,...,n} |x | ≤ n i=1 |x | ovvero ∥x∥1 ≤ ∥x∥∞ ≤ n ∥x∥1 .
Si noti che la successione fn (t) di questo esempio è di Cauchy rispetto alla norma ∥·∥1 ; infatti ∥fm − fn ∥1 =
1 1 n,m
| 2n − 2m | −→ 0 . Viceversa non è di Cauchy rispetto alla norma ∥·∥∞ ; infatti ∥fn − fm ∥∞ = 1 − m/n se

n > m; e allora ∀ν ∈ N ed m > ν esiste n > ν tale che 1 − ε < 1 − m/n. È invece ancora di Cauchy
. 1/n
rispetto alla norma indotta dal prodotto scalare: ∥·∥2 ; infatti gli integrali 0 dt sia di nt che di (nt)2
.1
tendono a zero al crescere di n, ed analogamente gli 1/n dt tendono ad uno. Ciò mostra che
Fatto n o. 3 Lo spazio C20 ([a, b], R) cosı̀ come lo spazio C10 ([a, b], R) non sono completi. #

Come ulteriore esempio si consideri


B che lo spazio C 1 ([a, b], R) non è completo rispetto alla norma ∥·∥∞ . Infatti,
1
per esempio la xn (ξ) := 2 − ξ 2 + n1 , ξ ∈ [− 12 , + 21 ] è Cauchy in norma ∥·∥∞ ma converge verso la funzione
1 ′ ∗
2 − |ξ| che non è derivabile.
; < è invece completo rispetto alla norma ∥x∥ := ∥x∥∞ + ∥x ∥∞ , e rispetto ad
Esso
essa certo la successione xn (ξ) vista qui sopra non è di Cauchy. #
n∈N

Nel seguito
; < verrà usata la seguente proprietà: in uno spazio metrico completo ogni famiglia di insiemi chiusi
non vuoti Cn tali che Cn ⊃ Cn+1 e |Cn | ↘ 0 , essendo |C| := diam C , ha uno ed un solo punto di
n=1,2,...
intersezione. In particolare, [Kolmogorov II 3.2]:
; <
Proposizione 1.1.15 Uno spazio metrico (X, d) è completo se e solo se ogni successione [Bεn (xn )] di
n∈N
sfere chiuse ed incluse, cioè tali che [Bεn (xn )] ⊂ [Bεn−1 (xn−1 )], che abbia εn → 0, ammette (unico) x ∈ X tale
che x ∈ [Bεn (xn )] per ogni n. #

Dimostrazione (⇒)
; <
• d(xn+p , xn ) ≤ εn e quindi xn è Cauchy;
n∈N

• il suo limite appartiene ad ogni [Bεn (xn )] perchè ciascuna di queste contiene quasi tutta la successione;
• il limite è unico (per assurdo: si usi la disuguaglianza triangolare).

Note di Sistemi Dinamici


386 APPENDICE

Viceversa (⇐)
; < ; < ; <
• Se una xn è Cauchy esisterà una sottosuccessione xnk tale che B2−k (xnk ) ha la richiesta
n∈N n∈N n∈N
proprietà di inclusione;
; <
• il punto in comune di tale successione di sfere è punto limite per la successione xnk ;
n∈N
; <
• l’essere di Cauchy impone che anche xn abbia tale x come (unico) limite.
n∈N

Nei casi in cui lo spazio metrico non sia già completo rispetto alla data metrica, e non si voglia cambiare quest’ultima,
può convenire completare lo spazio metrico (X, d) “aggiungendovi le successioni di Cauchy”. Con ciò si vuole
ricordare il seguente procedimento:
; < ; <
n
• Si definiscono equivalenti successioni di Cauchy xn , yn ⊂ X tali che d(xn , yn ) −→ 0 ;
n∈N n∈N ∞

• Si considerano “punti” le classi di equivalenza x di successioni di Cauchy; le classi sono costruite mediante
la relazione di equivalenza del punto precedente. Si considera poi come nuovo spazio l’insieme di tutti questi
punti: X∗ := {x∗ }{xn }⊂X
• Si
; definisce
< su questo
; spazio
< la metrica: d∗ (x∗ , y ∗ ) := limn→∞ d(xn , yn ) per due qualunque fissati elementi
xn ∈ x∗ ed yn ∈ y ∗ . Si dimostra, [Kolmogorov II.3.4], che lo spazio (X∗ , d∗ ) cosı̀ costruito ha,
n∈N n∈N
fra le altre, le proprietà:
• Identificando x ∈ X con le successioni costanti: xn ≡ x ∀n ∈ N, si ha che X è un sottoinsieme di X∗ ;
• la chiusura [X] di X, considerato come sottoinsieme di X∗ , coincide con X∗ ;
; <
• lo spazio metrico (X∗ , d∗ ) è completo. Infatti se x∗m è una successione di Cauchy in (X∗ , d∗ ),
; < m∈N
scelta una successione xn,m per ciascun x∗m , si ha che la successione diagonale: {x1,1 , x2,2 , . . .} è di
n∈N ; <
Cauchy in (X, d) (giacché d(xnn , xmm ) < ε ), pertanto è in X∗ , ed è il d∗ -limite della x∗m , (giacché
m∈N
d(xnm , xnn ) < ε ).

N.B. 1.1.16 Se si fosse seguito un altro procedimento, arrivando ad un altro X∗∗ con le stesse proprietà, i due
spazi X∗ ed X∗∗ sarebbero tali da ammettere una corrispondenza φ : X∗ → X∗∗ tale che φ(x) = x , ∀x ∈ X,
ed inoltre d∗ (x∗ , y ∗ ) = d∗∗ (φ(x∗ ), φ(y ∗ )). ♦

N.B. 1.1.17
Sottoinsiemi di spazi metrici completi hanno, in essi, chiusura completa.
Sottoinsiemi completi di spazi metrici sono chiusi. Pertanto:
sottoinsiemi di spazi metrici completi sono chiusi se e solo se sono completi. ♦

Spazio di Banach := uno spazio vettoriale, normato, completo.


0
Dall’Esempio 1.14 segue che C∞ ([a, b], R) è Banach, mentre non lo sono né C10 ([a, b], R) né C20 ([a, b], R).
Nota 1.1.18 Per completare quest’ultimo (per esempio) si può seguire il seguente procedimento, e poi invocare
il N.B. 1.1.16.
Si introduce una conveniente generalizzazione dell’integrale di Riemann: l’integrale di Lebesgue; esso si definisce
nel seguente modo sulle funzioni f : [a, b] → R che, se non continue, almeno siano “misurabili”, cioè tali da avere
sufficientemente “semplici” le controimmagini degli aperti. Suddivisa in (un numero finito di) intervallini l’immagine
della funzione si può assegnare a ciascuna controimmagine di questi la sua grandezza o “misura”, poi moltiplicarla
per il valore (massimo, o minimo, sull’intervallino) della funzione, quindi ottenere il valore dell’integrale come limite
delle somme di tali prodotti, avendo eseguita la ripartizione dell’immagine in tutti i modi possibili. Va notato che
tale integrale non può distinguere fra loro funzioni che siano diverse su insiemi di misura nulla: per esempio funzioni

M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 387

diverse solo su un’insieme numerabile . di punti. Si considera allora lo spazio di. tutte le classi di equivalenza di
quelle funzioni che hanno ∥f ∥2 := |f |2 < ∞, intendendo che f ∼ g quando |f − g|2 = 0 . In tal modo la
funzione ∥·∥2 ha nuovamente tutte le proprietà di una norma, e si indica con L2 ([a, b] → R) tale spazio normato.
In definitiva, i punti di L2 sono classi di equivalenza di successioni di Cauchy di funzioni a gradini, [Phillips V.4].
Cosı̀ facendo si ottiene uno spazio completo rispetto alla norma (Teorema di Riesz-Fisher, [Royden vi.3.5]), e
nel quale lo spazio C20 ([a, b], R) è denso. ◃

Esempio 1.19 Nello spazio M delle successioni di numeri dei quali solo un numero finito sono non nulli, si consideri la
; < 1 1 <
1
successione xn := (1, , 2 , . . . , . . . , 2n , 0, 0, . . .) . Se in tale spazio si introduce la norma ∥x∥ :=
C∞ n∈N 2 2
i i
i=0 |x | dove x è il valore dell’i-mo elemento di x, si ha che
; la successione
< detta, pur essendo di Cauchy, non
converge ad alcun elemento dello spazio . Pertanto la sfera: x |∥x∥ ≤ 2 è un insieme chiuso ma non completo.
Esistono cioè insiemi chiusi tali da ammettere successioni di Cauchy che non convergono, (ovvero tali da ammettere
Fn ⊃ Fn+1 con |diam Fn | ↘ 0 e con intersezione vuota); se però una successione converge (nello spazio) essa lo
fa ad un punto dell’insieme. #

Siano ora (X, d) , (X′ , d′ ) spazi metrici. Si ricordino le seguenti definizioni:


Funzione f : X → X′ := una relazione: f ⊂ X × X′ tale che

(i) x ∈ X ⇒ ∃x′ ∈ X′ : (x, x′ ) ∈ f ;


(ii) (x, x′ ) ∈ f ed (x, x′′ ) ∈ f implicano x′ = x′′ ;

in generale il punto x′ viene indicato con f (x).


Suriettiva := una funzione tale che per ogni x′ ∈ X′ esiste almeno un x ∈ X per il quale x′ = f (x), ovvero
f (X) = X′ , ma che non sia necessariamente invertibile.
; <
'
f ripartisce X in classi di equivalenza: [y] := x ∈ X ' f (x) = f (y) ; tale insieme viene anche indicato con
f −1 (x′ ) se con x′ si è indicato il comune valore f (x) = f (y), ∀x ∈ [y].
Iniettiva := una funzione tale che f (x) = f (y) ⇒ x = y, e quindi è una funzione che è 1 ←→ 1 fra i suoi
valori di definizione e le loro immagini.
Bijettiva o invertibile := Una funzione che sia contemporaneamente suriettiva e iniettiva: una funzione cioè
onto
che è 1 ←→ 1 .
Una funzione iniettiva è una funzione invertibile sulla sua immagine.
Continua su X := una funzione per la quale le contro-immagini di insiemi aperti sono aperte.
Equivalentemente: quando, dato comunque x ∈ X ed N (f (x)) ⊂ X′ esiste N (x) ⊂ X tale che N (x) ⊂
f −1 (N (f (x))) .
Equivalentemente: quando le contro-immagini di insiemi chiusi sono chiuse.
Equivalentemente: quando, per ogni E ⊂ X, accade che f ([E]) ⊃ [f (E)].
7 8
Equivalentemente: quando, per ogni B ⊂ X′ , si ha f −1 (int(B)) ⊂ int f −1 (B) .
Ne segue che dato comunque x̄ ∈ X ed un qualunque intorno N (f (x̄)) la sua immagine inversa ha x̄ nel suo
interno, e quindi anche quasi tutti gli xn qualora essi esistano tali che xn → x. D’altra parte, dalla N (x̄) ⊂
f −1 (N (f (x̄))) segue f (N (x̄)) ⊂ N (f (x̄)); pertanto una f continua trasforma successioni convergenti a x̄ in
successioni convergenti a f (x̄).
Viceversa, se ogni successione convergente ad x̄ viene trasformata in una successione convergente ad f (x̄)
la f è continua. Infatti, se non lo fosse, dati comunque x̄ ∈ X ed un intorno N (f (x̄)) l’insieme f −1 (N (f (x̄)))
potrebbe non contenere alcun N (x̄); ma allora in ogni arbitrario N (x̄) si potrebbero trovare degli x tali < ̸∈
; che f (x)
N (f (x̄)). Tuttavia, se lo spazio verifica il primo assioma di numerabilità, mediante la successione Nn (x̄)
; < n∈N
della definizione di tale assioma, è possibile scegliere una successione xn di punti xn ∈ Ni (x̄) convergente
n∈N
ad x̄ pur avendo f (xn ) ̸∈ N (f (x̄)), e ciò è contrario all’ipotesi.
Le precedenti definizioni e proprietà valgono nei più generali spazi topologici. Quando invece la topologia è
indotta da una metrica si possono (ed è anzi conveniente) ricorrere alle seguenti. Una funzione f fra X ed X′
metrici è continua in x̄ se e solo se:

∀ε, ∃δ(ε, x̄) : Bδ(ε,x̄) (x̄) ⊂ f −1 (Bε (f (x̄)).

Note di Sistemi Dinamici


388 APPENDICE

Equivalentemente: x ∈ Bδ(ε,x̄) (x̄) ⇒ f (x) ∈ Bε (f (x̄)); ciò in conseguenza del:


N.B. 1.1.20 Le precedenti considerazioni fanno largo uso delle seguenti relazioni, che sussistono per ogni appli-
cazione f : X → X′ che sia una funzione (e cioè verifichi la definizione data sopra). Si ricordi che con il simbolo
f −1 si intende un’applicazione che non è generalmente una funzione. La prima di esse è

f f −1 (B) ⊆ B; f −1 f (B) ⊇ B. (1.1)

( per la funzione f : R → R data da f (x) = 0 , si ha


Nella (1.1) le inclusioni possono essere strette: per esempio
1 x ∈ [−1, 1]
che f f −1 [−1, 1] = 0 ⊂ [−1, 1]. Analogamente la f (x) = implica f −1 f [−2, 0] = R ⊃ [−2, 0].
0 altrove
Per la prima delle (1.1) l’uguale sussiste se ∀y ∈ B, ∃x : y = f (x), e cioè si ha che
7 8
B ⊂ f (X) ⇒ f f −1 (B) = B.

D’altra parte l’inclusione è valida poiché se ȳ ∈ f f −1 (B) fosse fuori B dovrebbe esistere x̄ in f −1 (B) per il quale
f (x̄) = ȳ malgrado ȳ ̸∈ B e questa è una contraddizione.
Per la seconda delle (1.1) l’uguale sussiste se B contiene, per ogni suo x, ogni altro punto x′ tale che f (x) =
f (x′ ). L’inclusione è valida poiché se x̄ ∈ B fosse fuori f −1 f (B), pur esistendo ȳ = f (x̄), dovrebbe essere ȳ ̸∈ f (B)
malgrado x̄ ∈ B . Ne segue che f (D) ⊂ B ⇔ D ; ⊂ f −1
< (B), mentre D ⊂ B ⇒ f (D) ⊂ f (B).
Ulteriori utili relazioni sono le seguenti. Sia Eα una famiglia di insiemi; allora:
α∈A

f (∪α∈A Eα ) = ∪α∈A f (Eα )


f −1 (∪α∈A Eα ) = ∪α∈A f −1 (Eα )
f (∩α∈A Eα ) ⊂ ∩α∈A f (Eα )
f −1 (∩α∈A Eα ) = ∩α∈A f −1 (Eα )
f −1 (Y \ B) = X \ f −1 (B)

(La f (D ∩ B) ⊂ f (D) ∩ f (B) è stretta se esistono x ∈ D\B ed y ∈ B\D tali che f (x) = f (y)).
Per altre utili relazioni si vedano [Royden cap.I.3] e [Kelley cap.IV teor.1] ♦

N.B. 1.1.21 Per parlare di continuità in spazi metrici sono necessarie due metriche: l’una nello spazio di partenza
l’altra in quello di arrivo, cosı̀ come sono necessarie due topologie per la semplice continuità in spazi topologici.
Ad esempio τ 1 è più debole di τ 2 , e cioè τ 1 ⊂ τ 2 , se e solo se la mappa identica da (X, τ 2 ) in (X, τ 1 ) è
continua. Sia C1 := C ((X, τ 1 ) → (X′ , τ ′ )) la famiglia delle funzioni f : X → X′ continue secondo la topologia
τ 1 e C2 quelle continue secondo la τ 2 . Si ha che τ 1 ⊂ τ 2 se e solo se C1 ⊂ C2 . In particolare,
tutte le funzioni f ∈ C1 sono continue se τ 1 è la topologia discreta; solo le costanti sono continue se τ 1 è la
topologia banale. (La famiglia delle prime lascia convergenti solo le successioni costanti, quella delle seconde ogni
successione). ♦

Divagazione.
Dato X e definita su esso una famiglia F di funzioni a valori reali f : X → R , o: funzionali su X , è sempre possibile definire una
topologia τ F su X tale che ogni f ∈ F sia continua (rispetto a τF ): basta usare come sua base la famiglia B delle intersezioni
finite degli insiemi B = f −1 (O) , con O aperto in R ed f ∈ F . Equivalentemente, basta usare come base di intorni di x ,
detti Intorni deboli, la famiglia Bf (x) delle intersezioni finite degli insiemi −1 (B (f (x))) e cioè la famiglia degli insiemi
' ; B < x := f ε
′ ' ′
Bx := {x |fi (x ) − fi (x)| < ε, i = 1, . . . , k} , con k qualunque finito ed fi ⊂F.
i=1,...,k
τ
Si può notare che (X, F ) è Hausdorff se e solo se “ F separa i punti di X ” e cioè quando per ogni coppia x, x′ ∈ X, x ̸= x′ , si
ha che esiste f ∈ F tale che f (x) ̸= f (x′ ) .
La topologia τ F è detta Topologia debole generata da F in quanto è senz’altro τ
F ⊆ τse τè una qualsiasi topologia
per la quale le f ∈ F siano già continue. Le due topologie τF e τpotranno coincidere solo quando le funzioni continue sono
“abbastanza numerose”.
Inoltre è evidente che se F1 ⊂ F2 certo risulterà τ F1 non più forte di τF2 .
τ
In base a queste osservazioni, dati uno spazio topologico (X, ) e, rispettivamente, uno spazio normato (V, ∥·∥) , si definiscono:
Topologia debole su (X, τ) := la topologiaτ C generata dalla famiglia C (X, R) dei funzionali continui su (X, τ ) .
Topologia debole su (V, ∥·∥) := la topologiaτ L generata dalla famiglia L (V, R) dei funzionali lineari continui su (V, ∥·∥) .
È chiaro che sia la τ C che la τ L sono non più forti della topologia τ o, rispettivamente, di quella indotta dalla norma ∥·∥ ,
in quanto esse sono le più deboli topologie per le quali le funzioni in C (o in L ) siano continue.

M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 389

Convergenza debole := la convergenza rispetto alla topologia debole.

Si noti che sia τC che τ


L possono non verificare il primo assioma di numerabilità e quindi possono non essere descrivibili con il
linguaggio
; < delle successioni. Tuttavia si osserva che:
w
xn converge debolmente ad x̄ ∈ X , e si indica anche con xn −→ x̄ , se e solo se per ogni funzionale continuo f : X → R si
n∈N ; <
ha che la f (xn ) converge (in R1 ) ad f (x̄) .
n∈N ; <
La condizione, certo necessaria in base alla definizione di τ
C , se è verificata per una certa successione xn ∈ X permette di
n∈N
trovare, dato un qualunque intorno debole N (x̄) di x̄ , un conveniente ν ∈ N che renda simultaneamente vere tutte le |fi (xn )−fi (x̄n )| <
ε per i = 1, . . . , k < ∞ ed n ≥ ν , mostrando cosı̀ che N (x̄) contiene quasi tutti gli xn . (Stesse affermazioni si possono fare nel caso
vettoriale con l’insieme dei funzionali lineari continui). Tale tipo di convergenza;non<va confusa né con quella standard in (X, ) τ
vista all’inizio del paragrafo, né con quella “forte” definita sugli operatori lineari Tn su X , per la quale Tn → T quando
n=1,2,...
per ogni x ∈ X si ha che, in norma, xn := Tn x → T x =: x̄ , e che equivale alla convergenza uniforme.
In uno spazio (V, ∥·∥) la convergenza
; < debole può essere usata in modo non troppo complicato (Kolmogorov IV § 3.2) in conseguenza
del fatto che: se una successione xn converge debolmente in V , allora essa è necessariamente limitata in norma, e cioè esiste
n∈N
c ∈ R tale che per ogni n ∈ N risulta ∥xn ∥ ≤ c . (È questa una conseguenza del fatto (cfr, Teor 4 App.1 parte 2) che risulta limitata
la successione numerica f (xn ) che si ottiene per ogni funzionale lineare continuo f su V ). Per cui ogni sottoinsieme di (V, ∥·∥) che
sia debolmente limitato lo è anche fortemente. ; <
Ciò permette di verificare facilmente la convergenza debole di una successione xn ∈ X in uno spazio (V, ∥·∥) . Sia E∗ lo
n∈N
spazio dei funzionali lineari continui su (V, ∥·∥) e si ricordi (si veda: [Kolmogorov p123]) la definizione di
Inviluppo lineare o Linear hull di un sottoinsieme E∗0 ⊂ E∗ := l’intersezione di tutte le varietà lineari contenenti E∗0 .
Esso pertanto è l’insieme (con n arbitrario ma finito)
; ' <
'
hull(E∗0 ) := v ∈ E∗ ' v = α1 f1 + · · · + αn fn per certi fi ∈ E∗0 , αi ∈ R, i = 1, . . . , n < ∞

di tutti i vettori di E∗ che si possono ottenere come combinazioni lineari finite di vettori di E0 .
Si dimostra che
; <
una successione xn in uno spazio (V, ∥·∥) converge debolmente ad x ∈ V se (e, certo, solo se)
n∈N
; <
• la successione xn è limitata;
n∈N
• per qualche E∗0 ⊂ E∗ che abbia inviluppo lineare hull(E∗0 ) ovunque denso in E∗ (fortemente), accada che:
n
in R, f (xn ) −→ f (x) per ogni f ∈ E∗0 .

Come si è detto, τ e τ
C possono coincidere solo se C contiene “abbastanza” funzioni continue, e quindi B abbastanza intorni,
ed in particolare se per ogni chiuso K ed x ̸∈ K esiste f ∈ C tale che f (x) = 1 ed f (y) = 0 se y ∈ K , (in tal modo C separa i
punti di X ). D’altra parte sussiste il Lemma di Uryshon: Se X è uno spazio (T 4) dati comunque due chiusi disgiunti K1 , K2 esiste
f : X → [0, 1] continua che vale zero su K1 ed uno su K2 . Pertanto se X è (T 4) ed F è l’insieme delle funzioni continue su X (non
necessariamente lineari) allora si ha ≡ τ τ
C , (Royden p.148). Va osservato però (Royden p.201) che nel caso degli spazi vettoriali
normati generalmente la convergenza debole τ
L , e cioè quella generata dai funzionali lineari, è più debole della convergenza in norma
e coincide, per successioni limitate, con quella puntiforme. Quest’ultima in generale è anche più debole della τ
L dato che la subbase
è fatta con delle distribuzioni δ anziché con delle arbitrarie funzioni f ∈ V∗ .
Può essere utile prendere in esame i seguenti esempi.
; ' <
Esempio 1.22 Gli insiemi x ∈ R2 ' x1 ∈ O aperto in R1 ; x 2 ∈ R1 fissato possono essere presi come base per una topologia i
cui aperti V sono i prodotti O × {x2 } . Tuttavia questa non coincide con la topologia su R2 con metrica euclidea, (quella “usuale”),
coincide invece con la topologia generata dalle funzioni coordinate: π 1 (x) := x(1) ed π 2 (x) := x(2) e che ha per aperti i prodotti
O1 × O2 .
Più in generale, si chiama
k
Spazio prodotto P , (o anche S A ) := uno spazio P := α Sα (con α in un insieme di indici A ), avente come elementi gli insiemi
; <
xα con xα ∈ Sα .
α∈A
Topologia prodotto τΠ := la topologia debole generata in P dalla famiglia delle proiezioni π α : x → xα .
Affinché τ Π verifichi le proprietà caratteristiche delle topologie e resti tale da rendere continue tutte le proiezioni π
α occorre e

basta che essa abbia come base le intersezioni finite di insiemi del tipo (π α )−1 (Oα ) con Oα ∈ α. τ
Si noti che la topologia prodotto τ
Π è non più forte di una qualsiasi altra topologia τ
già presente su P se e solo se le funzioni
proiezioni risultano già τ
-continue, e cioè se gli intorni deboli (cilindrici) O1 × · · · × Ok risultano -aperti. τn
In base a tali considerazioni si ha che una successione xn ∈ P converge debolmente ad x ∈ P se e solo se xα n −→ xα per ogni α ,
k ∞
τ τ α
e che una funzione f : (Y, ) → ( α Sα , Π ) è continua se e solo se sono continue tutte le π ◦ f : (Y, ) → (Sα , α ). τ τ
Si può mostrare [Kelley cap.III teor.6 e prob. V] che se l’insieme degli indici A è troppo numeroso τ
Π può non verificare il 1
o

assioma di numerabilità ed essere quindi generabile con una metrica. Qualora però gli Sα siano metrici con diamSα ≤ 1 per ogni
α , ed A C sia numerabile allora [Kelley cap.IV teor.14] la topologia prodotto coincide con quella delle sfere della “metrica prodotto”:
τ (x, y) := ∞ 1 α α
α=1 2α dα (x , y ).
Si osservi però che, rispetto a tale metrica, la convergenza forte
C è in effetti debole, e cioè per coordinate. Essa infatti è certo meno
energica di quella dovuta, per esempio, alla metrica d(x, y) := ∞ n n
n=1 d(x , y ) o, qualora questa possa avere significato, alla metrica
7C ∞ n
8
n 2 1/2 (si pensi alla successione dei versori in ℓ2 ). Esse invece coincidono qualora l’insieme
euclidea d(x, y) := n=1 (x − y )
degli indici sia finito. #

Note di Sistemi Dinamici


390 APPENDICE

k
Esempio 1.23 Se gli Sα ≡ S sono tutti uguali fra loro, lo spazio prodotto P := α S è lo spazio che ha come punti le funzioni su A a
valori in S ; si pensi per esempio ad Sα ≡ R , A ≡ [a, b] ⊂ R ed allo spazio P che ha per punti le funzioni x : [a, b] → R . Su tali
1 1

spazi la topologia prodotto, detta anche della convergenza puntuale, è la topologia generata dalla famiglia di funzioni π ξ : P → R date
da π ξ (x) := x(ξ) . Per quanto visto nell’Esempio 1.22, in tale topologia xn → x quando per ogni ξ ∈ [a, b] si ha che xn (ξ) → x(ξ) ;
(apriori in modo non uniforme rispetto a ξ ∈ [a, b] ).
L’esistenza di successioni di funzioni continue che convergono punto per punto a funzioni che non lo sono mostra che la convergenza
puntuale è effettivamente più debole di quella uniforme, generata dalla norma ∥·∥∞ .
Si consideri inoltre [Reed IV.5] che su uno spazio di Banach a dimensione infinita la topologia debole non può essere generata da
una metrica. È questo il principale motivo che porta all’introduzionekdegli spazi topologici.
A sua volta, [a, b] può essere identificato con il sottoinsieme di x∈C R1 che si ottiene facendo corrispondere ad ogni ξ ∈ [a, b] il
punto la cui x -ma coordinata è x(ξ) con xk∈ C([a, b]) ; operando in tal modo si stabilisce su [a, b] una topologia che è la τ
C [Royden
τ
p.151]. La funzione ex : ([a, b], | · |) → ( x∈C R1 , Π ) definita da ex (ξ) := x(ξ) con x ∈ C([a, b]) è una funzione che è continua
onto
perché le x lo sono, che è aperta se C distingue i punti ed i chiusi, che è 1 ←→ 1 su ex ([a, b]) se e solo se C distingue i punti,
[Kelley § IV.2]. #

Esempio 1.24 In uno spazio di Hilbert (H, ∥·∥) , (vedi oltre), la topologia debole è quella per la quale sono continue tutte le funzioni
(lineari) x &→ ey (x) := ⟨;y, x ⟩ per ogni y ∈ H fissato, ed in particolare
< le funzioni coordinate. Una base di intorni per l’origine è fatta
'
dagli insiemi cilindrici: x ' | ⟨ yi , x ⟩ | < δi ∈ R+ , i = 1, . . . , n ove n ∈ N ed i vettori y1 , . . . , yn sono arbitrari. Una successione di
; < ; <
punti xn ⊂ H converge debolmente quando l’insieme ∥xn ∥ è limitato e convergono tutte le successioni delle coordinate
n∈N n∈N
per esempio su una base ortonormale (o “componenti di Fourier”, vedi oltre); inoltre dato che le funzioni coordinate sono una base
per le funzioni lineari definite su H , la convergenza per coordinate implica quella debole e la topologia debole coincide con quella
prodotto. In tali spazi infine si ha che la convergenza per coordinate è anche sufficiente ad assicurare quella in norma qualora sia
unita alla condizione ∥xn ∥ → ∥x∥ , ben diversa dalla ∥xn − x∥ → 0 . #

Fine divagazione

Omeomorfismo := una bijezione che sia continua con inversa continua.


Metriche d1 , d2 (topologicamente) equivalenti := due metriche definite sullo stesso insieme X e tali che l’i-
dentità sia un omeomorfismo: dette τ 1 e τ 2 le topologie generate dalle due metriche d1 e d2 rispettivamente,
per ogni ε > 0 ed y ∈ X si abbiano simultaneamente le:
( '
Bε (y) := {x ∈ X ' d2 (x, y) < ε} ∈ τ 1
(2)
'
Bε (y) := {x ∈ X ' d1 (x, y) < ε} ∈ τ 2
(1)

e quindi
τ2⊂ τ1 insieme con τ1⊂ τ2
e cioè: le topologie generate dalle due metriche coincidono.
Ad esempio d2 := d1 /(1 + d1 ) è topologicamente equivalente alla d1 e rende X limitato.
Spazi (X, d), (X′ , d′ ) Omeomorfi o Topologicamente equivalenti := due spazi metrici fra i quali esista (al-
meno) un omeomorfismo , e quindi una bijezione h : X → X′ che conserva la struttura topologica nel senso che gli
aperti in uno dei due spazi sono in corrispondenza 1 ←→ 1 con gli aperti nell’altro:

O1 ∈ τ1 ⇒ h(O1 ) ∈ τ2 e O2 ∈ τ2 ⇒ h−1 (O2 ) ∈ τ 1.


Le due topologie sono altrettanto “ricche”.
L’esistenza dell’omeo h : X → X′ fa sı̀ che una qualunque ′ ′ ˜
; < funzione f : (X , d ) → (Y, d) risulti continua se
e solo se è continua la f ◦ h, e che una successione xn converga (ad x̄ ∈ X) se e solo se la successione
; < n∈N
h(xn ) converge (ad h(x̄) ∈ X′ ).
n∈N

Esempio 1.25 Sia X := (0, 1], d(x, y) := |x − y|,


; X< := [1, ∞), d ≡ d, ed h(x)
′ ′
; := <1/x. Si noti che tale
h : X → X è un omeomorfismo, e quindi certo xn

converge se e solo se 1/xn converge; ma per
; < n∈N ; < n∈N
esempio 1/n è Cauchy mentre non lo è la sua h− trasformata: n .
n=1,2,... n=1,2,...
Si noti anche che X′ è chiuso in R e quindi è uno spazio completo mentre non è completo lo spazio X. #

Metriche d1 , d2 (uniformemente) equivalenti := due metriche definite sullo stesso insieme X e tali che
l’identità sia un omeo uniformemente continuo:
(
∀ε∃δ1 (ε) : ∀x, y ∈ X risulta d1 (x, y) < δ1 (ε) ⇒ d2 (x, y) < ε
∀ε∃δ2 (ε) : ∀x, y ∈ X risulta d2 (x, y) < δ2 (ε) ⇒ d1 (x, y) < ε

M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 391

In particolare la condizione è verificata se esistono 0 < c1 ≤ c2 < ∞ tali che per tutti i punti x, y ∈ X si abbia
c1 d1 (x, y) ≤ d2 (x, y) ≤ c2 d1 (x, y) . Si noti però che anche la d2 := d1 /(1 + d1 ) è metricamente equivalente alla d1
e che quindi la limitatezza è una proprietà che non viene conservata neanche dagli omeo uniformi. Si osservi che se le
metriche provengono da corrispondenti norme, e se queste sono equivalenti, allora le metriche sono uniformemente
equivalenti.
Spazi (X, d), (X′ , d′ ) metricamente equivalenti := due spazi metrici fra i quali esista (almeno) un omeomor-
fismo uniforme, e cioè una bijezione h : X → X′ uniformemente bicontinua; come tale essa rende metricamente
equivalenti le due metriche d1 := d e d2 := d′ ◦ h. In tal caso l’omeomorfismo uniforme h trasforma successioni
di Cauchy in successioni di Cauchy, infatti dalla definizione
; < stessa di uniforme continuità segue
; immediatamente
<

che se g : X → X è uniformemente continua e se xn è Cauchy in X, allora anche g(xn ) è Cauchy
n∈N n∈N
in X′ . Pertanto se esiste un omeomorfismo uniforme h : X → X′ si può asserire che X è completo se e solo se è
completo anche X′ . Viceversa, come si è visto nel Esempio 1.25, l’immagine secondo una funzione continua di
una successione di Cauchy (che non converga) può non essere di Cauchy, e quindi se la h è solo un omeo, e cioè se
l’equivalenza è solo topologica, è possibile stabilire una tale equivalenza fra spazi completi e spazi che non lo sono.

Si consideri ora nuovamente uno spazio (solo) topologico (X, τ ); per introdurre le seguenti nozioni infatti non
vi è necessità di ricorrere ad alcuna metrica, malgrado anche in questo caso la presenza di una metrica possa rendere
più agevole l’esame di tali proprietà. Si definiscono
; < c
Ricoprimento aperto di X := una famiglia Oα di sottoinsiemi aperti Oα ⊂ X tali che α∈A Oα ⊃ X;
α∈A
qui A è un qualsiasi insieme di indici.
; <
X Compatto := uno spazio topologico (X, τ ) tale che ogni suo ricoprimento aperto: Oα ammette
α∈A
un sottoricoprimento finito: Oα1 ∪ · · · ∪ Oαν ⊃ X.
X Compatto numerabile := quando la definizione qui sopra vale solo per degli insiemi A (non più che) nume-
rabili .
In uno spazio metrico la compattezza implica che se una proprietà è verificata su ogni Bε (x) ⊂ X, si può parlare
del più piccolo ε per il quale essa avviene, ed esso sarà ancora non nullo.
K ⊂ X Compatto := quando (K, τ ) è uno spazio compatto (e cioè se K è compatto nella topologia
relativa τ K ).
Sistema centrato := una famiglia di sottoinsiemi di X tale che ogni intersezione finita di essi sia non vuota.
; < e
Si noti che se Oα è un arbitrario ricoprimento aperto di X, allora necessariamente α∈A Oαc = ∅ . Allo
α∈A ; <
stesso modo si nota che un arbitrario sistema di chiusi Kα è centrato se e solo se nessuna sottofamiglia
; < α∈A
Kαc , con B sottoinsieme finito di A, è un ricoprimento aperto di X.
α∈B

Sussistono i seguenti teoremi fondamentali: Teorema 1.1.26 Uno spazio X è compatto se e solo se ogni sistema
; <
centrato di suoi sottoinsiemi chiusi Kα ha intersezione (arbitraria) non vuota.
α∈A
; <
X è compatto numerabile se e solo se ogni sistema centrato numerabile di suoi sottoinsiemi chiusi Kα ha
α∈A
intersezione (numerabile) non vuota. #

Dimostrazione
; <
(⇐) Sia Oα un arbitrario ricoprimento aperto di X. Per la prima osservazione fatta qui sopra si ha che la
;α∈A<
famiglia Oαc ha intersezione vuota, e quindi per ipotesi non può essere centrata; ciò significa che esiste
α∈A e
un insieme finito B ⊂ A tale che α∈B Oαc = ∅, provando in tal modo la compattezza di X.
; <
(⇒) Sia Kα un sistema centrato di chiusi. Se X è compatto, per la seconda delle osservazioni fatte sopra
; < α∈A
e
Kαc non può ricoprire X, e quindi α∈A Kα ̸= ∅ . "
α∈A

Note di Sistemi Dinamici


392 APPENDICE

È chiaro che se X è compatto esso è anche compatto numerabile. Il viceversa sussiste purchè in aggiun-
ta si richieda che X sia a base numerabile. In tal caso infatti da ogni ricoprimento aperto si può estrarre un
sottoricoprimento fatto con elementi della base, e quindi non più che numerabile.
; <
Teorema 1.1.27 Uno spazio (X, τ ) è numerabilmente compatto se e solo se ogni successione xn ammette
n∈N
almeno un punto di accumulazione e quindi, se X verifica anche il 1o assioma di numerabilità, se e solo se ogni
successione ammette una sottosuccessione convergente. #

Dimostrazione (Royden IX.2.7)


; <
(⇐) Sia Kh un sistema numerabile centrato di chiusi, e per ogni n si scelga xn ∈ ∩nh=1 Kh . L’ipotesi
h∈N ; <
assicura che esiste x in ogni intorno del quale cadono punti di xn e d’altra parte esso non può che
n∈N
appartenere a tutti i Kh giacché xn ∈ Kh per ogni h ≤ n e gli Kh sono chiusi.
; <
(⇒) Data xn in X numerabilmente compatto si considerino gli insiemi En := {xn , xn+1 , . . .} . La famiglia
; < n∈N ; <
[En ] è centrata ed avrebbe intersezione vuota se xn non avesse punto di accumulazione. "
n∈N n∈N

Su uno spazio metrico (X, d) si può introdurre la nozione di


ε -rete di E ⊂ (X, d) := un sottoinsieme Nε di X tale che ∀x ∈ E esiste y ∈ Nε tale che d(x, y) < ε ; e cioè
; <
se Bε (y) è un ricoprimento aperto di E .
y∈Nε
E ⊂ (X, d) Totalmente limitato := per ogni ε > 0 esiste una ε -rete finita.
Esempio 1.28 In uno spazio a dimensione finita: n un insieme è limitato quando√è contenuto in un cubo. Ma
ogni cubo può essere suddiviso in cubetti di lato ε ed i cui vertici formano una ( 2ε n)-rete che è finita.
Nello spazio l2 delle successioni infinite con metrica euclidea finita, che è completo√ [Naylor 3.13.es.4], la sfera
unitaria è limitata ma non è totalmente limitata : gli “estremi dei versori” distano 2 e sono infiniti. È chiaro
che la loro successione non può avere punti di accumulazione, e che allora la sfera non è compatta, pur se chiusa e
limitata. ; ' <
In tale spazio è invece totalmente limitato (e chiuso) il “cubo di Hilbert”:= x ' |x(i) | ≤ 1/2i−1 , infatti
; ' < i=1,2,...
è totalmente limitato in quanto limitato il suo sottoinsieme x ' |x(i) | ≤ 1/2i−1 , e per ciascun punto del
i=1,...,n
7C∞ 8
(k) 2 1/2
7C∞ 8
k 1/2
primo ve ne è uno nel secondo a distanza k=n+1 (x ) ≤ k=n+1 1/4 < 1/2n−1 . In definitiva in uno
spazio di Banach di dimensione infinita una successione limitata può non ammettere sottosuccessioni convergenti.
#

Il non essere totalmente limitato corrisponde all’esistenza di infiniti punti distanti più di ε .
Teorema 1.1.29 Uno spazio metrico compatto numerabile è totalmente limitato. #

Dimostrazione (Royden Lemma 9.3.12)


Se esistessero infiniti xh ∈ X tali che d(xn , xm ) ≥ ε per n ̸= m, dato che in ogni Bε/3 (xh ) ve ne può essere al più
uno solo essi formerebbero una successione senza punti di accumulazione. "

D’altra parte, per uno spazio metrico l’essere totalmente limitato implica che l’unione delle n1 − reti è un insieme
numerabile ovunque denso, ed allora lo spazio è separabile. Questo, insieme al fatto che esso è metrico, implica
che la sua topologia abbia base numerabile, che a sua volta, come si è detto, è la condizione da aggiungere alla
compattezza numerabile per ottenere la compattezza. Pertanto:
Lemma 1.1.30 In uno spazio metrico la compattezza equivale alla compattezza numerabile. #

Si ha invece che la limitatezza totale è in generale più debole della compattezza:


Teorema 1.1.31 Uno spazio metrico (X, d) è compatto se e solo se è totalmente limitato e completo.
Equivalentemente: . . . se e solo se ogni successione ammette una sottosuccessione convergente. #

M. Lo Schiavo
A.1. Richiami di Analisi Funzionale. ( I ) 393

Dimostrazione

(⇒) Certo uno spazio metrico compatto è totalmente limitato. Inoltre, siccome è numerabilmente compatto, ogni
successione ammette punto di accumulazione, e quindi se una successione è di Cauchy essa ammette un
(unico) punto limite.
; < ; <
(⇐) Si vuole usare il Teorema 1.1.27: data una xν se ne troverà una sottosuccessione xn convergente.
ν∈N n∈N
Per l’ipotesi di limitatezza totale si può ricoprire X con un numero finito di sfere B1 (yk ), k = 1, . . . , n1 , delle
quali almeno una: S1 contiene infiniti xn . Poi si può ricoprire S1 con un numero finito di sfere B1/2 (zk ), k =
tale che S1 ∩ S2 contiene infiniti xn . Procedendo in tal modo si ottiene
1, . . . , n2 , delle quali almeno una:S;2 è <
una successione di infinite sfere Sk tali che esiste nk > nk−1 ed xnk ∈ S1 ∩ · · · ∩ Sk . Gli
; < k=1,2,...
xnk formano una sottosuccessione che è di Cauchy ed è quindi convergente per ipotesi. "
k=1,2,...

Teorema 1.1.32 [Bolzano-Weiestrass]


Se X di Hausdorff è compatto allora ogni successione in X ammette una sottosuccessione convergente. #

Teorema 1.1.33 Se uno spazio metrico X è tale che ogni successione ammette una sottosuccessione convergente
allora X è compatto. #

Teorema 1.1.34 [Heine-Borel]


In Rn gli insiemi chiusi e limitati sono compatti. #

Sussistono anche i seguenti fatti:


(• ) Sottoinsiemi di spazi metrici compatti sono compatti se e solo
; se < chiusi.
Essi sono quindi completi. Infatti se K ⊂ X è compatto e Kα è centrata con Kα ⊂ K chiusi in K ,
α∈A
essendo essi chiusi anche in X se questo è compatto si ha ∩α∈A Kα ̸= ∅ e la tesi.
(• ) Sottoinsiemi compatti di spazi di ;Hausdorff
< sono chiusi.
Infatti se x ∈ [D] è possibile trovare xn che lo ammette come limite, ed in tali spazi i limiti sono unici.
n∈N ; <
La compattezza di D implica l’esistenza di almeno un punto di accumulazione per la xn , che allora dovrà
n∈N
coincidere con x provando che D ≡ [D].
Insieme precompatto, o relativamente compatto, := un sottoinsieme E di uno spazio topologico (X, τ ) tale
che la sua chiusura in X risulti compatta.
Esempio 1.35 Q ∩ [0, 1] è totalmente limitato ma non completo; è precompatto come sottoinsieme di R, non
lo è come sottoinsieme di Q . #

Esempio 1.36 (C([0, 1], R), ∥·∥∞ ≤ 1) è un insieme chiuso, limitato, completo, ma non totalmente limitato
[Phillips p.85]. Infatti se ci fosse un ricoprimento finito alla (per esempio) 14 − rete della sfera unitaria , dovrebbero
esistere f1 , f2 , . . . , fn tali che data una qualunque funzione g ∈ C accada che max[0,1] |g(x) − fi (x)| < 14 . Basta
far “oscillare” la g proprio dove occorre per rendersi conto che ciò non può essere. #

(• ) Sottoinsiemi di spazi metrici completi sono precompatti se e solo se totalmente limitati. Per cui negli
spazi metrici completi gli insiemi compatti sono gli insiemi chiusi e totalmente limitati.
(• ) D è un sottoinsieme precompatto di uno spazio metrico completo (X, d) se e solo se ogni successione di punti
di D ammette una sottosuccessione che converge in X (anche se non necessariamente in D ). Se la convergenza
è in D allora D è compatto.
(• ) Se f è continua ed E è compatto,
; allora
< f (E) è compatto.
Infatti, dato un ricoprimento aperto Oα di f (E) esiste un insieme finito di indici: α1 , . . . , αn tale che
cn −1
α∈A
k=1 f (Oαk ) ⊃ E . La funzione, se reale, “ammette massimo e minimo”.

Note di Sistemi Dinamici


394 APPENDICE

Più in generale, sia (X, τ ) uno spazio topologico; si definisce


f : X → R semicontinua superiormente in D ⊂ X := una funzione tale che
la famiglia degli insiemi f −1 ((−∞, α)) è aperta per ogni α ∈ R .
Equivalentemente: per ogni y ∈ D ed ε > 0 , esiste N (y) ∈ τ tale che x ∈ N (y) implica f (x) < f (y)+ε.
Equivalentemente: per ogni y ∈ D si ha

f (y) ≥ lim sup f (x) := inf N (y)∈ τ { sup f (x)}.


x→y x∈N (y)

Analoga definizione si dà per la semicontinuità inferiore:


f : X → R semicontinua inferiormente in D ⊂ X := una funzione tale che
la famiglia degli insiemi f −1 ((α, +∞)) è aperta per ogni α ∈ R .
Equivalentemente: per ogni y ∈ D ed ε > 0 , esiste N (y) ∈ τ tale che: x ∈ N (y) implica
f (x) > f (y) − ε . O anche: f (y) ≤ lim inf x→y f (x).
Teorema 1.1.37 Se f : X → R è semicontinua superiormente ed X è numerabilmente compatto allora f è
superiormente limitata ed ammette massimo. #

0 1
Dimostrazione La famiglia On := f −1 (−∞, n) è un ricoprimento aperto numerabile di X. Pertanto
1 che X ⊂ Oν , e cioè f (x) < ν per ogni x ∈ X. Sia β := supx∈X f (x). Gli insiemi Kn :=
0 ν < ∞ tale
esiste
f −1 [β − n1 , ∞) sono un insieme numerabile centrato di chiusi, per cui esiste y ∈ Kn per ogni n. e cioè f (y) = β .
"

Si concluderà il paragrafo accennando ad un importante uso del concetto di precompattezza. A questo scopo si
ricordino le seguenti definizioni:
Famiglia uniformemente limitata su O ⊆ X := una famiglia F di funzionali f : (X, τ ) → R per la quale esiste
c > 0 tale che |f (x)| < c per ogni x ∈ O ed f ∈ F .
Famiglia equicontinua su X := una famiglia F di funzionali f : (X, τ ) → R per la quale comunque si scelga
x̄ ∈ X si ha che: dato ε esiste δε indipendente da x̄ e tale che x ∈ Nδ (x̄) implica f (x) ∈ Bε (f (x̄)) per ogni
f ∈F.
In particolare, se F := {fn : D ⊂ Rm → R}n∈N allora F è equicontinua se ∀ε ∃δ indipendente da x, y, fn e
tale che: |fn (x) − fn (y)| < ε quando |x − y| < δ e comunque sia scelto n.
Sia D un sottoinsieme dello spazio (C([a, b], R). Sussiste l’importante:
Teorema 1.1.38 [Ascoli-Arzelà] (si veda: [Kolmogorov II.7.4])
Un insieme D è precompatto se e solo se D è equicontinuo ed uniformemente limitato su [a, b]. #

Ne segue, come si è detto, che considerato D come sottoinsieme di ((C([a, b]), R), ∥·∥∞ ) si deduce che da ogni
successione in D si può estrarre una sottosuccessione uniformemente convergente in C([a, b], R).
Anche direttamente, se D è compatto e se F definita come sopra è equicontinua ed uniformemente limitata su
D allora F ammette una sottosuccessione uniformemente convergente su D ad una f : D → R continua.
Le spezzate di Eulero sono una tale famiglia in C 0 ([t0 , t0 + a′ ], R).

A.2 Richiami di Analisi Funzionale. ( II )


Le seguenti considerazioni hanno lo scopo di estendere agli spazi a dimensione infinita alcune delle note proprietà
di quelli a dimensione finita.
Sia V uno spazio vettoriale su un campo numerico K . Si chiama:
Varietà lineare := un sottoinsieme W ⊂ V tale che:
x, y ∈ W ⇒ ax + by ∈ W, per ogni a, b ∈ K.

N.B. 1.2.1 Non si confonda una Varietà lineare con uno qualsiasi dei piani ad essa paralleli: la varietà contiene
lo zero; i piani sono definiti più oltre. ♦

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 395

Sia V anche dotato di metrica; si definisce:


Sottospazio W di V := una varietà lineare W di V che sia chiusa come sottoinsieme di V, cioè tale da
contenere quei punti di accumulazione (di successioni di suoi elementi) che sono anche punti di V.
Un sottospazio potrà anche non essere completo, e lo sarà se anche V lo è.
N.B. 1.2.2 L’intero spazio è sempre chiuso, per definizione di topologia, mentre può ben non essere completo;
nell’operazione di chiusura di un insieme si aggiungono ad esso tutti i punti che sono limiti di successioni di punti
dell’insieme e che stanno in V, ma non si dice nulla di una qualunque successione di Cauchy ovvero di “punti
limite” che non appartengano nemmeno a V.
Ciò è per dire che l’operazione di chiusura è fatta tenendo sempre presenti le caratteristiche dello spazio ospite.
È per questo che talvolta si parla di “chiusura in V”. ♦

N.B. 1.2.3 Un sottospazio, cosı̀ come una varietà lineare, contiene sempre l’origine. ♦

Memento 1.2.4 Siano W1 , W2 sottospazi di uno spazio vettoriale V. Si indica con W3 := W1 + W2 lo spazio di
quei vettori x ∈ V che possono essere rappresentati con x = x1 + x2 , essendo x1 ∈ W1 , ed x2 ∈ W2 . (Esempio
in R3 : due piani, non paralleli). #

Due vettori x, y ∈ V si possono definire equivalenti: x ∼ y ;quando la loro<differenza x − y appartiene ad un


'
certo sottospazio W; lo spazio delle classi di equivalenza [x] := y ∈ V ' x ∼ y è esso stesso una varietà lineare:
; ' <
W := [x] ' x ∈ V ; e W è l’elemento neutro di U
U W . Se V è normato anche UW si può rendere normato mediante
la: ∥[x]∥ := inf y∈[x] ∥y∥ e se l’uno è completo risulta completo anche l’altro.
Codimensione di un sottospazio W ⊂ V := la dimensione dello spazio delle classi di equivalenza:
; ' <
U '
W := [x] ' x ∼ y := (x − y) ∈ W .

Esempio: in R3 la famiglia di vettori del tipo x0 + w con w parallelo a un piano assegnato W è un insieme di
dimensione uno; il piano W ha codimensione uno.
Alternativamente: date due sottovarietà W1 , W2 , la codimensione di W1 è la minima dimensione che deve
avere W2 affinchè sia V = W1 + W2 .
Se lo spazio V è a dimensione finita e se V = W1 + W2 si ha che:

dim V = dim W1 + dim W2 − dim (W1 ∩ W2 );

in particolare è
dim V = dim W + dim U
W.
Qualora invece lo spazio ospite V, o più in generale la varietà ospite M ⊃ W, abbia dimensione infinita
(per esempio quando M è localmente diffeomorfo ad uno spazio di Banach di dimensione infinita) allora W ha
codimensione ν se ogni w ∈ W è contenuto in un qualche aperto di V (o di M) che è diffeomorfo ad U × Rν ,
essendo U un aperto di W.
Esempio 2.5 L’Insieme delle biforcazioni (ad un parametro vettoriale) di un sistema dinamico è un sistema
a codimensione finita, o varietà stratificata, complementare dell’insieme (aperto) dei sistemi strutturalmente
stabili, [Wiggins II p.286]. #

Somma diretta di spazi W3 := W1 ⊕ W2 := lo spazio di quei vettori x ∈ V che possono essere rappresentati in
modo unico con x = x1 + x2 , essendo x1 ∈ W1 , ed x2 ∈ W2 . (Esempio in R3 : un piano ed una retta che lo
intersechi).

Data una famiglia di vettori D := {xα }α∈A , xα ∈ V; si definisce


span D := il più piccolo sottospazio di (V, d) contenente l’intera famiglia D .
È quindi la chiusura in (V, d), e non necessariamente il completamento, dell’insieme delle combinazioni lineari finite
fatte con gli elementi xα della famiglia, ed è quindi la chiusura del linear hull(D).
Sia ora dato un (sotto)spazio W contenuto in, o magari coincidente con V.

Note di Sistemi Dinamici


396 APPENDICE

; <
Insieme completo per (W, d) := una qualunque famiglia xβ di vettori xβ ∈ W tale che:
β∈B
; <
span xβ = W.
β∈B

Base B (di vettori) per (W, d) := un insieme B := {xβ }β∈B di vettori che sia completo per W e “mini-
male”, e cioè tale che:
(a) l’insieme delle combinazioni lineari finite di suoi elementi è ovunque denso in W;
(b) ogni suo sottoinsieme finito è un insieme di vettori linearmente indipendenti.

Ne segue che per ogni punto x ∈ W esiste almeno una successione sν := n=1 bn xβn , con xβn ∈ B, bn ∈ K ,
ν
n = 1, 2, . . ., tale che ∥x − sν ∥ −→0 .
∞ C∞
Ciò risulta dare significato alla scrittura x = n=0 bn xβn . Si noti nuovamente che qui non si parla di cosa
facciano tutte le successioni di Cauchy né se convergano fuori V, ma solo dell’esistenza di combinazioni lineari
finite di elementi della base e della loro convergenza (in norma) verso punti di V.
Un insieme di vettori linearmente indipendenti è base per il suo span.
Esempio 2.6 (si veda anche il seguente Teorema 1.2.28)
I polinomi sono una base in C([a, b], ∥·∥∞ ), in L2 , ed in C([a, b], ∥·∥2 ) [Kolmogorov p.407], pur non essendo
quest’ultimo uno spazio completo.
Si noti che con una successione di polinomi si approssima una qualsiasi funzione in C 0 ([a, b]), per esempio una
funzione con spigoli, e cioè una funzione non ottenibile come serie convergente di potenze (che è in C ∞ ). (Nella
successione di polinomi vengono “corretti” anche i coefficienti dei termini aventi potenze basse e non solo aggiunti
quelli con potenze alte). #

Lo spazio si dice a dimensione finita quando la cardinalità della base è finita.


Uno spazio V = W1 ⊕ W2 è somma diretta di suoi sottospazi W1 , W2 se e solo se l’unione delle basi dei
sottospazi è una base per W stesso.
La presenza di una una struttura euclidea definita sullo spazio vettoriale permette di scegliere particolari basi
in tali spazi spazi.
Sia E uno spazio euclideo separabile,
; < (e cioè uno spazio euclideo tale da ammettere un insieme numerabile di
vettori ovunque denso); e sia φα un insieme di suoi punti.
α∈A
; <
Sistema ortogonale := un insieme φα di vettori φα ∈ E\{0} tale che:
α∈A

⟨ φα , φβ ⟩ = 0 ⇐⇒ α, β ∈ A, α ̸= β.

Proposizione 1.2.7 Uno spazio euclideo separabile E ammette una base numerabile ortonormale. #

Infatti si può estrarre una base numerabile, e poi eseguire il noto procedimento di Grahm-Schmidt, che consiste
in: dati u1 , u2 , . . . linearmente indipendenti si pongano
⎧ w1

⎪ w1 := u1 , e1 : = ;

⎪ ∥w1∥



⎪ w2

⎨ w2 := u2 − ⟨ u2 , e1 ⟩e1 ,
⎪ e2 : =
∥w2 ∥
;


⎪ ···



⎪ n−1
=

⎪ wn
⎪ w
⎪ n := u n − ⟨ un , ei ⟩ei ; en : = .
⎩ ∥wn∥
i=1

un
wn

n-1
§ <un , ei>ei
i=1

span{Ái}i=1,...,n-1

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 397

"

I vettori di un sistema ortogonale sono senz’altro linearmente indipendenti. Infatti si ha che per qualsiasi n < ∞
Cn ? ?2
⟨ φαj , i=1 cαi φαi ⟩ = cαj ?φαj ? , j = 1, 2, . . . , n ;

pertanto la somma può essere nulla solo se tutte le componenti sono nulle. È chiaro allora che se un sistema
ortogonale è completo esso è una base dello spazio. In tal caso non esiste alcun vettore dello spazio che non sia il
limite in norma di un insieme di combinazioni lineari finite di elementi della base.
M Z
nπx mπx
Esempio 2.8 Nello spazio (C([a, b], ∥·∥2 )) l’insieme sin , cos è un sistema ortogonale completo, (si
b−a b−a
vedano il Memento 1.2.25 e il Teorema 1.2.28 più oltre, opp. [Kolmogorov III 4.1]). #

Nota 1.2.9 Quando nel seguito si farà riferimento a dei prodotti integrali, si supporrà sempre che lo spazio Ω
di supporto alle funzioni sia un spazio a misura finita (e cioè per il quale si ha: ∥ 1 ∥ < ∞) e che l’integrale
non “distingua”
. fra funzioni diverse fra loro su al più una infinità numerabile di punti.
/ In tal modo il prodotto
⟨ x, y ⟩ := Ω x(ω)y(ω)dω risulta essere un vero prodotto scalare, la funzione ∥x∥ := ⟨ x, x ⟩ risulta avere tutti
7i requisiti di8una norma, e lo spazio L2 (Ω) può essere pensato come il completamento dello spazio delle funzioni
C 0 (Ω), ∥·∥2 [Kolmogorov pag.370 e segg.]. La convergenza in tale norma è però più debole di quella puntuale,
giacché assicura quest’ultima salvo che su insiemi di misura nulla.
7. 81/p
Si noti che oltre alla funzione ∥f ∥∞ := supx∈[a,b] |f (x)| anche tutte le funzioni ∥f ∥p := |f |p , p ∈ R+ ,
possono essere delle oneste norme. Queste ultime però lo sono solo al costo di non distinguere funzioni che siano
uguali “quasi ovunque” (e cioè salvo che su insiemi di misura nulla); ed infatti gli spazi sui quali tali funzioni si
comportano in modo significativo come norme sono in realtà spazi di classi di equivalenza di funzioni. Inoltre esse
non provengono, salvo il caso p = 2 nel quale il valore della norma prende il nome di scarto quadratico medio,
2 2 2 2
da alcun prodotto scalare. Affinchè ciò si verifichi occorre e basta che ∥x + y∥ + ∥x − y∥ = 2(∥x∥ + ∥y∥ )
[Kolmogorov III.4.8]. ◃

Le seguenti considerazioni hanno


7 speciale interesse
8 soprattutto per gli spazi euclidei a dimensione infinita e
misura finita, quali per esempio C 0 ([a, b]), ∥·∥2 .
; <
Memento 1.2.10 Il limite di una successione fn di funzioni continue fn : [a, b] ⊂ R → R è certamente
n∈N
continuo se tale limite è uniforme; (dimostrazione del tipo 3-epsilon). In tal caso il limn→∞ commuta con il
limx→x0 se x0 ∈ (a, b). #

Memento 1.2.11 Il limite degli integrali di una successione di funzioni continue è l’integrale del limite della
successione integranda se quest’ultimo limite è uniforme. #

C∞
Memento 1.2.12 n=0 fn (ξ) = g(ξ) è definita come il limite puntiforme delle ridotte, per ogni ξ fissato. Se tale
limite risulta uniforme la serie si dice essere uniformemente convergente. #

Memento 1.2.13 Weiestrass-m-test, (si veda il § I.6)


C∞ C∞
se |fn (ξ)| ≤ an , per ogni ξ ∈ [a, b] e n=0 an < ∞, allora n=0 fn (ξ) converge uniformemente. #

Memento 1.2.14 Affinchè il limite di una successione di funzioni derivabili sia derivabile non basta che esso sia
uniforme, lo è però senz’altro se anche le singole derivate sono continue e se il loro limite è uniforme, ed allora
quest’ultimo è proprio la derivata del limite. #

Esempio 2.15 n−1 sin(n2 ξ) tende uniformemente a zero ma non esiste il limite delle derivate in zero: n cos(n2 ξ);
analogamente |n−2 sin(nξ)| ≤ n−2 è uniformemente convergente, ma ha derivata in zero n−1 cos(nξ) che esplode.
Si ricordi anche che, se esiste, una derivata non può avere discontinuità di prima specie. #

Note di Sistemi Dinamici


398 APPENDICE

In definitiva se una successione di funzioni continue ha successione delle somme ridotte uniformemente con-
vergente questa converge ad una somma che è continua, integrabile termine a termine, ed è anche differenziabile
termine a termine solo se anche le derivate delle funzioni sommano uniformemente.

Memento 1.2.16 [Kolmogorov VII 2.4]


Come si è accennato, si può dare al concetto di “serie di funzioni” anche un significato diverso da quello della
convergenza puntuale. Si consideri uno spazio Ξ di misura finita, sul quale siano definite delle funzioni, per
esempio a valori reali f : Ξ → R. Una successione di tali funzioni può convergere in molti modi:

(CU ) : conv. uniforme := ∥fn − f ∥∞ := supξ∈Ξ |fn (ξ) − f (ξ)| → 0


B.
(C2) : conv. in L2 := ∥fn − f ∥2 := |f (ξ) − f (ξ)|2 dξ → 0
Ξ n
.
(C1) : conv. in L1 := ∥fn − f ∥1 := Ξ |fn (ξ) − f (ξ)|dξ → 0
(QO) : conv. quasi ovunque := ∥fn − f ∥qo := µ ({ ξ| |fn − f | ̸→ 0}) = 0
7 ' 8
(CM ) : conv. in misura := ∥fn − f ∥µ := µ {ξ ' |fn − f | > ε} → 0

Lp q.o.
N.B. 1.2.17 Se fn −→f allora esiste una sottosuccessione fni −→ f . ♦
i→∞

N.B. 1.2.18 Convergenza ( in misura non implica convergenza quasi ovunque:


(k) 1 per n−1 n
k < ξ ≤ k numerate sequenzialmente secondo l’ordinamento: (1,1), (2,1), (2,2),
per esempio fn (ξ) =
0 altrimenti
(3,1), (3,2), (3,3), (4,1), ... non convergono in nessun punto, mentre convergono in L1 ed in misura. ♦

N.B. 1.2.19 Convergenza


( quasi ovunque non implica convergenza in L1
n per 0 < ξ ≤ n1
per esempio fn (ξ) = tende a zero in misura e quasi ovunque, mentre tende ad uno in L1 ♦
0 altrimenti

N.B. 1.2.20 Se lo spazio non è a misura finita la convergenza in L2 non implica quella in L1 (né quella puntuale, a
meno che sussistano teoremi come quelli della convergenza dominata o della convergenza monotona; si pensi anche
al precedente Memento 1.2.11)
(
1
per |ξ| ≤ n1
Ad esempio fn (ξ) = n tende a zero in L2 ma non converge in L1 .
0 altrimenti
(
1
per |ξ| ≤ n1
Ad esempio fn (ξ) = n1 converge in L2 ([0, ∞)) ma non puntualmente. ♦
ξ altrimenti

N.B. 1.2.21 Se uno spazio Ξ è a misura finita, e quindi ∥1∥1 < ∞, è valido il seguente diagramma:

CU

C2 QO

C1 CM

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 399

Ricordando la disuguaglianza di Schwartz: |⟨ x, y ⟩ | ≤ ∥x∥ · ∥y∥, . e assumendo che il prodotto scalare sia
l’usuale prodotto integrale (reale) su un intervallo I := Ξ: ⟨ f, g ⟩ := Ξ f (t) g(t)dt, se ne ricava subito che:
- a-
/
|f (t)|dt ≤ |I| f 2 (t) dt .
I I

n
Allo stesso modo, se ∥fn − f ∥ −→ 0 , fn , f ∈ L2 (I), allora anche

lim ⟨ fn , g ⟩ = ⟨ f, g ⟩ , ∀g ∈ L2 (I).
n→∞

n
Infatti si ha |⟨ fn , g ⟩ − ⟨ f, g ⟩ | = |⟨ fn − f, g ⟩ | ≤ ∥fn − f ∥ ∥g∥ −→ 0 .

Teorema 1.2.22 [Weiestrass.1]


Ogni funzione f ∈ C 0 ([a, b]) è limite in norma ∥·∥∞ di una successione (uniformemente) convergente di polinomi.
#

Corollario 1.2.23 La chiusura in norma ∥·∥∞ dell’insieme dei polinomi come sottoinsieme delle funzioni continue
C 0 ([a, b]) è C 0 ([a, b]) stesso. #

Sia dato uno spazio euclideo E secondo un; qualche


< prodotto scalare ⟨ ·, · ⟩ , e si supponga che sia separabile.
In E sia fissato un certo sistema ortogonale φi che apriori potrà anche non essere una base. Per fissare le
i∈N
; insieme {φ0<, φ1 , . . .} di funzioni φi : ξ &→ R.
idee si pensi ad esempio ad un certo
Si osservi che se le funzioni f1 , f2 , . . . , fn sono fra loro ortogonali, e non nulle, allora esse sono anche fra
Cn Cn
loro linearmente indipendenti. Infatti se fosse i=1 ci fi = 0 ne seguirebbe 0 = i=1 ci ⟨ fi , fj ⟩ = ci ⟨ fj , fj ⟩ ,
da cui ci = 0 per ogni j = 1, . . . , n.
Si supponga poi che, secondo qualche significato, sia sensata l’operazione di serie verso un certo punto f di E,
o funzione “somma” (certo questo è il caso se il numero delle φi è finito)

f (ξ) = c0 φ0 (ξ) + c1 φ1 (ξ) + . . . + cn φn (ξ) + . . . ,

per certi coefficienti {cn }n∈N ; (per esempio la serie può essere convergente alla funzione f o in norma, o punto
per punto, o in misura, etc.).
C∞
Se si possono calcolare i prodotti ⟨ f, φn ⟩ , e se il prodotto ⟨ φn , n=0 cn φn ⟩ è calcolabile termine a termine
allora i coefficienti della serie, sono necessariamente i:
Coefficienti di Fourier di f := cn := ⟨ f, φn ⟩ / ⟨ φn , φn ⟩ .

Esempio 2.24 Se il prodotto scalare è il prodotto


C∞ integrale visto sopra, se le funzioni f, φn sono continue su [a, b]
e quindi limitate, e se una arbitraria serie n=0 c̃n φn risulta uniformemente convergente alla funzione f , allora i
coefficienti sono
Cm necessariamente i coefficienti di Fourier. Infatti le ipotesi di regolarità assicurano
Cm che anche la suc-
cessione φj n=0 c̃n φn è uniformemente convergente poiché per m grandi si ha ∥f φj − n=0 c̃n φn φj ∥1 < ε , per-
. a Cm
tanto la sua serie è integrabile termine a termine ed ha come integrale: c̃j ⟨ φj , φj ⟩ = limm→∞ b φj n=0 c̃n φn =
.a
b f φj = ⟨ f, φj ⟩ . #

Memento 1.2.25 Sussistono, per ciascun n ∈ Z ed m ∈ Z con m ̸= n, i seguenti integrali.


- +π - +π
cos nξ dξ = 0; sin nξ dξ = 0 ;
−π −π

- +π - +π
1 + cos 2nξ
cos2 nξ dξ = dξ = π, n>0;
−π −π 2
- +π - +π
1 − cos 2nξ
sin2 nξ dξ = dξ = π, n>0;
−π −π 2
- +π - +π - +π
sin nξ sin mξ dξ = cos nξ cos mξ dξ = sin nξ cos mξ dξ = 0 ;
−π −π −π

Note di Sistemi Dinamici


400 APPENDICE

- +π - +π
1
cos nξ dξ = 0 ; sin nξ dξ = [1 − (−1)n ], n>0;
0 0 n
- +π - +π
π
cos2 nξ dξ = sin2 nξ dξ = , n > 0;
0 0 2
- +π - +π - +π
cos nξ cos mξ dξ = sin nξ sin mξ dξ = sin nξ cos mξ dξ = 0 ;
0 0 0

- +π - +π
cos nξ sin nξ dξ = cos nξ sin nξ dξ = 0 .
−π 0

Se ne inducono analoghe relazioni sostituendo negli argomenti: ξ con π x/L , e ovunque π con L (si veda
anche il N.B.1.2.32). #

Ancora per n ∈ Z ed m ∈ Z con m ̸= n ed n ̸= 0 , sussistono gli integrali


- π/2 - π/2 ) *
π π sin(nπ) π
cos2 nξdξ = (π + sin(nπ)) = sin2 nξdξ = 1− = ;
0 4 0 4 nπ 4

- 7 nπ 8 7 mπ 8
7 8 7 8
π/2
m cos 2 − n cos mπ
sin 2 2 sin nπ
2
cos nξ cos mξdξ =
0 m2 − n 2
=0 purché m, n entrambi dispari ;

- 7 nπ 8 7 mπ 8
7 8 7 8
π/2
n cos 2 − m cos mπ
sin 2 2 sin nπ
2
sin nξ sin mξdξ =
0 m2 − n 2
=0 purché m, n entrambi dispari .

N.B. 1.2.26 Una funzione f : ξ &→ f (ξ) si dice pari (in ξ = 0 ) quando esiste f (−ξ) ed è tale che f (−ξ) = f (ξ),
e si dice dispari (in ξ = 0 ) quando f (−ξ) = −f (ξ). Somme e prodotti di funzioni pari sono pari; la somma di
funzioni dispari è dispari; il prodotto di due funzioni dispari è pari; il prodotto di una funzione pari per una
funzione dispari è dispari.
L’integrale su un intervallo simmetrico rispetto allo zero di una funzione dispari è nullo; l’integrale su un
intervallo simmetrico rispetto allo zero di una funzione pari può essere nullo o non esserlo; è certamente non nullo
se la funzione su di esso non muta segno; infatti sussistono le:
⎧ . +L
- +L ⎨2 0 f (ξ)dξ se f (ξ) pari
f (ξ)dξ =
−L ⎩
0 se f (ξ) dispari

e se una funzione è periodica di periodo T allora:


- t - a+t
f (ξ)dξ = f (ξ)dξ, ∀a ∈ R;
0 a

- a - a+t - 0 - a - a+t
infatti si ha: = = + + .
0 t t 0 a
Se una funzione f (x) è differenziabile e periodica allora anche la sua derivata è periodica, mentre il suo integrale
.t
F (t) := 0 f (ξ)dξ è funzione periodica solo se F (T) = 0 ; inoltre l’integrale F (cosı̀ come la derivata di f ) è
pari se la f è dispari, e dispari se la f è pari.
Una funzione f+p : ξ &→ f+p (ξ) definita su un intervallo (0, 2L) si dice il prolungamento pari su (L, 2L) (o
l’estensione simmetrica) della funzione f : ξ &→ f (ξ) definita sull’intervallo (0, L) quando

f+p (ξ) = f (ξ) per ξ ∈ (0, L),


f+p (L + x) = f (L − x) per x ∈ (0, L), e quindi
f+p (ξ) = f (2L − ξ) per ξ ∈ (L, 2L) .

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 401

Una funzione f+d : ξ &→ f+d (ξ) definita su un intervallo (0, 2L) si dice il prolungamento dispari su (L, 2L) (o
l’estensione anti-simmetrica) della funzione f : ξ &→ f (ξ) definita sull’intervallo (0, L) quando

f+d (ξ) = f (ξ) per ξ ∈ (0, L),


f+d (L + x) = −f (L − x) per x ∈ (0, L), e quindi
f+d (ξ) = −f (2L − ξ) per ξ ∈ (L, 2L) .

Una funzione f−p : ξ &→ f−p (ξ) definita su un intervallo (−L, L) si dice il prolungamento pari su (−L, 0) (o
l’estensione simmetrica) della funzione f : ξ &→ f (ξ) definita sull’intervallo (0, L) quando

f−p (ξ) = f (ξ) per ξ ∈ (0, L), f−p (ξ) = f (−ξ) per ξ ∈ (−L, 0) .

Una funzione f−d : ξ &→ f−d (ξ) definita su un intervallo (−L, L) si dice il prolungamento dispari su (−L, 0) (o
l’estensione anti-simmetrica) della funzione f : ξ &→ f (ξ) definita sull’intervallo (0, L) quando

f−d (ξ) = f (ξ) per ξ ∈ (0, L), f−d (ξ) = −f (−ξ) per ξ ∈ (−L, 0) .

Un’estensione pari su (L, 2L) e poi pari su (−2L, 0) risulta 2L -periodica, cosı̀ come lo è una dispari-dispari; quelle
incrociate sono 4L periodiche. ♦

Le formule qui sopra mostrano che il sistema trigonometrico


; 1 ; 1 < ; 1 < <
√ , √ cos mξ , √ sin nξ
2π π m=1,2,... π n=1,2,...

è un sistema di funzioni ortonormali su ;[−π, π], ;Bo su un qualunque


< intervallo
< di lunghezza 2π . Allo stesso modo si
1 2
controlla che il sistema di soli coseni: √
π
, π cos mξ m=1,2,... è ortonormale su [0, π], cosı̀ come lo è il
;B < ; <
2 √2 sin(2m−1)ξ
sistema di soli seni: π sin mξ su [0, π], oppure, su [0, π/2], il sistema: π
,
; < m=1,2,... m=1,2,...
e il sistema: √2π cos(2m−1)ξ . Queste implicano anche che sono ortonormali su a ≤ x ≤ b i seguenti
m=1,2,...
sistemi
; 1 ;T 2 2mπ
) )
a+b
** <
/ , cos x− ,
(b − a) b−a b−a 2 m=1,2,...
;T 2 2nπ
) )
a+b
** < <
sin x−
b−a b−a 2 n=1,2,...

e quindi in particolare, se a = −b ,
; 1 ; 1 mπx < ; 1 nπx < <
√ , √ cos , √ sin
2b b b m=1,2,... b b n=1,2,...

inoltre sono ortonormali, e tutti per x ∈ [a, b] =: L , i seguenti

; T1 T
2 mπ(x − a) <
, cos
L L L m=1,2,...

; T2 mπ(x − a) <
sin
L L m=1,2,...

; T2 (2m − 1)π(x − a) <


cos
L 2L m=1,2,...

; T2 (2m − 1)π(x − a) <


sin
L 2L m=1,2,...

Note di Sistemi Dinamici


402 APPENDICE

I detti sistemi trigonometrici sono anche completi in L2 (a, b), o in L2 (R) se le funzioni si intendono estese per
periodicità, ed anzi sussiste il più forte risultato:
Qualora f (ξ) assolutamente integrabile su [−π, π] e 2π− periodica possa essere espressa come serie trigonometrica
convergente ovunque salvo che su un numero finito di punti su [−π.π], allora la serie è senz’altro quella di Fourier
[Birkhoff XI.3].
; <
N.B. 1.2.27 Sempre con il prodotto scalare integrale, per poter sviluppare in funzioni φn periodiche
n=1,2,...
una f (ξ) definita su un qualsiasi intervallo (0, L) ed ivi continua (o, almeno, liscia a tratti e con derivata liscia a
tratti), si potrà prolungare quest’ultima prima sull’intervallo (−L, 0) (eventualmente in modo o pari o dispari), e
poi su tutto R in modo periodico. In tal modo si introdurrano al più una infinità numerabile di discontinuità a
salto. Naturalmente, a seconda che l’estensione a partire dall’intervallo base (0, L) sia pari, dispari, o qualsiasi, si
otterrà su R una funzione dello stesso tipo e ciò farà preferire rispettivamente i soli coseni, i soli seni, o entrambi
(vedi oltre). ♦

Teorema 1.2.28 [Weiestrass.2]


Ogni funzione f ∈ C 0 (R, ∥·∥2 ) periodica, o anche ogni funzione f ∈ C 0 ([a, b], ∥·∥2 ) tale che f (a) = f (b), è
limite di una qualche
; successione uniformemente
< convergente di polinomi trigonometrici, ovvero di combinazioni
nπξ mπξ
lineari finite di sin b−a , cos b−a m=0,1,2,... , (ma non necessariamente quella di Fourier a meno che i polinomi
n=1,2,...
detti siano in particolare tutti monomi). #

Corollario 1.2.29 ; <


Se g ∈ C 0 ([a, b]) ma g(a) ̸= g(b) si può pensare ad una successione fn di funzioni fn ∈ C 0 ([a, b]), fn (a) =
n∈N
fn (b) tale che ∥fn − g∥2 → 0 . #
7 8
Pertanto ogni g ∈ C2 ([a, b]) := C 0 ([a, b]), ∥·∥2 può essere approssimata, in norma 2, da una successione
trigonometrica, uniformemente convergente solo se g(a) = g(b). Ciò mostra che le funzioni trigonometriche sono
un sistema completo in C2 ([a, b]) pur non essendo questo uno spazio completo.
Memento 1.2.30 Sussiste un risultato più forte di quello appena citato. Esso si riferisce a convergenze puntuali
(e non solo in norma). A tale scopo, si premettono le seguenti definizioni. #

Liscia su [a, b] := Una funzione continua che non ha (salti,) spigoli, o irregolarità peggiori; per cui la funzione
deve essere almeno C 1 ([a, b]).
Liscia a tratti su [a, b] := una funzione che abbia, lei e la sua derivata, al più un numero finito di discontinuità
di prima specie: possono avere salti, spigoli, ma non irregolarità peggiori; la funzione è limitata ed ha derivata,
limitata, ovunque salvo che in un numero finito di punti, ed in essi esistono (finite) la derivata destra e sinistra.
Teorema 1.2.31 [Fourier]
La serie trigonometrica di Fourier di una funzione liscia a tratti su un intervallo [−π, π] ed estesa per periodicità
1
su R converge puntualmente al valore [f (x+) − f (x−)] . Se la funzione è continua la convergenza è uniforme
2
in (−π, π); se inoltre è f (−π) = f (π), allora l’uniformità è su tutto [−π, π]. #

Esistono funzioni continue (non liscie) la cui serie di Fourier trigonometrica non è convergente, mentre lo rimane la serie di Fejer: le
somme di Cesaro delle somme di Fourier; ed esistono serie di Fourier ovunque convergenti ma non convergenti ad una funzione continua.

Sia f = f (x) una funzione definita su un intervallo base qui di seguito specificato, ed ivi liscia a tratti. Sussistono
le formule

a0 = nπx nπx
f (x) = + an cos + bn sin ove
2 n=1
L L
⎧ -

⎪ 1 +L nπx

⎨ an = L f (x) cos dx n ≥ 0
−L L
⎪ -

⎪ 1 +L nπx
⎩ bn = f (x) sin dx n ≥ 1
L −L L
valida in (−L, L), e per estensioni 2L-periodiche su R ,

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 403

∞ -
a0 = nπx 2 L
nπx
f (x) = + an cos ; an = f (x) cos dx , n ≥ 0; (2.2)
2 n=1
L L 0 L
valida in (0, L), per estensioni pari su (−L, 0), e 2L-periodiche su R ,
=∞ -
nπx 2 L nπx
f (x) = bn sin ; bn = f (x) sin dx , n ≥ 1 ; (2.3)
n=1
L L 0 L
valida in (0, L), per estensioni dispari su (−L, 0), e 2L-periodiche su R ,

= - 2L
nπx 1 nπx
f (x) = bn cos ; bn = f (x) cos dx , n≥1; (2.4)
n=1
2L L 0 2L
valida in (0, L), estensioni qualsiasi su (L, 2L),
pari su (−2L, 0), e 4L-periodiche su R ,
=∞ -
nπx 1 2L nπx
f (x) = bn sin ; bn = f (x) sin dx , n≥1; (2.5)
n=1
2L L 0 2L
valida in (0, L), estensioni qualsiasi su (L, 2L),
dispari su (−2L, 0), e 4L-periodiche su R ,
=∞ -
nπx 1 2L nπx
f (x) = bn cos ; bn = f (x) cos dx , n ≥ 1 ; (2.6)
n=1
2L L 0 2L
valida in (0, L), estensioni qualsiasi su (L, 2L),
pari su (−2L, 0), e 4L-periodiche su R ,


= - L
(2n − 1)πx 2 (2n − 1)πx
f (x) = bn sin ; bn = f (x) sin dx , n ≥ 1; (2.7)
n=1
2L L 0 2L
valida in (0, L), estensioni pari su (L, 2L),
dispari su (−2L, 0), e 4L-periodiche su R ,

= - L
(2n − 1)πx 2 (2n − 1)πx
f (x) = bn cos ; bn = f (x) cos dx , n ≥ 1; (2.8)
n=1
2L L 0 2L
valida in (0, L), estensioni dispari su (L, 2L),
pari su (−2L, 0), e 4L-periodiche su R ,

1 1

0.5 0.5

0.5 1 1.5 2 2.5 3 0.5 1 1.5 2 2.5 3

-0.5 -0.5

-1 -1

Cos[x], Cos[2x], Cos[3x], Cos[4x] Sin[x], Sin[2x], Sin[3x], Sin[4x]

1 1

0.5 0.5

0.5 1 1.5 2 2.5 3 0.5 1 1.5 2 2.5 3

-0.5 -0.5

-1 -1

Cos[x/2], Cos[3x/2], Cos[5x/2], Cos[7x/2] Sin[x/2], Sin[3x/2], Sin[5x/2], Sin[7x/2]

Note di Sistemi Dinamici


404 APPENDICE

1 1

0.5 0.5

-3 -2.5 -2 -1.5 -1 -0.5 -3 -2.5 -2 -1.5 -1 -0.5

-0.5 -0.5

-1 -1

Cos[x], Cos[2x], Cos[3x], Cos[4x] Sin[x], Sin[2x], Sin[3x], Sin[4x]

1 1

0.5 0.5

-3 -2.5 -2 -1.5 -1 -0.5 -3 -2.5 -2 -1.5 -1 -0.5

-0.5 -0.5

-1 -1

Cos[x/2], Cos[3x/2], Cos[5x/2], Cos[7x/2] Sin[x/2], Sin[3x/2], Sin[5x/2], Sin[7x/2]

1 1

0.5 0.5

0.5 1 1.5 2 2.5 3 0.5 1 1.5 2 2.5 3

-0.5 -0.5

-1 -1

Cos[5x], Cos[6x], Cos[7x], Cos[8x] Sin[5x], Sin[6x], Sin[7x], Sin[8x]

1 1

0.5 0.5

0.5 1 1.5 2 2.5 3 0.5 1 1.5 2 2.5 3

-0.5 -0.5

-1 -1

Cos[9x/2], Cos[11x/2], Cos[13x/2], Cos[15x/2] Sin[9x/2], Sin[11x/2], Sin[13x/2], Sin[15x/2]

1 1

0.5 0.5

-3 -2.5 -2 -1.5 -1 -0.5 -3 -2.5 -2 -1.5 -1 -0.5

-0.5 -0.5

-1 -1

Cos[5 x], Cos[6 x], Cos[7 x], Cos[8 x] Sin[5 x], Sin[6 x], Sin[7 x], Sin[8 x]

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 405

1 1

0.5 0.5

-3 -2.5 -2 -1.5 -1 -0.5 -3 -2.5 -2 -1.5 -1 -0.5

-0.5 -0.5

-1 -1

Cos[9x/2], Cos[11x/2], Cos[13x/2], Cos[15x/2] Sin[9x/2], Sin[11x/2], Sin[13x/2], Sin[15x/2]

N.B. 1.2.32 Sussistono i seguenti particolari integrali per n > 0


- L - L ) *
nπ nπ L 1 − (−1)n
cos ξ dξ = 0; sin ξ dξ = ;
0 L 0 L π n
- L - L
nπ L nπ L
cos2 ξ dξ = ; sin2 ξ dξ = ;
0 L 2 0 L 2
- L 2
nπ L (−1)
ξ cos ξ dξ = 2 (1 − (−1)n );
0 L π n2
- L
nπ L2 0 π 1
ξ sin ξ dξ = 2 − (−1)n ;
0 L π n
- L
nπ L3 2π
ξ 2 cos
ξ dξ = 3 2 (−1)n ;
0 L π n
- L ) *
nπ L3 2(−1)n n2 π 2
ξ 2 sin ξ dξ = 3 1 − (−1)n
− )
0 L π n3 2
- L ) *
3 nπ L4 6(−1)n n n2 π 2
ξ cos ξ dξ = 4 −1 + (−1) + ;
0 L π n4 2
- L
nπ L4 (−1)n π 0 1
ξ 3 sin ξ dξ = 4 −6 + n 2 2
π
0 L π n3
- L - L
1 1
cos ωξ dξ = sin(Lω); sin ωξ dξ = (1 − cos(Lω)) ;
0 ω 0 ω
- L - L
1 1
cos2 ωξ dξ = (2Lω + sin(2Lω)) ; sin2 ωξ dξ = (2Lω − sin(2Lω)) ;
0 4ω 0 4ω
- L
1
ξ cos ωξ dξ = (−1 + cos(Lω) + Lω sin(Lω)) ;
0 ω2
- L
1
ξ sin ωξ dξ = (−Lω cos(Lω) + sin(Lω)) ;
0 ω2
- L
1 7 8
ξ 2 cos ωξ dξ = 3
2Lω cos(Lω) + (−2 + L2 ω 2 ) sin(Lω) ;
0 ω
- L
1 7 8
ξ 2 sin ωξ dξ = −2 + (2 − L2 ω 2 ) cos(Lω) + 2Lω sin(Lω)
0 ω3
- L
1 7 8
ξ 3 cos ωξ dξ = 4
6 + 3(−2 + L2 ω 2 ) cos(Lω) + Lω(−6 + L2 ω 2 ) sin(Lω) ;
0 ω
- L
1 7 8
ξ 3 sin ωξ dξ = 4
−Lω(−6 + L2 ω 2 ) cos(Lω) + 3(−2 + L2 ω 2 ) sin(Lω)
0 ω

Note di Sistemi Dinamici


406 APPENDICE

Esempio 2.33 f (ξ) = ξ 2 su [−π, π]


C∞
Si cercano πan = ⟨ f, cos nξ ⟩ e πbn = ⟨ f, sin nξ ⟩ per n ≥ 0 in modo che f (ξ) = a0 /2 + n=1 an cos nξ +
bn sin nξ . Si ha
- -
1 π 2 2 π 2
a0 = ξ dξ = ξ dξ = 2π 2 /3 .
π −π π 0

Successivamente:
- π ) - π *
2 2
an = ξ 2 cos nξdξ = − sin nξ 2ξdξ
π
0 nπ 0
+ - π ,
4 4
= 2 (π cos nπ) − cos nξdξ = (−1)n 2 .
n π 0 n

Inoltre bn = 0 dato che ξ 2 è pari e quindi ξ 2 sin nξ dispari. Pertanto


) *
π2 1 1
ξ2 = − 4 cos ξ − cos 2ξ + cos 3ξ − . . . .
3 4 9

Esempio 2.34 f (ξ) = ξ 2 su [0, 2π].


. 2π 2
Si hanno i valori πa0 = 0 ξ dξ = 8π 3 /3 e

- 2π ) - 2π *
2 1
πan = ξ cos nξ dξ = − sin nξ 2ξdξ
0 3n 0
) O2π - 2π *
2 N 4π
= 2 ξ cos nξ − cos nξdξ = 2
n 0 0 n
- 2π N O -
1 2π 2 2π −4π 2
πbn = ξ 2 sin nξdξ = − cos nξξ 2 + cos nξ ξdξ =
0 n 0 n 0 n

e pertanto
) *
4 2 1 1
ξ2 = π + 4 cos ξ + cos 2ξ + cos 3ξ + . . .
3 2 9
) *
1 1
− 4π sin ξ + sin 2ξ + sin 3ξ + . . . .
2 3

Esempio 2.35 f (ξ) = ξ su (−l/2, l/2) da sviluppare in funzioni seno, e cioè con prolungamento
periodico. Si ha an = 0 e

- l/2 -
2 2nπξ 4 l/2 nπξ
bn = dξ =
f (ξ) sin ξ sin dξ
l−l/2 l l 0 l/2
4 (l/2)2 0 π n
1 l
= − (−1) = (−1)n+1
l π2 n nπ

e pertanto
∞ ) *
l = (−1)n+1 nπ ξ
f (ξ) = sin .
π n=1 n l/2

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 407
(
ξ per 0 ≤ ξ ≤ l/2
Esempio 2.36 f (ξ) = da sviluppare in funzioni seno, e cioè con prolungamento
l−ξ per l/2 ≤ ξ ≤ l
dispari. Si ha an = 0 ed
- l - l
nπξ nπξ
lbn = f (ξ) sin dξ = 2 f (ξ) sin dξ =
−l l 0 l
- l/2 - l
nπξ nπξ
=2 ξ sin dξ + 2 (l − ξ) sin dξ =
0 l l/2 l
) * @N Oπ/2 - π/2
2l2 1
= 2 − ξ cos nξ − cos nξdξ+
π n 0 0
- π A
N Oπ
+ (π − ξ) cos nξ + cos nξdξ =
π/2 π/2
) *)
2
*
2l 1 2 nπ
= 2 − − sin ,
π n n 2
e pertanto ) *
4l πξ 1 3πξ 1 5πξ
f (ξ) = sin − sin + sin − ... .
π2 l 9 l 25 l
Si noti che la f è pari rispetto a l/2 : f ( 2l + ξ) = f ( 2l − ξ); quindi partendo da f˜(ξ) = ξ su 0 ≤ ξ ≤ 2l e
facendone l’estensione pari fino a l e dispari in [−l, 0] si ottiene una funzione pari rispetto a l/2 e dispari rispetto
allo zero e quindi sviluppabile in sin(2n + 1)nπξ/l . Si noti anche che sull’intervallo (−l/2, l/2) questa funzione è
identica a quella del precedente esempio, e quindi le due serie convergono, per −l/2 < ξ < l/2), agli stessi valori.
#

Esempio 2.37 f (ξ) = 1 per 0 < ξ < π da sviluppare in funzioni seno. La funzione si assume dispari
per definizione. Si ha
- π
π 1N Oπ 1
bn = sin nξdξ = − cos nξ = (1 − (−1)n ) e quindi
2 0 n 0 n
) *
4 1 1 1
1= sin ξ + sin 3ξ + sin 5ξ + sin 7ξ + . . . .
π 3 5 7
#

Se si riprende in considerazione l’aspetto globale (in norma) dello spazio in esame ci si C rende conto che i

coefficienti di Fourier sono comunque i “migliori” coefficienti affinché la combinazione lineare i=1 ci φi esprima
in qualche senso una certa “somma” x anche quando l’integrabilità termine a termine non sia verificata. Per
mostrarlo si prenderà in considerazione, qui di seguito, un generico spazio ; < euclideo E che per semplicità verrà
supposto (separabile e) reale; ed in esso si fisserà un sistema di vettori φi ⊂ E che sia ortonormale ma non
i∈N ; <
necessariamente completo. Inoltre, come sopra, per ogni punto x ∈ E si indicheranno con ci i corrispondenti
i∈N/
coefficienti di Fourier: ci := ⟨ x, φi ⟩ , e con il simbolo ∥·∥ si indicherà la norma euclidea ∥x∥2 := ⟨ x, x ⟩
; < Cν
Proposizione 1.2.38 Siano c̃1 , c2 , . . . ⊂ R assegnati arbitrariamente e sia s̃ν := i=1 c̃i φi con ν ∈ N.
Fissato comunque x ∈ E di tutte le possibili s̃ν quella C che ha minima distanza da x, (ovvero minimo scarto
ν
quadratico medio) è proprio la somma di Fourier: sν := i=1 ci φi . #
Si < che questa affermazione nulla ha a che fare con la completezza dello spazio E nè del sistema delle
; noti
φn .
n=1,2,...
Dimostrazione
2 2 2
∥x − s̃ν ∥ = ⟨ x − s̃ν , x − s̃ν ⟩ = ∥x∥ + ∥s̃ν ∥ − 2 ⟨ x, s̃ν ⟩ .
Cν Cν 2 Cν 2
Ma si ha ⟨ x, s̃ν ⟩ = i=1 c̃i ⟨ x, φi ⟩ = i=1 c̃i ci , ed è ∥s̃ν ∥ = i=1 c̃i , quindi sommando e sottraendo la quantità
Cν 2 2
i=1 ci = ∥sν ∥ si ha
ν
=
2 2 2
∥x − s̃ν ∥ = ∥x∥ − ∥sν ∥ + (c̃i − ci )2 . (2.9)
i=1
"

Note di Sistemi Dinamici


408 APPENDICE

2 2
Inoltre l’essere la norma non negativa implica che ∥x∥ ≥ ∥sν ∥ per ogni ν ∈ N e quindi:
Proposizione 1.2.39 Sotto le stesse ipotesi della Proposizione 1.2.38 sussiste la seguente Disuguaglianza. #
C∞
Disuguaglianza di Bessel := ∥x∥2 ≥ 2
i=1 ci , ∀x ∈ E .
i
Corollario 1.2.40 Se ∥x∥ < ∞ si ha che ci −→ 0. #


Proposizione 1.2.41 Qualunque sia ν ∈ N, il vettore x − i=1 ci φi è ortogonale allo span {φi }i=1,...,ν . #

(L’affermazione non sarebbe vera qualora le componenti fossero le c̃i ).


Proposizione 1.2.42 ; <
Il sistema ortonormale φi è una base per ( E, ∥·∥ ) , se e solo se per ogni x ∈ E vale la
i∈N
C∞
Uguaglianza di Parseval := ∥x∥2 = 2
i=1 ci . #

; <
Ovvero: il sistema ortonormale è completo per ( E, ∥·∥ ) (non necessariamente lo spazio E) se e solo se
φi
i∈N C∞
per ogni x ∈ E la serie dei quadrati dei coefficienti di Fourier i=1 c2i è convergente ed uguaglia il quadrato della
norma (purché questa sia indotta dal prodotto scalare) del vettore x usato per calcolare tali coefficienti.
Dimostrazione In virtù della (2.9) con c̃i ≡ ci per ogni i = 1, 2, . . ., l’uguaglianza vale se e solo se
limν→∞ ∥x − sν ∥ = 0 , pertanto la sufficienza è immediata, mentre la necessarietà si ottiene notando che per ogni
s̃ν ̸= sν si ha ∥x − s̃ν ∥ ≥ ∥x − sν ∥ . "

D’altra parte sussiste al seguente.


Proposizione 1.2.43 Se lo spazio E oltre che essere separabile è anche
C∞ completo, dato un sistema ortonormale
(non necessariamente completo) ed una qualunque serie convergente i=1 c2i < ∞, esiste x ∈ E tale che

=
⟨ x, φi ⟩ = ci ed x= ci φi
i=1

Cν ; <
ν
nel senso che sν := i=1 ci φi è tale che ∥x − sν ∥ −→ 0 , (e la sν è Cauchy). #
∞ ν∈N

; <
In tali ipotesi, cioè, lo span φi è un sottospazio proprio di E fatto con le combinazioni lineari a coefficienti
C∞ i∈N
tali che i=0 c2i < ∞
Cν+p ; < C∞
2
Dimostrazione ∥sν+p − sν ∥ = i=ν c2i implica che sν è Cauchy quando 2
i=1 ci è convergente.
ν∈N
ν
La completezza di E assicura che esiste x ∈ E tale che ∥x − sν ∥ −→ 0 ; inoltre per ogni k si ha ⟨ x, φk ⟩ =

⟨ sν , φk ⟩ + ⟨ x − sν , φk ⟩ che, per la disuguaglianza di Schwartz, tende a ck per ν → ∞. "

Spazio di Hilbert := uno spazio euclideo, separabile, completo .


Talvolta si aggiunge a queste la richiesta che lo spazio sia ad un numero infinito di dimensioni, riservando il nome
di spazi euclidei a quelli a dimensione finita, (i quali, vedi Nota 1.2.68 più oltre, sono certo completi). Altre volte
invece non si richiede apriori la separabilità come caratteristica fondamentale, e vengono chiamati Hilbert spazi
euclidei completi ad infinite dimensioni.
Proposizione 1.2.44 In uno spazio di Hilbert H , un sistema ortonormale è una base se e solo se l’unico vettore
che ha tutte le componenti nulle è il vettore nullo.
Equivalentemente:
per ogni x, y ∈ H, x ̸= y ⇐⇒ ⟨ x, φi ⟩ ̸= ⟨ y, φi ⟩ per qualche i.
Equivalentemente: C∞
per ogni x, y ∈ H (reale) si ha che ⟨ x, y ⟩ = k=1 ⟨ x, φk ⟩ ⟨ y, φk ⟩ . #

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 409

Dimostrazione

(⇒) Parseval implica ∥x∥ = 0 , e quindi x = 0 per la definizione di norma.


C∞
(⇐) Se non fosse una base, esisterebbe qualcheCx̂ tale che ∥x̂∥ > i=1 c2i ove, al solito, ci := ⟨ x̂, φi ⟩ . Ma la
completezza di H implica che esiste x = ∞ i=1 ci φi ed è quindi (x̂ − x) ortogonale a tutti gli elementi della
base. Per ipotesi allora deve essere x̂ = x, e l’assunto dà una contraddizione.

D’altra parte: 4 ⟨ x, y ⟩ = ⟨ x + y, x + y ⟩ − ⟨ x − y, x − y ⟩ , e Parseval implica



= 2 2
4 ⟨ x, y ⟩ = ⟨ x + y, φk ⟩ − ⟨ x − y, φk ⟩ .
k=1

"

M Z
nπξ mπξ
Esempio 2.45 La famiglia sin , cos è completa in C2 ([0, L]) che non è completo; è
L L m=0,1,2,...
n=1,2,...
completa in L2 ([0, L]) che è completo, ed anche in L1 ([0, L]) [Powell-Shah p.130]. Ciò sfrutta il fatto che | sin ξ| ≤ 1
permette di definire i coefficienti di Fourier anche in L1 benchè questi non sia euclideo.
Malgrado non sia detto che x ∈ L1 ∩ L2 abbia lo stesso sviluppo nei due spazi, se x, y ∈ C2 ([a, b]) ⊂ L2 ([a, b])
è senz’altro x ̸= y ⇐⇒ ⟨ x, φi ⟩ ̸= ⟨ y, φi ⟩ per qualche i . In ogni caso la somma f (x) di una serie di
.L C∞
Fourier trigonometrica verifica: (1/L) −L f 2 (x)dx = (a0 /2) + n=1 a2n + b2n .

Si ricordi ora che, per la Proposizione 1.2.7, uno spazio di Hilbert ammette (almeno) una base (ortonormale)
numerabile.
Corollario 1.2.46 Ogni x ∈ H è univocamente determinato dai (suoi) coefficienti di Fourier:
; <
z∈H ↔ ci ∈ (l2 , ∥·∥ < ∞ ) .
i∈N

Ciò permette di dimostrare la seguente Proposizione 1.2.48.


Spazi euclidei isomorfi: E, E′ := spazi euclidei per i quali esiste una corrispondenza biunivoca ι : E → E′
tale che per ogni x, y ∈ E si ha

ι(x + y) = ι(x) + ι(y), ι(λx) = λι(x), ⟨ x, y ⟩ = ⟨ ι(x), ι(y) ⟩;

e cioè esiste un operatore lineare ι che conserva la struttura euclidea.


Proposizione 1.2.47 Spazi euclidei a dimensione finita sono isomorfi se e solo se aventi la stessa dimensione. #

Proposizione 1.2.48 Spazi di Hilbert a dimensione infinita (e separabili) sono isomorfi. #

; <
Dimostrazione Per ogni x ∈ H e data una base ortonormale ei si definisca la funzione ι : H → l2
C∞ 2 i∈N
mediante la ι(x) := {c0 , c1 , . . .} con ci := ⟨ x, ei ⟩ . Dato che i=1 ci < ∞ si ha che la definizione è ben posta:
ι(x) ∈ (l2 , ∥·∥2 < ∞). ; <
Viceversa, le Proposizioni 1.2.43 e 1.2.44 implicano l’inclusione inversa, e cioè che per ogni ci ∈ (l2 , ∥·∥2 )
i∈N
con ∥·∥2 < ∞, esiste unico x ∈ H tale che ι(x) := {c0 , c1 , . . .} . Infine l’uguaglianza di Parseval assicura che
C ∞ 2
i=1 (ci + di ) = ⟨ x + y, x + y ⟩ da cui sviluppando i prodotti segue che ⟨ x, y ⟩ = ⟨ ι(x), ι(y) ⟩ . "

Sono poi di interesse le seguenti considerazioni di natura generale.


Proposizione 1.2.49 In ogni sottospazio (che è chiuso) di uno spazio di Hilbert H è contenuto (almeno) un sistema
ortonormale il cui span coincide con il sottospazio; ovvero: ogni sottospazio contiene una sottobase. #

Note di Sistemi Dinamici


410 APPENDICE

Insiemi ortogonali E1,2 ∈ E := per ogni x ∈ E1 , y ∈ E2 si ha x ⊥ y .


Se due insiemi ortogonali E1 , E2 sono sottospazi di E, dette B1 , B2 due basi in ciascuno di essi, si definiscono
Sottospazi ortogonali := per ogni x ∈ B1 , y ∈ B2 si ha x ⊥ y.
Complemento ortogonale di un insieme D ⊂ E := l’insieme D⊥ tale che
; ' <
'
x 'y ∈ D ⇒x⊥y .

Proposizione 1.2.50 La funzione ⟨ ·, · ⟩ : H × H → C è una funzione continua. #

Dimostrazione

|⟨ x, y ⟩ − ⟨ x̃, ỹ ⟩ | ≤ |⟨ x − x̃, y ⟩| + |⟨ x̃, y − ỹ ⟩| ≤ ∥x − x̃∥ ∥y∥ + ∥x̃∥ ∥y − ỹ∥ .

"

Inoltre, la completezza di H implica che lim xn esiste se {xn }n∈N è Cauchy. In definitiva, sussiste in tal caso
la ⟨ lim xn , y ⟩ = lim ⟨ xn , y ⟩ .
Corollario 1.2.51 Il complemento ortogonale di un sottoinsieme di uno spazio di Hilbert H è un sottospazio di
H. #

Proposizione 1.2.52 Uno spazio di Hilbert è la somma diretta di un qualsiasi suo sottospazio W e del suo
complemento ortogonale W⊥ . #

; < C∞
Dimostrazione Sia ẽi una base ortonormale in W e sia xw := i=1 ci ẽi , con ci := ⟨ x, ẽi ⟩ . È
i∈N
chiaro che x⊥ := x − xw è ortogonale a tutti i versori ẽi e quindi ad ogni x̃ ∈ W. Il Corollario 1.2.46 implica che
tale xw , e quindi anche x⊥ , sono unici. "

Se il numero degli ẽi è finito esso coincide con la; Codimensione codimensione di W⊥ che,< si ricorderà, è la
'
dimensione dello spazio delle classi di equivalenza: [xw ] ' x ∼ xw := (x − xw ) = x⊥ ∈ W⊥ .

xw e2
e
x
e1
e

x?

W?

W
Si supponga ora che su uno spazio vettoriale V, per semplicità reale, sia assegnato un funzionale lineare continuo
g : V → R, o forma lineare, cioè una mappa lineare omogenea definita su V ed a valori in R.
Operatore lineare limitato := Una trasformazione lineare (o operatore) T : (V, ∥·∥V ) → (W, ∥·∥W ) , defi-
nita su tutto V e tale che esiste c ≥ 0 per il quale ∥T x∥W ≤ c ∥x∥V per ogni x ∈ V.
Equivalentemente: Un operatore T : (V, ∥·∥V ) → (W, ∥·∥W ), definito su tutto V e tale da trasformare ogni insieme
limitato di V in un insieme limitato di W.
Operatore lineare continuo := Un operatore T : (V, ∥·∥V ) → (W, ∥·∥W ) , definito su tutto V e tale per ogni
x̄ ∈ V si abbia che: dato ε > 0 esiste δ(ε, x̄) per il quale x ∈ Bδ(ε,x̄) implica T x ∈ Bε (T x̄).
Equivalentemente: Un operatore T : (V, ∥·∥V ) → (W, ∥·∥W ), definito su tutto V e tale da trasformare ogni insieme
compatto di V in un insieme compatto di W.

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 411

Equivalentemente: Un operatore T : (V, ∥·∥V ) → (W, ∥·∥W ) , definito su tutto V e tale da trasformare successioni
convergenti in successioni convergenti.
È immediato vedere che se T è continuo in un punto x0 allora è continuo su tutto V; infatti se T è continuo
in x0 , dati x, x′ ∈ V si ha che
|T x − T x′ | = |T (x − x′ + x0 ) − T x0 | < ε purché |x − x′ | < δ(ε, x0 ) ≡ δ(ε).

Nota 1.2.53 Se gli spazi V e W sono a dimensione infinita, l’essere o meno limitato è proprietà che dipende
non solo dall’operatore ma anche dalle norme scelte nei due spazi. Siano per esempio V = C 1 ([0, π]) e W =
d
C 0 ([0, π]) con T := dξ . Se ∥·∥V = ∥·∥∞ = ∥·∥W allora l’operatore T è non limitato: infatti le funzioni
xn (ξ) := sin nξ hanno ∥xn ∥V = 1 e sono in V per ogni n; risulta però ∥T xn ∥W = n e quindi V certo contiene
punti per i quali non esiste c ≥ 0 che verifichi la ∥T x∥W ≤ c ∥x∥V . Se però ∥·∥W = ∥·∥∞ e si sceglie ∥x∥V :=
max{∥x∥∞ , ∥T x∥∞ } allora risulta ∥T x∥W ≤ ∥x∥V ; e siccome ad esempio la funzione eξ è tale da avere ∥T x∥W =
∥x∥V , se ne conclude che ∥T ∥ = 1 . ◃

Si noti anche che la condizione di limitatezza dei trasformati di insiemi limitati può essere richiesta anche per
operatori non lineari F : X → X′ . Si potrà definire
Operatore limitato F : X → X′ := un operatore per il quale esiste finito su una sfera [Br (x0 )] il numero
d′ (F (x), F (y))
m(x0 , r) := sup .
x,y∈Br (x0 ) d(x, y)
x̸=y

Tale numero è detto anche ∥F∥ se la definizione è data su spazi normati, ed è chiaro che se m < ∞ certo
F è continuo su Br (x0 ). Sono limitati, per esempio, gli operatori che verificano la condizione di Lipschitz (si
veda § I.3) che dà l’uniforme continuità. Se poi l’operatore è lineare sussiste la più forte Proposizione 1.2.54
T : (V, ∥·∥V ) → (W, ∥·∥W ) è continuo se e solo se è limitato. #

Dimostrazione [Kolmogorov IV.5.2]


(Lasciando cedere i suffissi delle norme) Se T è continuo in zero, ∥x∥ <? δ(ε)
0 ⇒ ∥T x∥ < ε . Da questa
1?
? x ?
segue ∥ξ∥ ≤ 1 ⇒ ∥T ξ∥ ≤ c che a sua volta implica ∥T x∥ = ∥x∥ ?T ∥x∥ ? ≤ c ∥x∥ . Il viceversa è
immediato e, come si è detto, vale anche per operatori non lineari. "

Lo spazio L(V, W) degli operatori lineari continui da (V, ∥·∥V ) in (W, ∥·∥W ) può essere reso normato mediante
∥T x∥
la ∥T ∥ := supx∈V\{0} ∥x∥ W e sussiste la
V

Proposizione 1.2.55 Se W è completo, (L(V, W), ∥·∥) è Banach. #

Dimostrazione La dimostrazione di questa affermazione è analoga a quella che verrà data nell’appendice A.8
di queste note per il caso V e W spazi reali a dimensione finita
; <e norma euclidea. A grandi linee, essa consiste
nel seguente ragionamento [Rall p.39 opp. Reed p.70]: se Tn è di Cauchy, qualunque sia x ∈ V si ha
n∈N
∥Tn x − Tm x∥W ≤ ∥Tn − Tm ∥ ∥x∥V < ε per n, m sufficientemente grandi, e quindi esiste unico il limn→∞ Tn x =
y =: T x. Poi si controlla che tale T sia (a) lineare; (b) limitato; (c) coincida con T = limn→∞ Tn ,
nel senso che se n > νε ∈ N allora accade che ∥T − Tn ∥ < ε. "
0 1
Nel caso in cui lo spazio di arrivo (W, ∥·∥W ) sia in particolare R1 , |·| lo spazio V∗ := L(V, R) si chiama
Spazio duale di V, ed i suoi punti f : V → R si chiamano funzionali (lineari, limitati).
Si definisce cioè:
Spazio duale di V := lo spazio (vettoriale)
⎧ '0 1 ⎫
⎪ '
⎨ ' f1 + f2 (x) := f1 (x) + f2 (x) ⎪ ⎬
'
V∗ := f ' 0 1

⎩ '' a f (x) := a f (x) ⎪

dei funzionali lineari continui su V, e dotato della norma (si veda § A.7)
|f (x)|
∥f ∥ := sup = sup |f (x)|.
x̸=0 ∥x∥ ∥x∥=1

Note di Sistemi Dinamici


412 APPENDICE

; ' <
Kernel del funzionale g := l’insieme Ker g := x ∈ V ' g(x) = 0 ;
esso è una Varietà lineare in V, perchè g(x) = g(y) = 0 ⇒ g(ax + by) = 0.

Proposizione 1.2.56 Mediante un funzionale g è possibile generare una varietà lineare (di dimensione uno in
quanto g(x) ∈ R1 ) fatta dalle classi:
'
'
[x] := {y ∈ V ' x ∼ y}, ove x ∼ y ⇐⇒ (x − y) ∈ Ker g;

o anche: x∼y ⇐⇒ g(x) = g(y),


o anche: [x] ̸= [y] ⇐⇒ g(x) ̸= g(y). #

Dimostrazione Sia x0 tale che g(x0 ) = 1 . Se g è non banale è sempre possibile individuare un tale x0 .
Per ogni x ∈ V sia z := x − g(x)x0 . Si ha g(z) = 0 , ed è unica ad x0 fissato la rappresentazione

x = αx0 + z = g(x)x0 + z con g(z) = 0 .

"

z −z 1
[infatti se fosse anche x = α′ x0 + z ′ si avrebbe un assurdo: (α − α′ )x0 = z ′ − z che dà, per α ̸= α′ , g( α−α ′) = 1 = α−α′
(0 − 0) ].

Ne segue che, fissato un x1 tale che g(x1 ) = α1 ̸= 0, è anche possibile esprimere (ed univocamente) x1 =
g(x1 )x0 + z1 con g(z1 ) = 0 . Se ne ricava x0 = (x1 − z1 )/g(x1 ), ed in tal modo il generico x ∈ V resta anche
espresso da ) *
g(x) g(x)
x = g(x)x0 + z = x1 + z − z1 =: g ′ (x)x1 + z ′ con g(z ′ ) = 0.
g(x1 ) g(x1 )
A sua volta, la g ′ (·) := g(·)/g(x1 ) mostra che è anche g ′ (z ′ ) = 0 , ed anzi che è Ker g = Ker g ′ .
D’altra parte, se g, g ′′ sono tali che Ker g = Ker g ′′ allora esiste κ ∈ R\{0} tale che g(x) = κg ′′ (x), per ogni
x ∈ V. Infatti: sia g(x0 ) = 1 ; per ogni x ̸∈ Ker g ′′ , si può scrivere x = g(x)x0 + z , ma allora g ′′ (x) ̸= 0 implica
′′
che g ′′ (x) = g(x)g ′′ (x0 ) con g ′′ (x0 ) =: κ ̸= 0 . In particolare si ha ancora x = gg′′ (x
(x)
0)
x0 + z .
Viceversa: per ogni sottospazio W ⊂ V di codimensione uno esiste (almeno) un funzionale g che lo ammette
come Kernel: basta scegliere x0 fuori da W; per ogni x ∈ V scrivere x = αx0 + z con z nel sottospazio (e cioè
cercare α : (x − αx0 ) ∈ W; riconoscere che tale α è unico in quanto la condizione codim = 1 implica l’unicità
di α tale che [x] = α[x0 ]); e porre infine g(x) := α . In tal modo risulta W ≡ Ker g .

x z
z z0
®1x0 g(x)x0
x0 z1
g 0(x)x1
x1

y
1 ®1
) = ®
(g x) = =
er g( x) )
K g( g (x

Piano H ⊂ V := l’insieme dei vettori di V dati da x = αx0 + z con αx0 fissato e z arbitrariamente scelto
in un qualche sottospazio W ⊂ V (detto spazio delle direzioni). Si noti che se αx0 ̸= 0 il piano H non è una
varietà lineare.
Si vedrà che se lo spazio è euclideo non lede scegliere x0 ∈ W⊥ , ed allora la rappresentazione dei vettori del
piano H è unica.
Nel caso generale, ogni classe di equivalenza, o piano, è individuata dall’unico numero α ≡ g(x), lo spazio delle
direzioni essendo Ker g .
Esempio 2.57 In uno spazio euclideo ⟨ u0 , x ⟩ = cost è un piano, cosı̀ come lo è g(x) = cost. #

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 413

Piani paralleli := piani che hanno lo stesso spazio delle direzioni. In tal caso o coincidono o non hanno alcun
punto in comune.
Esempio 2.58 La classe [x] = α[x0 ] è un piano parallelo al sottospazio W ≡ Ker g , se g è definito come detto
sopra. #

Un piano è una varietà lineare, ed anzi un sottospazio, solo quando contiene l’origine; esso comunque è dotato
di dimensione nel senso che condivide quella del suo spazio delle direzioni.
In definitiva c’è una corrispondenza biunivoca fra funzionali lineari non banali e piani non contenenti l’origine.
Ciascun piano W contenente l’origine è il Ker di tutti i funzionali della famiglia (ad un parametro) dei funzionali
lineari che individuano i piani paralleli a W.
Proposizione 1.2.59 Lo spazio V∗ , duale di V, è uno spazio vettoriale della stessa dimensione di V. #
; <
Infatti data una base ei in V, per i = 1, . . . , n ≤ ∞ un qualsiasi f è completamente individuato dalle
i∈N
Componenti covarianti di f : := fi := f (ei ).
9 ' :
Inoltre, sia V(i) := span{e1 , . . . , ei−1 , ei+1 , . . . , en } e si definisca f ∗i tale che Ker f ∗i ≡ x ' f ∗i (x) = 0 =
; <
V(i) . L’insieme f ∗i è una possibile base in V∗ . Infatti: gli f ∗i sono linearmente indipendenti, perché
i=1,...,n (
C ∗i ∗i = 0 se i ̸= j
ci f (ej ) ̸= 0 solo se i = j in quanto, per costruzione, è sempre possibile assumere f
̸= 0 se i = j .
˜
D’altra parte, un qualsiasi f ∈ V è tale che

f˜(x) = f˜(xi ei ) = xi f˜(ei ) = xi f˜j f ∗j (ei ) = f˜j f ∗j (x)

e ciò mostra che esistono, univoche, le componenti covarianti f˜j per ciascun f˜.
; <
Base duale := l’insieme delle n funzioni f ∗1 , . . . , f ∗n tali che
; ' <
'
Ker f ∗i ≡ x ' f ∗i (x) = 0 = V(i) , i = 1, . . . , n,
ovvero tali che f ∗i (ej ) = δji i, j = 1, . . . , n.
Si osservi che in tali definizioni non è stato necessario introdurre alcun prodotto interno nello spazio V. Tuttavia,
l’introduzione di tale struttura permetta di determinare con semplicità, e per ogni vettore x ∈ V, i numeri xi :=
⟨ x, ei ⟩ ≡ κ ji xj , come si vedrà più oltre in virtù del teorema di rappresentazione di Riesz.
Proposizione 1.2.60 (V∗ , ∥·∥) è completo . #

E ciò anche se V fosse non completo: infatti è R ad esserlo.


Si ricordino le seguenti forme di convergenza in spazi di Banach. (si veda anche § A.1 Divagazione)
w
xn −→ x quando |f (xn ) − f (x)| −→ 0 ∀f ∈ V∗
w
fn −→ f quando |ξ(fn ) − ξ(f )| −→ 0 ∀ξ ∈ V∗∗
∗ w
fn −→ f quando |fn (x) − f (x)| −→ 0 ∀x ∈ V
di queste, la seconda implica la terza e questa implica la seconda se lo spazio è riflessivo. Inoltre la prima equivale
alla convergenza in norma: ∥xn − v∥ −→ 0 qualora V sia (completo ed) a dimensione finita.
Sono istruttivi, oltre che utili, i seguenti due teoremi [Kolmogorov IV 3.2].
w
Teorema 1.2.61 Se xn −→ x in (V, ∥·∥) allora esiste c ∈ R tale che ∥xn ∥ ≤ c per ogni n ∈ N. #

(n) '
Dimostrazione In L(V, R) si considerino gli insiemi Aκ := {f ' f (xn ) ≤ κ} . Tali insiemi sono chiusi in
; <
(n)
quanto N (0) ⊂ V∗ è limitato. Anche Aκ := ∩∞
n=1 Aκ è chiuso, e siccome ogni f (xn ) converge sarà certo
n∈N
limitata; pertanto L(V, R) ⊂ ∪∞ κ=1 Aκ . Ma sussiste un teorema (Baire) che esclude, in tal caso, che tutti gli Aκ
possano
; < essere affatto densi. Pertanto esisterà κ0 tale che Ak0 ⊃ Bε (f0 ) per un certo f0 , per cui la successione
xn è limitata sulla sfera Bε (f0 ) e quindi è limitata (su tutto V∗ ) come successione di punti in V∗∗ . Ciò
n∈N
implica che sia limitata in V. "

Note di Sistemi Dinamici


414 APPENDICE

w
Teorema 1.2.62 Condizione sufficiente (oltre che necessaria) affinché xn −→ x in (V, ∥·∥) è che:

; <
(a) ∥xn ∥ sia limitata, e cioè supn ∥xn ∥ < ∞;
n∈N

(b) φα (xn ) → φα (x) per ogni φα ∈ B, ove B ⊂ V∗ è una base per (V∗ , ∥·∥)
(o, più in generale, se B è un qualsiasi sottoinsieme denso di V∗ e quindi tale che span B = V∗ ).

C
Dimostrazione Se f = sν := νh=1 ch φαh è una combinazione lineare finita di elementi di B si verifica subito
che f (xn ) → f (x). Se invece f è un qualsiasi punto di V∗ , e siccome ∃{sν }ν∈N tale che sν → f (in norma
∥·∥V∗ ), se ∥xn ∥ ≤ c per n = 1, 2, . . . si ha la valutazione:

|f (xn ) − f (x)| ≤ |f (xn ) − sν (xn )| + |sν (xn ) − sν (x)| + |sν (x) − f (x)|
≤ ∥f − sν ∥ ∥xn ∥ + |sν (xn ) − sν (x)| + ∥f − sν ∥ ∥x∥

che dimostra la tesi. "

Esempio 2.63 [Kolmogorov p.193]


In l2 la convergenza debole coincide con quella per coordinate a patto che la successione sia limitata. #

Esempio 2.64 [Kolmogorov p.125 e p.175]


La δt0 (x) := x(t0 ) con x ∈ C 0 ([a, b]) è un funzionale lineare continuo su C avente valore non superiore a |x|; e
siccome l’uguaglianza sussiste per x = cost, si ha |δ| = 1 . Per tali funzionali si ha:

δt0 (xn ) → δt0 (x) quando xn (t0 ) → x(t0 ).

Per cui

(i) se xn ⇀ x in C([a, b]) allora supn |xn (t)| ≤ C uniformemente su [a, b] e xn (t) → x(t) per ogni t;

(ii) se xn (t) → x(t) per ogni t ed è uniformemente limitata, allora il teorema della convergenza dominata ed il
teorema di rappresentazione di Riesz implicano che xn ⇀ x in C([a, b]).

Sugli spazi V e V∗∗ può sussistere la (isometrica) inclusione V∗∗ ⊃ V, possibilmente anche stretta.
Si consideri la ι : V → V∗∗ data da ι(x) = x∗∗ ove x∗∗ (f ) := f (x) per ogni f ∈ V∗ . Se la ι è suriettiva
allora V è detto riflessivo e ι è un isomorfismo. Ciò accade se dimV < ∞, o negli spazi Lp con 1 < p < ∞.
Nel caso particolare degli spazi di Hilbert, sussiste il preclaro:
Teorema 1.2.65 [di rappresentazione di Riesz] (si veda: [Kolmogorov IV.2.3])
Se V ≡ H è uno spazio di Hilbert (reale), ad ogni g ∈ H∗ corrisponde un vettore ug ∈ H tale che per ogni x ∈ H
si ha g(x) = ⟨ ug , x ⟩ . Questo ug è unico, è tale che ∥g∥ = ∥ug ∥ , ed (ag1 + bg2 )(x) = a⟨ ug1 , x ⟩ + b ⟨ ug2 , x ⟩ . #

Corollario 1.2.66 H, H∗ sono resi isomorfi dalla ι : H → H∗ definita da

ι(ug ) := g = ⟨ ug , · ⟩ ; ug := ι−1 (g).

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 415


Dimostrazione Ker g è un sottospazio di H di codimensione uno, e quindi (Ker g) ha dimensione uno.

Pertanto esiste x1 ∈ (Ker g) con ∥x1 ∥ = 1 e tale che per ogni x ∈ H si ha

x = g(x)x1 /g(x1 ) + z ′ =: g ′ (x)x1 + z ′ , con z ′ ∈ Ker g,

Sia ug := g(x1 )x1 . Si ha


⟨ ug , x ⟩ = g ′ (x)⟨ ug , x1 ⟩ = g ′ (x)g(x1 ) = g(x),
infatti è ⟨ ug , z ′ ⟩ = 0 poiché x1 ⊥ z ′ .
D’altra parte se un altro ũ ̸= ug fosse g(x) = ⟨ ũ, x ⟩ per ogni x ∈ H , si avrebbe ⟨ ug − ũ, x ⟩ = 0 ∀x, e
questo dà l’unicità. "

Se B è una base in H si definisce:


Base duale B∗ in H := una base di H stesso tale che ⟨ e∗i , ej ⟩ = δji .
Altrimenti, come si è visto, si definisce in generale:
Base duale B∗ in V∗ := la base formata da quei punti e∗i di V∗ tali che e∗ i (ej ) = δji .
N.B. 1.2.67 Come già osservato, un qualunque g ∈ V∗ è univocamente determinato dai numeri gi tali che
gi := g(ei ) = gh e∗ h (ei ) = gh δih .
Se lo spazio è euclideo, il teorema di Riesz permette di identificare i versori e∗j (·) con i versori e∗j tali che
⟨ e , ei ⟩ = δij e quindi, più in generale, quei vettori tali che x̄i = ⟨ e∗i , x ⟩ per ogni x ∈ V.
∗j
Tali vettori
restano espressi mediante i versori ei dalla condizione δhi = (e∗i )j ⟨ ej , eh ⟩ . Per cui,

con κ jh := ⟨ ej , eh ⟩ e con κ hi κ ik = δkh ,


si ha
κ ik = (e∗i )j δjk = (e∗i )k e quindi e∗i = κ ik ek ed vi κ ik = v k .
I numeri
gi := g(ei ) = ⟨ ug , ei ⟩ =: ug |h ⟨ e∗ h , ei ⟩
prendono il nome di componenti covarianti del vettore ug , e l’identificazione consiste nel porre ei = ⟨ ei , ej ⟩e∗ j .
Una base è duale di se stessa se e solo se è ortonormale. ♦

7
Nota 1.2.68 Si vede subito tramite la disuguaglianza 8 di Bessel che la convergenza per coordinate in H o,
equivalentemente, in l2 , si veda Proposizione 1.2.48 , è conseguenza di quella in norma. D’altra parte se g ∈ V∗
si ha che |g(x)| ≤ ∥g∥ ∥x∥ e ciò fa vedere che la topologia τ L è non più forte di quella indotta dalla norma.
Inoltre se lo spazio vettoriale (anche non euclideo) è a dimensione finita, l’equivalenza fra le norme (si veda § A.1)
garantisce la convergenza per coordinate a partire dalla convergenza in una qualsiasi norma (oppure: [Voyevodin
Lemma 53.1]).
Viceversa, se uno spazio vettoriale normato è finito dimensionale, in virtù della disuguaglianza triangolare e
della linearità della norma la convergenza per coordinate è a sua volta sufficiente ad assicurare quella in (una
qualsiasi);norma;
< ciò però non è vero in uno spazio a dimensione infinita, si pensi alla successione dei versori
di base: φi . Con un calcolo analogo a quello fatto nella dimostrazione della Proposizione 1.2.38 si può
i∈N
però mostrare che in uno spazio di Hilbert la convergenza per coordinate, se unita alla condizione: ∥xn ∥ → ∥x∥
è sufficiente ad assicurare la convergenza in norma: ∥xn − x∥ → 0. Ne segue in particolare che uno spazio
euclideo finito dimensionale è completo.
D’altra parte, siccome lo span delle combinazioni lineari finite degli elementi della base coincide con H che, si
è visto, è isomorfo ad H∗ , dal Teorema 1.2.62 segue che la convergenza per coordinate equivale alla convergenza
debole su H . Alternativamente si può usare il teorema dell’isomorfismo e riconoscere che la topologia debole su
H coincide con la topologia prodotto su l2 . ◃

Siano ora V e W due spazi vettoriali e ancora, per semplicità, reali.


Siano T : W → V un operatore lineare, g : V → R un funzionale lineare limitato, e ξ ∈ W. Si ha che T ξ =: x
appartiene a V, e che g(x) = g(T ξ) =: γ(ξ) è esso stesso un funzionale lineare continuo definito su W; e cioè
γ ∈ W∗ .
In tal modo ad ogni g ∈ V∗ resta associato uno ed un solo γ ∈ W∗ , ed è quindi definita la mappa:

Note di Sistemi Dinamici


416 APPENDICE

Operatore aggiunto di T : W → V := l’operatore T! ∗ : V∗ → W∗ dato da


0 1
T! ∗ g := γ , ovvero dalla T! ∗ g (ξ) := g(T ξ) per ogni ξ ∈ W .

Nel caso particolare in cui V ≡ H e W ≡ K siano spazi di Hilbert, o comunque euclidei, dalla proposizione
vista sopra segue che per ogni g ∈ H∗ esiste ug = ι−1 (g) ∈ H tale che
0 1
⟨ ug , T ξ ⟩ = g(T ξ) = T! ∗ g (ξ) = ⟨ ι−1 T! ∗ ι(ug ), ξ ⟩ =: ⟨ T ∗ ug , ξ ⟩,

e cioè si può porre


g(T ξ) =: γ(ξ) =: ⟨ wγ , ξ ⟩ =: ⟨ T ∗ ug , ξ ⟩ .

Operatore aggiunto di T sullo spazio H := l’operatore T ∗ : H → K tale che ι−1 (γ) = wγ =: T ∗ ug ; esso
è caratterizzato dalla relazione:
⟨ T x, y ⟩ =: ⟨ x, T ∗ y ⟩, ∀x, y ∈ H
In coordinate si ha:
(T x)k ȳ k =: xi T̄ ∗ik ȳ k ;
ed essendo
(T x)k = (T x)h ghk = Tjh xj ghk = g ij Tjh ghk xi
se ne ricava
(T̄ ∗ )ik = g ij Tjh ghk .

W » T x V

W∗ ° T g V*


T <ug , >
K <º° , >

H*

K º° T ug H

T autoaggiunto := quando accade che V = W = H = K e che T = T ∗ , e cioè quando ⟨ x, T y ⟩ =


⟨ T x, y ⟩ , ∀x, y ∈ H , che si suppone coincida con il comune insieme di definizione di T e di T ∗ .
Operatore Definito Positivo := un operatore autoaggiunto e tale che

2
⟨ x, T x ⟩ ≥ m ∥x∥ per un qualche m > 0 ed ogni x ∈ H.

Queste ultime definizioni verranno commentate nel caso particolare degli spazi euclidei a dimensione finita.
Sulla equazione aggiunta
&
Sia dato un operatore lineare L(x), &
per esempio L(x) := a0 (t)ẍ + a1 (t)ẋ + a2 (t)x sullo spazio (C r , ∥·∥2 ) delle
funzioni x = x(t). Qui di seguito, per soli motivi storici, si indicherà con x′ la derivata ẋ , e con ∂t l’operatore
d
dt . Si chiama “equazione aggiunta” dell’equazione

&
L(x) := a0 (t)x′′ + a1 (t)x′ + a2 (t)x = 0 (2.10)

U
l’equazione M(y) = 0 cui deve soddisfare una funzione y : (C r , ∥·∥2 ) → R affinchè l’equazione &
ȳ(t)L(x) =0
sia “esatta”, e cioè assuma la forma
N O′ + ,
d d
µ x′ + ν x := µ(t) x + ν(t)x = 0.
dt dt

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 417


Moltiplicando per ȳ la (2.10) e uguagliandola a (µx′ + νx) = 0 si riconosce che queste si equivalgono purché si
abbiano: {µ = ȳa0 , µ′ + ν = ȳa1 , ν ′ = ȳa2 } . Sostituite la prima e l’ultima di queste nella seconda si ricava
l’equazione cercata
U ′′ ′
M(y) : = (ā0 y) − (ā1 y) + ā2 y
′′ ′
≡ (−1)2 (ā0 y) + (−1) (ā1 y) + (−1)0 ā2 y = 0 ;
che è allora l’equazione aggiunta. Cosa ha a che fare con l’operatore aggiunto?
Sussiste, in generale, l’identità di Lagrange
⎛ ⎞
n
= =
&
y L(x) U
− x M(y) = ∂t ⎝ ∂tj (x) (−1)k ∂tk (an−h ȳ)⎠ (2.11)
h=1 j+k=h−1

per esempio, nel caso n = 2 l’argomento a secondo membro si specializza in:


2
= =
x[j] (−1)k (an−h ȳ)[k] = x[0] (a1 ȳ)[0] + x[1] (a0 ȳ)[0] − x[0] (a0 ȳ)[1]
h=1 j+k=h−1

= µx′ + νx .

La stessa forma della (2.11) implica che l’equazione M(y) U = 0 , aggiunta di L(x) & = 0 , è anche l’equazione tale che
U
x M(y) &
= 0 risulta esatta quando sia L(x) = 0 (la x e la y sono “fattori integranti” l’una per l’altra).
Sono immediate, poi, le seguenti integrazioni per parti rispetto alla t:
⎧ - b - b - b

⎪ ⟨ y, a∂t x ⟩ :=

⎪ ya∂ t x = āy∂ t x̄ = − ∂t (āy)x̄ + [āy x̄]ba

⎪ a a a


⎨ = −⟨ ∂t (āy), x ⟩ + [āy x̄]ba
⎪ - b - b

⎪ 2


2
⟨ y, a∂t x ⟩ := āy∂t x̄ = − ∂t (āy)∂t x̄ + [āy∂t x̄]ba

⎪ a a


= (−1)2 ⟨ ∂t2 (āy), x ⟩ + [āy∂t x̄]ba − [∂t (āy)x̄]ba

dalle quali si vede che l’operatore aggiunto di a∂t è −∂t (ā ·), e quello di a∂t2 è ∂t2 (ā ·), entrambi purché
sulle funzioni che annullano le condizioni al bordo.
U è l’aggiunto di L& := a0 (t)∂tt
L’integrale della (2.11) tra estremi a e b mostra che l’operatore M 2
+a1 (t)∂t +a2 (t)
nello spazio di quelle funzioni che annullano ai bordi il termine finito del secondo membro.
N.B. 1.2.69 Si consideri, in uno spazio n-dimensionale, il sistema

x′ = A x. (2.12)

Esso è equivalente all’equazione

L& (x) = 0 = x[n] + a1 x[n−1] + . . . + an−1 x[1] + an x[0]

quando si pongano x = (x1 , . . . , xn ) con x ≡ x[0] =: x1 , . . . , ∂tk x ≡ x[k] =: xk+1 , . . . , ∂tn−1 x ≡ x[n−1] =: xn ;
e, (rinominando i coefficienti ai /a0 → ai ),
⎛ ⎞
0 1 0 0
⎜ 0 0 1 0 0 ⎟
⎜ ⎟
A := ⎜ . . . ⎟
⎝ .. .. .. 0 ⎠
−an −an−1 · · · −a1
Cn
D’altra parte detto r := i=1 ȳi xi = ȳ T x, risulta r′ = (ȳ T )′ x + ȳ T x′ , e pertanto: fra quelle funzioni che
annullano r′ ci sono le soluzioni di x′ = A x se e solo se ci sono anche quelle del sistema

(ȳ T )′ + ȳ T A = 0 ovvero y ′ + A∗ y = 0 con A∗ = ĀT .

La forma esplicita di tale sistema è


(
y1′ = ān yn
yk′ = −yk−1 + ā(n−k+1) yn , k = 2, . . . , n

Note di Sistemi Dinamici


418 APPENDICE

[k] [k−1]
e quindi ∂tk−1 (ān−k+1 yn ) = yk + yk−1 , k = 2, . . . , n; da queste si ottiene
n
=
(−1)k ∂tk−1 (ān−k+1 yn ) = (−1)n ∂tn yn + ān yn
k=2

e quindi l’equazione aggiunta y ′ + A∗ y = 0 risulta esplicitamente:


n
=
U
M(y) := (−1)k ∂tk (ān−k y) = 0 , y := yn .
k=0

N.B. 1.2.70 L’operatore aggiunto di L& := a0 (t)∂tt


2 &
+ a1 (t)∂t + a2 (t) assume una forma speciale se si cambia L(x)
nel seguente modo. Sia t0 ∈ [a, b], siano
- t
a1 (t) p(t)
p(t) := exp ed r(t) := (entrambi non nulli)
a
t0 0 (t) a 0 (t)

&
e si moltiplichi L(x) per −r(t). Si ottiene l’operatore

& a1 (t) a2 (t)


L(x) := −r(t)L(x) := − p(t) x′′ − p(t) x′ − p(t) x .
a0 (t) a0 (t)
Ulteriormente ponendo: q(t) := − a2 (t)p(t)/a0 (t) l’operatore L si riscrive più semplicemente nel
) *
d d
L(x) = − p(t) x + q(t) x .
dt dt
L’equazione aggiunta di L(x) = −px′′ − p′ x′ + qx = 0 è

M(y) = (−p̄y)′′ − (−p̄′ y)′ + q̄y = −p̄y ′′ − p̄′ y ′ + q̄y = 0 .

Si osservi che se L ha coefficienti reali essa risulta la stessa equazione della L(y) = 0 . Tuttavia si badi bene che ciò
non assicura che l’operatore L sia autoaggiunto: va infatti specificato prima lo spazio sul quale questo potrebbe
accadere. ♦

N.B. 1.2.71
Mediante l’identità di Lagrange, oppure con un semplice calcolo diretto, si ha
) ' '*
d d ' x ȳ '
ȳ L(x) − xM(y) = (p(t) W (x, ȳ)) = '
p(t) ' ′ ' .
dt dt x ȳ ′ '

In questa, x e y non sono necessariamente nel Ker(L); qualora ciò fosse si avrebbe necessariamente p W = W 0 .
Si scelga ora, per esempio, il sottospazio di L2 ([a, b]) formato dalle funzioni che verificano condizioni al bordo
omogenee e separate del tipo
(
αx(a) + βx′ (a) = 0
con α, β, γ, δ ∈ R .
γ x(b) + δ x′ (b) = 0

In tale spazio, e con il prodotto scalare standard:


- b
⟨ x, y ⟩ := x(t)ȳ(t) dt
a

l’operatore L supposto a coefficienti reali risulta autoaggiunto. Infatti si ha


+ ' ',
' x ȳ ' b
⟨ L(x), y ⟩ − ⟨ x, L(y) ⟩ = p '' ′ ' = 0
x ȳ ′ ' a

visto che (
αx(a) + βx′ (a) = 0 '
'
con α2 + β 2 ̸= 0 implica W (x, ȳ) ' = 0,
αy(a) + βy ′ (a) = 0 t=a

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 419

ed analoga per il punto t = b . D’altra parte, si può anche controllare direttamente che

⟨ x, L(y) ⟩ = ⟨ x, −∂t (p∂t y) ⟩ + ⟨ qx, y ⟩


= ⟨ p∂t x, ∂t y) ⟩ + ⟨ qx, y ⟩ − [xp∂t ȳ]bordo
= ⟨ −∂t (p∂t x), y) ⟩ + ⟨ qx, y ⟩ − [p(x∂t y − y∂t x)]bordo
+' ',
' x ȳ '
= ⟨ L(x), y ⟩ − ' ′' ' .
x ȳ ′ ' bordo

Allo stesso modo si può confermare che l’operatore −i d/dt è autoaggiunto nello spazio L2 (−∞, +∞) dato che
|t|
in tal caso senz’altro si ha |x| −→ 0 . ♦

N.B. 1.2.72 Si discuterà qui il caso di un problema del secondo ordine, e si useranno le lettere maiuscole per
indicare le funzioni della variabile scalare (qui indicata con ξ ) dato che questa stessa viene spesso indicata in
letteratura con la lettera x minuscola.
Problema di Sturm-Liouville := il seguente problema
( ) *
L(X) = λ r(ξ) X d d
con L(X) := − p(ξ) X + q(ξ) X (2.13)
condizioni al bordo dξ dξ

⎨p, q, r ∈ C ([a, b], R)
⎪ 0

Esso si dirà “regolare” qualora 1


p ∈ C ([a, b]), p, r > 0 su [a, b]


condizioni al bordo omogenee e separate
Per gli operatori S.L. regolari sussistono le seguenti basilari proprietà.
Siano Xλ e Xµ tali che: L(Xλ ) = λrXλ , L(Xµ ) = µrXµ , con λ, µ ̸= 0 .

• Per qualsiasi c ∈ C, la funzione c Xλ è soluzione se tale è Xλ .


• Dato che L è lineare e ha coefficienti reali, se ci fossero autovalori complessi si avrebbe che Xλ̄ è combinazione
lineare (a coefficienti complessi) delle complesse coniugate delle soluzioni Xλ , infatti L(X̄λ ) = L(Xλ ) =
λrXλ = λ̄rX̄λ , quindi anche Xλ è autovettore di λ̄ .
• Per un problema S.L. regolare (del secondo ordine) gli autovalori sono semplici:

&λ verificano (2.13) esiste c ∈ C :


se Xλ ed X & λ = c Xλ ,
X e quindi & λ = Xλ .
X

Infatti il loro wronskiano o è identicamente nullo o identicamente diverso da zero. Ma questa seconda
possibilità è impedita dalla condizione al bordo (si veda il N.B. 1.2.71).
Pertanto, siccome Xλ ed Xλ̄ sono autovettori di λ̄ ne segue che Xλ̄ = X̄λ .
.b
• Dato che r è reale positivo su [a, b], sussiste la relazione, (ove ⟨ u, v ⟩ := a u(ξ) v(ξ) dξ )

⟨ Xλ , L(Xµ ) ⟩ − ⟨ L(Xλ ), Xµ ⟩ = (µ̄ − λ) ⟨ Xλ , rXµ ⟩ =: (µ̄ − λ) ⟨ Xλ , Xµ ⟩ r .

Ne segue che: gli autovalori λ di un problema S.L. regolare sono tutti reali (basta assumere λ = µ ed
.b
usare il fatto che il primo membro è nullo mentre ⟨ Xλ , Xλ ⟩ r = a rXλ Xλ dξ > 0 ). In definitiva si ha che
⟨ ·, · ⟩ r è un corretto prodotto scalare.
• Gli autovettori di un problema S.L. regolare sono tali che

⟨ Xλ , Xµ ⟩ r = 0 se e solo se λ ̸= µ

Con la scelta r = 1 si trovano anche per questi prodotti le affermazioni: “un operatore autoaggiunto ha
autovalori reali ed autovettori ortogonali”.
; <
• L’insieme λi degli autovalori del problema (2.13) è numerabile, ed essi sono tali che
i=1,2,...

esiste λ0 tale che λ0 < λ1 < λ2 < · · · < λk < · · · e lim λi = ∞ .


i→∞

Note di Sistemi Dinamici


420 APPENDICE

• Gli autovalori ed i corrispondenti autovettori sono messi in relazione dalla formula di Rayleigh:
@ A
N Ob - b 0 1 2
′ ′ 2 2
λ = − pXX + pX + qX dξ ⟨ X, X ⟩ r
a a

In breve: un problema S.L. regolare ammette una successione crescente non limitata numerabile di autovalori reali
semplici ed in loro corrispondenza una successione di autosoluzioni (reali) r -ortogonali.
Per le autofunzioni dei problemi di Sturm-Liouville regolari sussiste un teorema simile al teorema di Fourier
[Tolstov p.257 opp. Courant-Hilbert 1.V.14]. Ricordando la definizione già vista sopra (Memento 1.2.30) di:
Funzione liscia a tratti := Una funzione f : [a, b] → R limitata su [a, b] e ivi continua a meno di un numero
finito di discontinuità di prima specie e inoltre tale da ammettere (finita) la derivata destra e sinistra in ogni punto
sussistono i seguenti due fondamentali teoremi.
; < ; <
Teorema 1.2.73 Il sistema Xi delle autosoluzioni corrispondenti agli autovalori λi è un
i=1,2,... i=1,2,...
insieme ortogonale e completo in (L2 ([a, b]), ⟨ ·, · ⟩ r ) #
C∞
Teorema 1.2.74 Sia f : [a, b] → R una funzione liscia a tratti. La sua serie di Fourier i=1 ci Xλi , con
ci := ⟨ f, Xλi ⟩ r / ⟨ Xλi , Xλi ⟩ r converge puntualmente per ξ ∈ (a, b) al valore (f (ξ + ) + f (ξ − )) /2 . Se f
è continua su [a, b], f ′ è liscia a tratti, ed f verifica le condizioni ai bordi accennate nella (2.13), allora la
convergenza è assoluta e uniforme. #

N.B. 1.2.75 Per dimostrare alcune delle affermazioni fatte qui sopra sulle proprietà dei sistemi S.L. regolari si
possono considerare i seguenti fatti. Si consideri inizialmente un fissato valore di λ ∈ C.
Fatto n o. 1 È opportuno dilatare l’asse delle ξ mediante la funzione
- ξ
dη d 1 d
τ (ξ) := e quindi =
a p(η) dξ p(ξ) dτ
+) * ,
! 1 d2
che trasformano la L(X) nella L(X) = − + q(ξ) X
p(ξ) dτ 2 ξ=τ −1 (τ )
In tal modo si trasforma l’iniziale problema S.L. regolare nel seguente
⎧ 2
⎨ d
X + g(τ, λ) X = 0
dτ 2

condizioni al bordo
con ⎧
⎨ g(τ, λ) := λ p(ξ(τ )) r(τ ) − p(ξ(τ )) q(ξ(τ ))

g ∈ C 0 ([τ (a), τ (b)] × R)


g monotona crescente rispetto a λ
e siccome p e q sono positive su [a, b] prima o poi in λ la funzione g dovrà diventare positiva.
Fatto n o. 2 Si vuole discutere il comportamento qualitativo dell’equazione:
X ′′ + g(ξ, λ) X = 0 con g ∈ C 0 ([a, b] × R) , g(ξ, ·) crescente (2.14)
nel caso di condizioni al bordo che coinvolgano separatamente la X e la X ′ . Data la loro omogenità, ciò permette
di scegliere la funzione incognita X in modo che risulti X ′ (a) = 1 (per il caso generale si veda: [Ince]).
Fatto n o. 3 Nella famiglia delle soluzioni (una per ogni valore di λ) del problema
X ′′ + g(ξ, λ) X = 0 con X(a) = 0, X ′ (a) = 1, (2.15)
si cercheranno poi quelle che verificano anche la seconda condizione al bordo. Nel caso semplificato in esame deve
essere: X(b) = 0 . (In generale si osserva che fra due consecutivi valori per i quali si ha X = 0 se ne trova uno e
uno solo nel quale γX + δX ′ = 0 ).
Per quanto riguarda ciascuna singola equazione (2.14), e cioè supponendo λ fissato, sussistono i seguenti importanti
teoremi.
Teorema 1.2.76 [di separazione di Sturm]
Due qualsiasi soluzioni distinte X e Y dell’equazione (2.14) (con λ fissato) che abbiano W (X, Y ) ̸= 0 hanno
zeri distinti ed alternati. #

M. Lo Schiavo
A.2. Richiami di Analisi Funzionale. ( II ) 421

Infatti, l’essere W ̸= 0 ed il doverlo rimanere implica che tali zeri non possano coincidere o essere non isolati (per
continuità). Inoltre, se ξ1 , ξ2 sono due zeri successivi di Y , si ha (per esempio) W (ξ1 ) = X(ξ1 )Y ′ (ξ1 ) > 0 , e quindi
W (ξ2 ) = X(ξ2 )Y ′ (ξ2 ) > 0 . Ad esempio con Y ′ (ξ1 ) > 0 si ha che, affinché Y possa annullarsi in ξ2 ma non
prima, deve essere Y ′ (ξ2 ) < 0 . Ne segue X(ξ1 )X(ξ2 ) < 0 e quindi per continuità la X dovrà essersi annullata
almeno una volta in [ξ1 , ξ2 ]. Ma non può averlo fatto più di una volta sola, perché altrimenti si potrebbe ripetere
il ragionamento cambiando X con Y .
Fatto n o. 4 Se g(ξ, λ) < 0 per ogni ξ ∈ [τ1 , τ2 ] (λ è fissato), una qualsiasi soluzione di (2.14) si annulla al
più una volta in [τ1 , τ2 ] (o è identicamente nulla).
Infatti, se X(ξ0 ) = 0 , per ipotesi è X ′ (ξ0 ) ̸= 0 (sia positivo), e quindi sarà X(ξ) > 0 a destra di ξ0 . La condizione
su g implica X ′ crescente in un intorno destro di ξ0 , che quindi deve contenere (ξ0 , τ2 ].
Fatto n o. 5 - Se g(ξ, λ) è continua e positiva per ogni ξ ∈ [τ̂ , +∞) (λ è fissato), e se sussiste la condizione

(sufficiente): g(ξ, λ)dξ = +∞ per un qualche τ > τ̂ , allora una qualsiasi soluzione di (2.14) che non sia
τ
banale non può avere un numero finito di zeri in [τ̂ , +∞).
′′
Infatti non può esistere ξ0 ≥ τ tale che (ad esempio) X(ξ) > 0 per ogni
. ξ > ξ0 perché X < 0′ a destra di ξ0

darebbe X strettamente decrescente a destra di ξ0 , e la condizione su g implica l’esistenza di ξ > ξ0 nel quale
X ′ (ξ ′ ) < 0 giacché:
) * ) *2 + ,ξ - ξ
d X′ X ′′ X + X ′ 2
X′ X′
− = − = g+ implica − ≥ g;
dξ X X2 X X ξ0 ξ0

per cui, avendo derivata strettamente negativa, prima o poi dopo ξ0 dovrà annullarsi anche la X .
Fatto n o. 6 Se g(ξ, λ) è continua e positiva per ogni ξ ∈ [τ̂ , +∞) (λ è fissato), una qualsiasi soluzione di
(2.14) non può avere un numero infinito di zeri in [τ1 , τ2 ], ove τ1 > τ̂ .
Infatti in tal caso esisterebbe un punto di accumulazione ξ0 ∈ [τ1 , τ2 ] di zeri della X e cioè si avrebbe X(ξ0 + h) =
X(ξ0 ) + X ′ (ξ0 + θh)h con h piccolo a piacere e con X(ξ0 ) = X(ξ0 + h) = 0 ciò che, per continuità, implica X ′ = 0 .
Si faccia ora variare il parametro λ, e ne siano λ1 e λ2 due valori per i quali g(ξ, λ1 ) < g(ξ, λ2 ) per ogni
ξ ∈ [τ1 , τ2 ]. Sia poi X una soluzione (non banale) di X ′′ + g(ξ, λ2 )X = 0 , e Y una soluzione (non banale)
di Y ′′ + g(ξ, λ1 )Y = 0
Teorema 1.2.77 [del paragone di Sturm]
La X oscilla più rapidamente della Y . Ovvero: X si annulla almeno una volta nell’intervallo aperto (ξ1 , ξ2 ) ove
ξ1 , ξ2 sono due zeri successivi della Y (in [τ1 , τ2 ]). #

Infatti: siano ξ ′ e ξ ′′ due zeri successivi della Y , e sia ad esempio Y > 0 in (ξ ′ , ξ ′′ ). Sia, per assurdo, anche
d
X > 0 (ad esempio). Dalle due equazioni segue XY ′′ − Y X ′′ ≡ dξ W (X, Y ) = (g(ξ, λ2 ) − g(ξ, λ1 )) XY . Pertanto:
W (ξ ) − W (ξ ) > 0 strettamente; ma con le dette ipotesi è: W (ξ ′ ) = X(ξ ′ )Y ′ (ξ ′ ) ≥ 0 , e Y ′ (ξ ′′ ) < 0 implica
′′ ′

W (ξ ′′ ) ≤ 0 . Ne segue
; che se Y ha una < successione di zeri: {τ1 ≤ ξ1 < ξ2 < . . .} allora la X ha almeno una
ˆ
successione di zeri: ξ̂1 < ξ1 ; ξ1 < ξ2 ; . . . .

Fatto n o. 7 Dalla continuità di g(·, λ) su [τ1 , τ2 ] si ha che g(·, λ) ∈ [gmin (λ), gmax (λ)]; ed essendo g(ξ, ·)
monotona crescente si può dedurre che:

(7.1) finché λ è tale che gmax (λ) ≤ 0 , ammesso che sia X(a) = 0 non può essere X(b) = 0 (per il Fatto n.4);

(7.2) al crescere di λ si ottiene gmax (λ) > 0 . Si paragona con Y (ξ) =


/ /
sin gmax (λ) ξ . Se ne conclude che se gmax (λ) (b − a) > π e se X(a) = 0 anche ora non può essere
X(b) = 0 ;
/
(7.3) qualora λ sia tanto grande che gmin (λ) > 0 , e se gmin (λ) (b − a) > n π , allora la X ha almeno n zeri
in (a, b).

In definitiva, variando λ in modo continuo, gli zeri di X “si muovono” verso il punto a, che per le condizioni al
bordo è assunto essere il primo zero, provenendo dal semiasse (a, +∞). Quando uno zero “transita” per il punto
b esso è evidentemente un autovalore. Si giunge cosı̀ al
Teorema 1.2.78 [di oscillazione di Sturm]

Note di Sistemi Dinamici


422 APPENDICE

Un problema di Sturm-Liouville regolare ammette una successione numerabile


; < di autovalori reali semplici: λ0 <
λ1 < λ2 < . . . con limn→∞ λn = ∞. Le corrispondenti autosoluzioni Xn hanno esattamente n zeri
n=0,1,2,...
in (a, b) e sono uniche (a meno di una costante moltiplicativa). #

Disquisizione sui segni.


Il segno di a0 dà il verso delle ξ ; invece p è per definizione essenzialmente positivo. Il fattore r ha lo stesso
segno di a0 , si suppongano positivi. Il fattore q allora ha il segno opposto a quello di a2 . Con tali segni solo un
numero finito di autovalori λi può essere negativo. Infatti affinché vi siano zeri in [a, b] per il Punto (7.2) deve
essere λ > (q + (π/(τ (b) − τ (a)))2 /p)/r , quindi siccome gmin cresce con λ anche se q fosse tanto negativo da
permettere alcuni autovalori λ negativi ciò non può continuare ad essere per sempre.
Il caso in cui tutte le λ sono positive è fisicamente significativo: ad esempio è quello della corda vibrante, per
la quale si ha
N OL - L - L - L
−p X X ′ + p X′ 2 + q X2 = λ r X2
0 0 0 0

che, con le condizioni X(0) = X(L) = 0 dà λ ≥ 0 , con λ = 0 se e solo se q ≡ 0 , e X ′ ≡ 0 , ed è quindi da


scartare come autovalore.
Nel caso in cui il problema di Sturm-Liouville fosse singolare, ad esempio se b → ∞ oppure p(ξ) = 0 per
qualche ξ ∈ [a, b], etc., alcuni di questi ragionamenti cadrebbero in difetto e potrebbero verificarsi casi di “spettri
continui”, cioè interi intervalli di autovalori. ♦

A.3 Richiami di Analisi Funzionale. ( III )

Memento 1.3.1 Si è già introdotto (Esempio 1.23) il funzionale lineare:

π0 : C 1 → R1 definito da π0 y = y(0) ;

mediante π0 il sistema
(
ẏ = f (t, y) t ∈ [0, T]
y(0) = y0

risulta equivalente alla equazione in C 1 × R data da


)d * ) * ) *
dt y − f (t, y)
ẏ − f (t, y) 0
P(y, y0 ) := ≡ =
π0 y − y0 y(0) − y0 0

.
Memento 1.3.2 Due operatori lineari Li x = R Ki (s, t)x(t)dt i = 1, 2 hanno prodotto
- -
L1 ◦ L2 x = K1 (s, u)K2 (u, t)x(t)dudt
R R

che ha kernel -
K(s, t) := K1 (s, u)K2 (u, t)du
R

Sussiste inoltre la formula


- t - t - t - t
1
dt dt · · · f (t)dt = (t − s)n−1 f (s)ds
0 0 0 (n − 1)! 0
[ \] ^
n volte

M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 423

Memento 1.3.3 Un operatore di proiezione Π : X → Π(X) ⊆ X è un operatore tale che Π ◦ Π = Π, e quindi


∥Π∥ ≥ 1 ; in particolare, su uno spazio Euclideo E si ha Πx ⊥ (y − Πy) ∀x, y ∈ E e Π è (autoaggiunto)
positivo.
Se Π(X) ha dimensione finita, si chiama
proiezione della equazione F (x) = x la n-pla di equazioni

y = Π F (y) con y ∈ Π(X) .

Ad esempio, una proiezione Π(C([a, b])) → Rn+1 la si può ottenere mediante una discretizzazione (o “finite
difference”) di [a, b] nei punti sh := h/n con h = 0, 1, . . . e quindi
⎞ ⎛
x(s0 )
⎜ x(s1 ) ⎟
Π(x(s)) = y = ⎜
⎝ ··· ⎠

x(sn )

Memento 1.3.4 [1o teorema fondamentale dell’analisi]


- s
Sia y : R → R Riemann-integrabile su [a, s] per ogni s ∈ [a, b].
1 1
Posto Y (s) := y(t)dt con c ∈ [a, b] si ha
c
che:
d
Y = y(s) per ogni s su cui y è continua
ds
#

Corollario 1.3.5 Se y ∈ C 0 ([a, b]) la funzione


⎧ - s


⎨ x(s) : = x(a) + y(t)dt appartiene a C 1 ([a, b])
a

⎩ d x(s) = y(s)

su [a, b]
ds
#

Memento 1.3.6 [2o teorema fondamentale dell’analisi]

Sia x ∈ C 1 ((a, b)) tale che

d
x(s) = y(s) su (a, b), con y ∈ C 0 ((a, b))
ds
allora - s
x(s) = x(c) + y(t)dt per ogni c ∈ (a, b).
c

Memento 1.3.7 Un operatore F : X → Y (entrambi spazi di Banach) si dice


derivabile in x ∈ X se esiste L : X → Y lineare limitato tale che

∥F (x + h) − F (x) − L(x)h∥
lim =0.
∥h∥→0 ∥h∥

Tale L si può anche indicare con F ′ e verifica le usuali regole di derivazione delle funzioni, quale per esempio
la: (P ◦ S)′ (x) = P ′ (S(x)) ◦ S ′ (x) . #

Note di Sistemi Dinamici


424 APPENDICE

Il metodo operativo per calcolare le derivate di un operatore consiste nello scrivere esplicitamente la differenza
F (x + h) − F (x) come un operatore su he di questo estrarre la parte lineare su h.
Ad esempio la P(y, y0 ) del Memento 1.2.10 ha derivata
)d *) *
− fy (s, y(s))1I 0 y
P ′ (y, y0 ) = ds
π0 −1 y0

Viceversa, detto |P | := maxi (λi+1 − λi ) il passo di una partizione P := {λ0 = 0, λ1 , λ2 , . . . , λn = 1}


dell’intervallo [0, 1], si definisce
Riemann integrabile da x ad y un operatore F per il quale esiste il
- y =
F (ξ)dξ := lim F (x + λi (y − x)) · (λi+1 − λi )(y − x)
x |P |→0
i

e si noti che tale integrazione è definita solo sul segmento che unisce x con y.
Anche questa operazione verifica le usuali regole dell’integrazione di funzioni reali e, per esempio, è valida la
?- y ? - 1
? ?
∥F (x + λ(y − x))∥ ≤ p(λ) ⇒ ? F (ξ)dξ ?≤ p(λ)dλ
? ?
x 0

Sussiste infine la importante Proposizione 1.3.8 Se F è derivabile in ogni punto del segmento che unisce x

con y ed F è integrabile da x ad y allora
- y
F (y) − F (x) = F ′ (ξ)dξ
x

Dimostrazione Si pongano xi := x + λi (y − x), i = 0, . . . , n, e si consideri l’espressione “telescopica” :


n−1
= n−1
=
F (y) − F (x) − F ′ (xi )(xi+1 − xi ) = F (xi+1 ) − F (xi ) − F ′ (xi )(xi+1 − xi ).
i=0 i=1

Sfruttando l’ipotesi di derivabilità che, per n grande e λi+1 − λi = 1/n, assicura la stima
ε
∥F (xi+1 ) − F (xi ) − F ′ (xi )(xi+1 − xi )∥ <
2n
si
?.ricava che il primo membro ha norma? minore di ε/2 ; basta poi riconoscere che, per l’integrabilità di F ′ , anche
? y ′ Cn−1 ′ ?
? x F (x)dξ − i=0 F (xi )(xi+1 − xi )? resta limitata da ε/2 . "

Allo stesso modo se ne prova l’importante Corollario 1.3.9 [Teorema di media generalizzato]

∥F (x) − F (a)∥ ≤ sup ∥F ′ (a + λ(x − a))∥ ∥x − a∥


λ∈[0,1]

Operatore lineare invertibile := un operatore L : X → Y lineare limitato per il quale esiste L−1 : Y → X
(lineare) limitato tale che

L ◦ L−1 = 1I su Y e simultaneamente L−1 ◦ L = 1I su X

Si noti che se gli spazi sono a dimensioni finite n, m l’operatore L è limitato (e ciò in conseguenza del fatto
che gli corrisponde una matrice n × m); ed anzi, per la limitatezza di L basta che X sia a dimensione finita (in
quanto si può valutare l’allungamento dei soli versori di base).
Più in generale si ricordino le seguenti definizioni e proprietà:
Operatore invertibile := un operatore F : X → Y per il quale esiste un qualche operatore F& : Y → X tale che

F ◦ F& = 1I su Y e simultaneamente F& ◦ F = 1I su X .

Talvolta può essere necessario richiedere, in aggiunta, che l’operatore F& sia limitato.

M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 425

Operatore non singolare, o 1 ←→ 1 := un operatore F : X → Y tale che :

per ogni y ∈ F (X) esiste unico x∈X tale che F (x) = y ;

equivalentemente:
F (x1 ) = F (x2 ) (se e) solo se x1 = x2 ;
equivalentemente:
esiste un qualche S : Y → X tale che SF = 1I su X.

Operatore suriettivo, o “onto” := un operatore F : X → Y tale che :

per ogni y∈Y esiste (almeno) un x∈X tale che F (x) = y ;

equivalentemente:
esiste un qualche D:Y→X tale che F D = 1I su Y .

Nulla è detto in questi due casi sulla unicità e limitatezza degli operatori S e D.
Esempio 3.10 Sia X = Y = l2 eC Λ : X → Y definito Cν da yk 2= λk x2k C
, k = 0, 1, 2, . . . con |λk | ≤ m < ∞ . In
ν ∞
tal caso si ha, per ogni ν ∈ N, |y
k=1 k | 2
≤ m 2
k=1 |xk | ≤ m k=1 |xk | , e quindi y = Λx è in Y.
2

L’operatore Λ è 1 ←→ 1 se e solo se λk ̸= 0 ∀k = 0, 1, . . . in quanto deve accadere λk ∆xk ̸= 0 per anche un


solo ∆xk ̸= 0 ; inoltre Λ(X) = Y se e solo se |λk | > m > 0 ∀k . Infatti:
Cν Cν
(⇐) per y ∈ l2 si ha che x = { λ1 yk }k=0,1,... è in l2 in quanto k=1 |xk |
2 ≤ 1
m2 k=1 |yk |2 per ogni ν ;
k
1 1 1
(⇒) il punto y = {yk := }
lak k=0,1,...
è in l2 ma non in Λ(X) se |λk | ≤ k
, perché se lo fosse si avrebbe xk = y
λk k
≥ 1 e quindi
x ̸∈ l2 .

Si noti che

• ) se F è un operatore invertibile, F& è unico


(infatti F ∗ (y) = F ∗ (F ◦ F& (y)) = F ∗ (F (F& (y))) = F& (y) ) pertanto:
• ) se un operatore è invertibile il suo inverso F −1 è unico.
• ) se un operatore è invertibile esso è non singolare (infatti se esistessero x1 , x2 tali che F (x1 ) = F (x2 ) = y si avrebbe
x1 = F −1 (F (x1 )) = F −1 (F (x2 )) = x2 )

• ) se un operatore è invertibile si ha F (X) = Y


(infatti per ogni y ∈ Y si ha y = F (F −1 (y)) = F (x) )
onto
• ) se un operatore è 1 ←→ 1 su Y e cioè se esso è non singolare con F (X) = Y, allora esso è invertibile
onto
(infatti esistendo per ogni y ∈ Y un unico x ∈ X tale che F (x) = y, basta definire F −1 (y) := x; esso sarà 1 ←→ 1 su X
se, come si è implicitamente assunto, F è definito per ogni x ∈ X e ad esso associa un unico y ∈ Y ; si tratterà all’occorrenza di
determinare se l’operatore cosı́ ottenuto è o meno limitato).

Il metodo accennato mostra anche che un operatore F : X → Y non singolare è invertibile su F (X) .
In definitiva si è riconosciuto che una definizione alternativa è la:
Operatore invertibile := un operatore F : X → Y tale che
onto
ad ogni x ∈ X associa un unico F (x) ∈ Y, e che sia 1 ←→ 1 su Y.

• ) un operatore lineare L : X → Y è non singolare se e solo se

Lx = 0 ⇐⇒ x=0,

e ciò basta affinché l’operatore conservi l’indipendenza lineare dei vettori. Quando L è non singolare, dato
comunque y ∈ L(X) la soluzione unica: x dell’equazione Lx = y definisce un operatore L& : y &→ x(y) che è
lineare (e non singolare); (ciò implica che una combinazione lineare di soluzioni di una equazione lineare è soluzione della
stessa equazione solo se questa è omogenea ).

Note di Sistemi Dinamici


426 APPENDICE

• ) se un operatore lineare limitato L : X → Y ammette univoco l’operatore S (o l’operatore D ) come sopra


allora esiste univoco anche l’operatore D (o l’operatore S ) ed essi sono tali che: S = D =: L& , e se questo
è limitato coincide con l’operatore L−1 ;
onto
• ) (teorema di Banach): se un operatore lineare limitato L : X → Y entrambi spazi di Banach è 1 ←→ 1 allora
L−1 (esiste, è lineare, ed) è limitato.
'
Grafico di un operatore T := l’insieme G(T ) := {(x, T x) ' x ∈ Dom T }
Operatore chiuso := un operatore T : X → Y per il quale
G(T )
è chiuso in X×Y .
; <
n n
• ) un operatore è chiuso se e solo se, quando xn ⊂ Dom T è tale che xn −→ x ed T xn −→ y
n∈N ∞ ∞
allora si ha che x ∈ Dom T ed è T x = y.
• ) se Dom T è chiuso e T è continuo allora T è chiuso.

Proposizione 1.3.11 Sia X completo e T : X → Y lineare chiuso. Se per qualche r si ha


; ' < N ; ' <O
' '
y ∈ Y ' ∥y∥ < r ⊂ T x ∈ X ' ∥x∥ ≤ 1

allora è anche ; ' < ; ' <


' '
y ∈ Y ' ∥y∥ < r ⊂ T x ∈ X ' ∥x∥ ≤ 1 .
#

Teorema 1.3.12 [del grafo chiuso] (si veda: [Robertson])


Ogni operatore lineare chiuso T : X → Y, entrambi spazi di Banach, è continuo. #

Siano V, W normati.
Operatore strettamente singolare L : V → W := un operatore lineare limitato che non ha inverso limitato su
alcun sottospazio infinito dimensionale in Dom L.
Operatore precompatto L : V → W := un operatore lineare limitato tale che LB1 (0) ⊂ W è totalmente
limitato.
Operatore compatto L : V → W := un operatore lineare limitato tale che
[LB1 (0)] ⊂ W è compatta (in W).

• ) ogni operatore precompatto è strettamente singolare.




⎨precompatto ; < ; <
•) L è compatto qualora per ogni xn limitata la Lxn ammette una sot-

⎩ n∈N n∈N
debolmente compatto


⎨ di Cauchy
tosuccessione convergente


debolmente convergente

• ) L : V → W lineare limitato è compatto se e solo se L è precompatto ed W completo.

λ è detto regolare se (λ1I − L) è invertibile con inverso limitato e definito su un insieme (almeno) denso nello spazio Y ; l’insieme
dei valori regolari è detto insieme risolvente di L ; il suo complementare è detto lo spettro di L , che allora certo contiene gli autovalori
di L ma può darsi non solo loro, infatti, pur essendo non singolare, (λ1I −L) può non avere immagine densa in Y oppure l’inverso detto
può non essere limitato; a seconda delle tre possibilità dette lo spettro si suddivide nella sua parte puntuale, residua, continua. Si
ha invece che lo spettro coincide con l’insieme dei suoi autovalori, e cioè con la sua parte puntuale, qualora l’operatore sia autoaggiunto
in uno spazio di Hilbert e completamente continuo, (e cioè trasformi insiemi limitati in insiemi precompatti).

Esempio 3.13 Siano V = C([a, b]) e W = C 1 ([a, b]) con w(a) = 0 ,


.t
Si consideri L : X → Y dato da L := a v(τ )dτ . Si ha L(V) = W ⊂ V e per ogni w ∈ W la soluzione
.t
di a v(τ )dτ = w(t) esiste data da v(t) = dt d d
w(t); ma l’operatore T := dt non è limitato su W (rispetto alla
norma ∥·∥∞ su entrambi gli spazi).
Si noti d’altra parte che l’operatore T è (definito sul sottoinsieme W denso in V ed) è chiuso rispetto alla norma
uniforme: si veda il Memento 1.2.14. #

M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 427

Proposizione 1.3.14 Un operatore lineare (non necessariamente limitato) L : V → W è invertibile su L(V) e


cioè esiste L−1 : L(V) → V (lineare) limitato se e solo se esiste m > 0 tale che

∥Lx∥ ≥ m ∥x∥ per ogni x ∈ V

Dimostrazione Dalla ∥Lx∥ ?≥ m ∥x∥ segue che se x ̸= 0 allora Lx ̸= 0 , e quindi L è 1 ←→ ?


? −1 1 . Inoltre
?
L−1
è limitato, infatti è ?L Lx? = ∥x∥ ≤ m−1 ∥Lx∥ . Viceversa, se L−1 è continuo si ha ∥x∥ = ?L−1 Lx? ≤
? −1 ? ? ?
?L ? ∥Lx∥ e ciò definisce m−1 = ?L−1 ? (vedi oltre, e [Naylor teor.7.6.4]). "

; ' <
(W, ∥·∥W ) compatto in (V, ∥·∥V ) Banach := un sottospazio W ⊂ V tale che la sfera y ∈ W ' ∥y∥W ≤ 1 sia
contenuta in un insieme compatto di V
Equivalentemente: quando ogni sottoinsieme di W che sia ∥·∥W -limitato è compatto (oppure: totalmente limitato)
rispetto alla ∥·∥V .
; < ; <
Equivalentemente: quando ogni successione yn tale che ∥yn ∥W ≤ b < ∞ ammette una sottosuccessione
n∈N
convergente in (V, ∥·∥V ) .

Teorema 1.3.15 (si veda: [Naylor 7.6.4])


Sia (W, ∥·∥W ) compatto in V, ∥·∥V ) Banach, e T : W → V lineare tale che esiste m : ∥V T y∥ ≥ m ∥y∥W . Allora
T −1 esiste ed è compatto.
Inoltre esistono a, b > 0 tali che
( ? −1 ?
?T ? ≤ a ∥x∥
V
? −1 ?W per ogni x ∈ Im T .
?T ? ≤ a ∥x∥
V V

In particolare se Im T è denso in V esiste un’unica estensione continua di T −1 a tutto V. #

Dimostrazione Per la precedente proposizione, esiste limitato l’operatore T;−1 tale che (Im T , ∥·∥V<) →
? ? '
(Dom T , ∥·∥W ) con ?T −1 x?W ≤ m−1 ∥x∥V ; pertanto T −1 mappa la sfera x ∈ V ∩ Im T ' ∥x∥V ≤ 1 in
un sottoinsieme di W che è ∥·∥V -limitato e come tale anche ∥·∥V -compatto in V dato che W è compatto in V.
Quindi, come operatore sullo spazio (Dom T , ∥·∥V ), T −1 è compatto. "

L’importanza del riconoscere la compattezza di un operatore definito su uno spazio di Hilbert si manifesta nel
seguente

Teorema 1.3.16 [spettrale]


Sia L : H → H un operatore normale compatto (definito
; <su un sottoinsieme denso) in uno spazio
; di< Hilbert H .
Esistono una successione di operatori di proiezione: Πn ed una di numeri complessi λn tali
n=0,1,... n=0,1,...
che, (con convergenza in norma uniforme):

=
L= λn Πn .
n=0

Le proiezioni Πn : H → Ker(λn 1I − L) sono continue, ortogonali, onto e tali che



⎪ ΠΠ =0 se i ̸= j
⎨ i j

=

⎩ x = Πn x ∀x ∈ H
n=0

con convergenza per coordinate e, in generale, non uniforme. #

Note di Sistemi Dinamici


428 APPENDICE

Sia (X, d) uno spazio metrico completo.


Un operatore F : X → X è una contrazione se esiste θ ∈ (0, 1) tale che

d(F (x), F (y)) ≤ θ · d(x, y)

ed è pertanto un particolare operatore limitato e quindi continuo. In tal caso (si veda: § I.3) la successione

xn+1 := F (xn )

con x0 arbitrario è di Cauchy e quindi converge al (unico) :

Punto unito x̄ : x̄ = F (x̄)

con errore lineare:


θm
d(xm , x̄) ≤ d(x0 , x1 ) =: θm · r0 .
1−θ
1 − θn−m
Risulta infatti, con m < n, d(xn , xm ) ≤ θm d(x0 , x1 ) .
1−θ

Nota 1.3.17 In base alla considerazione che un sottoinsieme chiuso connesso di uno spazio di Banach è esso
stesso uno spazio di Banach, se un operatore risulta contrattivo solo su una sfera [Br (x0 )] dello spazio X il risultato
; < pur di limitarsi a tale sfera, e di controllare che essa sia un insieme F -invariante;
enunciato sussiste ugualmente
dovrà cioè accadere che xm ⊂ [Br (x0 )] ovvero che d(xm , x0 ) ≤ r per ogni m. Siccome secondo la stima
m∈N
1
fatta risulta d(xn , x0 ) ≤ 1−θ d(x1 , x0 ), si conclude che le affermazioni su esposte (e cioè la tesi del teorema delle
contrazioni) sussistono limitatamente alla sfera [Br (x0 )] purché risulti
1
r≥ d(x1 , x0 ) =: r0 .
1−θ
Si può anzi notare che una contrazione mappa la sfera [Br (x0 )] in [Bθr (F (x0 ))] in quanto d(F (x), F (x0 )) ≤
θd(x, x0 ) e quindi, in particolare, che mappa la sfera [Br0 (x0 )] in [Bθr0 (F (x0 ))] ⊂ [Br0 (x0 )] infatti se d(y, x1 ) < θr0
allora risulta d(y, x0 ) ≤ d(y, x1 ) + d(x1 , x0 ) ≤ θr0 + (1 − θ)r0 ≤ r0 .
Regione di accessibilità del punto x̄ fisso per F := l’insieme :
; ' <
'
x0 ' lim F n x0 = x̄ .
n→∞

Sotto le ipotesi del teorema delle contrazioni si ha che la regione di accessibilità del punto fisso contiene tutta la
sfera [Br0 (x0 )]; ed il punto fisso, unico nella sfera di contrazione [Br (x0 )], si trova senz’altro nella [Br0 (x0 )] .
È chiaro inoltre, in base alla definizione, che F è continua in ogni punto di [Br (x0 )].
Si noti infine che se un operatore contrattivo L è anche lineare, il suo punto unito non può che essere l’origine,
infatti essa è certo soluzione dell’equazione Lx = x data la linearità di L, ed una tale soluzione non può che essere
l’origine dato che ∥x∥ = ∥Lx∥ ≤ ∥L∥ ∥x∥ < ∥x∥ ; e cioè: per un operatore lineare Lx = x ⇒ ∥L∥ ≥ 1 a meno
che sia x = 0 ◃

Qualora F sia derivabile, per controllare se F è una contrazione su (V, ∥·∥) è conveniente usare il Teorema
di media generalizzato, e valutare se la norma ∥F ′ ∥ resta limitata dal valore uno.
Un’importante applicazione del teorema delle contrazioni è quella della determinazione degli inversi degli
operatori o, equivalentemente, della soluzione in spazi completi di equazioni del tipo P(x) = y .
(In effetti, per parlare dell’operatore inverso se ne deve studiare l’insieme di definizione e le proprietà di limitatezza, deve cioè
essere uno studio “in grande”; il teorema delle contrazioni vale invece in forma locale: dire che P(x) = 0 ⇐⇒ x = x̄ può
definire x̄ =: P −1 (0) ma non dice quanto valga P −1 (y) se y ̸= 0 )
Si considerino per esempio i seguenti operatori F : X → X Banach.
Siano L : X → Y lineare e K : Y → X lineare invertibile; si ha

Lx = y ⇐⇒ (1I − KL)x + Ky =: F (x) = x

e si noti che tale F (·) := (1I − KL)(·) + Ky è non lineare se y ̸= 0 . Sia P : X → X non lineare; si ha

P(x) = y ⇐⇒ x + P(x) − y =: F (x) = x

ed ovviamente anche questo F (·) := (·) + P(·) − y è non lineare.

M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 429

Più in generale, se dato P : X → Y non lineare si riesce a trovare S : Y → X anch’esso non lineare e tale che
S(y) = 0 ⇐⇒ y = 0 allora si ha
P(x) = y ⇐⇒ x + S(P(x) − y) =: F (x) = x
Se un tale operatore F è contrattivo in una sfera [Br (x0 )] dello spazio X supposto di Banach il suo punto unito
è in [Br0 (x0 )] e risolve univocamente, in [Br (x0 )], l’equazione P(x) = y (o rispettivamente, nel caso lineare,
l’equazione Lx = y ).
Nel caso particolare di derivabilità, F sarà contrattivo se ∥1I + P ′ ∥ < 1 (o, rispettivamente, se ∥1I − KL∥ < 1 )
Ad ogni y ∈ Y per il quale l’operatore F risulta contrattivo ; resta' in tal modo< associato il (solo) punto
−1 −1 '
x := P (y)∩Br (x0 ) (ove con P (y) si è qui indicato l’insieme x ∈ X P(x) = y ). Ciò definisce un operatore
P −1 : P(X) → X con immagine nella detta sfera, (o nella loro unione)

Dal teorema delle contrazioni, nel caso di linearità segue che il punto unito di F è il limite della successione
xn+1 = F (xn ) = (1I − KL)xn + Ky =
=n
= (1I − KL)j Ky + (1I − KL)n+1 x0
j=0

cioè x̄ definisce la:



=
Serie di Neumann x̄ =: (1I − KL)j Ky
j=0

e si noti che la stessa relazione (1I − KL)xm = xm+1 − Ky implica che


m−1
= m−1
=
(1I − KL) (1I − KL)j K = (1I − KL)m K + (1I − KL)j K − K
j=0 j=0

e quindi per la ∥1I − KL∥ < 1 si conclude che


m−1
= m
KL (1I − KL)j K = (1I − (1I − KL)m ) K −→ K.

j=0

Analogo risultato si ottiene, sempre nel caso lineare, mediante il seguente


Teorema 1.3.18 Sia L : X → Y lineare limitato su X Banach.
onto
Sia K : Y → X lineare limitato e 1 ←→ 1 , ma non necessariamente invertibile.
Se ∥1I − KL∥ < 1 allora: L : X → Y è invertibile. #

Dimostrazione Si osservi innanzi tutto che L è certamente invertibile. Si ha infatti:


−1 −1
∥Lx∥ ≥ ∥K∥ ∥KLx∥ ≥ ∥K∥ ∥(1I − (1I − KL)) x∥
−1
≥ ∥K∥ (∥x∥ − ∥1I − KL∥ ∥x∥) ≥ m ∥x∥
−1
con m := ∥K∥ (1 − ∥1I − KL∥) e l’ipotesi ∥1I − KL∥ =: θ < 1 implica che sia m > 0 .
In secondo luogo si osservi che, dato comunque y ∈ Y si ha che Ky ∈ X; ed in particolare (1I − KL) : X → X.
Ne segue che la successione definita sopra, per esempio con x0 := Ky
m
=
xm := (1I − KL)j Ky
j=0

è una successione di Cauchy in X, infatti


? ?
? = ?
? n ?
?
∥xn − xm ∥ = ? (1I − KL) Ky ?
j
?≤
?j=m+1 ?
n
=
≤ ∥(1I − KL)∥j ∥K∥ ∥y∥ ≤
j=m+1
=∞
≤ θj ∥K∥ ∥y∥ =
j=m+1

θm+1
= ∥K∥ ∥y∥ ≤ ε ∥y∥
1−θ

Note di Sistemi Dinamici


430 APPENDICE

Resta quindi definito per ogni y ∈ Y un (unico) punto x̄ ∈ X dato da



=
x̄ = lim xn =: (1I − KL)j Ky
n→∞
j=0

ed esso è tale che



= ∞
=
(1I − KL)x̄ = (1I − KL)j Ky = (1I − KL)j Ky − Ky = x̄ − Ky.
j=1 j=0

onto
L’ipotesi che K : Y −→ X sia non singolare assicura che x̄ risolve la Lx = y , e ciò mostra che L(X) = Y.
D’altra parte tale equazione non può che avere x̄ come soluzione: se esistesse x∗ tale che Lx∗ = y sarebbe
L(x̄ − x∗ ) = 0 e quindi

(1I − KL)(x̄ − x∗ ) = (x̄ − x∗ ) che implica ∥1I − KL∥ ≥ 1 .


onto
Pertanto L : X −→ Y è non singolare.
C∞
La disuguaglianza ∥1I − KL∥ < 1 implica anche che l’operatore (lineare) D : Y → X dato da j=0 (1I −KL)j K
∥K∥
sia definito su tutto Y ed abbia norma ∥D∥ ≤ 1−∥1I −KL∥ < ∞; in definitiva risulta D ≡ L−1 e
⎧ ∞
=

⎪ −1

⎨ L : = (1I − KL)j K con
j=0

⎪ ? ? ∥K∥

⎩ ?L−1 ? ≤
1 − ∥1I − KL∥

se fosse onto esso potrebbe rappresentare l’inverso di L. In caso contrario si ha che DL = 1I su X mentre
non è detto che LD = 1I su Y (stante il fatto che sia D che L sono non singolari). "

Corollario 1.3.19 Sia L : X → Y lineare limitato fra X ed Y entrambi spazi di Banach; L è invertibile se e
solo se esiste K : Y → X lineare limitato invertibile e tale che

∥1I − KL∥ < 1 .

Allo stesso modo si dimostrano le seguenti


Proposizione 1.3.20 L : X → Y lineare limitato su X Banach è invertibile se e solo se esiste M : X → Y
lineare limitato invertibile e tale che
? ?
∥M − L∥ < 1/ ?M−1 ? a sua volta certo ≤ ∥M∥

In tal caso risulta definito su Y l’operatore (lineare)


⎧ ∞

⎪ =
−1

⎨ L :=
⎪ (1I − M−1 L)j M−1 con
j=0
⎪ ? −1 ? ? −1 ?

⎪ ? −1 ? ?M ? ?M ?
⎪ ?
⎩ L ? ≤ ≤
−1
1 − ∥1I − M L∥ 1 − ∥M−1 ∥ ∥M − L∥

Corollario 1.3.21 L = L0 + λL1 è invertibile se lo è L0 e se


? ?
|λ| ≤ (?L−1 0
? ∥L1 ∥)−1

M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 431

Proposizione 1.3.22 L : X → Y lineare limitato su X Banach è invertibile se e solo se esiste K : Y → X


onto
lineare limitato 1 ←→ 1 per il quale risulti


= ? ?
?(1I − KL)j K? < ∞
j=0

nel qual caso è convergente la serie degli operatori (serie di Neumann) e si ha:

=
L−1 = (1I − KL)j K
j=0

Corollario 1.3.23 L : X → Y lineare limitato su X Banach è invertibile se e solo se esiste K : Y → X


onto
lineare limitato 1 ←→ 1 per il quale l’operatore (1I − KL) risulti nilpotente. #

Corollario 1.3.24 L = (1I − N ) con N nilpotente risulta certo invertibile. #

Esempio 3.25 Fredholm di seconda specie su X := C 0 ([0, 1], ∥·∥∞ ) :


- 1
y(s) = x(s) − λ g(s, t)x(t)dt =: (1I − λG)x =: Lx s ∈ [0, 1]; λ ∈ C\{0}
0
(
g(s, t) = s(1 − t) per 0≤s≤t≤1
si pensi, per esempio, a λ = 1, e
g(s, t) = t(1 − s) per 0≤t≤s≤1

Per la Proposizione 1.3.20, o direttamente per il Teorema spettrale con K = 1I , ed essendo


- 1 K L1
∥G∥∞ ≤ max |g(s, t)|dt = max {(1 − s)s2 /2 + s t − t2 /2 s } = 1/8
s∈[0,1] 0 s∈[0,1]

C∞
si conclude che L = 1I − λG è invertibile, che risulta L−1 = j=0 λj G j e che quindi la soluzione dell’equazione
- 1
x(s) = y(s) + λ g(s, t)x(t)dt
0
Cn
è ottenibile come limite della successione xn := j=0 λj G j y , ove il nucleo dell’operatore G j è dato da gj+1 (s, t) =
.1
0
g(s, u)gj (u, t)du.
In effetti l’equazione è del tipo (1I − λG)x = y con ∥Gx1 − Gx2 ∥ ≤ m ∥x1 − x2 ∥ e quindi Ax := λGx + y è
contrattivo purché λ ∥G∥ ≤ λm < 1 .
In questo particolare esempio, mediante la posizione
- 1
x(s) = y(s) + λ g(s, t)x(t)dt =: Ax
0

si ricava che A : C 0 ([0, 1]) → C 0 ([0, 1]) e che ∥A∥ = 1/8 per cui il principio delle contrazioni dà direttamente
- 1 =- 1
n+1
xn+1 (s) = y(s) + g(s, t)xn (t)dt = gj (s, t)y(t)dt .
0 j=0 0

C∞ j
Chiamato γ(s, t; λ) := j=0 λ gj+1 (s, t) il risolvente della equazione, si ha che γ esiste purché λ verifichi la
condizione |λ| < 1/ max[0,1] |g(s, t)|; la soluzione cercata è allora esprimibile mediante l’espressione
- 1
x(s) = y(s) + λ γ(s, t; λ)y(t)dt.
0

Note di Sistemi Dinamici


432 APPENDICE

Il significato di questo specifico operatore G lo si può riconoscere dalle seguenti considerazioni. Siano
d2
X := C 0 ([0, 1]) ed Y := C 2 ([0, 1]) con y(0) = y(1) = 0. L’operatore T : Y → X dato da T y = − ds 2 y verifica

le
T Gx = λx ∀x ∈ X
GT y = λy ∀y ∈ Y
per cui si ha l’equivalenza dei due problemi
- 1
ÿ = −f (t, y) y(0) = y(1) = 0 con y(s) = g(s, t)f (t, y(t))dt
0

Infatti risulta (con λ = 1 )


)- s - s *
d d
− Gx = − t(1 − s)x(t)dt − s(1 − t)x(t)dt =
ds ds 0 1
- s - s
= −s(1 − s)x(s) + tx(t)dt + s(1 − s)x(s) + (1 − t)x(t)dt
0 1
2
d
e quindi segue T Gx = − ds2 Gx = sx(s) + (1 − s)x(s) = x(s).

Viceversa: - 1
GT x = − g(s, t)ẍ(t)dt =
-0 s - s
=− t(1 − s)d(ẋ) + s(1 − t)d(ẋ) =
0
- s 1 - s
= −s(1 − s)ẋ(s) + ẋ(t)(1 − s)dt + s(1 − s)ẋ(s) + ẋs dt =
0 1
= (1 − s)x(s) + sx(s) = x(s)
#

Esempio 3.26 Volterra di seconda specie su X := C 0 ([0, τ ], ∥·∥∞ ) :


- s
y(s) = x(s) − λ h(s, t)x(t)dt =: (1I − λH)x =: Lx con s, t ∈ [0, τ ]; λ ∈ C\{0}
0

e con h ∈ C 0 ([0, τ ] × [0, τ ]) tale che |h(s, t)| < ( m < ∞. Si noti che questa equazione è un caso particolare di
h(s, t) per t ≤ s
quelle del tipo precedente: basta porre g(s, t) :=
0 per t > s
Risulta ∥H∥ ≤ mτ e quindi si
? 2? può usare il teorema per λτ < 1/m.
.s.t
? ?
Altrimenti si può notare che H ≤ max[0,τ ] 0 0 h(s, u)h(u, t)du dt ≤ m2 τ 2 /2 , e, in generale, che ∥Hn ∥ ≤
C
mn τ n /n!, pertanto ∞ n
n=0 λ ∥H ∥ C
n
≤ eλmτ .
∞ j
Se ne conclude la convergenza di j=0 (1I − L) e di conseguenza l’esistenza ed unicità
Cm
per ogni λ del punto
−1
x = L y raggiunto dalla successione xn+1 = y + λHxn , e quindi per esempio dalla xm = j=0 λj Hj y , con errore
0 Cn 1
∥xn − x∥ ≤ eλmτ − j=0 λj mj τ j /j! ∥y∥. Tale x è soluzione dell’equazione
- s
x(s) = y(s) + λ h(s, t)x(t)dt
0

Anche in questo caso si sarebbe potuto scrivere questa equazione nella forma x = Ax := y + λHx ed applicare
direttamente il teorema delle contrazioni su A, o all’occorrenza su An . Si riconosce infatti che è
?- s ?
n?
? ?
n n
∥A x1 − A x2 ∥ = |λ| ? hn (s, t) (x1 (t) − x2 (t)) dt?
?
0
.s 1
con hn (s, t) = t h(s, u)hn−1 (u, t)du ; e quest’ultima per |h(s, t)| < m fornisce la stima |hn (s, t)| ≤ (n−1)! (s −
t)n−1 mn , per cui si ottiene
|λ|n τ n mn
∥An x1 − An x2 ∥ ≤ ∥x1 − x2 ∥ ,
n!

M. Lo Schiavo
A.3. Richiami di Analisi Funzionale. ( III ) 433

e tale espressione è senz’altro minore di 1 per n sufficientemente grande. L’essere An contrattivo implica che il
suo punto unito sia unico; ma allora An x = x ⇒ An (Ax) = Ax ⇒ x = Ax e cioè x è anche punto unito per
A.

Nel caso in cui l’operatore F : X → Y (entrambi di Banach) sia non lineare come estensione del Teorema delle
contrazioni si può considerare il seguente teorema (analogo alla Proposizione 1.2.41) nel quale si indicherà con
∥F∥ il numero
∥F (x) − F (y)∥
∥F∥ := m(r, x0 ) := sup
x̸=y∈[Br (x0 )] ∥x − y∥

Teorema 1.3.27
C∞ ? (si veda:
? [Rall p.70–72])
Se la serie ?F j ? è convergente, con somma R e con r ≥ R ∥F (x0 ) − x0 ∥ =: r0 , allora: F ammette in
j=0
[Br0 (x0 )] un punto unito x̄ che è unico in [Br (x0 )] ed è raggiunto dalla successione

xn := F n (x0 )

con errore ⎛ ⎞
n−1
= ? j?
∥xn − x̄∥ ≤ ⎝R − ?F ?⎠ ∥x1 − x0 ∥
j=0

Dimostrazione Sempre in virtù della disuguaglianza triangolare, si valutano le distanze


n−1
= n−1
= ? j?
∥xn − x0 ∥ ≤ ∥xj+1 − xj ∥ ≤ ?F ? ∥F (x0 ) − x0 ∥
j=0 j=0

e l’analoga
m−1
= ? j?
∥xm − xn ∥ ≤ ?F ? ∥F (x0 ) − x0 ∥ .
j=n
n
La convergenza (assoluta) della serie telescopica, la cui somma ridotta è xn − x0 , mostra che xn −→ x̄

uniformemente in Br (x0 ).
Esempio 3.28 Si consideri l’operatore
- s
F0 (x) = x(0) + f (t, x(t)dt)
0
.t
L’equazione non lineare di Volterra (caso particolare delle equazioni di Uryson: x(s) = 0
f (s, t, x(t)dt)) data
da
F0 (x) = x
è equivalente al problema alle condizioni iniziali
(
ẋ = f (t, x(t)) t ∈ [0, T]
x(0) assegato

La soluzione della equazione, punto unito di F0 , resta individuato dalla


- s
xn+1 = F0 (xn ) = x(0) + f (t, xn (t))dt
0
C∞ ? ? j?
?
sempre che F (xn ) sia definito per ogni n ∈ N e che j=0 ?F0 ? sia convergente. Ciò accade se f è definita
ovunque in R × R e se s è in [0, T] ed f ha costante di Lipschitz m, in tal caso infatti è ∥F n ∥ < 1 n n
n! m T .
Nel caso lineare f (t, x(t)) = x(t) l’equazione si riscrive nella
- s
x(0) = x(s) − x(t)dt =: (1I − H)x
0
1 n
sulla quale siCpuò usare la Proposizione 1.2.41 dell’inversione, dato che ∥H∥ ≤ n! T e trovare che x(s) = (1I −

H)−1 x(0) = j=0 Hj x(0) verifica la x(s) = x(0) + Hx. #

Note di Sistemi Dinamici


434 APPENDICE

Newton-Kantorovich
Un ulteriore modo per risolvere l’equazione P(x) = 0, nel caso in cui P sia derivabile, passa attraverso il
procedimento della linearizzazione:
−1
P(x) = 0 ⇐⇒ xn+1 = xn − P ′ ◦ P(xn )

e quindi si tratta di risolvere i due problemi:

(a) risolvere l’equazione lineare


P ′ (xm )um = −P(xm )

(b) definire
xm+1 := xm + um

A.4 Richiami di Geometria Differenziale


Nel presente paragrafo non occorrerà mantenere una notazione speciale per i morfismi, che verranno semplicemente
indicati con la notazione usuale riservata alle funzioni.
Innanzi tutto è opportuno precisare la nozione di Varietà differenziabile.
Varietà topologica M := uno spazio topologico di Hausdorff (:= uno spazio “ T 2 ”, ovvero nel quale punti
distinti o ammettono intorni disgiunti oppure appartengono ad un medesimo intorno) che verifica il secondo
assioma di numerabilità (:= la cui topologia ammetta una base non più che numerabile) e tale che ogni punto
ammetta un intorno U ⊂ M topologicamente equivalente (:= esista almeno un omeomorfismo, e cioè una mappa
biunivoca e bicontinua) ad un aperto W di uno spazio di Banach (o di Rm e a dimensione finita).
Carta, o Sistema locale di coordinate := una coppia (U, h) ove U è un aperto di M, ed h : U → W un
omeomorfismo tra U e un aperto W dello spazio di Banach (o di Rm ).
La mappa h stabilisce cioè una corrispondenza (almeno) biunivoca e bicontinua fra i punti x di U e le m-ple
ordinate di numeri reali h(x) =: x ≡ (x1 , . . . , xm ) ∈ Rm con m ≤ ∞.
Si indichi con π i : Rm → R la i -ma proiezione da Rm in R. Sia cioè π i (x) ≡ π i (x1 , . . . , xm ) = xi . Si
definisce
i -ma Coordinata := la funzione hi : U → R, hi := π i ◦ h che associa ad ogni punto in U il valore numerico
della i -ma coordinata in quella carta. Si ha in tal modo xi = π i (x) = π i ◦ h(x) = hi (x).
hi
xi
M
U x
¼i

xm
h
x
W=h(U)
x1

Sia A un insieme di indici, ed A := {(U(α) , h(α) )}α∈A un insieme di carte.


Carte C k - compatibili := due carte (U(α) , h(α) ), (U(β) , h(β) ) tali che, qualora sia U(α) ∩ U(β) ̸= ∅ , si abbia che
i due aperti W(α) := h(α) (U(α) ∩ U(β) ) e W(β) := h(β) (U(α) ∩ U(β) ) sono C k - diffeomorfi.
Ciò significa, dette x le coordinate su h(α) (U(α) ) e ξ quelle su h(β) (U(β) ), che la funzione h(β) ◦ (h(α) )−1 :
Rm → Rm , definita su W(α) mediante m funzioni reali di m variabili reali {ξ 1 = ξ 1 (x1 , . . . , xm ), . . . , ξ m =
ξ m (x1 , . . . , xm )} , e certamente esistente per costruzione, appartenga, lei e la sua inversa, alla classe C k .
Nel seguito, per brevità, il sistema di coordinate

h(α) : x ∈ U(α) ⊂ M &→ x ≡ (x1 , . . . , xm ) ∈ W(α) := h(α) (U(α) ) ⊂ Rm

verrà indicato con h(x) .;Inoltre il cambio


< di coordinate x → ξ , e cioè la funzione ξ : Rm → Rm individuata
dalla m-pla di funzioni ξ i = ξ i (x) , e tale che h(ξ) = ξ ◦ h(x) , o anche ξ = h(ξ) ◦ (h(x) )−1 = ξ(x),
i=1,...,m

M. Lo Schiavo
A.4. Richiami di Geometria Differenziale 435

verrà brevemente indicata con ξ = ξ(x). Con tale notazione si vuole riassumere la m-pla di funzioni reali di
transizione fra i due sistemi di coordinate dal valore x ∈ Rm al valore ξ ∈ Rm .
N.B. 1.4.1 Al segno dello Jacobiano della trasformazione ξ = ξ(x), se lo stesso su tutta M, viene dato il nome
di orientamento della varietà. ♦

U(¯)
M

U(®)
h(¯)

» m

xm h(®)

»1
x1

h(¯)oh{1(®)
; <
Atlante su M := una famiglia di carte A := (U(α) , h(α) ) tale che
α∈A
c
(i) l’unione α∈A U(α) ricopre M;

(ii) (U(α) , h(α) ), (U(β) , h(β) ) sono C k - compatibili per qualsiasi α, β ∈ A.

Struttura differenziabile [A] := una classe di equivalenza di atlanti, ove si definiscono equivalenti due atlanti
quando la loro unione è anch’essa un atlante, e cioè le certe dell’uno sono compatibili con quelle dell’altro.
Atlante massimale su M := l’unione di tutti i possibili atlanti su M, cioè un atlante tale che valga anche la:

(iii) ogni altra carta C k - compatibile con una di quelle dell’atlante appartiene essa stessa all’atlante.

Varietà differenziabile := una varietà topologica dotata di atlante massimale.

N.B. 1.4.2 Se non viene specificato il valore di k si intende generalmente k = ∞. ♦

; Una<varietà M è detta connessa quando per ogni coppia di punti x, y ∈ M esiste una catena finita
N.B. 1.4.3
di carte (Ui , hi ) tali che: i) gli aperti Ui , per ciascun i = 1, . . . , m, sono connessi; ii) x ∈ U1 ed
i=1,...,m
y ∈ Um ; iii) Ui−1 ∩ Ui ̸= ∅ , per i = 2, . . . , m.
Se M è una varietà connessa tutti gli insiemi W(α) := h(α) (U(α) ), α ∈ A , hanno la stessa dimensione
m =: dim(M), che prende il nome di dimensione della varietà.
Sottovarietà di M è un sottoinsieme M0 − ⊂ M tale 1che per ciascun x ∈ M− esiste una carta (U(α) ⊂ M, h(α) )
m−k
tale che h(α) (Uα ∩ M− ) = h(α) (Uα ) ∩ Rk × {0} per qualche intero k = 1, 2, . . . , m − 1 . Se connesse, m è
la dimensione di M e k quella di M− .
Le ipotesi fatte sulla numerabilità delle varietà fa sı̀ che ogni M sia una sottovarietà di qualche Rν per ν ∈ N
sufficientemente grande. Tuttavia è chiaro che i suoi aperti sono tali nella topologia relativa e non quella di Rν
Ogni varietà connessa unidimensionale è topologicamente equivalente o ad una retta R1 se non compatta, o ad
un toro T1 (e cioè ad una circonferenza) se compatta.
Nel seguito, salvo esplicito avviso, si intenderanno sempre varietà connesse. ♦

⊂ R aperto connesso.
Esempio 4.4 Sia f : I →; R, f ∈ C r≥0 (I) con I <
'
'
L’insieme graph f := (x, y) y = f (x), x ∈ I è una varietà 1 -dimensionale di classe C r . Per essa è suffi-
ciente una sola carta: infatti l’aperto U può essere scelto come U := R2 ∩graph f ≡ graph f , e l’omeo h : U → R
può essere scelto come h(x, f (x)) := x con inversa h−1 (x) := (x, f (x)). Si ha che h, h−1 ∈ C r perché f ∈ C r . (La
topologia con la quale si dota graph f è quella indotta dal fatto che esso è un sottoinsieme di R2 ). #

Note di Sistemi Dinamici


436 APPENDICE

9 ' :
Esempio 4.5 M= (x1 , x2 , x3 ) ∈ R3 ' (x1 )2 + (x2 )2 + (x3 )2 = 1 .
9 1 2 3 '
±
La varietà è 2-dimensionale. Infatti si possono per esempio scegliere i sei aperti U(i) := (x , x , x ) ∈ R3 '
<
xi ≶ 0 , i = 1, 2, 3 ∩ M, e su questi (estendendo l’esempio precedente) definire altrettante h(i) del tipo
0 / 1
±
h(i+2) : U(i+2) → R, h(i+2) xi , xi+1 , ± 1 − (xi )2 − (xi+1 )2 =: (xi , xi+1 ) .

Si può controllare che sulle intersezioni si ha:

h−1 0 / 1 h
(i+2) (i)
(xi , xi+1 ) −→ xi , xi+1 , 1 − (xi )2 − (xi+1 )2 −→(xi+1 , xi+2 )

e quindi il cambio di coordinate è dato dalle


/
xi+1 = xi+1 , xi+2 = 1 − (xi )2 − (xi+1 )2 .

x2

x3
x1

Un altro possibile sistema di coordinate è quello dato dalle coppie (ϕ, θ) in (per esempio) (0, 2π) × (0, π) ed in
(π, 3π) × (π/2, 3π/2) mediante le equazioni parametriche

x1 = R sin θ cos ϕ , x2 = R sin θ sin ϕ , x3 = R cos θ .


9 ' :
Esempio 4.6 M = (x0 , . . . , xm ) ∈ Rm+1 ' (x0 )2 + (x1 )2 + . . . + (xm )2 = 1 .
La varietà è m-dimensionale. Per essa si possono scegliere (al minimo) due carte n-dimensionali: h(N ) ed
h(S) dette Proiezioni stereografiche nel seguente modo. Chiamati N, S i poli Nord e Sud, cioè i due punti
(±1, 0, 0, . . . , 0) si pongono: h(N ) : M\{N } → Rm ed h(S) : M\{S} → Rm date da

xi xi
hi(N ) (x) := z(N
i
) := , hi(S) (x) := z(S)
i
:= , i = 1, . . . , m .
1 − x0 1 + x0
Cm
Tali funzioni h(N ) ed h(S) sono bijettive; infatti se si pone (ζ(α) )2 = i 2
i=1 (z(α) ) , con α = N ed α = S
rispettivamente per ciascuno dei due casi N ed S , e con σ = +1 nel caso N , e σ = −1 nel caso S , si ricava
1 0 1
h−1 1 m
(α) : (z(α) , . . . , z(α) ) &→ 1 + (ζ 2
σ((ζ(α) )2 − 1), 2z(α)
1 m
, . . . , 2z(α)
(α) )

e, naturalmente, risulta (1 + (ζ(α) )2 )−2 (((ζ(α) )4 + 1 − 2(ζ(α) )2 ) + 4(ζ(α) )2 ) = 1 . La funzione di transizione h(S) ◦
h(N ) −1 : Rm \{0} → Rm \{0} è data da z(S) i
= z(Ni 2
) /(ζ(N ) ) .

xi N
1-x0 N
x0
h zi (S)
xi = zi(N)
zi (N)

M. Lo Schiavo
A.4. Richiami di Geometria Differenziale 437

Esempio 4.7 Un toro T2 è individuato dalla dalla equazione (vettoriale) parametrica




op = r1 (cos ϕ ⃗e1 + sin ϕ ⃗e2 ) + r2 (cos θ cos ϕ ⃗e1 + cos θ sin ϕ ⃗e2 + sin θ ⃗e3 ) .

Esempio 4.8 L’insieme SO(3) delle matrici ortogonali 3 × 3 con det = 1 è definito dalle equazioni:
κ ij Qih Qjk = κ hk delle quali solo 6 sono indipendenti; esso consiste quindi in una sottovarietà 3 -dimensionale
di R9 . #

Esempio 4.9 La superficie di un cono non è una varietà differenziabile perché il vertice non ha alcun intorno che
sia omeomorfo ad un solo aperto di R2 . Lo è invece la superficie di un semicono, ma solo C 0 in quanto graph di
una funzione che non è derivabile nel vertice. #

Sia J := (−τ, τ ) ⊂ R un intervallo, (U, h) un sistema di coordinate su M, e φ : J → U ⊂ M una funzione


C 1 (J) (e cioè tale che h ◦ φ : J → Rm sia differenziabile), con φ(0) = x ∈ M.
La funzione φ : J → φ(J) è detta Curva basata in x e contenuta in M. Qui per curva si intende una curva
parametrizzata, per esempio un moto, e va distinta dalla sua immagine φ := {φ(t)}t∈J in M. Essa pertanto,
anche se la funzione φ è regolare, a differenza di una varietà regolare unidimensionale può avere cuspidi, punti
doppi, etc.
Vettore velocità in x := il vettore v che, nell’assegnato sistema di coordinate: (U, h), è definito dalla m-pla
di numeri: ' '
d '' d '' 7 i 8
v := (v 1 , . . . , v m ), v i := ' (h i
◦ φ) := ' π ◦h◦φ .
dt t=0 dt t=0
Allo spazio vettoriale che si ottiene quando, fissato il punto x, si definisce l’operazione di combinazione lineare
(per componenti) sui vettori velocità in x si potrebbe dare, tentativamente, il nome di Spazio tangente la varietà
M nel punto x. Tuttavia è preferibile riservare tal nome per qualcosa di non legato al particolare sistema di
coordinate prescelto (vedi oltre).
N.B. 1.4.10 Quando non ci siano pericoli di confusione si indicano con la stessa lettera i valori xi = hi (x) delle
coordinate e le funzioni stesse hi ; ciò porta alla notazione v i = ẋi (0). Ad esempio, per le coordinate polari nel
piano è: (v 1 , v 2 ) ≡ (v ρ , v θ ) ≡ (ρ̇(0), θ̇(0)) cosı̀ come, per quelle cartesiane, si ha (v 1 , v 2 ) ≡ (v x , v y ) ≡ (ẋ(0), ẏ(0)).

N.B. 1.4.11 Due curve φ, ψ basate in x = φ(0) = ψ(0) si dicono tangenti fra loro nel punto x quando lo sono le
loro immagini su una qualche carta |h ◦ φ − h ◦ ψ|(t) = o(∆t). In tal caso, mediante uno sviluppo di Taylor, si
riconosce che i due vettori velocità sono gli stessi, e viceversa.
Non è detto, tuttavia, che siano tangenti fra loro le immagini φ , ψ delle curve stesse, per esempio quando la
v si annulla (si veda il successivo N.B. 1.4.12), o nel caso di punti angolosi.
Si osservi infine che lo sviluppo di Taylor si definisce a partire da una carta (come per la derivazione) e che
quindi dipende da essa. ♦

Detti h(x) ed h(ξ) due sistemi di coordinate C ∞ -diffeomorfi, e detta ξ = ξ(x) la funzione di transizione dalle
x alle ξ , quindi con Jacobiano det(∂ξ) ̸= 0 , nel cambio di sistema di coordinate a curve tangenti corrispondono
curve tangenti, giacché:

(ξ◦h(x) ◦ φ − ξ ◦ h(x) ◦ ψ)(t) = (ξ ◦ h(x) ◦ φ − ξ ◦ h(x) ◦ ψ)(0)+


'
d' 7 8
+ ∂ξ(x) '' h(x) ◦ φ − h(x) ◦ ψ ∆t + o(∆t) = o(∆t).
dt t=0

Pertanto la proprietà di essere tangenti, per due curve, non dipende dalla carta h che si è adoperata per
verificarla. Dunque è possibile, oltre che opportuno, prescindere dal sistema di coordinate e definire direttamente
sulla varietà M il:
Vettore tangente [φ]x := una classe di equivalenza di tutte le curve, o moti, che sono basati nel punto x ed in
7 8
esso sono tangenti fra loro := hanno la stessa velocità, e quindi differenze ∼ o(∆t) .

Note di Sistemi Dinamici


438 APPENDICE

Spazio Tx M tangente la varietà M nel punto x := lo spazio vettoriale che si ottiene, fissato il punto x, quando
sui vettori tangenti si definisce l’operazione di combinazione lineare.
Ogni sistema di coordinate h(x) associa in modo naturale a ciascuna classe “vettore tangente” [φ]x una ed una
sola m-pla v di numeri v i = ẋi (0), ove è x(t) := h(x) ◦ φ, e dove φ è un qualunque rappresentante della classe.
Ogni sistema di coordinate, cioè, induce una mappa X : Tx M → Rm che ad ogni vettore [φ]x dello spazio Tx M
associa la corrispondente m-pla
'
1 m d ''
v := (v , . . . , v ) = X[φ]x := (h(x) ◦ φ) = ẋ(0) ∈ Rm .
dt 't=0

In tal modo <sullo spazio Tx M si sceglie come base la base naturale, ovvero quella formata dalla m-pla di vettori
;
ej := [φ]x,j ciascuno contenente la corrispondente curva coordinata:
j=1,...,m
; <
φj ∈ ej ; φj : t &−→ φj (t) := φij (t) = xi0 , per i ̸= j; φjj (t) = t .

Lo spazio Tx M può essere dotato della struttura di spazio lineare in quanto è lineare l’operatore di derivazione d/dt . In effetti la
combinazione lineare di due vettori [φ1 ]x e [φ2 ]x entrambi in Tx M è essa stessa un vettore di Tx M giacché qualunque sia il sistema
di coordinate prescelto si ha che
d '' d ''
X (a [φ1 ]x + b [φ2 ]x ) := a ' (h ◦ φ1 ) + b ' (h ◦ φ1 ) =: a X[φ1 ]x + b X[φ2 ]x ,
dt t=0 dt t=0
nel senso che è sempre possibile definire su M un moto basato in x e che abbia come tangente la combinazione lineare a[φ1 ]x + b[φ2 ]x .

Á
[Á]x vm v=X[Á]x
xm
x v1
TxM x
U
x1
M
W
h

N.B. 1.4.12 Lo spazio


d '
' tangente Tx M è definito dall’insieme di tutti i moti φ per x mediante la separazione in classi:
φ1 ∼ φ2 quando dt t=0
(h ◦ φ1 − h ◦ φ2 ) = 0 . Ciò fa ricorso ad una specifica parametrizzazione e prescinde dallo
spazio X ≡ Rν nel quale la varietà è, o può essere all’occorrenza, immersa e (localmente) rappresentata mediante
una superficie individuata in un certo sistema di coordinate da un’espressione del tipo Σ(x) = 0 .
Si osservi quindi che lo spazio tangente Tx M, o spazio delle velocità virtuali, è logicamente distinto dal piano
−→
tangente la Σ in x, che è il sottospazio Rn ⊂ X dei punti p′ di Rν tali che pp′ = (x′ − x) ⊥ ∇Σ.
Qualora in una tale immersione la corrispondenza fra t ∈ J ed i punti dell’immagine φ := {h(x) ◦φ(t)}t∈J ⊂ Rν
di un certo moto φ sia biunivoca e tale che dt d
(h ◦ φ) ̸= 0 per ogni t ∈ J , allora l’immagine φ risulta essere una
sottovarietà unidimensionale regolare con retta tangente in x (fissato come base per φ, ma per il resto qualsiasi in
'
φ ) parallela al vettore v ∈ Rν le cui componenti, in quel sistema di coordinate, sono date da X[φ]x := dtd 't=0 h◦φ.
In tal caso, il piano tangente la Σ in x è l’insieme di tutte quelle direzioni che (qualunque siano le coordinate
h su Rm ) sono proporzionali alle velocità v rappresentanti dei vettori [φ]x dello spazio Tx M. In particolare, la
retta tangente in x a (una delle curve) γ rappresenta lo spazio tangente Tx γ e contiene i vettori velocità di tutti
i moti equivalenti a quello la cui immagine è γ .
Infine, se M ≡ Rm (o anche solo localmente) è possibile identificare M (localmente) e Tx M con Rm stesso.
Infatti ogni punto x in Rm può essere inteso come un vettore tangente a qualche curva φ tale che sia, per esempio,
(h◦φ)(t) = (x0 +xt), e d’altra parte ogni vettore [φ]x ∈ Tx Rm è individuato mediante una m-pla v ∈ Rm (tramite
l’assegnato sistema di coordinate). Per quanto appena detto tale identificazione dipende però dalla scelta delle basi
rispettivamente nei due spazi. ♦

M. Lo Schiavo
A.4. Richiami di Geometria Differenziale 439

In un nuovo sistema di coordinate h(ξ) , e dette ξ = ξ(x) le funzioni di transizione, le nuove componenti
ν = ΞX −1 v del medesimo vettore [φ]x saranno date da
'
d '' = ∂ξ i
i ˙i
ν = ξ (0) = (π i
◦ h ◦ φ) = ∂ξ i
(x) ẋ(0) = vj (4.16)
dt 't=0
(ξ) j
j
∂x

? i?
? ∂ξ ?
essendo certamente non nullo il determinante Jacobiano det(∂ξ) ≡ ? ∂x j ? della funzione ξ = ξ(x). (Ovviamente

la ξ = ξ(x) non deve dipendere dal parametro t).

In effetti quello delle funzioni coordinate può essere considerato come un caso particolare. Si esamini ora il caso
generale.
Siano M, G due varietà differenziabili ed U ⊂ M, V ⊂ G due aperti sui quali siano fissate delle coordinate
h(x) : U → Rm , h(y) : V → Rn rispettivamente.

Funzione f : M → G , C k - differenziabile := una funzione f : U → V che ammette rappresentazione locale


h(y) ◦ f ◦ (h(x) )−1 : h(x) (U ) → h(y) (V ) espressa da n funzioni y j = f j (x1 , . . . , xm ), j = 1, . . . , n, Ck -
1 m
differenziabili rispetto alle m coordinate x , . . . , x .

Si noti che possono avvenire tutte e tre le eventualità: M⊂G , M ⊃ G , M = G , cosı̀ come può comunque essere
dim M & dim G . In particolare si chiama
onto
Diffeomorfismo := una funzione f : M −→G differenziabile, invertibile, e con inversa differenziabile. In tal
caso è necessario che dim M = dim G .

Nel caso particolare di una trasformazione di coordinate su M, ovvero h(ξ) ◦ (h(x) )−1 =: ξ, ξ = ξ(x),
la funzione f : M → M che essa rappresenta è la funzione identità che manda U ∩ V in sé.

N.B. 1.4.13 La C k - differenziabilità di f in una carta implica la sua differenziabilità in ogni altra che sia
C r≥k - compatibile con quella data; si nota infatti che è f ◦ (h(ξ) )−1 = (f ◦ (h(x) )−1 ) ◦ (h(x) ◦ (h(ξ) )−1 ). ♦

Data una funzione differenziabile f : M → G si chiama:


Derivata, o applicazione tangente di f in x := l’applicazione lineare f∗ |x : Tx M → Tf (x) G , indotta da f ,
d'
'
che al vettore [φ]x = dt t=0
φ dello spazio tangente Tx M fa corrispondere, nello spazio tangente Tf (x) G , il vettore
uscente da f (x)
'
d ''
f∗ [φ]x := [f ◦ φ]f (x) = f ◦φ . (4.17)
dt 't=0

Si noti che tale definizione non dipende dal sistema di coordinate in quanto essa è data direttamente mediante
i vettori [φ]x , e [f ◦ φ]f (x) .
Se un vettore [φ]x è assegnato, tramite certe coordinate su Tx M, dalla v = X [φ]x , e se esso viene trasformato
dalla f∗ nel vettore [f ◦ φ]f (x) del quale si cercano le coordinate w = Y[f ◦ φ]f (x) allora, dato che
' '
d '' d '' 7 8
Y[f ◦ φ]f (x) = (h(y) ◦ f ◦ φ) = h(y) ◦ f ◦ (h(x) )−1 ◦ h(x) ◦ φ ,
dt 't=0 dt 't=0

si ha
=m
∂f j i
wj = v ovvero ẏ = ∂f ẋ ,
i=1
∂xi

dove la y = f (x), e cioè la n-pla di funzioni y j = f j (x1 , . . . , xm ), esprime la f in coordinate: h(y) ◦ f ◦ (h(x) )−1 .
Ne segue che, nelle coordinate scelte, l’applicazione f∗ è (unica ed) espressa (con abuso di notazione) dalla
matrice Jacobiana:
∂f ∂ 7 8
∂f ≡ = (h(y) ◦ f ◦ (h(x) )−1 = Yf∗ X −1 .
∂x ∂x

Note di Sistemi Dinamici


440 APPENDICE

f
f
*
TxM L
M Tf(x)L

X h(x) h(») ¥ Y h(y) h(´)

»(x)
@f=@x ´(y)
@»=@x º w @´=@y
v !
Nel caso particolare delle funzioni coordinate h(x) : U ⊂ M → Rm si può identificare X con (h(x) )∗ purché, come sopra, sullo
spazio tangente Tx M si scelga la base naturale.
Allo stesso modo, nel caso di una Trasformazione di coordinate ξ = h(ξ) ◦ (h(x) )−1 , la scelta della base naturale in entrambi gli
∂ξ
spazi tangenti a quelli dei valori di h(x) ed h(ξ) attribuisce la matrice jacobiana ∂ξ ≡ ∂x
all’operatore ΞX −1 : Rm → Rm , che
rappresenta su Tx M la mappa tangente all’identità su U ∩ V e che, siccome l’identità è certo lineare, coincide (vedi oltre) con la mappa
identità sullo spazio tangente.

Esempio 4.14 I due versori in Tx M della base naturale delle coordinate polari sul piano, espressi in coordinate
cartesiane, sono: ) x* ) *) * ) * ) *
ρ xρ xθ 1 ∂ρ x cos θ
ρ= = = = ,
ρy yρ yθ 0 ∂ρ y sin θ
) x* ) *) * ) * ) *
θ xρ xθ 0 ∂θ x −ρ sin θ
τ = = = = .
θy yρ yθ 1 ∂θ y +ρ cos θ
Essi infatti sono rispettivamente tangenti alle curve coordinate

ρ(ρ, θ) = ρ, θ(ρ, θ) = cost. , ed ρ(ρ, θ) = cost. , θ(ρ, θ) = θ .


) *
0
Si noti che, in tal senso, pur essendo anch’esso tangente alle ρ = cost in quanto avente componenti in
1
) *
− sin θ
coordinate polari, il vettore non è un versore di tale base. #
cos θ

Nel seguito, potrà accadere di usare la “notazione per coordinate”, per esempio w = ∂f v invece della (4.17)
anche quando il sistema in esame è definito intrinsecamente su una varietà.
N.B. 1.4.15 La mappa f∗ è comunque un’applicazione lineare fra gli spazi tangenti Tx M, Tf (x) G che sono
lineari. In altre parole la funzione f determina (ed univocamente) un operatore lineare f∗ che connette i due
spazi vettoriali Tx M e Tf (x) G . Come si è notato, gli spazi tangenti sono intrinseci, pertanto tale operatore non
dipende dal sistema di coordinate.
Mutano invece, al cambio di coordinate, le matrici che lo rappresentano: siano

h(ξ) ◦ (h(x) )−1 : x &→ ξ = ξ(x) ed h(η) ◦ (h(y) )−1 : y &→ η = η(y) (4.18)

due trasformazioni di coordinate rispettivamente sulle varietà M ed G , e siano

x = φ(t) e y = ψ(t)

le rappresentazioni in coordinate di due curve, φ e ψ basate in x ed y rispettivamente. Siano

v = X [φ]x = ẋ(0) w = Y[ψ]y = ẏ(0)


e
ν = Ξ[φ]x = ξ̇(0) ω = J[ψ]y = η̇(0)

le corrispondenti componenti dei due rispettivi vettori tangenti. Da quanto visto sopra seguono senz’altro le
relazioni
ξ̇(0) = ΞX −1 ẋ(0) = ∂ξ ẋ(0) e η̇(0) = JY −1 ẏ(0) = ∂η ẏ(0) (4.19)
che rappresentano il cambio di coordinate sui rispettivi spazi tangenti Tx M e Ty G .
Se il punto y ∈ G è ottenuto come f -immagine del punto x ∈ M, e cioè ' se y = f (x), e se si sceglie ψ = f ◦ φ,
d '
allora, cosı̀ come nelle vecchie coordinate, (indicando con l’apice la dt t=0
)

M. Lo Schiavo
A.4. Richiami di Geometria Differenziale 441

la mappa f : M → G è espressa dalla y = f (x) = h(y) ◦ f ◦ (h(x) )−1 (x)


7 8′
il vettore f∗ [φ]x = [f ◦ φ]f (x) è espresso da ẏ(0) = h(y) ◦ f ◦ φ = ∂f ẋ(0)
) *
∂f
e quindi la f∗ : Tx M → Tf (x) G è espressa dalla∂f = = Yf∗ X −1 ,
∂x
allora, trasformando le coordinate sulle varietà con le (4.18) e da queste inducendo le corrispondenti trasformazioni
lineari (4.19) sugli spazi tangenti, nelle nuove coordinate si ha che

la mappa f : M → G è espressa dallaη = ϱ(ξ) = h(η) ◦ f ◦ (h(ξ) )−1 (ξ)


7 8′
il vettore f∗ [φ]x = [f ◦ φ]f (x) è espresso da η̇(0) = h(η) ◦ f ◦ φ = ∂ϱ ξ̇(0)
) *
∂ϱ
e quindi la f∗ : Tx M → Tf (x) G è espressa dalla ∂ϱ = = Jf∗ Ξ−1 ,
∂ξ
e si ha
∂η ∂f ∂x
ϱ(ξ) := η(f (ξ −1 (ξ))) e ∂ϱ = ∂η ∂f ∂ξ −1 :=
∂y ∂x ∂ξ
in quanto, come si vede facilmente,
(h(η) ◦ f ◦ φ)′ = ∂η(h(y) ◦ f ◦ φ)′ = ∂η∂f (h(x) ◦ φ)′ = ∂η∂f ∂ξ −1 (h(ξ) ◦ φ)′ .
Qualora in particolare M ed G siano spazi vettoriali (a dimensione finita), e quindi isomorfi ad Rm ed Rn , e
ad essi vengano identificati i loro tangenti in qualsiasi punto Tx M ≡ Rm e Tf (x) G ≡ Rn , (si veda: [Arnold § 13.2]
ed il N.B. 1.4.12 più sopra), allora le (4.19),(1.4.15) mostrano che, in generale, tali identificazioni tra Rm e Tx Rm
non sono invarianti né per diffeomorfismi né per trasformazioni di coordinate. Tuttavia, nel caso in cui sia la
trasformazione di coordinate che il morfismo siano lineari, allora cambiare le coordinate su M e poi agire con il
morfismo è equivalente a ciò che si ottiene agendo prima con il morfismo e poi trasformando le coordinate sul
tangente.
Sia per esempio ξ = ξ(x) := P −1 x, con P ∈ L(Rm ), una trasformazione lineare di coordinate. La
ξ(x) = ξ(x0 ) + ∂ξ(x0 ) · (x − x0 ) + o(x − x0 ) = P −1 x0 + P −1 (x − x0 )
mostra che ∂ξ ≡ P −1 , e cioè che la ∂ξ agisce sui vettori tangenti allo stesso modo in cui la ξ agisce, fissata
l’origine, sui punti della varietà. In questo caso, e solo in questo, i punti di M si trasformano come quelli di Tx M.
Si esamini infatti il caso in cui f : M → M sia un diffeomorfismo ma non necessariamente l’identità. Neppure la
linearità della ξ(x) = P −1 x basta a far coincidere l’espressione ω = P −1 ∂f P ν con la
η = ϱ(ξ) := η(f (ξ −1 (ξ))) = P −1 f (P ξ) .
Le due espressioni coincidono quando non solo la trasformazione di coordinate ξ = ξ(x) ma anche il morfismo
f ≡ ℓ ∈ L(M) sono lineari. In questo caso, come visto sopra,
l’operatore lineare ℓ : x &→ y = ℓ(x) =: T x ∈ M
ha immagine y = T x individuata dalla m-pla y = ℓ(x) = T x
'
'
ed ha tangente ℓ∗ ' ≡ ℓ∗ ≡ T ∈ L(Tx M)
x
∂ℓ
individuata dalla matrice ∂ℓ = =T .
∂x
Ciò è per dire che se vengono localmente identificate fra loro le rappresentazioni di M e dei vari spazi Tx M al variare
di x ∈ M, i due operatori ℓ ed ℓ∗ risultano avere uguali rappresentazioni in coordinate, e risulta determinata una
stessa matrice T reale n × m tale che
per la ℓ si ha: x &→ y = T x, cosı̀ come per la ℓ∗ si ha: v &→ w = T v.
Allo stesso modo, siano h(x) ed h(y) due sistemi di coordinate che fanno corrispondere un aperto U di M ad
un aperto contenente l’origine di Rm e, rispettivamente, un ;aperto
< ℓ(U ) di G ;ad <
un aperto contenente l’origine di
Rn ; e si scelgano in Rm ed Rn , rispettivamente, due basi ei ed e′j .
i=1,...,m j=1,...,n
Cambiare le basi rispettivamente in R ed R equivale a definire due trasformazioni lineari di coordinate, in
m n

quanto si individuano: una matrice P reale invertibile m × m, ed una matrice Q reale invertibile n × n tali che
ξ = P −1 x , e quindi ∂ξ = P −1 ,
η = Q−1 y , e quindi ∂η = Q−1 .

Note di Sistemi Dinamici


442 APPENDICE

In tal modo, dalla y = T x si ricava la η = Q−1 T P ξ ≡ ℵξ (per le varietà), formalmente identica alla
ω = ∂η∂ℓ∂ξ −1 ν = Q−1 T P ν (per i tangenti).
In definitiva, la matrice
7 8′
∂ℓ = h(y) ◦ ℓ ◦ (h(x) )−1 = Yℓ∗ X −1 ≡ T
ha come (η, ξ)-trasformata la
7 8′
∂ ℓ& = h(η) ◦ ℓ ◦ (h(ξ) )−1 = Jℓ∗ Ξ−1 = ℵ
ed è 7 −1 8 7 87 8
ℵ = JY Y ℓ∗ X −1 X Ξ−1 = ∂η ∂ℓ ∂ξ −1 = Q−1 T P .
Le matrici T ed ℵ sono le rappresentazioni in coordinate dell’operatore ℓ∗ = T che agisce su Tx M; ed, allo stesso
modo, h(x) ◦ ℓ ◦ (h(x) )−1 = T x ed h(ξ) ◦ ℓ ◦ (h(ξ) )−1 = ℵξ sono le rappresentazioni in coordinate della funzione
lineare T x su M.

Sia ancora ℓ : M → M una funzione lineare del tipo ℓ : x &→ y = T x.


Essa dà luogo ad un campo lineare v(x) =: T x ∈ Tx M rappresentato nelle coordinate h(x) , o meglio nelle X , da
v(x) = X [x + T xt]x = T x. Cn
Se si cambiano le coordinate sulla varietà con una trasformazione lineare ξ i = ξ i (x) = j=1 (P −1 )ij xj , su
ciascuno degli spazi Tx M, rappresentati da un unico Rn , ne consegue un corrispondente cambiamento dovuto
∂ξ
all’operatore (lineare) −1
; <P ≡ ΞX
−1
derivata dell’identità,
; rappresentato
< dalla matrice ∂x ≡ P −1 : Rn → Rn , che
trasforma la base ej tale che (ej )i = δji nella ϵj tale che (ϵj )i = Pji , e quindi tale che
j=1,...,n j=1,...,n

n
= n
=
(·) (·) (·)
ϵj = Pji ei o, in coordinate, ϵj = P ej = Ph (ej )h = Ph δjh = Pj .
h=1 h=1
'
In questo caso la (famiglia) di relazioni (1.4.15): ω = ∂ξ∂ℓ∂ξ −1 ν è equivalente alla w(ξ) = ∂ξ v 'ξ−1 (ξ) =
P −1 T P ξ , e coincide con essa quando ν è identificato con ξ , ovvero quando il rappresentante Rn degli spazi
tangenti Tx M è identificato con il rappresentante Rn della carta (U(ξ) , h(ξ) ) a origine fissata.
Si osservi infine che se la trasformazione di coordinate non fosse lineare, il trasformato di un campo lineare
potrebbe non essere lineare. ♦

N.B. 1.4.16 Quando le coordinate siano fissate, la f∗ |x viene spesso indicata solo con la notazione in coordinate:
'
d'
∂f (x) o, addirittura, con ∂f . Inoltre, essendo M ed G localmente piatte è anche lecita la notazione dt (f ◦
'
d'
∂x t=0
φ) = dt t=0 f (x + vt) = f∗ |x v , o anche f (x + vt) = f (x) + f∗ |x vt + o(t), corrispondente alla f (x + vt) =
f (x) + ∂f (x)vt + o(t), nel senso che, all’occorrenza, si induce sulla varietà ciò che resta definito a partire da
una sua rappresentazione in coordinate ed usando l’osservazione che un vettore [φ]x di x-componenti v senz’altro
contiene la curva φ tale che h(x) ◦ φ = x + vt. (Si veda anche l’inizio del § III.1) ♦

N.B. 1.4.17 La definizione di tangenza fra curve può essere anche data come segue: φ1 , φ2 tali che φ1 (0) = φ2 (0) =
x sono tangenti in x se per ogni funzione reale differenziabile f : M → R accade che f ◦ φ1 ed f ◦ φ2 hanno la
stessa derivata in zero. ♦
; <
Si indichi con T M l’insieme M × Tx M . Esso viene dotato della struttura differenziabile dell’Atlante
x∈M
naturale, e prende il nome di Fibrato tangente.
N.B. 1.4.18 Sia V uno spazio vettoriale n-dimensionale, U ⊂ M un aperto, e φ una curva basata in x ∈ U .
Esiste un unico v ∈ V tale che la curva x + vt sia tangente a φ in x. Basta a tale scopo che sia v = [φ]x .
È possibile allora stabilire una corrispondenza biunivoca ι : U × V → T M tale che ι(x, v) = (x, [x + vt]x ).
7 Sia f : M → 8 G = f (M) di classe C , e sia T f : T M → T G la mappa definita dalla
1
T f (x, [φ]x ) :=
f (x), [f ◦ φ]f (x) . Il punto precedente permette di scrivere tale mappa come T f (x, v) = (f (x), f∗ (x)v) .
Se f è un diffeomorfismo, allora T f è un isomorfismo. In particolare, se (U(α) , h(α) ) è una carta ad x ∈ M,
' ; <
allora T h(α) ≡ (h(α) , X(α) ) : T M 'U → h(α) (U )×V è una carta naturale su T M. In tal modo, se (U(α) , h(α) )
; < α∈A
è un atlante per M, allora (T U(α) , (h(α) , X(α) )) è l’Atlante naturale per T M, di dimensione 2m.
α∈A
In ogni caso, spazi tangenti in punti diversi non si intersecano: da qui il nome di fibrato. ♦

M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 443

Campo vettoriale differenziabile := una sezione, differenziabile, del fibrato tangente:

v : M → TM definita da v : x &→ (x, v(x)), con v(x) ∈ Tx M .

Su M siano assegnati un’applicazione differenziabile f : U ⊂ M → V ⊂ G ed un campo vettoriale diffe-


renziabile v(x). Per ciascun x ∈ M, si consideri una qualche curva φ : I ⊆ R → M il cui tangente in x sia
[φ]x ≡ v(x). Detta f ◦ φ la sua f -trasformata, il vettore tangente in f (x) alla f ◦ φ è dato, per quei fissati x e
φ, da f∗ [φ]x = [f ◦ φ]f (x) ∈ Tf (x) G . In altre parole, esso è un particolare vettore individuato, punto per punto e
(quindi) curva per curva, dalla

d ''
&
w(x) := ' (f ◦ φ) = f∗ [φ]x = f∗ v(x) con componenti
dt φ̇(0)=v(x)
d ''
m
7 j 8 = ∂f j
&j (x) =
w ' π ◦ h (y) ◦ f ◦ φ = i
(x)v i (x), j = 1, . . . , n ,
dt φ̇(0)=v(x) i=1
∂x

o anche
d ''
&
w(x) = ' (f ◦ φ) = ∂f (x) v(x) . (4.20)
dt φ̇(0)=v(x)
D’altra parte, per la scelta della famiglia di curve φ ci si può servire del caso assai particolare nel quale per
ciascun punto x si assume come curva t &→ φ(t) la soluzione dell’equazione generata dal campo: ẋ = v(x), e che
è basata istante
' per istante nel corrispondente punto x. In tal caso le derivate qui sopra vanno intese per ciascun
t come: d 'dt φ̇(t)=v(x)

Nota 1.4.19 [f ◦ φ]f (x) risulta il valore in y := f (x) di un campo vettoriale w definito nel fibrato tangente T G
ed altrettanto regolare quanto v se e solo se f è un diffeomorfismo (almeno C r+1 se v ∈ C r ), ed in particolare
quindi se G ≡ M ed f è una trasformazione di coordinate rappresentata da ξ ≡ y := f (x). In tal caso infatti,
e solo in tal caso, è certamente possibile ricavare x = f −1 (y) ed esprimere il vettore [f ◦ φ]f (x) come funzione della
y (per il tramite della x):
7 8
w(y) := w& f −1 (y) = [f∗ v(x)]x=f −1 (y) (4.21)
con componenti
m )
= *
∂f j 7 8 7 8
j
w (y) = v i
f −1 (y) o anche w(y) = ∂f v f −1 (y) .
i=1
∂xi

A.5 Richiami di Algebra Lineare. ( I )


Sia V uno spazio vettoriale di dimensione finita n su un campo numerico K (qui di seguito ci si riferirà in
particolare alle due possibilità K = R oppure K = C) e sia E lo spazio euclideo che si ottiene introducendo su
V un prodotto scalare: ⟨ ·, · ⟩ : V × V → R+ ∪ {0} . Si pensi per esempio allo spazio Pn ([a, b]) dei polinomi di
grado minore di n definiti su un intervallo [a, b] ⊂ R1 :
@(n−1 > - A
= ' b
k '
E := ak t , ' t ∈ [a, b], ak ∈ R , ⟨ x, y ⟩ := x(t)ȳ(t)dt .
k=0 a

Sia T : V → V un operatore lineare su V, e cioè una mappa di V in sé tale che per qualsiasi α, β ∈ K e x, y ∈ V
si abbia
T (αx + βy) = αT (x) + βT (y) .
d
Nell’esempio detto un tale operatore potrebbe essere T := dt .
; <
Si indichi infine con B := ei una base di vettori in V, e cioè una n-pla di vettori linearmente
i=1,...,n ; <
indipendenti tali che span B = V. Nell’esempio detto, una possibile base è quella dei monomi ek =
k=1,...,n
{tk }k=0,...,n−1 .

Note di Sistemi Dinamici


444 APPENDICE

Nel seguito, salvo contrario avviso, si assumerà che:

• La base B non sia necessariamente ortonormale;

• Lo spazio V sia vettoriale sul campo R dei numeri reali.

Tuttavia sarà talvolta necessario ricorrere ai (più generali) risultati validi sugli spazi vettoriali complessi e unitari:
Spazio unitario E := uno spazio vettoriale sul campo dei complessi sul quale, come prodotto scalare, sia definita
una forma Hermitiana simmetrica definita positiva, e cioè una funzione ⟨ ·, · ⟩ : E×E → C tale che per ogni x, y ∈ E,
e per ogni α ∈ K si abbia:

⟨ x, x ⟩ > 0 ⇐⇒ x ̸= 0 , ⟨ x, y ⟩ = ⟨ y, x ⟩ , ⟨ x, αy ⟩ = α ⟨ x, y ⟩ .

Ogni spazio V reale, reso euclideo da un prodotto scalare reale, può essere considerato come restrizione sui reali
di uno spazio unitario, ed eredita di questo le proprietà che sussistono in tale restrizione.
Coordinate hi : V → R di x ∈ V relative alla base B := le n funzioni lineari i cui valori calcolati nel punto x
Cn
sono i coefficienti della combinazione lineare: xi ei := i=1 hi (x)ei = x.
Cn−1
; <P ([a, b]), le componenti del polinomio: p(t) :=
n k
Nell’esempio dello spazio k=0 ak t rispetto alla comoda
base B& := {&
ek }k=1,...,n := tk sono, ovviamente, date da xk+1 = ak , k = 0, . . . , n − 1 . Invece, rispetto
; < k=0,...,n−1
alla base B := ek := {tk /k!}k=0,...,n−1 esse risultano: xk+1 = k!ak .
k=1,...,n
Giacché i versori della base sono sempre fra loro linearmente indipendenti, le coordinate naturali sono in ogni
caso tali che hi (ej ) = δji e possono, fra l’altro, stabilire un isomorfismo fra V ed Rn . Quando non serva ricordare
la particolare base scelta, ciò permette di indicare ciascun vettore x ∈ V semplicemente con la n-pla x =
(x1 , . . . , xn ) ∈ Rn che tale base gli assegna, anziché con la sua rappresentazione cartesiana:
n
= n
=
x= xi ei := hi (x)ei ,
i=1 i=1

e all’occorrenza la si considererà una matrice a n righe e una colonna, riservando alla notazione xT la matrice ad
una riga ed n colonne formata anch’essa dalle componenti controvarianti di x. La notazione per sole componenti
risulterà comoda quando si eseguiranno composizioni di operazioni lineari sui vettori mediante la convenzione dei
prodotti righe per colonne.
C
N.B. 1.5.1 In tal senso, e dato il fatto che ej = δji ei e cioè che (ej )i = δji , la x = ni=1 xi ei si può anche (ma
poco espressivamente) interpretare come una relazione fra componenti
⎛ ⎞
x1 n n n
⎜ .. ⎟ = = =
i i T
⎝ . ⎠ = x = x e i = x (0, .., 0, 1, 0, .., 0) = (0, .., 0, xi , 0, .., 0)T .
xn i=1 i=1 i=1

Si ricordi che i numeri xi := hi (x) (componenti


; < controvarianti) coincidono con i numeri xi := ⟨ x, ei ⟩ (compo-
nenti covarianti) se e solo se la base B := ei è ortonormale. Nel caso generale si ha xh = xj ⟨ ej , eh ⟩ =:
i=1,...,n
xj κ jh . La n-pla (x1 , . . . , xn ) verrà indicata con x∗ = xT κ ≡ ( κ x)T e, come si è detto, all’occorrenza la si
considererà una matrice ad una riga ed n colonne. Tuttavia, in queste note, le componenti covarianti verranno
usate solo per esprimere i prodotti scalari nella loro forma più compatta:

⟨ x, y ⟩ = xh ȳ h = xi κ ih ȳ h = xT κ ȳ = x∗ ȳ .

& dell’esempio Pn ([a, b]) sono ortonormali rispetto al citato prodotto scalare.
Si noti che né la base B né la B

N.B. 1.5.2 Nel seguito, come d’uso, verrà sottinteso il simbolo di sommatoria quando due indici siano ripetuti; la
somma essendo estesa alla dimensione dello spazio: n < ∞. Invece, quando ciò favorisce la chiarezza, quest’ultima
verrà esplicitamente indicata scrivendo Vn in luogo di V ed En in luogo di E. ♦

M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 445
; <
Dato un qualsiasi operatore T : V → V, la scelta di una base ei in V gli assegna una matrice
i=1,...,n
T := T i j (quadrata giacché l’operatore manda lo spazio in se stesso) che, per convenzione, viene presa tale che

τj := T ej = T i j ei ovvero (τj )i = T i j

e cioè tale che la sua j -ma colonna sia formata dalle componenti, in quella base, del T − trasformato T ej del j -mo
vettore di base ej .
Fissata la base, l’operatore T associa alla n-pla x = (x1 , . . . , xn ) che rappresenta x = xh eh nelle {e}-
coordinate, la n-pla y = (y 1 , . . . , y n ) che nelle stesse coordinate rappresenta il vettore T x:

y i ei = y := T x = xh T eh = xh T i h ei ,

e quindi le seguenti espressioni sono equivalenti

y=Tx ⇐⇒ y = Tx ⇐⇒ y T = xT T T

e cioè
y i = T i h xh ⇐⇒ y i = xh T T h i .
Si ricordi che saturare l’indice di colonna significa operare il prodotto righe per colonne. La precedente espressione
viene anche riassunta con T (·) = T i j ⟨ e∗ j , · ⟩ ei .
In particolare se Det T ̸= 0, e quindi se T =: P può essere considerato un cambiamento di base (si veda la
i i
< uno stesso vettore x = x ei avrà, rispetto alla nuova base ϵh = Peh = P h ei , h =
Nota 1.5.5 più oltre), ;allora
1, . . . , n, componenti ξh tali che x = ξ h ϵh e quindi tali che xi = P i h ξ h , o anche x = P ξ
h=1,...,n
−1h
Allo stesso modo i numeri xi := ⟨ x, ei ⟩ restano espressi da ⟨ x, P −1 ϵi ⟩ = P i ⟨ x, ϵh ⟩ , e cioè
−1 h −1 i
xi = ξh P i ovvero x∗ = ξ ∗ P o anche ⟨ x, ϵh ⟩ = ⟨ x, ei ⟩ P h ;

ed è da notare che la somma avviene sulle righe della matrice P . È anche bene tener presente l’osservazione a metà
della Nota 1.5.23 più avanti.
Si ricordi che, assegnato un generico T : Vn → Vm ; si definiscono:
; ' <
Immagine dell’operatore: Im T := y ∈ Vm ' ∃x ∈ Vn : y = T x .
; ' <
Kernel dell’operatore: Ker T := x ∈ Vn ' T x = 0 . Entrambi gli insiemi Im T e Ker T sono spazi lineari.

d
Nell’esempio visto sopra, e con T = dt , si ha:

Im T = Vn−1 e Ker T = span{t0 } ,

per cui in questo caso si ha Im T ⊃ Ker T . Tuttavia sussiste la


; <
Proposizione 1.5.3 Sia T : Vn → Vm . Se ϵi ⊂ Vm è una base per Im T , allora esistono n − k
; < i=1,...,k
vettori gj ⊂ Vn che sono una base per Ker T , e si ha che {e1 , . . . , ek , g1 , . . . , gn−k } è una base per
; <j=1,...,n−k ; <
Vn , con ei tali che ϵi = T ei . #
i=1,...,k i=1,...,k

Corollario 1.5.4
dim (Im T ) + dim (Ker T ) =: Rank T + N ull T = n = dim (Dom T )
#
; < ; <
Dimostrazione Sia gh una base per Ker T ed ϵi una base per Im T ; certo si ha che
h=1,...,ℓ ; < i=1,...,k
ℓ, k ≤ n. Per ipotesi è possibile trovare k ≤ m vettori ei ⊂ Vn linearmente indipendenti e tali
i=1,...,k
Ck C Ck
che ϵi = T ei , i = 1, . . . , k . D’altra parte si ha che: ; i=1 λ<i ei + ℓh=1 µh gh = 0 ⇒ i
i=1 λ T ei = 0 ⇒
C ℓ
λi = 0 ⇒ h
i=h µ gh = 0 ⇒ µ = 0
h
e pertanto gli ei , gh i=1,...,k sono linearmente indipendenti.
h=1,...,ℓ

Note di Sistemi Dinamici


446 APPENDICE

; < Ck
Infine ogni x in V è combinazione lineare degli ei , gh i=1,...,k . Sia infatti x qualsiasi, T x =: i=1 ξ i ϵi =
h=1,...,ℓ
Ck Ck
i=1 T (ξ i ei ), e ξ i ei . Posto x = (x − v) + v si;ha <T (x − v) = 0 cioè (x − v) è (qualsiasi) in
v = i=1
Ker T e pertanto è esprimibile come combinazione lineare dei gh i quali, quindi, non possono essere
h=1,...,ℓ
in numero minore di (n − k). "

m m−1 m
Nell’esempio: x = a tm! + bt0 ; t
T x = a (m−1)! ; v = a tm! ; e pertanto:
m m m
x= (a tm! + bt − 0
a tm! ) + a tm! .

Operatore (lineare) invertibile := Un operatore T : Vn → Vm per il quale esista l’operatore (lineare) T −1 tale
che
T ◦ T −1 = 1I su Vm e simultaneamente T −1 ◦ T = 1I su Vn ;
ovvero
T è su tutto Vm e simultaneamente T è 1 ←→ 1 su Vn .

La linearità dell’operatore e dei suoi: Dominio e Immagine fanno sı̀ che in tal caso l’operatore stabilisca un
isomorfismo fra gli spazi Vn e Vm , che allora hanno necessariamente uguale dimensione n.
Nota 1.5.5 Un operatore lineare T da uno spazio a dimensione finita Vn in sé risulta invertibile quando,
equivalentemente,

(1.1) per qualsiasi z ∈ Vn esiste unico x ∈ Vn tale che z = T x ;


onto
(1.2) T è 1 ←→ 1 su Vn ;

(1.3) Im T = Vn , ovvero Rank T = n, ovvero N ull T = 0;


(1.4) Ker T = {0}, e cioè N ull T = 0;
(1.5) T x = 0 ammette come unica soluzione x = 0;
(1.6) T x = T y ammette come unica soluzione x = y , ∀x, y ∈ Vn ;
(1.7) KT trasforma una base in un’altra
; < base, (cioè conserva l’indipendenza lineare);
si consideri che Im T = span T ei e quindi Rank T è il numero di colonne di T che sono linearmente indipendenti;
i=1,...,n
d’altra parte Rank T è anche il numero di righe di T che sono linearmente indipendenti. Ciò mostra che su uno spazio Vn non
L
compatto un operatore T è 1 ←→ 1 se e solo se esso è “onto” ;
; <
(1.8) Det T ̸= 0, (in base ei e quindi in ogni altra base).
i=1,...,n

In definitiva: ogni operatore invertibile P induce un cambio di base, e viceversa.


Si chiama Orientamento dello spazio vettoriale la classe di equivalenza di tutti gli operatori P con Det P > 0
oppure Det P < 0 rispettivamente. ◃

Ancora nel caso particolare in cui l’operatore mandi uno spazio vettoriale n-dimensionale V in sé, si ricordino
le seguenti definizioni.
Sia dato un sottospazio W ⊂ V. Esso si dice
Sottospazio T -invariante: W ⊂ V := quando ∀x ∈ W si ha che T x ∈ W. Ad esempio sia Ker T che
Im T sono T -invarianti.
Operatore indotto TW := l’operatore definito dalla relazione TW x := T x per ogni x nel sottospazio W ⊂ V.
Se W1 è T -invariante e se V = W1 ⊕ W2 allora basta scegliere due basi B1 e B2 in W1 e W2 rispettivamente
per vedere che rispetto a B := B1 ∪ B2 la matrice di T viene “a blocchi”:
) *
Tr Tr,n−r
T =
0 Tn−r

ove la matrice Tr è quadrata ed r × r se r = dim W1 ; inoltre se anche W2 è T -invariante allora anche Tr,n−r = 0.
Nota 1.5.6 Può essere comodo ricordare, [Voyevodin XI 92.G e 93.1], che:

M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 447
) *
Ar Br,m−r
(2.1) Se M := è una matrice n × m avente Ar quadrata r × r non singolare, e se
) Cn−r,r Dn−r,m−r
*
1I r 0
V := allora posto
−Cn−r,r A−1
r 1I
) *
Ar Br,m−r
En−r,m−r := D − CA−1 B risulta V A = .
0 En−r,m−r
) *
Ar Br,n−r
(2.2) Se M := è una matrice n × n avente Ar e Dn−r quadrate allora, [Gantmacher
Cn−r,r Dn−r
II.5.3],
Det M = Det (Ar )Det (Dn−r − Cn−r,r A−1r Br,n−r )
−1
= Det (Ar − Br,n−r Dn−r Cn−r,r )Det (Dn−r )
ove la prima uguaglianza è valida se la matrice Ar è non singolare, mentre è valida la seconda se è non
singolare Dn−r .
) * ) *
Ar Br,n−r 1I r 0
(2.3) Se M := è una matrice n × n avente Ar ed Dn−r quadrate, e se P :=
0 Dn−r 0 Pn−r
ha Pn−r quadrata e non singolare, allora
) *
T T Ar Br,n−r Pn−r
posto Cn−r := P DP risulta P MP = .
0 Cn−r
) *
Ar 0
(2.4) [Gantmacher VIII 2.3] Se due matrici quadrate A e B commutano: AB = BA, e se A =
0 An−r
) *
Br 0
con Ar ed An−r non aventi autovalori in comune, allora anche B = (si noti che nulla è
0 Bn−r
detto sugli autovalori di B ).
) *
Ar Br
(2.5) Se M := ha le quattro matrici Ar , Br , Cr , Dr tutte dello stesso ordine allora, come caso
C r Dr
particolare del punto (2.2), si ha

Det M = Det (Ar Dr − Ar Cr A−1


r Br ) se Det (Ar ) ̸= 0
Det M = Det (Ar Dr − Br Dr−1 Cr Dr ) se Det (Dr ) ̸= 0

e quindi, per esempio,

Det M = Det (Ar Dr − Cr Br ) se Ar Cr = Cr Ar e Det (Ar ) ̸= 0 .

(Per le definizioni di autovalore ed autovettore si veda il § A.6).


) *
0 1I r 2 2
Inoltre mediante lo sviluppo diretto si vede che Det = (−1)r per cui, siccome è (−1)r +r ≡ +1 ,
1Ir 0
si ricava la relazione
) * +) *) *,
0 Br 0 1Ir Cr 0
Det = Det = +Det (Cr Br ).
−Cr 0 −1Ir 0 0 Br

Si consideri ora un operatore T : E1 → E2 , ove E1 , E2 sono spazi unitari.


Operatore aggiunto T ∗ : E2 → E1 := l’operatore definito da

⟨ T x, y ⟩ 2 = ⟨ x, T ∗ y ⟩ 1 ∀x ∈ E1 , y ∈ E2 .

Tale operatore esiste unico, e se E := E1 = E2 ha prodotto interno ⟨ ·, · ⟩ e quindi matrice κ hk := ⟨ eh , ek ⟩


del tensore metrico K , essa verifica la:
∗j ∗
xT T T κ ȳ = xh T T h i κ ik ȳ k = ⟨ T x, y ⟩ = ⟨ x, T ∗ y ⟩ = xh κ hj T k ȳ
k
= xT κ T ȳ

Note di Sistemi Dinamici


448 APPENDICE

da cui
T T h i κ ik = T i h κ ik = κ hj T ∗j k ovvero TT κ = κT ∗ .
Se ne ricava, (si veda la Nota 1.5.13 più oltre) avendo posto κ hj κ jk = δkh e notato che κ jk = κ kj ,
e cioè κ = κT ,
i
T ∗j k = κ hj T h κ ki o anche T ∗ = ( κ T κ −1 )T .

(• ) Se la base è ortonormale la matrice dell’operatore aggiunto T ∗ è:


i T
T ∗j k = δ hj T h δki = T kj , e cioè si ha T∗ = T .

(• ) La trasposta coniugata di una matrice T rappresenta l’aggiunto dell’operatore T rappresentato da T solo


se l’aggiunzione è riferita a quel prodotto scalare rispetto al quale la base è ortonormale.
Dalle relazioni viste si deduce anche che

dim(Im T ) = Rank T = Rank T ∗ = dim(Im T ∗ ).

In particolare se T : E → E è non ;singolare ∗ ∗


< anche T è non singolare. D’altra parte se T y è nullo sono tutti
nulli i ⟨ y, T ek ⟩ , e quindi essendo T ek una base non può che essere y = 0 .
k=1,...,n
Sia T non singolare. Dati x, y ∈ E esistono unici u, v ∈ E tali che T u = x e T ∗ v = y e si ha

⟨ x, (T −1 )∗ y ⟩ = ⟨ T −1 x, y ⟩ = ⟨ u, T ∗ v ⟩ = ⟨ T u, v ⟩ = ⟨ x, (T ∗ )−1 y ⟩

che giustifica la notazione T −∗ = (T ∗ )−1 = (T −1 )∗ analoga alla T −T = (T T )−1 = (T −1 )T


Sia W un sottospazio di E. Si definisce
; ' <
Sottospazio W⊥ ortogonale a W := lo spazio y ∈ E ' ⟨ y, x ⟩ = 0, x ∈ W .

Si osservi che W⊥ ∩ W = {0} . Infatti ⟨ y, x ⟩ = 0 per qualsiasi x ∈ W ed y ∈ W⊥ ; ma allora se qualche x è


anche in W⊥ per esso si ha ⟨ x, x ⟩ = 0 . ; < Ck
Ne segue che E = W⊕W⊥ . Infatti se z ∈ V ed e1 , . . . , ek è una base ortonormale per W allora z − i=1 z i ei
C
è necessariamente in W⊥ , giacchè in tal caso si ha ⟨ z − ki=1 z i ei , eh ⟩ = zh − z h = 0 .
È anche utile osservare (Gantmacher IX.8.2) che:
Proposizione 1.5.7 Se un sottospazio W ⊂ E è T -invariante allora W⊥ è T ∗ -invariante. #

Dimostrazione Scelto comunque x ∈ W si ha: T x ∈ W; quindi, per ciascun y ∈ W⊥ si ha ⟨ y, T x ⟩ =


0 = ⟨ T ∗ y, x ⟩ . "

In particolare risulta Im T ∗ ⊥ Ker T , e cioè Im T ∗ ⊂ (Ker T )⊥ . D’altra parte è dim(Im T ) +


dim(Ker T ) = n e, come si è visto, Rank TK ≡ Rank T ∗ . Ne segue Im T ∗ = (Ker T )⊥ e se ne ricava
E = Ker T ⊕ Im T = Ker T ∗ ⊕ Im T .

Più in generale, se T : E1 → E2 si ha E1 = Ker T ⊕ Im T ∗ ed
L
E2 = Ker T ∗ ⊕ Im T .
Sia B := {e1 , . . . , en } una base di E; si usi la notazione B(j) := {e1 , . . . , ej−1 , ej+1 , . . . , en } , e sia e∗ j ∈
B(j) ⊥ con ⟨ e∗ j , ej ⟩ = 1 , (certamente esistente e non nullo perché B(j) non è una base).
; <
Base B∗ duale di B rispetto al prodotto ⟨ ·, · ⟩ := l’insieme e∗ j che si ottiene in tal modo al va-
j=1,...,n
riare di j da 1 ad n.
Tale insieme è una base perché costituito da n vettori indipendenti. Infatti: qualora fosse xj e∗ j = 0 , sarebbe
necessariamente
; < 0 = ⟨ xj e∗ j , ei ⟩ = xj δij = xi per ogni i . Se invece xj e∗ j ̸= 0 , allora la stessa relazione mostra
che i numeri xj coincidono con le componenti covarianti del vettore x := xj e∗ j (che sono banalmente
j=1,...,n
uniche). In tal modo si riconosce lecita per un qualsiasi x ∈ E l’espressione cartesiana x = xj e∗ j . In
particolare i versori di B sono esprimibili mediante quelli di B∗ stante la κ hj = ⟨ eh , ej ⟩ =: (eh )j che fornisce
le importanti relazioni:
eh = κ hj e∗ j , Det( κ hj ) ̸= 0 .
D’altra parte si ha che gli e∗ j verificano le
7 ∗i 8
e h = δ i h = ⟨ e∗ i , eh ⟩ = (e∗ i )j ⟨ ej , eh ⟩ = (e∗ i )j κ jh

M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 449

e quindi
N
è (e∗ i )j = κ ij avendo indicato con ( κ ij ) l’inversa di ( κ ji ) .
Sia T un qualsiasi operatore su E euclideo, e si chiami base propria di T una base che lo pone in forma di Jordan, (si veda il
; < ; <
§ A.6). Allora, [Voyevodin IX 75.2], una base propria ϵ∗j di T ∗ può essere scelta duale della ϵj base propria
; < j=1,...,n j=1,...,n
di T . Infatti: sia ej una base (magari ortonormale) su E , sia T la {e} -matrice di T , sia PJ la matrice che pone T
; j=1,...,n <
in forma di Jordan e sia ϵj = PJ ej una base propria per T , e quindi tale che (ϵj )i = PJ i j . La {e} -matrice di T ∗ è
j=1,...,n
0 T 1
κ−1T T κ = κ−T P J T J P −1
T∗ = J κT = κ−T P −T
J TJ PJ κ
T T T

7 8−T T 7 8T
= κP J T J κP J ,

e, poiché il;trasposto
< coniugato di un blocco di Jordan è ancora un blocco di Jordan, si riconosce che T ∗ ha come base propria la n -pla
7 8 −T
di vettori ϵ ∗j
j=1,...,n
e cioè quella le cui {e} -componenti controvarianti (ϵ∗j )k compongono le colonne della matrice κ
PJ
7 8k
cosa questa anche facilmente ottenibile dalla definizione stessa. È infatti immediato leggere dalla ⟨ ϵ∗j , ϵh ⟩ = ϵ∗j
7 8
κ i j
ki P h = δh il
& kj ∗j k
fatto che la matrice P := (ϵ ) è l’inversa della κ P . Allo stesso modo si ha ∗j
ϵ h=P
−1 j
0 h.
1
7 8h ∗i
Si noti infine che ϵ∗h = χ hk ϵ =
k χ O
χ
hk P j e =
k j κ
hk P j
k ji e χ
∗i = κ
−1 P T
i e = χ κ hk
kj P
∗j
i e
∗i = P −1 h e∗i ,
i

diverso, in generale, da ϵ∗h = e∗i P ∗h i .

Proposizione 1.5.8 Se T e T ∗ ammettono un comune autovettore, allora i due corrispondenti autovalori sono
l’uno il complesso coniugato dell’altro #

Dimostrazione
λ = ⟨ λϵ, ϵ ⟩ = ⟨ T ϵ, ϵ ⟩ = ⟨ ϵ, T ∗ ϵ ⟩ = ⟨ ϵ, µϵ ⟩ = µ̄, e cioè µ = λ̄ .

"

Operatore normale := un operatore T definito su uno spazio unitario E, a valori in E, e tale che: T ∗T =
T T ∗.

Proposizione 1.5.9 Se T è normale ed ha un autovalore λ allora Wλ := Ker (T − λ1I ), che è non vuoto, non
solo è T -invariante, ma è anche T ∗ -invariante. #

Dimostrazione x ∈ Wλ ⇒ T T ∗ x = T ∗ T x = λT ∗ x e quindi T ∗ x ∈ Wλ . "

Ma è noto (si veda il § A.6) che se un operatore lineare lascia invariante un spazio unitario allora esso vi ammette
almeno un autovettore (l’equazione T x = λx ammette sempre soluzione in Cn se Det(T − λ1I ) = 0 ).
Pertanto in Wλ si può trovare (giacché E è unitario) almeno un autovettore: ϵ1 di T ∗ ; e siccome ϵ1 ∈
Ker (T − λ1I ) si ha che ϵ1 è autovettore comune ad entrambi T e T ∗ .
D’altra parte si è visto che se un sottospazio W ⊂ E è T -invariante allora W⊥0 è T ∗ -invariante.
; <1
Allora: se ϵ1 è un autovettore comune ad entrambi T e T ∗ , e posto W1 := span ϵ1 , se ne conclude
⊥ ⊥
che W1 non solo è T ∗ -invariante ma anche T -invariante, ed è possibile trovare in W1 un autovettore ϵ2
comune ai due operatori. Procedendo in tal modo si ha la

Teorema 1.5.10 Un operatore normale T è diagonalizzabile in base ortonormale (e cioè ammette un sistema di
autovettori che è una base ortogonale per lo spazio V), e questa è anche autobase per T ∗ . #
; <
Viceversa [Gantmacher IX 10.1] se T ammette un sistema ortonormale di autovettori ϵi che sia una
i=1,...,n
base per lo spazio V allora T è normale. Infatti: chiamati ηi := T ∗ ϵi − λ̄(i) ϵi si hanno, con k, i = 1, . . . , n,
le relazioni ⟨ ϵk , ηi ⟩ = (λ(k) − λ(i) )δki = 0 e quindi T ∗ ϵi = λ̄(i) ϵi . Per ogni i = 1, . . . , n segue allora T T ∗ ϵi =
λ(i) λ̄(i) ϵi = T ∗ T ϵi . Si è cosı̀ provata la:
Proposizione 1.5.11 Gli operatori normali sono tutti e soli gli operatori che ammettono un sistema ortonormale
di autovettori che è anche una base per lo spazio. #

Note di Sistemi Dinamici


450 APPENDICE

Gli operatori normali sono cioè diagonalizzabili in base ortonormale, e questa può essere comune sia a T che
a T∗ .
La proprietà qui accennata sugli autovettori degli operatori normali viene talvolta chiamata Teorema degli assi
principali per ricordarne l’importante applicazione, nella meccanica del corpo rigido, alle omografie d’inerzia indi-
viduate come è noto da matrici reali simmetriche. La loro autobase ortonormale può essere e viene regolarmente
usata come terna di proiezione proprio a causa delle sue caratteristiche di ortogonalità.
Si noti viceversa che non è affatto detto che un generico operatore diagonalizzabile lo sia con una base di
autovettori ortogonali.
Operatore Unitario := un operatore (normale) U : E → E tale che

U U ∗ = 1I .

Operatore Ortogonale := un operatore (normale) U : E → E con E reale, tale che

U U ∗ = 1I .

Ciò accade se e solo se |λi | = 1, ∀i = 1, . . . , n; infatti, come si è visto, ;U <ed U ∗ hanno autovalori complessi
coniugati in corrispondenza ad uno stesso autovettore; quindi indicati con ϵi una base di autovettori di
Cn i=1,...,n
∗ i
U e di U , per un qualsiasi x = i=1 x ϵi , si ha che
n
= n
=
x = U ∗U x = U ∗ xi λ(i) ϵi = xi λ(i) λ̄(i) ϵi .
i=1 i=1

Le seguenti sono equivalenti:

• U è unitario, (o ortogonale se lo spazio è reale);

• U conserva il prodotto scalare standard di ogni coppia di vettori;


• se B è una base ortonormale anche la base trasformata: U B lo è;

Operatore Autoaggiunto (o Hermitiano) := un operatore (normale) H tale che H = H∗ . Ciò accade se e solo
se λi = λ̄i , ∀i = 1, . . . , n. Infatti si ha:

λ̄(j) ⟨ ϵi , ϵj ⟩ = ⟨ ϵi , Hϵj ⟩ = ⟨ Hϵi , ϵj ⟩ = λ(i) ⟨ ϵi , ϵj ⟩ .


Le relazioni viste mostrano che gli operatori autoaggiunti e reali sono gli
Operatori simmetrici := quegli operatori che hanno in base ortonormale (reale) matrice (reale e) simmetrica.
Essi sono pertanto quegli operatori S tali che ⟨ u, Sv ⟩ = ⟨ v, Su ⟩ come si vede facilmente mediante il ricorso ad
una qualunque base ortonormale (reale).
Si noti che un operatore reale T autoaggiunto rispetto al prodotto scalare simmetrico è anche autoaggiunto
come operatore complesso rispetto al prodotto scalare Hermitiano (si veda il § A.8). Ne segue in particolare che
un operatore simmetrico ha reali tutti i suoi autovalori e quindi anche tutti i suoi autovettori, in quanto si può
risolvere in Rn l’equazione T ϵ = λϵ . Risulta allora possibile dimostrare anche per esso ed autonomamente il
teorema degli assi principali. Infatti la restrizione TW di un operatore autoaggiunto in E ad un qualsiasi sottospazio
W ⊂ E è ancora autoaggiunto. È possibile quindi ripetere il ragionamento fatto per gli operatori normali e, per
induzione, estrarre una base reale ortogonale dagli autovettori di S .
Operatore definito positivo un operatore autoaggiunto H : E → E tale che, per ogni x ∈ E si ha ⟨ Hx, x ⟩ >
:=
; <
0. Ciò accade se e solo se λi > 0, ∀i = 1, . . . , n. Infatti posto x = ξ i ϵi , e avendo chiamata ϵi la base
Cn i=1,...,n
i 2
propria (ortonormale) di H , si ha che ⟨ Hx, x ⟩ = i=1 λi |ξ | .
Operatore semi-definito positivo := un operatore autoaggiunto tale che, per ogni x ∈ E si ha ⟨ Hx, x ⟩ ≥ 0 .
Ciò accade se e solo se λi ≥ 0, ∀i = 1, . . . , n.

• Se H è definito positivo anche H−1 è definito positivo, dato che se H è autoaggiunto esso ha una base
ortonormale di autovettori sulla quale la matrice diagonale inversa è necessariamente matrice di H−1 . Quindi
anche H−1 è autoaggiunto ed ha per autovalori gli inversi di quelli di H .

M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 451

• Dato H (semi)-definito positivo si ha che esiste ed è (semi)-definito positivo l’operatore H1/2 , e cioè quell’o-
peratore tale che (H1/2 )2 = H . (Ciò sia in spazi complessi sia in spazi reali).
√ Infatti anche ora basta definire
H1/2 sulla base ortonormale di H come quell’operatore tale che H1/2 ϵi = λi ϵi , ed in tale definizione tutto
è univocamente determinato.
Dati H definito positivo e B invertibile si ha che B ∗ HB e BHB ∗ sono entrambi definiti positivi Infatti per
ogni x ̸= 0 si hanno Bx ̸= 0 e B ∗ x ̸= 0 e quindi ⟨ B ∗ HBx, x ⟩ = ⟨ HBx, Bx ⟩ > 0 . In modo analogo si vede
che, dato un qualunque operatore lineare T , entrambi T T ∗ e T ∗ T sono operatori (autoaggiunti) semi-definiti
positivi che hanno gli stessi autovalori e differiscono al più nella molteplicità dell’autovalore nullo. Risulta infatti
⟨ T T ∗ x, x ⟩ = ⟨ T ∗ x, T ∗ x ⟩ ≥ 0 insieme con ⟨ T ∗ T x, x ⟩ = ⟨ T x, T x ⟩ ≥ 0; e se, per esempio (T ∗ T )ϵk = ρ2(k) ϵk ,
; <
con ρ2k ≥ 0, allora ρ2(k) ⟨ ϵh , ϵk ⟩ = ⟨ T ϵh , T ϵk ⟩, il che mostra che il sistema T ϵi seppure non una base
i=1,...,n
è comunque ortogonale; inoltre T T ∗ T ϵk = ρ2k T ϵk mostra che ρ2k è autovalore sia di T T ∗ che di T ∗ T .

Memento 1.5.12 È opportuno ricordare le seguenti definizioni. #

Forma bilineare B : V × V → K := una funzione tale che: sia B (·, y) sia B (x, ·) sono lineari ed omogenee:
e cioè per ogni α ∈ K, x, y ∈ V si ha
B (x + y, z) = B (x, z) + B (y, z) B (αx, y) = αB (x, y)
B (x, y + z) = B (x, y) + B (x, z) B (x, αy) = αB (x, y)

Forma Hermitiana B H : V × V → C := una funzione tale che


B H (x + y, z) = B H (x, z) + B H (y, z) B H (αx, y) = αB H (x, y)
B H (x, y + z) = B H (x, y) + B H (x, z) B H (x, αy) = ᾱB H (x, y) .
Forma Hermitiana simmetrica B H : V × V → C := una forma Hermitiana
tale che B H (x, y) = B H (y, x) .
; <
Scelta una base ei in V ed assegnata una forma Hermitiana (o bilineare) FH : V × V → K , con
i=1,...,n
K = C o K = R rispettivamente, resta univocamente definita la matrice associata alla forma
f ij := B H (ei , ej ) ;
il valore B H (x, y) per arbitrari x, y ∈ V risulta allora esprimibile mediante la
=
B H (x, y) =: xi f ij ȳ j = xT f ȳ =: B H (x, y) .
i,j

Esempio: un prodotto scalare è una particolare forma Hermitiana simmetrica; per esso si è usata la notazione
κ ij := ⟨ ei, ej ⟩ = κ ji .
Nota 1.5.13 Se lo spazio V è euclideo, è possibile usare un modo alternativo per esprimere una forma B (x, y),
(o una B H (x, y) nel caso complesso).
; < ; <
• Data in V una base ei e detta e∗i una sua base duale, e cioè una base tale che ⟨ e∗i , ej ⟩ =
i=1,...,n i=1,...,n
i
(ej ) = δji ;
• dette κ ih := ⟨ ei , eh ⟩ la matrice del tensore della metrica K (e cioè definito il prodotto scalare sullo
spazio), e detto κ hi il suo inverso:
κ ih κ hj = δji κ ih κ hj = κ jh κ hi = δji ;
• ricordate le espressioni
e∗i = κ ik ek , eh = κ hie∗i ;
• dette xi le componenti covarianti del generico vettore che, come si è detto, sono date da
x = xi e∗i = xi ei , xi = ⟨ x, ei ⟩ = xk κ ki , xk = xi κ ik ;
ed introdotta la seguente notazione per le n-ple di coordinate rispetto alle dette basi
⎛ 1⎞
x
⎜ .. ⎟
x = ⎝ . ⎠; xT := (x1 , . . . , xn ), x∗ := (x1 , . . . , xn ) ;
xn

Note di Sistemi Dinamici


452 APPENDICE

• ricavate le espressioni, valide per arbitrari operatori T , V : V → V:

T (x, y) = ⟨ T x, y ⟩ = xh T T h j κjk ȳ k = xT T T κȳ



= (T x)k ȳ k = (T x) ȳ ,
∗j ∗ ∗j
T ∗ (x, y) = ⟨ x, T ∗ y ⟩ = xh κhj T k ȳ k = xT κT ȳ = xj T k ȳ k = x∗ T ∗ y ,
j j
V (x, y) = ⟨ x, Vy ⟩ = xh κhj B k ȳ k = xT κB ȳ = xj B k ȳ k = x∗ By ;
T
• ricavata, dalla ( b kj c jh )T = c Thj b jk , la
a hk := T T h j κ jk = (T T κ )hk = ( κ kj T j h )T ,

da cui
aT = κT T ⇐⇒ a = TT κ ,
ovvero
a Tkh := κ kj Thj ⇐⇒ a hk = T j h κ jk ,
resta comodo, a partire da una data una forma B H (x, y) = xi f ij ȳ j , definire in corrispondenza ad essa la
coppia di operatori F e F ∗ tali che

B (x, y) =: ⟨ F x, y ⟩ =: ⟨ x, F ∗ y ⟩

e quindi, in coordinate,

f hk =: F T h j κ jk = κ hj F ∗j k o anche f = FT κ = κF ∗ ;
le due {e} -matrici dei due operatori F ed F ∗ rispettivamente, risultano pertanto tali che:
F T hj := f hk κkj = B H (eh , ek )κkj = B H (eh , e∗j )

F hk := κhi f ik = κhi B H (ei , ek ) = B H (e∗h , ek ) .

• La matrice di un operatore reale autoaggiunto, in base ortonormale: κ = 1I , è reale simmetrica; (non


necessariamente cosı̀ in base non ortonormale).

N.B. 1.5.14 Se la forma Hermitiana è simmetrica l’operatore F è autoaggiunto ed ha matrice F = F ∗ ; e


viceversa. Infatti si ha
T
B H (x, y) = B H (y, x), ⇐⇒ f = f , ⇐⇒ κT F ∗ = κT F , (5.22)

e questa implica F∗ = F . Alternativamente si può vedere che è

⟨ y, F ∗ x ⟩ := ⟨ F y, x ⟩ = B H (y, x) = B H (x, y) = ⟨ F x, y ⟩ = ⟨ y, F x ⟩ .

Lo spazio delle forme bilineari è uno spazio vettoriale analogo a quello degli operatori lineari. In esso una qualsiasi
forma bilineare (reale) B è univocamente decomponibile nella somma delle sue:
parte simmetrica := B sim := 12 (B (x, y) + B (y, x)) e
parte antisimmetrica := F a.s. := 12 (B (x, y) − B (y, x))
(i secondi addendi sono coniugati nel caso complesso).
Forma quadratica Q : V → R := la funzione che si ottiene quando una forma bilineare B su V viene calcolata
su uno stesso vettore: Q(x) := B (x, x) .
Se V è complesso, a partire da una forma Hermitiana B H si ha, allo stesso modo, una forma quadratica
Hermitiana QH : V → C. Essa risulta reale se, in aggiunta, la forma Hermitiana è simmetrica.
Siccome per ogni forma B vale la

B (x, y) + B (y, x) = B (x + y, x + y) − B (x, x) − B (y, y) ,

M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 453

ogni forma bilineare è univocamente esprimibile con:


1
B (x, y) = (Q(x + y) − Q(x) − Q(y)) + B a.s. (x, y) ,
2
il che mostra che (solo) le forme bilineari simmetriche sono esprimibili mediante le (loro) forme quadratiche Q:

1
B sim (x, y) = (B (x + y, x + y) − B (x, x) − F (y, y))
2
1
= (Q(x + y) − Q(x) − Q(y)) .
2
Tuttavia nel caso Hermitiano c’è una corrispondenza biunivoca tra le B H e le QH , infatti sussiste la
4 B H (x, y) = QH (x + y) − QH (x − y) + iQH (x + iy) − iQH (x − iy) .

N.B. 1.5.15 La matrice f ij := B (ei, ej ) è simmetrica (antisimmetrica) se e solo se la forma bilineare B è


simmetrica (antisimmetrica); pertanto anche la f è univocamente esprimibile come f = f sim + f a.s. , con
T T
f sim := f + f ),
1
2( e f a.s. := f 1
2( − f ). (Nel caso Hermitiano simmetrico occorre anche coniugare
la parte trasposta) ♦

N.B. 1.5.16 Fissata la base, per ogni matrice quadrata f ij esiste unica la forma bilineare che la ammette come
matrice associata B (ei , ej ) := f ij ; e quindi esiste unica la forma quadratica Q(x) = B (x, x) ≡ B sim (x, x), con
matrice associata simmetrica q = f sim . Viceversa, sebbene ogni forma bilineare B individui univocamente la
matrice quadrata f ad essa associata, ciò non è vero per le forme quadratiche (reali) Q che ne individuano la sola
parte simmetrica: due forme bilineari B che differiscano fra loro per la sola parte antisimmetrica sono compatibili
con una stessa Q. In definitiva: una stessa forma quadratica è compatibile con tutta una classe di matrici quadrate
f , nella quale una sola: q = f sim è simmetrica, mentre tutte le altre differiscono da questa per una parte
antisimmetrica. ♦

Una forma quadratica reale (o proveniente da una formaC Hermitiana simmetrica) è espressa, in coordinate, da
un polinomio omogeneo di secondo grado del tipo Q(x) = i,j q ij xi x̄j = xT q x̄ =: Q(x) con coefficienti tali
che:
1
( f ij + f ji ) = q ij = q ji := B H sim(ei , ej ) .
2
Forma quadratica definita positiva := una forma quadratica Q : V → R tale che x ̸= 0 ⇐⇒ Q(x) >
0; Q(0) = 0.
L’osservazione fatta sopra mostra che un prodotto scalare definisce univocamente una forma quadratica definita
positiva e viceversa (si veda la Nota 1.5.20).
Memento 1.5.17 Due matrici M1 , M2 si dicono:

Simili se esiste P quadrata non singolare: M2 = P −1 M1 P ;


Congruenti se esiste P quadrata non singolare: M2 = P T M1 P ;
Equivalenti se esistono P1 , P2 quadrate non singolari: M2 = P1 M1 P2 .

Si dimostra [Voyevodin p.64] che M1 , M2 hanno lo stesso rango se e solo se sono equivalenti. In tal caso infatti
esse corrispondono ad uno stesso operatore T : Vn → Vm secondo opportune basi, scelte indipendentemente in
ciascuno dei due spazi. #

Il cambio di base.
Siano e := {ei }i=1,...,n ed ε := {ϵj := Pej }j=1,...,n basi di V non necessariamente ortonormali, e P
l’operatore invertibile che trasforma l’una nell’altra:
; < ; <
P
ei −→ ϵj tali che ϵj = P i j ei .
i=1,...,n j=1,...,n

Come si è visto,

Note di Sistemi Dinamici


454 APPENDICE

dalla x = xi ei = ξ h ϵh = ξ h P i h ei segue xi = P i h ξ h ovvero x = P ξ ,


e dalla y = y i ei = T x = xh T i h ei segue y i = T i h xh ovvero y = T x .

In maniera analoga al cambio da e a ε si avrà che:

il vettore T x nella base e è espresso da xh T eh =: xh T i h ei = y i ei ,


il vettore T x nella base ε è espresso da ξ j T ϵj =: ξ j ℵk j ϵk = η k ϵk .
Uguagliando queste espressioni si ottiene xh T i h ei = ξ j ℵk j ϵk o anche

T x = y = P η = P ℵξ = P ℵP −1 x ,

e quindi la matrice ℵ che la base ε assegna all’operatore T verifica

ℵ = P −1 T P ovvero ℵk j = P −1k i T i h P h j .

Riassumendo:
ϵj = Pji ei , xi = Pji ξ j , ℵkj = P −1ki Thi Pjh .

Fra le matrici delle forme bilineari si stabiliscono, al cambio di base, relazioni analoghe ma non identiche a
quelle viste nel caso
; <degli operatori lineari.
; <
Siano e := ei ed ε := ϵh due basi non necessariamente ortonormali, e B : V × V → K
i=1,...,n h=1,...,n
una forma bilineare Hermitiana. Si pongano

f ij := B (ei , ej ) e ϕ hk := B (ϵh , ϵk ).
Si ottiene
B (x, y) = xi f ij ȳ j = ξ h ϕ hk η̄ k .
; <
Se poi ϵi = Pei allora
i=1,...,n

ϕ hk = B (ϵh , ϵk ) = B (Peh , Pek ) = P T h i B (ei, ej )P j k


o anche: ϕ = PT f P .
In particolare si ricava l’espressione che fornisce il cambio della matrice del tensore metrico al cambio di base:

χ hk := ⟨ ϵh, ϵk ⟩ = P T h i κ ij P j k , o, più brevemente χ = P T κP .

Nota 1.5.18 Pertanto, al cambio di base, la matrice F dell’operatore F definito dalla F (x, y) =: ⟨ F x, y ⟩ ≡
⟨ x, F ∗ y ⟩ non si trasforma come la corrispondente matrice f della forma bilineare B a meno che il cambio di
base sia (reale ed) ortogonale: P T = P −1 . Come si è visto, infatti, sussistono le

Φ = P −1 F P insieme con ϕ = PT f P ,

e quindi le
∗ −1 ∗ ∗
ϕ = PTfP = P T κF P = P T κP P F P = χΦ
ϕ = PTfP = P T F T κP = ΦT P T κ P = ΦT χ .

Esempio 5.19 Il cambio di base P è necessariamente ortogonale se, per esempio, la forma B è reale simmetrica,
il prodotto scalare è reale, e la base iniziale e , per ipotesi ortonormale, viene cambiata in quella degli autovettori
di F . In tal caso infatti, per le prime due affermazioni si ha che l’operatore F è reale autoaggiunto e quindi,
come si è detto, ha base propria reale ed ortonormale. Per la terza ipotesi, allora, l’operatore P che scambia fra
loro tali basi è ortogonale in quanto

1I = κ = P −T χ P −1 = P −T P −1 da cui 1I = P P T .

M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 455

In tal caso si ha anche



f = FT = F = F e P T f P = P −1 F P .
In particolare, a partire da una forma quadratica reale, in uno spazio reale,

Q(x) = xh q hk xk con q ≡ q ≡ qT ,

e mediante la xh = xj κ jh e le

κ jh q hk = S j k ed S∗ = κ −1 S T κ = κ −1 q T κ −1 κ = S,
si definisce un operatore autoaggiunto (o simmetrico)

S tale che Q(x) = xj Skj xk .

È cosı̀ possibile riconoscere che la forma Q(x) = xh q hk xk può essere, magari non univocamente, trasformata
nella forma canonica
=n
Q(ξ) = λi ξ h κ hi ξ i , λi ∈ R, i = 1, . . . , n ,
i=1

ove le ξ i = P! −1ij xj sono le componenti dei vettori rispetto ad una base propria (ortonormale indipendentemente
dal fatto che lo sia la base iniziale) di S .
La non univocità è conseguenza del fatto che, siccome le λ sono tutte reali, non lede la generalità (ridefinendo
le ξ ) assumerle tutte di modulo unitario.
Si chiamano
Indice positivo d’inerzia := il numero delle λ = +1 .
Indice negativo d’inerzia := il numero delle λ = −1 .
Segnatura della forma := la differenza fra l’indice positivo e quello negativo.
La forma è definita positiva quando la sua segnatura vale +n ≡ dim(V), (Voyevodin 11.94).
Allo stesso modo, come si è visto, se QH è Hermitiana reale (in uno spazio unitario), l’operatore TB H è
j
autoaggiunto e si ha QH (x) = xh q hk x̄k =: xj S h x̄h = xh Shj x̄j , da cui

q hk = Shj κ jk = κ hj S jk e cioè q = ST κ = κS ,
Cn
e quindi QH (ξ) = i=1 λi ξ j κ ji ξ¯i con le λi tutte reali. #

Nota 1.5.20 Se si ha un operatore S che oltre ad essere autoaggiunto rispetto ad un qualche prodotto scalare
⟨ ·, · ⟩ è anche definito positivo, cioè tale che sia definita positiva la forma Q(x) := ⟨ x, Sx ⟩ , allora la forma
bilineare
B S (x, y) := ⟨ x, Sy ⟩ = ⟨ Sx, y ⟩ =: ⟨ x, y ⟩ S
definisce nello spazio E un nuovo prodotto scalare ⟨ ·, · ⟩ S distinto da quello di partenza: ⟨ ·, · ⟩ . Esso poi è reale
se tale è S . Si hanno allora le

⟨ x, y ⟩ = xi ⟨ ei , ek ⟩ȳ k = xi κik ȳ k = xk ȳ k
h h
⟨ x, y ⟩S = xi ⟨ ei , Sek ⟩ȳ k = x κih S k ȳ k
i
= xh S k ȳ k .
Più in generale, quindi, le definizioni e proprietà date sopra si possono ripetere relativamente a questo nuovo
prodotto scalare, in particolare il concetto di aggiunzione e di ortogonalità. Ad esempio si ha:

• la matrice in base S -ortonormale del S -aggiunto di T è la trasposta (coniugata) di quella che T ha nella
stessa base S -ortonormale; quindi

• un operatore (reale) T è S -autoaggiunto quando in base S -ortonormale gli corrisponde una matrice che è
simmetrica.

Note di Sistemi Dinamici


456 APPENDICE

Ancora nel caso di un operatore definito positivo sussiste la:


Proposizione 1.5.21 Un operatore (autoaggiunto) S è definito positivo se e solo se esiste un operatore invertibile
P −1 tale che S = P −∗ P −1 . #

Dimostrazione
(⇐) ⟨ Sx, y ⟩ = ⟨ P −∗ P −1 x, y ⟩ = ⟨ P −1 x, P −1 y ⟩ = ⟨ x, P −∗ P −1 y ⟩ e pertanto S = S ∗ ; inoltre ⟨ Sx, x ⟩ =
⟨ P −1 x, P −1 x ⟩ > 0 per ogni x ̸= 0 stante l’invertibilità di P .
(⇒) Siano e , ε basi in E delle quali la prima 1I -ortonormale e la seconda S -ortonormale, ovvero: ⟨ ei , ej ⟩ = δij
ed ⟨ Sϵi , ϵj ⟩ = ⟨ ϵi , Sϵj ⟩ =: ⟨ ϵi , ϵj ⟩ S = δij ; tali basi esistono per il procedimento di Gram-Schmidt dato
che ⟨ ·, · ⟩ ed ⟨ ·, · ⟩ S sono due “qualsiasi” prodotti scalari.
A partire dalla P −1 ji ϵj := ei si definisca l’operatore P −1 cui la base ε assegna matrice P −1 le colonne della
quale sono formate dalle ε -componenti dei versori e1 , . . . , en . Risulta ⟨ P −1 ϵi , P −1 ϵj ⟩ = δij e quindi

⟨ Sx, y ⟩ = ξ i ⟨ Sϵi , ϵj ⟩η̄ j = ξ i δij η̄ j = ξ i ⟨ P −1 ϵi , P −1 ϵj ⟩η̄ j


= ⟨ P −1 x, P −1 y ⟩ =: ⟨ P −∗ P −1 x, y ⟩.

"

È chiaro che può ben essere P −1 = P −∗ = S 1/2 .


A volte il prodotto ⟨ x, y ⟩ S viene indicato ;con ⟨ x, y <
⟩ ε mettendo cosı̀ in risalto il fatto che si tratta del prodotto
scalare standard nella nuova base: ε := ϵj = P ej
j=1,...,n
che risulta, per definizione, S -ortonormale.
Nel caso generale, e cioè per P −1
qualunque in L(C ) e non necessariamente invertibile, l’operatore P −∗ P −1
n

risulta semi-definito positivo.


(• ) In accordo con quanto si è visto per le forme bilineari, al cambio di base l’espressione del prodotto scalare
verifica la relazione:
⟨ x, y ⟩ = xT κ ȳ = ξ T P T κ P η̄ = ξ T χ η̄ ,
per cui si osserva che anche supponendo ortonormale la base di partenza e, il “vecchio” prodotto scalare standard
calcolato mediante le nuove componenti vale
j
⟨ x, y ⟩ = ξ T P T P η̄ = ξ h Ph i δij P k η̄
k

e non coincide con il “nuovo” prodotto scalare standard


−1
⟨ x, y ⟩ B := xT P −T P ȳ := ξ h δhk η̄ k

a meno che anche la nuova base sia ortonormale: χ = 1I , e cioè a meno che l’operatore di cambio di base sia un
operatore ortogonale: P ∗ P = 1I .

(• ) In maniera analoga, il valore di ⟨ x, T y ⟩ cambia secondo le


h i j −1 l i j
xi κ ih T j ȳ j = ⟨ x, T y ⟩ = ξ h P T h l κ li T j P k η̄
k
≡ ξ h χ hl P i T j P k η̄
k

e si hanno le ( −1
⟨ x, Vy ⟩ = ξ T P T κB P η̄ = ξ T χP B, P η̄
⟨ T x, y ⟩ = ξ T P T T T κP η̄ = ξ T (P −1 T P )T χη

Infatti è: ⟨ ei , Vej ⟩ = κ ih B hj , cosı̀ come ⟨ T ei , ej ⟩ = Tih κ hj .

Pertanto:
(• ) Un operatore reale invertibile P è S -ortogonale se e solo se conserva il prodotto S -scalare e quindi, in virtù
della
χ Σ =: χ S = P T κ S P := P T κ S P ,
se e solo se trasforma basi S -ortogonali in basi S -ortogonali. In tal caso si ha 1I = PST P S se con PS si è indicata
la matrice di P nella base S -ortogonale.

M. Lo Schiavo
A.5. Richiami di Algebra Lineare. ( I ) 457

(• ) Un qualsiasi operatore reale invertibile P trasforma basi 1I -ortonormali in basi (P −∗ P −1 )-ortonormali.


Inoltre se P −∗ P −1 ̸= 1I l’operatore P della proposizione non è ortogonale né rispetto ad 1I né rispetto a S :=
P −∗ P −1 perché le due basi sono rispettivamente 1I -ortogonale ed S -ortogonale.
; <
(• ) Con ⟨ ei , ej ⟩ = δij reali, detta B una base reale: ϵj = Pej , e con S := P −∗ P −1 , sussistono
j=1,...,n
la
xT y = ⟨ x, y ⟩ = ⟨ x, S −1 y ⟩ B = ⟨ x, PP ∗ y ⟩ B = (x)TB · (PP ∗ y)B = ξ T P T P η
e ciò poiché le B-coordinate di PP ∗ y sono P −1 (P P T )P η .
(• ) Per un qualsiasi C ∈ L(V), ed ancora V e B reali, sussiste la
⟨ x, Cy ⟩ = ⟨ x, PP ∗ Cy ⟩ B = ξ T P T CP η = ξ T P T P CB η ,
ove CB è la matrice di C in base B
(• ) Se T è normale e C è simmetrico ciascuno ha matrice simile ( ≡ congruente) con una matrice diagonale
nella base dell’altro.
Nota 1.5.22 La convenzione di porre per colonne, nella matrice che rappresenta un operatore in una data base,
le componenti dei trasformati dei versori di base permette di individuare i vettori x e T x come “vettori colonna”:
⎛ ⎞ ⎛ 1 h⎞
x1 Th x
⎜ .. ⎟ ⎜ .. ⎟
x ≡ ⎝ . ⎠, T x ≡ ⎝ . ⎠.
xn Thn xh
In tal modo le varie operazioni sulle componenti seguono facilmente le usuali regole del prodotto (righe × colonne)
fra le matrici rappresentative, sempre intendendo i vettori come particolari matrici (n × 1). In questo modo
assumono significato espressioni, già usate sopra, del tipo ⟨ T x, y ⟩ = xT T T κ ȳ ove ciascuna lettera indica la
matrice del corrispondente operatore in un’unica base fissata. L’indicare quindi il vettore T x con la notazione
T x è cosa comune, soprattutto quando la scelta della base è fatta una volta per tutte, e non dà adito ad errori
fintanto che non ricompaiono i versori o le rappresentazioni cartesiane. Se invece questo è il caso, occorre un
minimo di attenzione; per esempio, sempre indicando il cambio di base con ϵi = Pei = P h i eh , si ha T ϵi =
T Pei = P h i T eh = P h i T k h ek = P h i T k h P −1s k ϵs e quindi T ϵi dà, come è noto, ℵsi ϵs = (P −1 T P )si ϵs e non,
come potrebbe venire voglia di scrivere qualora non si distinguesse l’operatore dalla sua matrice, Tis ϵs , né Tsi ϵs ,
a meno che ϵi sia espresso mediante le sue {e} -componenti:
(T ϵi )k = T k h (ϵi )h = Thk P h i , o perfino T ϵi = T P ei .
In definitiva: o si mantiene sempre la notazione cartesiana con gli operatori o quella, in base assegnata, per sole
componenti e matrici; ma non conviene mescolarle. ◃
; <
Nota 1.5.23 Detta & i
e&i = Pe una trasformazione di base, e dette T e T& le matrici di un operatore T
; < ; < i=1,...,n
nelle basi ei e e&i rispettivamente, le relazioni
i=1,...,n i=1,...,n

T e&i = P&ih T eh = Thk P&ih ek


T e&i = T&ih &eh = P&hk T&ih ek
; <
mostrano che P = T P& = P& T& è la matrice, nella base ei & che prima
di quell’operatore P := T ◦ P
i=1,...,n
gira la base mediante P & e poi agisce con T . Se anche T è invertibile, e quindi T ◦ P
& =: P è esso stesso un
cambio di base, allora tale P agisce sulle “vecchie” coordinate x in modo speculare:
ξ = P& −1 T −1 x = T& −1 P& −1 x ovvero ξ i = P& −1ih T −1hk xk = T&−1ih P& −1hk xk .
In effetti, se ϵ′′ ′′ ′
i := P ϵi ed ϵ′i := P ′ ei , con P ′′ , P ′ invertibili, allora sussistono le:
( ′′ ′h >
P P i eh = P ′′kh P ′hi ek
ϵ′′
i = =: P ′′ ◦ P ′ ei
Π′′h ′ ′k ′′h
i ϵ h = P h Π i ek
da cui
ξ i = P ′−1ih P ′′−1h k
kx = Π
′′−1 i
hP
′−1h k
kx ovvero x = P ′′ P ′ ξ = Π′′ P ′ ξ .
; <
Si osservi che, risolvendo la ϵi = Pih eh nella eh = P −1ih ϵi , si ricava che la {ϵ} -matrice della base eh
i=1,...,n
è proprio P −1ih . A rigor di termini, a questo punto si dovrebbe notare tale matrice coincide con la {e} -matrice
dell’operatore P −1 in virtù delle ϵ′′i = P ′kh Πhi ek ≡ Phk P −1hi ek . ◃

Note di Sistemi Dinamici


458 APPENDICE

Quanto si è visto nella precedente Nota 1.5.23 ha, fra l’altro, la seguente applicazione. Siano dati un operatore T2
simmetrico definito positivo, ed un operatore P& invertibile, e siano T e P& , rispettivamente, le matrici che la base
; <
−1/2 & definisce una trasformazione di coordinate ξ := P −1 x,
ei assegna loro. L’operatore P := T2 ◦P
i=1,...,n ; <
ed ha {e} -matrice: P = T −1/2 P& = P& T&−1/2 . Si osservi che l’operatore P prima gira la base ei
; < i=1,...,n
& −1/2
nella & ϵi := Pei , e poi agisce con T2 . Quest’ultimo operatore, anch’esso reale simmetrico, ha {e} -
i=1,...,n
matrice: T −1/2 .

Nota 1.5.24 Al solo scopo di rendere più chiaro l’effetto di T2 , e cioè solo a titolo
; di esempio,
< verrà qui esaminato il
&
caso particolare in cui l’operatore P dipende da T2 in modo tale che i versori τi := Pei & siano autovettori
i=1,...,n
−1/2 √
di T2 ; in tal caso l’operatore T2 li divide per λi . Nel caso generale, in cui l’operatore P & è assegnato apriori
ed indipendente da T2 (per esempio per essere quello degli autovettori di un qualche altro operatore autoaggiunto),
l’effetto di T2 sui τ sarà meno immediato, ma non tale da modificare la struttura geometrica delle osservazioni che
qui seguono.
È bene notare subito che gli autovettori dell’operatore autoaggiunto T2 , certo ortonormalizzabili secondo il
prodotto ⟨ ·, · ⟩ , non lo sono secondo quello ⟨ ·, · ⟩ T2 proprio per la presenza delle λi ̸= 1 .
; <
Sia allora τi una base ortonormale di autovettori di T2 ; resta da questa definito un operatore P &
; i=1,...,n
<
tale che τi =: Pe & i ; questo, comunque invertibile, è ortogonale se e solo se tale è anche la base e . Per
i=1,...,n
costruzione risulta ⟨ T2 τi , τj ⟩ = λ(i) δij .
Ponendo ϵ := T2
−1/2
τ =: Pe , e cioè con P := T2
−1/2
◦P& avente e -matrice −1/2
Pjk = P&ik λ(i) δji =
h Pj , si ottiene una base di vettori ε := P e tali che ⟨ ϵi , ϵj ⟩ T2 = δij .
−1/2 k & h
T Infatti
τ / τ
⟨ T2 ϵi , ϵj ⟩ = ⟨ T2 Tτi , √ j ⟩=⟨ λ(i) τi , √ j ⟩ = δij .
λ(j) λ(j)
λ(i)

È da notare però che anche se la base e è ortonormale, e quindi tale da rendere ortogonale l’operatore P
&,
l’operatore P non è ortogonale , a meno che T2 = 1I ; infatti
−1/2 & i , T −1/2 Pe
& j ⟩ȳ j =
⟨ Px, Py ⟩ = xi ⟨ T2 Pe 2

−1/2 −1/2 xi ȳ i
= xi ⟨ T2 τi , T2 τj ⟩ȳ j =
λ(i)
̸= xi ȳ i = ⟨ x, y ⟩ .

1/2
Ciò significa che P T P = P& T T −1 P& ̸= 1I , e ciò malgrado la {e} -matrice di T2 risulti T 1/2 h k =
1/2
P& j P
h −1j & h j
k = Pj δi λ(i) P
& k e quindi sia evidentemente simmetrica.
−1i

−1/2 &
Infine, la simmetria di T2 ; < che l’operatore P sia ortogonale, anche se indipendente
comporta che è sufficiente
−1/2 & −1 = P & −T P T segue infatti
da T2 , per assicurare la T2 -ortonormalità della base ϵi . Dalle T2 = PP
i=1,...,n
T2 = P −T P −1 che implica
⟨ ϵi , ϵj ⟩ T2 = ⟨ P −1 ϵi , P −1 ϵj ⟩ = ⟨ ei , ej ⟩ = δij .

Nota 1.5.25 Ogni matrice simmetrica può essere ridotta in forma diagonale da una trasformazione ortogonale,
ma non è detto che tale trasformazione sia unica. Inoltre la corrispondente forma quadratica può essere messa in
forma canonica (magari non unica) anche da trasformazioni non ortogonali. ◃

Sussiste la seguente
Proposizione 1.5.26 La segnatura di una matrice simmetrica di rango r ≤ n è caratteristica della matrice e non
dipende dalla base delle coordinate. #

M. Lo Schiavo
A.6. Richiami di Algebra Lineare. ( II ) 459

Dimostrazione Si ricordi innanzi tutto che il rango della forma non dipende dalla base. Siano x le coordinate
di partenza e si suppongano due forme canoniche per la stessa forma quadratica:

y12 + . . . + yk2 − yk+1


2
− . . . − yr2 = z12 + . . . + zh2 − zh+1
2
− . . . − zr2 (5.23)

relative a due sistemi di coordinate


y = P −1 x, z = Q−1 x (5.24)
Si supponga, per assurdo, k < h e si scriva il sistema di equazioni

y1 = . . . = yk = zh+1 = . . . = zn = 0. (5.25)

Usando le (5.24) si ottiene un sistema omogeneo di (n − h + k) equazioni nelle x e quindi ne esiste una soluzione
non banale: (α1 , . . . , αn ). D’altra parte, sostituendo le (5.24) nella (5.23) ed in essa la soluzione (α1 , . . . , αn ) si
ottiene
2
−yk+1 (α) − . . . − yr2 (α) = z12 (α) + . . . + zh2 (α).
Questa dà senz’altro z12 (α) = . . . = zh2 (α) = 0 che, insieme con le (3), indicano le {α} come soluzione non banale
del sistema omogeneo nelle x dato da z12 (x) = . . . = zn2 = 0 il che contraddice le (5.24). "

A.6 Richiami di Algebra Lineare. ( II )


Sia V uno spazio vettoriale di dimensione n su;un<campo K , e sia T ∈ L(V) un operatore lineare su V. Si
indicherà con T la matrice che l’assegnata base ei assegna all’operatore T . Si definiscono:
i=1,...,n
Autovettore dell’operatore T := un qualunque ϵ ∈ V\{0} che verifica l’equazione: T ϵ = λϵ per qualche
λ ∈ K ; ovvero un vettore ϵ ∈ Ker (T − λ1I ) ̸= {0}.
Autovalore dell’operatore T := un elemento λ del campo K per il quale: T − λ1I è singolare, e quindi tale
che Ker (T − λ1I ) \ {0} è non vuoto.
Questa condizione implica che λ sia soluzione di un’equazione algebrica, la:
Equazione Secolare := det (T − λ1I ) = 0 .
L’equazione Secolare non dipende dalla base, si ha infatti, per un qualsiasi x ∈ K :

Det(P T P −1 − x1I ) = Det(P (T − x1I )P −1 )) = Det P Det(T − x1I )Det P −1 .

Polinomio caratteristico := il polinomio di grado n sul campo K dato da

pT (x) = Det (T − x1I ) = cn xn + cn−1 xn−1 + · · · + c1 x + c0

e si riconosce che cn ̸= 0 , cn−1 = (−1)n−1 T r T , c0 = Det T , e ci ∈ K per i = 1, . . . , n. I suoi zeri


sono, per definizione, gli autovalori di T .
Accade spesso di chiamare, sebbene impropriamente, “autovalore” di T una qualunque delle radici di questa
equazione anche se, pur essendo T e V reali, essa non fosse reale, e pertanto tale che V ∩ Ker (T − λ1I ) = {0} .
Secondo queste definizioni, le proprietà degli operatori indotti ed il teorema fondamentale dell’algebra implicano
che: un operatore lineare definito su uno spazio vettoriale complesso C ≡ Cn ammette almeno un autovettore, nello
spazio stesso ed in ciascun suo sottospazio invariante, mentre ciò non è detto se C è reale.
Operatore diagonalizzabile := un operatore che ammetta un sistema di autovettori (linearmente indipendenti)
abbastanza ricco da poterne estrarre una base per lo spazio.
Talvolta [Hirsh] si riserva tale nome agli operatori reali che abbiano tale proprietà negli spazi reali sui quali
sono definiti; e si chiamano semisemplici gli operatori reali i cui complessificati possiedono questa proprietà sui
corrispondenti spazi complessificati di quelli reali.

Nota 1.6.1 Gli autovalori di un operatore compaiono anche in alcuni degli ;invarianti
< relativi all’operatore stesso:
se T : V → V è un operatore lineare ed T la sua matrice in una certa base ei , allora: il determinante
k i=1,...,n
i
pT (λ) := Det (T − λ1I ) ha un solo termine di grado n in λ, e cioè i (Ti − λ), e questo termine contiene quello
di grado (n − 1). Infatti nello sviluppo per colonne ciascun Tji con i ̸= j rimane moltiplicato per il complemento
algebrico Aji e questo non contiene né (Tii − λ) né (Tjj − λ), e pertanto è di grado (n − 2).

Note di Sistemi Dinamici


460 APPENDICE

; <
Si ha quindi, indicando con λi gli autovalori di T ,
i=1,...,n
0= 1
Det (T − λ1I ) = (−λ)n + (−λ)n−1 Tii
0 1
+ termini che si annullano per λ = 0 + Det T
= [(λ − λ1 ) · (λ − λ2 ) · · · (λ − λn )] (−1)n
N 0= 1 0 1
= λn − λn−1 λi + termini che si annullano per λ = 0
0_ 1O
+ (−1)n λi (−1)n .

Ne segue
n
= n
_
Tr T ≡ Tr T = λi , Det T ≡ Det T = λi .
i=1 i=1

Ciò perché né pT (λ), né T r T . né Det T , dipendono dalla base usata; infatti: Det (T1 T2 ) = Det T1 Det T2 .
Inoltre, se due operatori A e B hanno la stessa base propria, allora gli autovalori di A + A sono la somma dei
rispettivi autovalori. Pertanto, per t ∈ R, l’operatore (1I + tT ) ha autovalori (1 + tλi ) e si ha che
n
_ n
=
Det (1I + tT ) = (1 + tλi ) = 1 + t λi + o(t) = 1 + t T r T + o(t).
i=1 i=1

Indicati con ρ(T ) := Rank T ≡ dim Im T ; ν(T ) := N ull T ≡ dim Ker T ; e detti λ1 , . . . , λr gli autovalori
distinti di T , per i ∈ {1, . . . , r} si ricordino le seguenti definizioni:
Molteplicità algebrica ai := a(λi ) := molteplicità di λi quale radice della equazione secolare.
; ' <
Autospazio relativo a λi := x ∈ V ' T x = λi x =: Ker (T − λi 1I ).
Molteplicità geometrica gi := g(λi ) := numero di autovettori (linearmente indipendenti) relativi all’autovalore
λi .

Sussistono i seguenti fatti:

(i) gi ≡ dim Ker (T − λi 1I ) ≡ n − Rank (T − λi 1I ) =: n − ρi ;


(ii) Ker (T − λi 1I ) è T -invariante, dato che T e (T − λj 1I ) commutano;
(iii) T è diagonalizzabile se e solo se g i = ai per ogni i = 1, . . . , r .
In tal caso la molteplicità algebrica di ciascun autovalore non supera C(e pertanto eguaglia) il numero di
r
autovettori ad essa corrispondenti, e si ha (si veda il N.B.1 @ § III.2) i=1 gi = n.
Naturalmente se l’operatore ammette autovalori complessi tutto ciò è vero in C V; poi, se T è reale, sarà
opportuno considerare in modo separato i piani relativi alle parti reali ed a quelle puramente immaginarie
relative ad ogni coppia di autovettori complessi coniugati.
; <
(iv) Se eh , è una base per Ker (T − λi 1I ), completandola si ottiene che la matrice dell’operatore
h=1,...,gi ⎛ ⎞

..
T . ∗
T ha la forma T = ⎝· · · . · · ·⎠ dove T ′ è diagonale ed ha dimensioni (gi × gi ) , mentre B è (ρi × ρi ) ;
0 .. B
e siccome
Det (T − λi 1I ) = Det (T ′ − λi 1Igi ) Det (B − λi 1Iρi )
si ha pT (λ) = pT ′ (λ) · pB (λ). D’altra parte T ristretto a Ker (T − λi 1I ) è diagonale, e quindi pT ′ (λ) =
(λi − λ)gi . Ciò implica solo che gi ≤ ai , ed infatti λi può ancora annullare pB .

(iv.1) nel caso di 1I si ha n = gi = ai ;


(iv.2) nel caso di tutte le radici λi distinte si ha 1 = gi = ai ;
(iv.3) nel caso di un unico blocco elementare di Jordan J si ha 1 = gi ̸= ai = n.

M. Lo Schiavo
A.6. Richiami di Algebra Lineare. ( II ) 461

(v) Se per una certa λi risulta gi = ai e quindi qj = 1 si dice che l’operatore ha in sua corrispondenza
Divisori elementari semplici, e cioè non ha alcun blocco di Jordan (non banale) relativamente al dato
autovalore.

(vi) Dato un qualsiasi operatore S ∈ L(V) è possibile decomporre V in una somma diretta KV = V+ ⊕ V0 di spazi
S -invarianti tali che SV+ è invertibile ed SV0 è nilpotente di un certo ordine q ≥ 1 . La seconda affermazione
significa che esiste q ∈ N tale che S q x = 0 ∀x ∈ V0 , e, se q > 1, ∃x ∈ V0 tale che S q−1 x ̸= 0. La prima significa
L
che per ciascun y ∈ V+ esiste unico x ∈ V+ tale che Sx = y . I due spazi V+ e V0 sono S -invarianti, e quindi V
) *
S1 0
ammette una base nella quale S ha matrice diagonale a blocchi: S = con S1q = 0 e Det S2 ̸= 0 .
0 S2

Dimostrazione

(vi.1) Ker S k−1 ⊂ Ker S k ; e siccome n = dim(V) < ∞, esiste q ≥ 1 tale che Ker S q−1 ⊂ KerS q = KerS q+1 .

(vi.2) Im S k+1 = S Im S k ⊆ Im S k ⊆ Im S k−1 .

(vi.3) V = V+ ⊕ V0 := Im S q ⊕ KerS q , (cosa generalmente non vera per S ).


Infatti ρ(S q ) + ν(S q )(= n; e se x ∈ ImS q ∩ Ker S k ⊆ ImS q ∩ Ker S q , con q definito in (vi.1) e 0 < k ≤ q ,
x = Sqy
allora x = 0 perché equivalgono a y ∈ Ker S q+k = Ker S q e quindi S q y = 0 .
Skx = 0
Inoltre è anche V = Im S q+h ⊕ KerS q+h , e quindi Im S q+h = Im S q .
7 8
(vi.4) S è nilpotente di ordine q ∈ [0, n] su Ker S q , Ker S 0 = {0} ; mentre la condizione x ∈ Im S q implica
che Sx = 0 se e solo se x = 0 , perché il punto (vi.3) è valido anche per k = 1 .

"

Si scriva il polinomio caratteristico nella forma

pT (λ) := Det (T − λ1I ) ≡ (−1)n (λ − λ1 )a1 · (λ − λ2 )a2 · · · (λ − λr )ar


; <
ove a1 + · · · + ar = n, e dove gli autovalori λj siano distinti fra loro. Sia j ∈ {1, . . . , r} l’indice relativo
j=1,...,r
a ciascuno degli autovalori distinti, e sia qj tale che

Ker (T − λj 1I )qj −1 ⊂ Ker (T − λj 1I )qj = Ker (T − λj 1I )qj +1 .

Si definisce
Autospazio generalizzato dell’operatore T , relativo all’autovalore λj :=
lo spazio
Mj := Ker (T − λj 1I )qj

Sussistono le seguenti relazioni:

T Mj ⊆ Mj
V = M1 ⊕ M2 ⊕ · · · ⊕ Mr
aj : = molteplicità algebrica di λj ≡ dim Ker (T − λj 1I )qj ≡ dim Mj
gj : = molteplicità geometrica di λj ≡ dim Ker (T − λj 1I )

Infatti: Mj ed il suo complementare Mcj := Im (T − λj 1I )qj sono invarianti non solo rispetto a (T − λj 1I ) ma anche rispetto a T ,
dato che T e (T − λj 1I ) commutano.
Inoltre (T − λj 1I ) è nilpotente di ordine qj su Mj , invertibile su Mcj e quindi λj non è autovalore di T2 := TMcj . Ma è
pT (λ) = (λj − λ)aj pT2 (λ) con pT2 (λj ) ̸= 0 e questo fa vedere che, per ogni j , la dim Mj è necessariamente la molteplicità algebrica
aj . "

Note di Sistemi Dinamici


462 APPENDICE

Qualora l’operatore T , che è reale, abbia autovalori complessi, dato che essi sono presenti a coppie coniugate,
tutto quanto visto si può considerare in C Rn nel quale ad ogni autospazio generalizzato Mj si affiancherà il suo
complesso coniugato Mj formando cosı̀ un “piano C T -invariante” Mj ⊕ Mj la cui parte reale risulta un piano reale
di uguale dimensione: 2aj , e T -invariante.
Teorema 1.6.2 [di Jordan]
L’operatore (T − λj 1I )Mj , indotto sullo spazio Mj da (T − λj 1I ), ammette una base sulla quale esso ha matrice
⎛ ⎞
0 δ1 0 · · · 0
⎜ .. ⎟
⎜0 0 δ2 0 . ⎟
⎜ ⎟
TJ := ⎜ .
⎜ .. . .. . ..

⎜ 0 ⎟⎟
⎝0 0 δaj −1 ⎠
0 0 0
con δk ∈ {0, 1} per k = 1, 2, . . . , aj − 1. #

Nota 1.6.3 La molteplicità geometrica gi ≡ dim (Ker(T − λi 1I )) è certamente minore o uguale di quella algebrica
ai ≡ dim (Ker(T − λi 1I )qi ) che è non minore dell’esponente qi risultandogli uguale solo se è presente un unico
blocco elementare per quel valore della i. È importante notare che può essere qi & gi ; per esempio: per un solo
blocco è qi ≥ gi = 1 , per l’unità 1I è qi ≤ gi = n. Si ricordi che qi è definito dalle
(
Ker (T − λi 1I )qi −1 ⊂ Ker (T − λi 1I )qi
Ker (T − λi 1I )qi = Ker (T − λi 1I )qi +1

Autovettore generalizzato di rango k := un qualunque vettore ϵ(λi ) tale che

ϵ(λi ) ∈ Ker (T − λi 1I )k \Ker (T − λi 1I )k−1 .

Base propria dell’operatore := una base costruita, per ciascun autospazio Mj , mediante le “catene”

v ∈ Ker (T − λj 1I )qj \(T − λj 1I )qj −1


ϵ(λ
qj
j)
:= v
(λ )
j
ϵqj −1 : = (T − λj 1I ) v
···
(λ )
ϵ2 j : = (T − λj 1I )qj −2 v
(λ )
ϵ1 j : = (T − λj 1I )qj −1 v ,
e ripetendo il procedimento a partire da tutti gli altri possibili vettori v , linearmente indipendenti da quelli già
precedentemente scelti.
Nota 1.6.4 In base propria la matrice di T è
⎛ ⎞
.. ..
⎜ J1 . 0 . ⎟
⎜· · · ··· ··· ⎟
⎜ ⎟
⎜ .. .. ⎟
⎜ 0 . J2 . ⎟
TJ = ⎜
⎜· · ·


⎜ ··· ··· ⎟
⎜ .. .. ⎟
⎜ . . J3 ⎟
⎝ ⎠
..
.
ove ⎛ ⎞
λj 1 0 0
⎜0 λj 1 ⎟
⎜ ⎟
⎜ .. .. ⎟
Ji := λj 1Ik + Ek ≡ ⎜
⎜ . . ⎟

⎜ .. ⎟
⎝ . 1⎠
0 λj

M. Lo Schiavo
A.6. Richiami di Algebra Lineare. ( II ) 463

Cr
con k ≤ qj ≤ a(λj ), i = 1, . . . , g , ove si è posto g := j=1 gj il numero di autovettori indipendenti di T (o coppie
di autovettori indipendenti, nel caso di coppie di autovalori complessi coniugati) e, come sopra, j = 1, . . . , r varia
sull’insieme degli autovalori distinti. Almeno uno dei Ji ha dimensione uguale al valore qj della corrispondente
λj . ◃

Nota 1.6.5 Se sono presenti coppie di radici complesse di molteplicità superiore ad uno, in C V si hanno blocchi
per esempio del tipo ⎛ ⎞ ⎛ ⎞
µ 1 0 0 µ 0 1 0
⎜0 µ 0 0⎟ ⎜0 µ̄ 0 1⎟
J =⎜⎝ 0 0 µ̄
⎟ ovvero TJ = ⎜ ⎟
1⎠ ⎝0 0 µ 0⎠
0 0 0 µ̄ 0 0 0 µ̄
e quindi si vede che nella base formata dalle parti reali e dagli opposti delle parti immaginarie dei vettori
(generalizzati) che costituiscono la base propria di T , questo ha matrice
⎛ ⎞
α −β 1 0
⎜β α 0 1 ⎟
T! := ⎜
⎝0
⎟,
0 α −β ⎠
0 0 β α

il cui esponenziale (si veda il Cap.III) è ovviamente la matrice


⎛ ⎞⎛ ⎛ ⎞⎞
cos βt − sin βt 0 0 ..
⎜ sin βt cos βt 0 0 ⎟ ⎜ ⎜ 0 . 1I2 ⎟⎟
eT̂ t := eαt ⎜
⎝ 0
⎟ ⎜1I 4 + t ⎜· · · · · ·⎟ ⎟
0 cos βt − sin βt⎠ ⎝ ⎝
..
⎠⎠
0 0 sin βt cos βt 0 . 0

Nota 1.6.6 Algoritmo per determinare la base propria di T .

(i) Scrivere pT (λ) := (−1)n (λ − λ1 )a1 · (λ − λ2 )a2 · · · (λ − λr )ar ≡ Det (T − λ1I ) ove λi ̸= λj e a1 + · · · + ar = n.

(ii) Calcolare Ker (T − λ1 1I )j per j = 1, 2, . . . fino a trovare q1 tale che


Ker (T − λ1 1I )q1 −1 ⊂ Ker (T − λ1 1I )q1 = Ker (T − λ1 1I )q1 +1 .
(λ1 )
(iii) Fissare v ∈ Ker (T − λ1 1I )q1 \Ker (T − λ1 1I )q1 −1 e definire gli autovettori generalizzati: ϵj :=
q1 −j (λ1 ) (λ ) (λ )
(T − λ1 1I ) , j = 1, . . . , q1 , il che implica ϵj−1 := (T − λ1 1I )ϵj 1 j = 2, . . . , q1 , ed ϵ1 1 ∈
Ker (T − λ1 1I ).

(iv) Se q1 < a1 fissare un altro v (i) ∈ Ker (T − λ1 1I )q1 −i \Ker (T − λ1 1I )q1 −i−1 se possibile con i = 0 , altrimenti
con i = 1 oppure con i = 2 , etc. , e che sia linearmente indipendente dai precedenti; poi ricominciare con
(3) fino ad ottenere in tutto a1 vettori linearmente indipendenti ripartiti in g1 catene.

(v) Ripetere (ii), (iii), (iv), con λ2 , λ3 , . . . , λr .


; <
(vi) Scrivere P tale che ϵi = Pih eh e controllare che sia P TJ = T P .
i=1,...,n

Esempio 6.7 [Non usare un computer!]


⎛ ⎞
3 −1 1 1 0 0
⎜1 1 −1 −1 0 0⎟
⎜ ⎟
⎜0 0 2 0 1 1⎟
T =⎜⎜0 0
⎟ ammette pT (λ) = (λ − 2)5 λ da cui
⎜ 0 2 −1 −1⎟ ⎟
⎝0 0 0 0 1 1⎠
0 0 0 0 1 1

Note di Sistemi Dinamici


464 APPENDICE

λ1 = 0, λ2 = 2 , con a1 = 1 ed a2 = 5 . In corrispondenza ad esse è


⎛ ⎞
1 −1 1 1 0 0
⎜1 −1 −1 −1 0 0⎟
⎜ ⎟
⎜0 0 0 0 1 1⎟
(T − 21I ) = ⎜
⎜0 0
⎟,
⎜ 0 0 −1 −1⎟

⎝0 0 0 0 −1 1⎠
0 0 0 0 1 −1

⎛ ⎞
0 0 2 2 0 0
⎜0 0 2 2 0 0⎟
⎜ ⎟
⎜0 0 0 0 0 0⎟
(T − 21I )2 = ⎜
⎜0
⎟,
⎜ 0 0 0 0 0⎟⎟
⎝0 0 0 0 2 −2⎠
0 0 0 0 −2 2

⎛ ⎞ ⎛ ⎞
.. ..
0 . 0 0 . 0
(T − 21I )3 = ⎝· · · . · · ·⎠ , (T − 21I )4 = ⎝· · · . · · · ⎠
0 . B . ′
0 .. B ′′
) * ) *
−4 4 8 −8
con B ′ := e B ′′ := . Pertanto si ha q2 = 3 . Risolvendo poi l’equazione (T − 21I )x = 0
4 −4 −8 8
si ricavano, sulle componenti degli autovettori di λ = 2 , le seguenti condizioni necessarie: x1 = x2 , x3 = −x4 ,
x5 = x6 = 0 ; si riconosce pertanto che è g2 = 2 .
Successivamente, dopo aver fissato ϵ1 ∈ Ker (T − 01I ) (per esempio: ϵ1 = (0, 0, 0, 0, 1, −1)T ), si ha v =
(0, 0, 1, 0, 0, 0)T ∈ Ker (T − 21I )3 \Ker (T − 21I )2 poiché ha x3 ̸= −x4 e x5 = x6 , e quindi si ricavano: ϵ2 =
(T − 21I )2 v = (2, 2, 0, 0, 0, 0)T , ed ϵ3 = (T − 21I )v = (1, −1, 0, 0, 0, 0)T , ed ϵ4 = v .

Visto poi che non ci sono altri v indipendenti in Ker (T − 21I )3 \Ker (T − 21I )2 si fissa w ∈ Ker (T −
21I )2 \Ker (T − 21I ). Deve essere x3 = −x4 ed x5 = x6 , quindi è giustificato il tentativo: w = (0, 0, 1, −1, 1, 1)T .
Si controlla che w ed u siano indipendenti, poi si pone ϵ5 = (T − 21I )w = (0, 0, 2, −2, 0, 0)T ed ϵ6 = w . Ne
risulta ⎛ ⎞ ⎛ ⎞
0 2 1 0 0 0 0 0 0 0 0 0
⎜ 0 2 −1 0 0 0⎟ ⎜0 2 1 0 0 0⎟
⎜ ⎟ ⎜ ⎟
⎜0 0 0 1 2 1 ⎟ ⎜0 0 2 1 0 0⎟
P =⎜⎜ ⎟ e TJ = ⎜ ⎜ ⎟
⎟ ⎟
⎜ 0 0 0 0 −2 −1⎟ ⎜0 0 0 2 0 0⎟
⎝ 1 0 0 0 0 1⎠ ⎝0 0 0 0 2 1⎠
−1 0 0 0 0 1 0 0 0 0 0 2

⎛ ⎞
1 0 0 0 0 0
⎜0 e2t te2t t2 2t
0 ⎟
⎜ 2e 0 ⎟
⎜0 0 e2t te2t 0 0 ⎟
e si ha P TJ = T P ed e TJ t =⎜
⎜0
⎟ .
⎜ 0 0 e2t 0 0 ⎟ ⎟
⎝0 0 0 0 e2t te2t ⎠
0 0 0 0 0 e2t

Si osservi che se lo scopo è quello di risolvere l’equazione ẋ = T x, a questo punto è sufficiente usare la formula
semplificata del § III.3 e proseguire come segue.
Il Ker (T − 21I )3 è lo spazio in cui le prime quattro componenti sono arbitrarie e le ultime due tali che
−4r + 4s = 0 e quindi tali che r = s; esso è pertanto lo
( >
(1, 0, 0, 0, 0, 0)T ; (0, 1, 0, 0, 0, 0)T ; (0, 0, 1, 0, 0, 0)T ;
span ;
(0, 0, 0, 1, 0, 0)T ; (0, 0, 0, 0, 1, 1)T

allo stesso tempo l’unico autovettore di λ1 = 0 è ϵ1 = (0, 0, 0, 0, 1, −1)T . Quindi la decomposizione di x0 è del
tipo
x0 =: x1 |0 + x2 |0 = (0, 0, 0, 0, a, −a)T + (c1 , c2 , c3 , c4 , b, b)T ,

M. Lo Schiavo
A.7. Richiami di Analisi Reale 465

e si può controllare che la (FR) del § III.3 fornisce il vettore


⎛ 2t ⎞
c1 e + te2t (c1 − c2 + c3 + c4 ) + t2 e2t (c3 + c4 )
⎜c2 e2t + te2t (c1 − c2 − c3 − c4 ) + t2 e2t (c3 + c4 )⎟
⎜ ⎟
⎜ c3 e2t + 2te2t b ⎟
x(t) = ⎜
⎜ 2t 2t


⎜ c4 e − 2te b ⎟
⎝ a + be 2t ⎠
2t
−a + be

che naturalmente è lo stesso risultato che si ottiene dalla prima parte dell’esercizio applicando la matrice P eTJ t
al vettore ξ = (ξ1 , .., ξ6 )T tale che (c1 , c2 , c3 , c4 , ξ1 + ξ6 , −ξ1 + ξ6 )T := x0 = P ξ . #

A.7 Richiami di Analisi Reale


Sia dato uno spazio vettoriale V, di dimensione finita n, su un campo K che in questo paragrafo si supporrà
essere il campo dei reali. (Il ricorso a spazi vettoriali sul campo dei complessi verrà fatto solo saltuariamente e
per ottenere risultati concernenti i primi in quanto sottoinsiemi dei secondi. È in tal senso conveniente supporre,
per il momento, K ≡ C per poter usare di tale maggiore generalità nelle definizioni e proprietà che qui vengono
ricordate.)
Una norma su V è una funzione definita positiva, omogenea, subadditiva. Un prodotto scalare su V una
forma bilineare (Hermitiana) simmetrica definita positiva (vedi oltre).
Verrà usata la seguente notazione (si veda preliminarmente il § A.5):
; <
• ei è una base in V;
i=1,...,n

• x = xi ei è la conseguente rappresentazione cartesiana del;vettore x ∈< V; si indicherà con x := (x , . . . , x ) la


1 n

n-pla dei numeri (del campo K ) che in tal modo la base e1 , . . . , en assegna al vettore x, ed all’occorrenza
la si considererà una matrice ad n righe ed una colonna, riservando la notazione xT alla matrice ad una riga
ed n colonne formata anch’essa dalle componenti controvarianti di x;
Cn
• ⟨ x, y ⟩ := i,j=1 xi ⟨ ei , ej ⟩ ȳ j = xT κ ȳ è il prodotto scalare;
• xi := ⟨ x, ei ⟩ sono le componenti covarianti del vettore. Si indicherà con x∗ := (x1 , . . . , xn ) la n-pla dei
numeri (del campo K ) che in tal modo resta assegnata al vettore x, ed all’occorrenza la si considererà una
matrice ad una riga ed n colonne;
; < K
• e∗i una base nello spazio V∗ duale di V; e cioè quello delle forme lineari su V. Siccome la
i=1,...,n C
più generale forma Hermitiana su x ha come risultato un numero ai x̄i , ciascuna forma: a ≡ ⟨ a, · ⟩ ∈ V∗ è totalmente
L
individuata dagli n scalari a∗ = (a1 , . . . , an ) mediante la: a = ai e∗i . Nel seguito, tuttavia, si farà generalmente
ricorso al teorema dell’isomorfismo;fra<spazi vettoriali equidimensionali, e si assumeranno definiti nello spazio
V anche i “vettori” a che la base ei ed il prodotto ⟨ · , · ⟩ individuano mediante la corrispondenza
K i=1,...,n
C ; <
a : x &→ ai x̄i ≡ aj ⟨ ej , ei ⟩ x̄i In particolare, gli e∗i sono quei vettori tali che e∗i : x &→ x̄i = ⟨ e∗i , x ⟩ ,
i=1,...,n
e sono rappresentati da e∗i = (e∗ i; )j ej< per definizione tali che ⟨ e∗i , eh ⟩ = δh
i = (e∗i )j ⟨ e , e ⟩ . In tal modo risulta valida
j h
l’espressione x = xi e∗i perché gli e∗i sono una base, ed x − xi e∗i ha componenti (di Fourier) nulle su ogni versore
L i=1,...,n
e∗j .

• Sussistono le
xi = xj ⟨ ej , ei ⟩ =: xj κ ji , ⟨ x, y ⟩ = xi ȳ i , x∗ = xT κ , κ = κT ,
e le =
x̄i = e∗i (x) x= e∗i (x) ei (e∗i )j = κij (e∗i )j = δji
=
xi = ei (x∗ ) x∗ = ei (x∗ ) e∗i (ei )h = κih (ei )h = δih

Sui prodotti scalari, e quando; sia< fissata la base, può essere allora
; conveniente
< usare la notazione con
componenti miste. I numeri xi coincidono con i numeri xi soltanto quando la forma
i=1,...,n i=1,...,n
; <
(Hermitiana) del prodotto scalare riconosce come ortonormali i versori di base ei .
i=1,...,n

Note di Sistemi Dinamici


466 APPENDICE

; < ; <
• Un operatore (invertibile) P induce un cambio di base: da ei ad ϵi := Pei . Detta P
i=1,...,n i=1,...,n
la sua {e}-matrice, per definizione si ha

ϵh = P k h ek ek = P −1h k ϵh .
e quindi
; <
In modo conseguente mutano le componenti “naturali” o controvarianti: xj di un vettore: x =
j=1,...,n
; <
ξ j ϵj = xh eh secondo la xh = P h j ξ j , ovvero x = P ξ . A loro volta le componenti covarianti xi
i=1,...,n
mutano secondo la
−1 h −1 h −T
xk := ⟨ x, ek ⟩ = ⟨ x, ϵh ⟩ P k = ξh P k = P k h ξh
o anche
xk := ⟨ x, ek ⟩ = ξj ⟨ ϵ∗j , ek ⟩ = ξj P −1j i ⟨ e∗i , ek ⟩ = ξj P −1j k
ove si è usata la ϵ∗j = P −1j i e∗i e si è posto

⟨ x, ϵj ⟩ = ξ h ⟨ ϵh , ϵj ⟩ =: ξ h χhj = ξj ,
da non confondere con ξ h κhj .

Se ne ricava, con: ξ ∗ = ξ T χ = (ξ1 . . . , ξn ), l’espressione


−1 ∗
x∗ = ξ ∗ P ≡ ξ ∗ ( χ −1 P T κ ) ≡ ξ ∗ χ −1 κ P .

Quando il tensore della metrica è comunque scelto unitario, la κ scompare, e si conviene di riservare la
posizione in alto per l’indice di riga (e cioè l’indice che percorre lo spazio di arrivo).

Negli spazi vettoriali reali a dimensione finita sono di frequente uso le seguenti particolari norme:
/Cn / √
Norma Euclidea standard := ∥x∥2 = i 2 ⟨ x, x ⟩ = xT x̄
i=1 (x ) =

quella cioè definita a partire dal prodotto scalare standard


n
= n
=
⟨ x, y ⟩ = xi ȳ i = xi ȳ i , κ ij := ⟨ ei, ej ⟩ = δij
i=1 i=1
; <
e che quindi assume i versori
ei come ortonormali.
i=1,...,n
/ /Cn √
i=1 x κ hi x̄ = xT κ x̄;
Norma Euclidea := ∥x∥2 ≡ ⟨ x, x ⟩ := h i
Cn
Norma del “Tassinaro” := ∥x∥1 = i=1 |xi |;
Norma del Sup := ∥x∥∞ = max1≤i≤n |xi |;
Norma Euclidea in base B := la norma ∥x∥B data da
l
m n B
m=
∥x∥B := n ξ i κ ij ξ¯j = ξ T κ ξ̄ .
i=1

In questa relazione, le (ξ 1 , . . . , ξ n ) sono le componenti del vettore x rispetto ad un’altra base B, e κ è la matrice
del tensore della metrica K della base {e} , ovvero: κ ij = ⟨ ei , ej ⟩ .
La base B sia individuata (ad esempio) mediante un operatore invertibile P :
; <
P : ei &−→ {ϵj := Pej }j=1,...,n =: B ,
i=1,...,n

e si chiami P −∗ l’aggiunto di P −1 rispetto al prodotto scalare ⟨ ·, · ⟩ . La matrice del tensore K è allora anche
esprimibile mediante la

κ ij = ⟨ ei , ej ⟩ = ⟨ P −1 ϵi, P −1 ϵj ⟩ = ⟨ ϵi , P −∗P −1 ϵj ⟩ =: ⟨ ϵi, ϵj ⟩ S


ove si sono introdotti

l’operatore def. pos. S := P −∗ P −1 , ed il prodotto ⟨ ·, · ⟩ S := ⟨ · , S · ⟩ .

M. Lo Schiavo
A.7. Richiami di Analisi Reale 467

Il fatto che K sia un tensore metrico assicura che l’operatore S è definito positivo, e che il prodotto ⟨ ·, · ⟩ S sia
un corretto prodotto interno. < che rispetto al prodotto scalare ⟨ ·, · ⟩ S (e ;non<rispetto al prodotto scalare
; Si osservi
iniziale: ⟨ ·, · ⟩ ) i versori ϵi := Pei hanno la stessa metrica dei versori ei , e cioè:
i=1,...,n i=1,...,n

( χ S )ij := ⟨ ϵi , ϵj ⟩ S = ⟨ ϵi , Sϵj ⟩ = ⟨ Pei , SPej ⟩ = ⟨ ei , ej ⟩ = κ ij ,

in generale diversa dalla


⟨ ei , ej ⟩ S = ⟨ ei , S ej ⟩ = ⟨ ϵi , ϵj ⟩ = χ ij =: ( κ S )ij .
La norma ∥x∥B è quella indotta da tale prodotto scalare

⟨ x, y ⟩ S = ⟨ x, Sy ⟩ = ξ i ⟨ ϵi , Sϵj ⟩ η̄ j = ξ i ⟨ ei , ej ⟩ η̄ j = xi ⟨ ei , P −∗ P −1 ej ⟩ ȳ j ,

ovvero
x κS y = ξ κ η = x κ P −∗ P −1 y
generalmente diverso da

xi κ ij ȳ j = xi ⟨ ei , ej ⟩ ȳ j = ⟨ x, y ⟩ = ξ i ⟨ ϵi , ϵj ⟩ η̄ j = ξ i χ ij η̄ j .
/ /
La norma ∥·∥B = ⟨ ·, · ⟩ B e la ∥·∥2 = ⟨ ·, · ⟩ non coincidono a meno che il cambio di base P sia
(unitario o) ortogonale: P ∗ = P −1 , e quindi S = 1I ed P −T κ = κ P̄ . In tal caso entrambe le basi ammettono
la stessa metrica, ed in particolare essere entrambe ortonormali rispetto ad uno stesso prodotto scalare.
È chiaro come mai, talvolta, la norma ∥·∥B venga anche chiamata
Norma rispetto all’operatore, (autoaggiunto) definito positivo, S := P −∗ P −1 .
N.B. 1.7.1 Si noti che la base ortonormale BS =: {PS ei }i=1,...,n fatta con gli autovettori di un qualsiasi operatore
autoaggiunto S non è la base B := {Pei }i=1,...,n , qualora questa esista, determinata dall’operatore P che
definisce S mediante la S = P −∗ P −1 ,
La prima esiste certamente dato che S è normale, e può essere scelta ortonormale: PS∗ PS = 1I = PS−∗ PS−1
(ove PS è la {e}-matrice di PS ), o comunque con la stessa metrica della base {e} ; conserva quindi il prodotto
scalare: ∥x∥22 = xT κ x̄ = ⟨ x, x ⟩ = ξST κ ξ̄S = ∥x∥2BS , e verifica la ⟨ x, Sx ⟩ = λ(i) ξS j κ ji ξ¯S i giacché assegna
ad S la matrice λ(i) δji .
Affinché esista la seconda occorre che l’operatore S (certamente semidefinito) sia definito positivo. In tal caso
essa viene costruita mediante il procedimento di Gram-Schmidt a partire dal prodotto ⟨ ·, · ⟩ S ; inoltre, come detto
sopra, assegna all’operatore S = P −∗ P −1 (la cui {e}-matrice è P −∗ P −1 ) la matrice Σ = P −1 P −∗ = χ −1 κ ,
e fornisce ⟨ x, Sx ⟩ ≡ ⟨ x, x ⟩ S ≡ ∥x∥B = ξ T κ ξ̄ , apriori diverso da ⟨ x, x ⟩ = ξST κ ξ̄S . Per la prima, χ = K
2

e χ S = λ(i) 1I , per la seconda χ S = K e Σ (la {ϵ} -matrice di S ) è generalmente diversa dalla matrice
diagonale λ(i) 1I . ♦

; ' <
La figura mostra le frontiere degli insiemi x ' ∥x∥ ≤ 1

2
1

Si ricordi poi la definizione di:


Norme Equivalenti ϖ1 , ϖ2 := esistono a, b ∈ R\ {0} tali che

aϖ2 (x) ≤ ϖ1 (x) ≤ bϖ2 (x) per ogni x ∈ V .

Naturalmente l’equivalenza che ne risulta è ai fini delle convergenze ma non ai fini della rapidità con le quali le
successioni convergono. Si osservi che quando le due norme sono equivalenti i due spazi metrici (V, ϖ1 ) e (V, ϖ2 )

Note di Sistemi Dinamici


468 APPENDICE

sono metricamente equivalenti (e cioè le metriche indotte dalle due norme sono uniformemente equivalenti, nel
senso che l’identità è funzione uniformemente continua); pertanto le successioni di Cauchy restano tali in entrambi
gli spazi metrici.)

Proposizione 1.7.2 Giacché lo spazio V è a dimensione finita, se ϖ è una (qualunque) norma su V allora ogni
altra norma è equivalente ad essa. #

Dimostrazione È facile
C iconstatare7cheC ϖ 8è funzione continua su V rispetto alla norma ∥·∥2 . Infatti: esiste
µ ∈ R tale che ϖ(x) ≤ |x |ϖ(ei ) ≤ |xi | µ ≤ nµ ∥x∥∞ ≤ nµ ∥x∥2 , e quindi |ϖ(x) − ϖ(y)| ≤ ϖ(x − y) ≤
nµ ∥x − y∥2 . D’altra parte la superficie sferica è un sottoinsieme compatto di Rn , n < ∞, (sempre rispetto
alla norma ∥·∥2 ). Esistono quindi finiti a := min∥y∥2 =1 ϖ(y) e b := max∥y∥2 =1 ϖ(y). Infine, per α > 0 si
ha ϖ(x/α) = ϖ(x)/α ; e siccome i vettori y che hanno ∥y∥2 = 1 sono tutti e soli del tipo x/ ∥x∥2 con x qualsiasi
in V, ponendo α := ∥x∥2 si ha per costruzione che

ϖ(x)
a≤ ≤b x ∈ V.
∥x∥2

"

Esempio 7.3
n
=
∥x∥2∞ ≤ |xi |2 ≤ n ∥x∥2∞ ;
i=1

ed analogamente
1
∥x∥1 ≤ ∥x∥∞ ≤ ∥x∥1 .
n
In particolare sussistono le

∥x∥∞ ≤ ∥x∥2 ≤ ∥x∥1 ≤ n ∥x∥2 ,

perchè le somme di quadrati di numeri non negativi sono non superiori ai quadrati delle somme e, d’altra parte, si
C 7 82 7C i 2 8 C 7C i 2 8 7C i 82
ha che 0 ≤ i<j |xi | − |xj | = (n − 1) |x | − 2 i<j |xi ||xj | = n |x | − |x | . #

Si consideri ora un operatore T : V1 → V2 , e su entrambi V1 e V2 (reali, di dimensioni n, m < ∞) sia


fissata la norma euclidea.
Si ponga poi: τmin := l’estremo inferiore dei numeri reali τ tali che risulti ∥T x∥2 ≤ τ ∥x∥2 per ogni
x ∈ V1 \{0} .

N.B. 1.7.4 Almeno un τ esiste finito perché T è lineare continuo. D’altra parte, per l’omogeneità delle norme e
di T si ha che τmin è anche l’estremo inferiore dei numeri reali τ tali che ∥T x1 ∥2 ≤ τ per ? ogni
) x1*? ∈ Rn con
? x ?
∥x1 ∥2 = 1 . Infatti, l’omogeneità delle norme e la linearità di T implicano che ∥T x∥ = ∥x∥ ?
?T ∥x∥ ? .
?

In particolare, sebbene la ∥x∥ ≤ ∥y∥ non basti a concludere che ∥T x∥ ≤ ∥T y∥ , tuttavia questa sussiste se x = λy
e se |λ| ≤ 1 . Ne segue che ∥T x∥ ≤ ∥T (x/∥x∥)∥ per tutti gli x che hanno ∥x∥ ≤ 1 .
Si osservi ora che per ogni x ̸= 0 esiste x1 tale che x = λx1 = ∥x∥ x1 , con ∥x1 ∥ = 1; quindi per ∥x∥ ≤ 1
si ha ∥T x∥ = ∥x∥ ∥T x1 ∥ ≤ ∥T x1 ∥ , da cui sup∥x∥≤1 ∥T x∥ ≤ sup∥x∥=1 ∥T x∥ . Sussiste però anche la seguente
; ' < ; ' <
inclusione x ∈ V ' ∥x∥ ≤ 1 ⊃ x ∈ V ' ∥x∥ = 1 , per cui risulta

sup ∥T x∥ ≡ sup ∥T x∥ .
∥x∥=1 ∥x∥≤1

D’altra parte, il sup∥x∥≤1 ∥T x∥ è anche un max, giacchè la sfera unitaria è insieme chiuso e limitato in uno
spazio a dimensione finita, e quindi compatto.
Quando la norma è la ∥·∥2 , si chiami α tale massimo. Esso è maggiore o uguale di ∥T x∥2 per ogni ∥x∥2 = 1 ,
e perciò τmin ≤ α . Ma è anche estremo superiore, e quindi esiste xε con ∥xε ∥ = 1 tale che α − ε ≤ ∥T xε ∥ ≤ τmin .
Ciò vero per ogni ε > 0 , è anche α ≤ τmin . ♦

M. Lo Schiavo
A.7. Richiami di Analisi Reale 469

In definitiva si definisce:
Norma di un operatore: ∥T ∥ := la funzione che associa ad ogni operatore lineare T : V1 → V2 il numero
non negativo
τmin ≡ α := max ∥T x∥2 .
∥x∥2 =1

Tale funzione prende anche il nome di Norma Uniforme o Norma Spettrale.

N.B. 1.7.5 Essa ha infatti le proprietà di una norma:

• È definita positiva, infatti ∥T x∥2 ̸= 0 per almeno un x purchè Im T ̸= {0} ;

• È omogenea, perchè tale è ∥·∥2 e perchè max |α| ∥T x∥2 = |α| max ∥T x∥2 ;

• È subadditiva, perchè ∥(T + S)x∥2 ≤ ∥T x∥2 + ∥Sx∥2 ≤ (∥T ∥ + ∥S∥) ∥x∥2 ;

• Sussiste la ∥T S∥ ≤ ∥T ∥ ∥S∥ ;

• Induce una metrica, perchè ∥(T − S)x∥2 > 0 purchè T ̸= S ;

• Si chiama spettrale, perchè detto λ !max il più grande autovalore (reale non negativo) dell’operatore κ -
B
∗ (S)
autoaggiunto, semidefinito positivo, S := T T , si ha ∥T ∥ = λmax . Infatti, espresso il prodotto scalare
mediante le componenti nella base κ -ortonormale
; < degli autovettori di S = T ∗ T si vede che: ∥T x∥22 =
C
λ(i) ξS j κ ji ξS i , con ξS i
(S)
⟨ T ∗ T x, x ⟩ = le componenti dei vettori in tale base. Inoltre la sfera
i=1,...,n
unitaria contiene anche vettori con S -componenti tutte nulle salvo una.
; <
• Se T stesso è autoaggiunto si ha ∥T ∥ = max1≤i≤n |λi |, con λi gli autovalori di T .
i=1,...,n
(S)
(Nel caso generale non è detto che λmax sia il massimo dei λ2i , che possono essere complessi; né è detto
(S)
[Voyevodin IX.7.8; Gantmacher IX.12] che λ(i) = λ(i) λ̄(i) , a meno che T sia normale).

• Non va confusa questa norma con le altre, equivalenti, che si ottengono in modo analogo, quali per esempio
le seguenti norme (il cui valore dipende dal sistema di coordinate scelto)

1,n
=
max ∥T x∥1 = |Tji |,
∥x∥∞ =1
i,j
n
=
max ∥T x∥∞ = max |Tji |
∥x∥∞ =1 1≤i≤n
j=1
=n
max ∥T x∥1 = max |Tji | .
∥x∥1 =1 1≤j≤n
i=1

Proposizione 1.7.6 Lo spazio L(V1 , V2 ) degli operatori lineari


0 1 0 1
(1) (2)
T : V1 , ∥·∥ −→ V2 , ∥·∥
0 1
(2)
è uno spazio lineare completo se lo è V2 , ∥·∥ . #

0 1
(2)
Un esempio di spazio completo è (Rm , ∥ · ∥) , e quindi lo è anche qualunque V2 , ∥·∥ che sia ad esso
isomorfo.

Note di Sistemi Dinamici


470 APPENDICE

Dimostrazione
; < Sia data una successione di Cauchy, per esempio rispetto alla norma detta, di operatori
lineari Ti . Per un qualunque fissato x ∈ V\{0} si pongano yi := Ti x. Per ε > 0 ed h, k sufficientemente
i∈N
(2) (2) (1) (1) (1)
grandi si ottiene;∥yh<− yk ∥ = ∥(Th − 0
Tk )x∥ ≤ 1∥Th − Tk ∥ ∥x∥ ≤ ε ∥x∥ . Ma ∥x∥ è indipendente da
(2)
ε, h, k, e quindi yh è Cauchy in V2 , ∥ · ∥ . La completezza di quest’ultimo garantisce l’esistenza del
h∈N
limite y! := limh→∞ yh . D’altra parte il passaggio al limite conserva la struttura lineare, e quindi il vettore
; y!<sarà
necessariamente una combinazione lineare, con coefficienti che dipendono linearmente dalle componenti xk
k∈N
di x, dei (peraltro arbitrari) vettori della base:
(1) (1) (2)
lim Th (xk ek ) = xk lim Th ek =: xk τk = xk T j k ej .
h→∞ h→∞

Esso è pertanto un trasformato lineare del vettore x, e quindi definisce un operatore T ∈ L(V1 , V2 ) tale che
y! =: T x, e la cui {e}-matrice
; < è la T .
Infine, siccome yk è Cauchy, per k grande l’operatore T verifica la
k∈N
? ?
? ?
?(Tk − T ) x ? ≤ ε e quindi max ∥(Tk − T )x∥ ≡ ∥Tk − T ∥ < ε .
? ∥x∥ ? ∥x∥ ∥x∥=1
; <
L’operatore T è allora il (solo) limite in norma della successione Tk . "
k∈N

Conseguenza ; <
Data una successione di operatori Sk in L(V1 , V2 ) si considera la famiglia dei numeri ∥Sk − Sh ∥ . Se questi
0 k∈N 1
sono piccoli per h, k grandi, e se V2 , ∥·∥(2) è completo, allora ha significato parlare dell’operatore limite (in
norma) della successione.
Ch
In particolare se la successione è una successione di somme parziali Sh := j=1 Tj , e si nota che, dato
ε > 0 , per h e k sufficientemente grandi sussiste la
? ?
? h ?
? = ?
∥Sh − Sk ∥ ≡ ?
? T ?
j? ≤ ε ,
?j=k+1 ?
C∞
allora si può affermare che esiste, in L(V1 , V2 ), la somma della serie, e cioè un operatore S := h=1 Th tale che
? ?
? h ?
? = ? h
?S − T ?
j ? −→ 0 .
?
? j=1 ? ∞
C∞
?C k=1 ∥T
Una tal serie si dice assolutamente convergente se accade che anche la serie delle norme ? k ∥ è convergente
? h ?
(da non confondere con la successione, convergente, delle norme delle somme ridotte: ? j=1 Tj ? ).
; <
Nota 1.7.7 Sia data una qualsiasi successione Rh di operatori in L(V1 , V2 ). Esaminare le differenze
h∈N
∥Rh − Rk ∥ è ben diverso dal considerare le differenze ∥Rh ∥ − ∥Rk ∥ . ; <
Se accade che ∥Rh − Rk ∥ ≤ ε per h, k abbastanza grandi, e cioè se la successione Rh è di Cauchy, certo
; < h∈N
ne segue che la successione ∥Rh ∥ è anch’essa di Cauchy; infatti: |∥Rk ∥ − ∥Rh ∥| ≤ ∥Rk − Rh ∥ .
h∈N
Tuttavia il viceversa non sussiste, in generale, a meno che: il limite delle ∥Rh ∥ sia zero, nel qual caso
∥Rh − Rk ∥ ≤ ε/2 + ε/2 , oppure quando la norma della differenza sia uguale alla differenza delle norme, ; < e
cioè quando gli operatori sono proporzionali: Rh = λh R ; e anche in tal caso basta che la successione λh
; < ; < h∈N
sia convergente per avere che ∥Rh ∥ è convergente, e che Rh è convergente. ◃
h∈N h∈N

Sussiste, tuttavia, la seguente, generale,


; <
Proposizione 1.7.8 Se la successione Rh è una successione di somme ridotte, e cioè ha come gene-
h∈N
Ck Ch
rico elemento Sk := i=1 Ti , e quindi Sh − Sk := i=k+1 Ti , allora studiando la convergenza o meno

M. Lo Schiavo
A.8. Richiami di Analisi Complessa 471
; <
non già della successione delle norme delle somme ∥Sk ∥ , ma della successione delle somme delle norme
; Ch < ?C k∈N ?
C
? ?
sh := i=1 ∥Ti ∥ , dall’essere ∥Sh − Sk ∥ = ? hi=k+1 Ti ? ≤ hi=k+1 ∥Ti ∥ si può concludere che se lo
h=1,...,n
Ch
spazio L(V1 , V2 ) è completo e se la serie i=1 ∥Ti ∥ delle norme degli argomenti è convergente allora è conver-
Ch
gente in L(V1 , V2 ) (in norma, assolutamente ed uniformemente) la serie i=1 Ti degli argomenti medesimi.
#

In effetti si è provato, più in generale, che: in uno spazio lineare normato completo ogni serie assolutamente
convergente è convergente.
È infine opportuno notare che sussiste anche l’affermazione complementare:
Se dall’assoluta convergenza di una qualsiasi serie di uno spazio normato se ne può dedurre la convergenza,
allora lo spazio è completo. ; <
Infatti: data in esso una qualunque successione di Cauchy, se ne potrà estrarre una sottosuccessione xh
C∞ −h h∈N
tale che ∥xh+1 − xh ∥ < 2−h . La serie h=1 2 è convergente e quindi l’ipotesi implica che è convergente la
C∞
serie h=1 (xh+1;− x< h ); le somme parziali di quest’ultima sono d’altronde xh − x1 . È quindi convergente la
sottosuccessione xh e di qui la successione di partenza.
h∈N

A.8 Richiami di Analisi Complessa


Con la locuzione Retta complessa C si intende lo spazio dei “numeri” z indicati con
z ≡ α + iβ , α, β ∈ R
dotato delle operazioni di somma e di prodotto secondo la:
(
z + z ′ : = (α + α′ ) + i(β + β ′ )
z · z ′ : = (αα′ − ββ ′ ) + i(αβ ′ + βα′ ).

Tali operazioni sono


commutative z1 + z2 = z2 + z1 , z1 z2 = z2 z1 ;
associative z1 + (z2 + z3 ) = z1 + z2 + z3 , z1 (z2 z3 ) = z1 z2 z3 ;
“ · ” è “ + ” distributiva z1 (z2 + z3 ) = z1 z2 + z1 z3 ;
esistono gli elementi neutro ed inverso:
( (
lo zero 0 := 0 + i0 −z : = z + (−z) = 0
−1
l’unità 1 := 1 + i0 z := zz −1 = 1 se z ̸= 0.
(
(αα′ − ββ ′ ) = 1
In particolare, riscrivendo quest’ultima relazione nella forma ed usando il fatto che, per ipotesi,
(βα′ + αβ ′ ) = 0,
è α2 + β 2 ̸= 0 , si ricava
α β
z −1 = −i 2 .
α2 +β 2 α + β2
Riassumendo: i complessi formano un campo.
La mappa che lascia invariata la parte reale e cambia il segno di quella puramente immaginaria dei numeri di
C si chiama
operazione di Coniugio : z &→ z̄ := α − iβ.
Introdotta la
funzione Modulo : | · | : C → C definita dalla |z|2 := α2 + β 2 ,risultano vere le

zz ′ = z̄ z̄ ′ ,
z + z ′ = z̄ + z̄ ′ ,

z −1 = ,
|z|2
z z ≡ z 2 ̸= |z|2 ≡ z z̄ .

Note di Sistemi Dinamici


472 APPENDICE

Si noti che la coniugazione complessa non è un’operazione C-lineare.


Inoltre si ha
/ B
|z1 z2 | = (α1 α2 − β1 β2 )2 + (α1 β2 + α2 β1 )2 = (α21 + β12 )(α22 + β22 ) = |z1 ||z2 |

mentre è |z1 + z2 | ≤ |z1 | + |z2 | , e quindi | |z1 | − |z2 | | ≤ |z1 + z2 |.


Mediante la definizione di prodotto in C, considerato normato dalla funzione modulo, si può definire come
segue la funzione:

exp : ς ∈ C &→ eς ∈ C, ς ≡ σ + i θ, σ := ℜe ς ∈ R, θ := ℑm ς ∈ R.
C∞ 1
Si nota innanzi tutto che n=0 n! |ς|n = e|ς| < ∞ implica la
' k ' ' k '
'= ς n = h
ς n '' '' = ς n '' = 1
k
' h,k
' − =
' ' ' ≤ |ς|n −−−→ 0
' n! n! ' ' n! ' n! ∞
n=0 n=0 n=h n=h

Ck n
per cui la successione n=0 ςn! è di Cauchy in (C, | · |) . Questo, per la completezza di R ed il fatto che: |ς| tende
Ck n
a zero se e solo se σ e θ tendono simultaneamente a zero, assicura che per ogni ς ∈ C la successione n=0 ςn!
converge ad un limite appartenente a C ed indicato con e . ς

In particolare per ς = iθ si trova l’importante relazione:


=∞ =∞ ∞
(iθ)n (iθ)2n = (iθ)2n+1
eiθ = 1 + = +
n=1
n! n=0
(2n)! n=0
(2n + 1)!
∞ ∞ (8.26)
= (−1)n θ2n = (−1)n θ2n+1
= + i = cos θ + i sin θ .
n=0
(2n)! n=0
(2n + 1)!

Se allora si introducono le:

|z| =: ρ =: eσ , ℜe z =: α =: ρ cos θ , ℑm z =: β =: ρ sin θ ,

l’espressione di sopra fornisce (ρ ̸= 0) la nota


/ α β
α + i β = z = ρeiθ = eσ+iθ = eς ; ρ= α2 + β 2 , θ = arccos ∩ arcsin .
ρ ρ

Decomplessificare la retta complessa significa far scomparire la i , e cioè interpretare le precedenti operazioni
come delle operazioni su coppie ordinate di numeri reali o, come più spesso si ricorda, su vettori nel piano di
Gauss: R C := R2 . L’isomorfismo tra C ed R2 si ottiene assumendo fissata, come base “canonica”: {e1 , e2 } ,
la base rispetto alla quale il numero complesso z risulta rappresentato dal vettore z ≡ (α, β) avente componenti
rispettivamente α := ℜe z , β := ℑm z . In particolare l’unità reale 1 + i0 e l’unità immaginaria 0 + i1 sono
rappresentate dai versori della base: e1 ed e2 .
Si nota che in R C la somma è l’ordinaria somma per componenti, mentre il modulo |z| ≡ |z| è la norma euclidea
standard.
La moltiplicazione di un generico z ′ ∈ C per un numero (scalare) complesso z ∈ C\{0} , in quanto operazione
che trasforma un certo vettore z ′ ∈ R2 in un altro z ′′ ∈ R2 , risulta necessariamente rappresentata da una
trasformazione lineare reale, e cioè da un punto in L(R2 ). Nel seguito si indicherà tale operatore mediante la
notazione R z : R C → R C. Le due relazioni, valide in C,

z 1=z =α+i β z i = −β + i α =: z+

inducono in R C le corrispondenti
) * ) * ) * ) *
R
1 R
α R
0 R
−β
z = z e1 = z = , z = z e2 = z+ = , (8.27)
0 β 1 α

e quindi in questa base risulta


) * ) *
R
α −β cos θ − sin θ
z ≡ ≡ ρ . (8.28)
β α sin θ cos θ

M. Lo Schiavo
A.8. Richiami di Analisi Complessa 473

Equivalentemente, ci si può servire della richiesta che (nella base scelta) accada
) * ) ′ *
ℜe (zz ′) αα − ββ ′
z ′′ = R z z ′ = ≡ = R z′ z , (8.29)
ℑm (zz ′ ) βα′ + αβ ′

e questa di nuovo fornisce l’espressione (8.28). Inoltre, mediante la


) ′′ * ) *) ′ *) * ) ′ *) *
α α −β α −β ′ 1 αα − ββ ′ −(αβ ′ + βα′ ) 1
′′ = ′ ′ =
β β α β α 0 βα′ + αβ ′ αα′ − ββ ′ 0

si può controllare che la forma (8.28) risulta consistente con la moltiplicazione fra due qualunque scalari complessi:
R
z R z ′ = R (zz ′ ) = R z ′ R z , e cioè fra due punti di L(R C), e che è assicurata la commutatività della moltiplicazione
in L(R C).
In particolare è agevole controllare che la moltiplicazione fra due numeri complessi z e z ′ ha come risultato
un numero complesso z ′′ avente come modulo il prodotto dei loro moduli e come argomento la somma dei loro
argomenti: ) * ) *
′ ′ ′
′′ ′ cos θ cos θ − sin θ sin θ ′ cos(θ + θ )
z = ρρ = ρρ .
sin θ cos θ′ + cos θ sin θ′ sin(θ + θ′ )
Questo, e la ricordata proprietà: ρ → 0 ⇐⇒ a, b → 0 , assicurano che anche i procedimenti di limite e di somma
di serie si conservano nel passaggio da C ad R C.
) * ) *
Esempio 8.1 i = 01 implica R i = 10 −1 0
e produce una rotazione di π2 in senso antiorario; (equivalen-
temente: 0 + i1 = cos π2 + i sin π2 ). ) *
cos nπ/2
A sua volta questa fornisce le componenti di in ; esse sono . #
sin nπ/2

Esempio 8.2 ) * ) *) * ) *
R
α 0 −1 1 α
z = (α + iβ)e1 = +β = αe1 + βe2 = .
0 1 0 0 β
#
) *
α 0
Esempio 8.3 = R
ℜe z := 1R
2 (z + z̄) . #
0 α

Esempio 8.4 ) * ) *) *
β 0 1 1 0 −2β 0 −1
= ℑm z := − R (z − z̄) R i = −
R
0 β 2 2 2β 0 1 0
) * ) *
ℜe z 0
e quindi R
ze1 = (R ℜe z) e1 + (R ℑm z) e2 = + . #
0 ℑm z

Esempio 8.5 (si veda anche l’Esempio 5.19); le espressioni


(iβ)2k = (−1)k β 2k ed (iβ)2k+1 = i(−1)k β 2k+1

forniscono le ) * ) *
1 0 0 −1
R
(iβ)2k = β 2k (−1)k , R
(iβ)2k+1 = β 2k+1 (−1)k .
0 1 1 0
#

In definitiva la decomplessificazione attribuisce a C la struttura di spazio vettoriale R C ≡ R2 (e di sottogruppo


commutativo di L(R2 ) ), per cui ne condivide le proprietà di spazio normato. Si ricava cosı̀ che il decomplessificato
della somma di una serie convergente di numeri complessi è la somma della serie dei decomplessificati (convergente
nella norma ereditata dal modulo: ∥R z∥ := |z|), e che il prodotto dei decomplessificati è commutativo ed è il
decomplessificato del prodotto.
In particolare si può usare l’Esempio 8.5 per riottenere l’equivalente in R2 della (8.26), cosa senz’altro lecita
visti i risultati sull’esistenza in L(Rn ) dell’operatore esponenziale di uno reale. Dalla
0 1
=∞ ) * = ∞ ) *
0 −θ (−1)k 2k 1 0 (−1)k 0 −1
e θ 0 = θ + θ2k+1
(2k)! 0 1 (2k + 1)! 1 0
k=0 k=0

Note di Sistemi Dinamici


474 APPENDICE

segue infatti 0 1 ) *
R (iθ)
0 −θ cos θ − sin θ
e =e θ 0 = = R (eiθ ) .
sin θ cos θ
Moltiplicando quest’ultima per ) σ *
σ 0 e 0
= e(0 σ)

e = = R (eσ ) ,
0 eσ
e servendosi della nota proprietà della funzione esponenziale: eT eS = eT +S , quando T S = ST , si ottiene la più
generale: 0 1 ) *
R
σ −θ cos θ − sin θ
e ς = e θ σ = eσ = R (eς ) = R (e(σ+iθ) ) . (8.30)
sin θ cos θ
) *
R
σ −θ
dalla quale si riconosce l’espressione esplicita per l’esponenziale della particolare matrice reale ς ≡ .
θ σ
Nota 1.8.6 La funzione eς , e la sua decomplessificata, verificano le importanti proprietà:

⎪ e0 = 1 ,

eς1 eς2 = eς1 +ς2 , (8.31)

⎩ σ+i(θ+2kπ)
e = eσ+iθ .

Ne segue che z1 z2 = e(σ1 +σ2 )+i(θ1 +θ2 ) = ρ1 ρ2 ei(θ1 +θ2 ) ed in particolare:



n n inθ

⎨ z =ρ e = ρn (cos nθ + i sin nθ)
) *
⎪ 1/n 1/n (θ + 2kπ)
⎩z =ρ exp i
n

(naturalmente già ottenibili per induzione dalle relazioni trigonometriche viste in precedenza). Si noti che l’ultima
di queste uguaglianze mostra che l’operazione di estrazione della radice n-ma di un numero complesso ammette
sempre n soluzioni distinte: esse sono disposte sui vertici di un poligono regolare di n lati posto in modo simmetrico
rispetto all’asse inclinato di θ/n su quello reale; se n è pari l’asse reale contiene due radici simmetriche rispetto
all’origine; se dispari solo una. Pertanto se θ = π ed n è pari o dispari l’asse reale contiene nessuna o una radice
rispettivamente (la rotazione di π/n fa passare l’asse reale per nessuno o uno rispettivamente dei vertici del
poligono, in quanto tale arco è la metà degli n archi uguali in cui si viene a trovare suddiviso 2π ). ◃

A partire dalla definizione di esponenziale si deduce quella di logaritmo σ + i θ ≡ ς := ln z di un numero


complesso, definito per un qualunque z ∈ C dalla

eσ+iθ = eℜe ς [cos(ℑm ς) + i sin(ℑm ς)] ≡ eς = z .

Ancora con z = α + i β = ρeiθ = ρ (cos θ + i sin θ) , il ln z è allora tale che eℜe ς = ρ e simultaneamente
ℑm ς = θ + 2kπ ; ovvero

z = eσ+iθ = ρei θ =⇒ ln z = ln ρ + i(θ + 2kπ) .

Si vede pertanto che il ln z (in quanto “inversa” di 0 funzioneO periodica) è una funzione sul piano di Gauss solo
qualora se ne restringa il codominio alla striscia: R × −π, π , e cioè per k = 0 e θ = Arg(ς); alternativamente va
1

considerato come una “funzione a più valori”: le parti ℑm non risultando univocamente determinate. Si verifica
inoltre l’importante relazione
ln(z1 z2 ) = ς1 + ς2 = ln z1 + ln z2 . (8.32)
A sua volta quest’ultima induce la definizione di funzione esponenziale relativa ad una base qualsiasi: a ∈ C

aς := eς ln a a, ς ∈ C ;

e mediante quest’ultima si può ottenere la


ς2
(eς1 ) = eς2 ln(exp ς1 ) = eς1 ς2 .
ln aς
La aς verifica ancora le (8.31), (ma non più la (aς )′ = aς ). Inoltre dalla ln aς = ς ln a si deduce ln a = ς =:
loga aς e quindi
ln z
z := aς =⇒ ς = loga z =
ln a

M. Lo Schiavo
A.8. Richiami di Analisi Complessa 475
.z
che verifica ancora la (8.32), ma non più la ln z = 1 dζ/ζ .
Per quanto osservato precedentemente, tutte queste relazioni possono essere decomplessificate e riscritte per gli
operatori R z . In particolare:
) *
R R
σ −(θ + 2kπ)
ln z := (ln z) = con σ := ln ρ,
θ + 2kπ σ
7 81/2 ℜe z ℑm z
ρ = (ℜe z)2 + (ℑm z)2 , θ = arccos ∩ arcsin .
ρ ρ

Sia dato, ora, uno spazio vettoriale reale V di dimensione n, e sia esso rappresentato da Rn . Si definisce
complessificato C Rn di Rn (e conseguentemente rappresentante il complessificato C V di V) lo spazio
complesso n-dimensionale Cn costruito mediante le combinazioni lineari complesse dei vettori di Rn e cioè
( >
' =n
n n ' i n i
C
R := z ∈ C ' z = µ xi , xi ∈ R , µ ∈ C .
i=1

Tale spazio è isomorfo al più generale spazio vettoriale complesso n-dimensionale C in quanto i vettori z ∈ C sono
rappresentati da n-ple z di numeri complessi (z 1 , . . . , z i ) o, equivalentemente, coppie ordinate di n-ple di numeri
reali indicate usualmente con l’espressione z = x + iy . La somma è, conseguentemente, per componenti; ed il
prodotto per uno scalare complesso (α + iβ) verifica la

(α + iβ)(x + iy) := (αx − βy) + i(αy + βx), x, y ∈ Rn , α, β ∈ R1 .

Per base nello spazio C V si potrà scegliere la base reale (in quanto costituita da vettori complessi a parte
immaginaria nulla) ereditata da quella dello spazio reale, e cioè
C
{e1 , . . . , en } := {(1 + i0)e1 , . . . , (1 + i0)en } ≡ {e1 + i0, . . . , en + i0} .
Cn
Rispetto ad essa il generico vettore z ∈ C V ha rappresentazione cartesiana i
i=1 z ei , è individuato dalla
n-pla z ≡ (z , . . . , z ) ∈ C , ed in tal senso R rappresenta V = C- span {e1 , . . . , en } .
1 n n C n C

Il complesso coniugato di un vettore z ∈ C V è quel vettore z̄ che nella base C {e1 , . . . , en } ha come componenti
i complessi coniugati delle componenti di z , e cioè z̄ = (z̄ 1 , . . . , z̄ n ). Un vettore x ∈ C V è reale quando coincide
con il suo complesso coniugato. In una base “complessa coniugata”, e cioè tale che contenendo un vettore ne
contiene anche il complesso coniugato, esso avrà componenti necessariamente complesse coniugate.; <Infatti la
ξ 1 ϵ + ξ 2 ϵ = (ξ 1 ϵ + ξ 2 ϵ) implica ξ 2 = ξ̄ 1 . In particolare un vettore reale in base reale (per esempio la C ei )
i=1,...,n
ha tutte le componenti reali ed è della forma (x, 0) in quanto x = (xh eh + i0).
N.B. 1.8.7 La differenza fra un (particolare) spazio complesso ed uno complessificato si percepisce quando essi
siano sottospazi di un qualche spazio complesso che li contenga entrambi: un sottospazio Cn ⊂ Cm , e cioè il
C- span di n vettori complessi, è il complessificato di uno spazio reale n-dimensionale, e cioè il C- span di n
vettori reali x1 , . . . , xn se e solo se contenendo un vettore z contiene anche ilCsuo complesso coniugato z̄ .
C iµ ∈ C nimplica µ̄ ∈ C, nella base reale {ei }i=1,...,n si ha che se i µ xi = z ∈ C senz’altro
C i n
Infatti siccome
anche z̄ = i µ̄ xi ∈ C . D’altra parte, se uno spazio complesso C contiene entrambi z, z̄ allora certo contiene
entrambi 12 (z + z̄) , − 2i (z − z̄) che sono due vettori reali. Ciò essendo vero per ogni vettore, lo sarà anche per i
vettori di base che risultano ) allora
* una combinazione C-lineare di vettori reali. Al contrario, per esempio, il
1
sottospazio W := C- span{ } ⊂ C non è il complessificato di alcuno spazio reale, infatti z è in W quando è
2
i
della forma z = µ(e1 + ie2 ) = (µe1 + iµe2 ) ed il vettore z̄ = µ̄e1 − iµ̄e2 non è di questo tipo. ♦

Come logica estensione dell’operazione di moltiplicazione di un vettore complesso z ∈ C V per uno scalare
complesso (α + iβ) si consideri in generale un operatore C-lineare T : C Vn → C Vm , di dimensioni n ed m
rispettivamente. Si chiama
Operatore Coniugato di T := l’operatore T definito dalla: T z =: T z̄.
Anche l’operatore T è un operatore lineare:

T (c z) = T c̄ z̄ = c̄ T z̄ = c T z

e quindi, in particolare, T (iy) = iT y per un qualsiasi y reale.

Note di Sistemi Dinamici


476 APPENDICE

Posto A := ℜe T := 12 (T + T ) = A si ha che è reale ciascun elemento della matrice A che la base reale
C
{e1 , . . . , en } assegna all’operatore A. Infatti preso comunque z = x + iy con x, y vettori reali in C Vn si ha
(ℜe T )x = 12 (T + T )x = 12 (T x + T x) = ℜe (T x)
(ℜe T )(iy) = 2 (T + T )(iy) = i 12 (T + T )y
1
= i ℜe (T y)
e quindi per un qualsiasi z ∈ C Vn si ottiene:
Az = (ℜe T )z = ℜe (T x) + i ℜe (T y) ,
da cui segue, scegliendo z ∈ C Vn puramente reale, che anche Az deve avere tutte le sue componenti reali (vista
la scelta della base: reale).
Analogamente chiamato B l’operatore reale “parte immaginaria” di T : B := ℑm T := − 2i (T − T ) = B
si ha che ciascun elemento della matrice che, nella base detta, rappresenta l’operatore B è reale: infatti

(ℑm T )x = − 2i (T − T )x =− 7
i
2 (T x − T x) 8 = ℑm (T x)
i i
(ℑm T )(iy) = − 2 (T − T )(iy) = i − 2 (T − T )y = i ℑm (T y)
e quindi per un qualsiasi z si ottiene:
Bz = (ℑm T ) z = ℑm (T x) + iℑm (T y)
da cui, scegliendo z puramente reale, si ha che anche Bz lo deve essere.
In definitiva: un generico operatore lineare complesso T : C Vn → C Vm può essere sempre rappresentato con
la somma T = A + iB con A e B che preservano, e quindi iB che inverte, il carattere reale o immaginario del
vettore su cui operano:
T z = (A + iB)(x + iy) = (Ax − By) + i(Bx + Ay).
In particolare l’operatore di moltiplicazione per un numero complesso µ = α + iβ ∈ C risulta avere A = α1In e
B = β1I n .
Ne segue che in base reale la matrice del coniugato di un qualunque operatore complesso è la complessa coniugata
della matrice dell’operatore, e che il trasformato C-lineare di un vettore reale è reale ed il trasformato C-lineare
di un vettore immaginario puro è immaginario puro se e solo se T è reale e cioè tale che T = T , o anche: B = 0 .
Si ottiene in particolare un operatore reale partendo da un operatore R-lineare T : Vn → Vm , e che quindi
certo lascia invariato il carattere reale dei vettori, e definendo il suo complessificato C T : C Vn → C Vm come
quell’operatore C-lineare che ne produce gli stessi effetti su C Vn . Esso pertanto sarà senz’altro un operatore avente
parte immaginaria nulla, e cioè tale che C T (z) = Ax + iAy (somma, questa, di due vettori in C Rn ). Esso
mantiene separate le parti reale ed immaginaria di z ∈ C Vn , ed agisce allo stesso modo su entrambe, trasformando
come fa T i vettori reali in vettori reali e gli immaginari puri in immaginari puri.

Si vuole ora estendere il procedimento di decomplessificazione di C che si è visto all’inizio del paragrafo.
Cosı̀ come in dim = 1 alla moltiplicazione per un numero complesso z ∈ C si fa corrispondere un operatore
lineare reale R z ∈ L(R2 ), qui ad un operatore complesso T ∈ L(Cn ) e rappresentato in L(Cn ) da una matrice
complessa n × n, si vuole far corrispondere un operatore reale R T ∈ L(V2n ) a sua volta rappresentato da una
matrice reale in L(R2n ).
Innanzi tutto occorre decomplessificare C Vn e cioè considerare vettori 2n-dimensionali nello spazio reale RC Vn
M) * a R ) in*luogo n-dimensionali z = x + iy . A tale scopo, in RC Rn si sceglie la base
2n
isomorfo ) dei
* vettori
) complessi
*Z
e1 en 0n 0n
,..., , ,..., , mediante la quale il vettore z = x + i y ∈ C Rn viene rappresentato con
0n 0n e1 e)n * ) *
ℜe z x
il vettore (reale) 2n-dimensionale ≡ . Ne segue che anche in RC Vn la somma è l’ordinaria somma
ℑm z y
per componenti, mentre il modulo |z| è la norma euclidea standard.
In secondo luogo, a partire da un operatore complesso T : C Rn → C Rm qualsiasi si definisce, analogamente alla
(8.29),
Decomplessificato di T := l’operatore lineare reale R T : RC Vn → RC Vm che è definito nello spazio vettoriale
L(V2n ), e che (rispetto alla detta base in RC Vn ) verifica la
) * ) * ) *
R R
ℜe z ℜe (T z) Ax − By
T z ≡ (A + iB) := ≡ ; (8.33)
ℑm z ℑm (T z) Ay + Bx
di conseguenza, ad esso la base detta assegna la matrice (2n × 2n)
) *
R
A −B
T = R (A + iB) =: .
B A

M. Lo Schiavo
A.8. Richiami di Analisi Complessa 477

Come deve, esso ha per colonne i trasformati dei versori di base. In particolare, il decomplessificato
) dell’opera-
*
α1I n −β1In
tore di moltiplicazione per un numero complesso µ = α+iβ ∈ C risulta avere l’espressione µ =
R
.
β1I n +α1In
) *
0 −1In
Ad esempio si ha R i = .
1I n +0

Osservazione importante.
Se C Vn ha la “stessa” base (reale) C {e1 , . . . , en;} ereditata< da quella {e1 , . . . , en } di Vn , la matrice T del com-
plessificato C T è la stessa matrice che la base e1 , . . . , en assegna a T , visto che C T ej = T ej + i0 vettore reale
in C Vn .
) *
T 0
Di conseguenza, nello spazio V la matrice di T è:
RC n RC
, ancora essendo T la {e} -matrice di T ,
0 T
e ciò mostra esplicitamente che il complessificato di un operatore reale, che si caratterizza fra gli altri operatori
C-lineari per essere tale che C T = C T , è anche caratterizzato dal fatto che C T (Vn ) ⊂ Vn ; oppure, dal fatto che
RC
T lascia separatamente invarianti i due sottospazi di RC Vn nei quali assumono valori le parti reali e le parti
immaginarie dei vettori di C Vn .
Appare ormai evidente che C T , ristretto a Vn , ha lo stesso effetto di T .

Sia T : V → V un operatore R-lineare reale; con le ormai usuali scelte delle basi, si hanno i seguenti risultati
(generalmente non veri per un qualsiasi operatore complesso T )

(i) Se µ è un autovalore di T , nel senso che µ è una radice dell’equazione Det (T − λ1I ) = 0 , allora µ
è anche autovalore di C T e viceversa.
C
Infatti le due matrici nelle due basi {e1 , . . . , en } ed {e1 , . . . , en } sono le stesse.

(ii) Se µ è un autovalore di C T allora anche µ̄ è autovalore di C T .


Infatti, se ϵµ ∈ Ker (C T − µ1I ) ⊂ C V si ha che
C C
T ϵµ = µϵµ ⇐⇒ C T ϵµ = µ̄ϵ̄µ ⇐⇒ T ϵ̄µ = µ̄ϵ̄µ

e risulta ϵ̄µ ∈ Ker (C T − µ̄1I ) ∈ C V. Quindi si potrà scegliere ϵµ̄ = ϵ̄µ .

(iii) Se µ è un autovalore di T allora anche µ̄ è autovalore di T .


Infatti: ciò segue dai due punti precedenti, e conferma che entrambi µ e µ̄ sono soluzioni della Det (T −µ1I ) =
0.

Si supponga allora che l’operatore reale T ammetta una coppia di autovalori complessi coniugati: µ, µ̄ ∈ C, e che
pertanto sia
C
T ϵµ = µϵµ =: (α + iβ)(xµ − iyµ ) (8.34)
ove si sono chiamati µ =: α + iβ ∈ C, ed xµ , yµ ∈ C V definiti dalla
(
xµ := ℜe ϵµ := (ϵµ + ϵ̄µ )/2
ϵµ =: xµ − iyµ e cioè
yµ := −ℑm ϵµ := i(ϵµ − ϵ̄µ )/2
e si noti il segno meno nella definizione di yµ ;

(iv) Se l’autovalore µ è non puramente reale allora l’autovettore ϵµ ∈ C V è non puramente reale.
Infatti: se lo fosse, nella (8.34) si avrebbe il primo membro reale mentre il secondo membro avrebbe parte
immaginaria non nulla.

(v) Se l’autovettore ϵµ è non puramente reale allora l’autovalore µ (se semplice o di molteplicità dispari) è non
puramente reale.
Infatti: se fosse µ = µ̄ dal punto (ii) segue che µ dovrebbe avere due autovettori reali indipendenti xµ ed
yµ per uno stesso autovalore µ, e ciò è assurdo se µ è semplice o di molteplicità dispari.

Note di Sistemi Dinamici


478 APPENDICE

(vi) Se µ è non puramente reale allora xµ ed yµ sono reali e C-linearmente indipendenti, e quindi a fortiori
R-linearmente indipendenti.
Infatti: dalla definizione segue subito che xµ ed yµ sono reali. Poi, se fosse xµ = λyµ sarebbe ϵµ =
xµ − iyµ =: zxµ con z non reale né nullo, ed xµ reale. Ne segue, per la C T zxµ = µzxµ che l’operatore C T
avrebbe un autovettore reale per l’autovalore complesso µ . In particolare, se µ è non puramente reale
non può nemmeno avvenire che ϵµ = −ϵ̄µ , e cioè xµ = 0 .

(vii) Se xµ ed yµ sono C-linearmente indipendenti, e quindi non nulli, senz’altro si ha che ϵµ è non puramente
reale.

Dalle precedenti considerazioni segue subito che se un operatore reale ammette qualche autovalore complesso, e
quindi anche il suo corrispondente complesso coniugato, per studiarne gli autovettori sarà necessario considerarne
il complessificato C T agente nello spazio complessificato C Vn in quanto è solo quest’ultimo, e non l’operatore reale,
che ammette autovettori in corrispondenza agli autovalori complessi.
È opportuno ricordare ancora una volta che la scelta della “stessa” base reale sia per Rn che per C Rn assegna
la stessa matrice T ad entrambi i due operatori T e C T , ed in particolare essa sarà reale essendolo la base di
(entrambi) gli spazi. Pertanto entrambi gli operatori hanno gli stessi autovalori soluzioni della equazione secolare:
Det(T − λ1I ) = 0 .
Quando tutti gli autovalori dell’operatore T , e quindi anche di C T , siano distinti, dei quali: λ1 , . . . , λν reali, e
µ1 , µ̄1 , . . . , µτ , µ̄τ complessi, con ν + 2τ = n, allora sussiste la
Proposizione 1.8.8 È possibile esprimere Vn come somma diretta di Vν ⊕ ℜe (C V2τ ), e l’operatore reale T
come somma diretta di operatori reali T = T(ν) ⊕ T(τ ) , ove si è posto T(ν) : Vν → Vν , e T(τ ) : ℜe (C V2τ ) →
ℜe (C V2τ ). Esistono inoltre τ sottospazi: C V2(h) , h = 1, . . . , τ , tali che C V2τ = ⊕τh=1 C V2(h) , e τ operatori
reali Tµh : V2(h) → V2(h) , h = 1, . . . , τ , tali che T(τ ) = Tµ1 ⊕ Tµ2 ⊕ . . . ⊕ Tµτ , e che lasciano separatamente
invarianti le τ parti reali V2(h) dei C V2(h) . #

Dimostrazione Dopo essere passati a considerare C T : C Vn → C Vn si nota che i suoi autovettori: ϵµh ,
h = 1, . . . , 2τ , sono tutti distinti. Inoltre, il C- span{ϵµ1 , ϵ̄µ1 , .., ϵµτ , ϵ̄µτ } cosı̀ come il C- span{ϵλ1 , . . . , ϵλν }
sono sottospazi C T − invarianti di C Vn chiusi rispetto alla coniugazione complessa. Anzi ciascuno dei piani
C
V2(h) := C- span {ϵµh , ϵ̄µh }h=1,...,τ e ciascuno degli assi C- span {ϵλh }h=1,...,ν ha questa proprietà. Inoltre,
per loro definizione, essi sono dei complessificati di altrettanti piani ed assi reali.
Per ciascun µ = µh , h = 1, . . . , τ , il C- span {ϵµ , ϵ̄µ } è anche il C- span {xµ , yµ } , ove con xµ , yµ si sono indicati
la parte reale e l’opposto di quella immaginaria del vettore ϵµ :

1 i
xµ := (ϵµ + ϵ̄µ ), yµ := (ϵµ − ϵ̄µ ),
2 2
e questi sono entrambi reali. Esso è pertanto la complessificazione K del piano reale R- span{xµ , yµ } e la sua
parte reale è proprio il piano reale R- span {xµ , yµ } infatti: se v, v̄ ∈ C - span{xµ , yµ } , e se v̄ = v allora deve essere
L
Kµ , e la realtà di xµ , yµ implica quella di a, b . Ma lo spazio ℜe (C- span{ϵµ , ϵ̄µ }) è da solo invariante
axµ + byµ = axµ + by
C
L a T
rispetto infatti: come si è detto il complessificato di un operatore reale preserva il carattere reale od immaginario dei
K L
vettori , e perciò è anche invariante rispetto a T infatti: C T ristretto a tale piano agisce come T .
In altre parole: ciascun vettore z del piano C- span{ϵµ , ϵ̄µ } invece che essere decomposto lungo i due assi
complessi C- span{ϵµ } e C- span{ϵ̄µ } , ciascuno con la propria parte reale e parte immaginaria, può essere più
opportunamente separato nella somma dei due vettori, rispettivamente formati dalle sue parti reale ed immaginaria,
la prima in R- span {xµ , yµ }, e la seconda in i R- span {xµ , yµ } . In {e}-componenti:

z = z1 ϵµ + z2 ϵ̄µ = (α1 + iβ1 )(xµ − i yµ ) + (α2 + iβ2 )(xµ + i yµ )


= (α1 + α2 )xµ + (β1 − β2 )yµ + i ((β1 + β2 )xµ − (α1 − α2 )yµ )
= ℜe z + i ℑm z .

Siccome T è reale e quindi C T non muta il carattere ℜe od ℑm dei vettori sui quali opera, i due piani (reale
e puramente immaginario) R- span {xµ , yµ } ed i R- span {xµ , yµ } risultano separatamente invarianti rispetto
a CT (pur non essendo C-sottospazi di C Vn ma solo R-sottospazi di RC Vn ), e quindi i due vettori ℜe z ed
ℑm z vengono trasformati da C T in due vettori, rispettivamente il primo in R- span {xµ , yµ } , ed il secondo in
i R- span {xµ , yµ } :
ℜe (C T z) = T ℜe z ed ℑm (C T z) = T ℑm z

M. Lo Schiavo
A.8. Richiami di Analisi Complessa 479

come si legge nella (8.33) quando B = 0 .


Se allora apriori si sa che un vettore complesso è contenuto in uno di tali piani, per esempio se si sa che esso è
puramente reale: x ∈ R- span{xµ , yµ } , e si vuole conoscere come T agisce su di esso, ci si può limitare a studiare
la restrizione di C T sul piano stesso:

C
T |R−span {xµ ,yµ } = T |R−span {xµ ,yµ } =: Tµ .

"

Si noti che gli operatori Tµ , cosı̀ come lo stesso T , hanno come autovalori µ, µ̄ solo nel senso che

C
( T |R−span{xµ ,yµ } ) = C T |C−span {xµ ,yµ } ha matrice T nella base C {e1 , .., en },

e naturalmente non hanno autovettori nel piano R- span {xµ , yµ } il quale contiene solo la parte reale di certe loro
combinazioni lineari.
Tuttavia, giacché xµ ed yµ sono reali, sussistono le:


⎪ 1
⎨ Tµ xµ = C Tµ xµ = C T (ϵµ + ϵ̄µ ) = +ℜe (µϵµ ) = +αxµ + βyµ
2
⎩ Tµ yµ = C Tµ yµ = i C T (ϵµ − ϵ̄µ ) = −ℑm (µϵµ ) = −βxµ + αyµ .

2

Ciò implica in particolare che se su ciascun piano R- span{xµ , yµ } )


si sceglie*come base canonica proprio {xµ , yµ }
α −β
allora la matrice che questa base assegna all’operatore Tµ è proprio per cui tale piano si può addirittura
β α
considerare come il decomplessificato di un asse complesso: R- span {xµ , yµ } = R {C- span {xµ }} , e sui vettori
paralleli a tale retta complessa l’operatore Tµ agisce come il prodotto per la µ; infatti, nella base canonica del
suo piano decomplessificato, esso ha matrice R µ.
In definitiva, se gli autovalori λ1 , . . . , λν reali e µ1 , µ̄1 , . . . , µτ , µ̄τ complesse sono tutti distinti, con ν + 2τ =
n, allora la n-pla di vettori reali ϵλ1 , . . . , ϵλν , xµ1 , yµ1 , . . . , xµτ , yµτ è una base per Vn , ed in essa la matrice
dell’operatore reale T risulta essere:

⎛ ⎞
λ1
⎜ .. ⎟
⎜ . ⎟
⎜ ⎟
⎜ λν ⎟
⎜ ⎟
⎜ α1 −β1 ⎟
⎜ ⎟
⎜ β1 α1 ⎟
T& := ⎜ ⎟
⎜ α2 −β2 ⎟
⎜ ⎟
⎜ β2 α2 ⎟
⎜ ⎟
⎜ .. ⎟
⎜ . ⎟
⎝ ⎠
..
.

; <
trasformata, secondo la T& = P& −1 T P& , della matrice T che in base ei rappresenta T (ed in ba-
i=1,...,n
; <
se C {ei }i=1,...,n l’operatore C T ). La P& ha per colonne le componenti in base ei degli autovettori
; < ; < i=1,...,n
ϵλi corrispondenti agli autovalori reali λi e delle coppie di vettori (ℜe ϵµ , −ℑm ϵµ ), una per ogni
i=1,...,ν ; < i=1,...,ν
coppia di autovalori complessi coniugati µi , µ̄i e sempre che tutti gli autovalori siano distinti: ν + 2τ = n.
i=1,...,τ
La matrice P& è non singolare per quanto detto nei punti (i), . . ., (vii).

Note di Sistemi Dinamici


480 APPENDICE

A partire da questa espressione per la matrice di T risulta agevole calcolare quella di eT nella stessa base; per
quanto visto, essa sarà eT̃ data da:
⎛ λ1 ⎞
e
⎜ .. ⎟
⎜ . ⎟
⎜ ⎟
⎜ e λν ⎟
⎜ ⎟
⎜ α1 α1
e cos β1 −e sin β1 ⎟
⎜ ⎟
⎜ α1
e sin β1 α1
e cos β1 ⎟
⎜ ⎟
⎜ α2 α2
e cos β2 −e sin β2 ⎟
⎜ ⎟
⎜ α2
e sin β2 α2
e cos β2 ⎟
⎜ ⎟
⎜ .. ⎟
⎜ . ⎟
⎝ ⎠
..
.

La precedente espressione per eT e quindi per eT t risolve, direttamente nello spazio reale Vn , il problema
differenziale ẋ = T x, x0 ∈ V, quando T abbia autovalori (reali o complessi) tutti distinti. Infatti, data
l’invarianza degli assi e dei piani detti sia rispetto all’operatore T che al suo esponenziale, l’espressione qui sopra
˙
assegna in Rn matrice eT̃ t all’evolutore di ξ& = T& ξ&, e quindi di ẋ = T x pur di agire con ξ& = P& −1 x.
Nota 1.8.9 Alternativamente, il problema (reale) avrebbe anche potuto essere affrontato risolvendo esplicitamente
il corrispondente problema complessificato e poi calcolando (aposteriori) la parte reale della soluzione di quello.
Ciò è lecito perché (come d’altra parte ci si aspetta data la discussione nella precedente Proposizione) per un
campo lineare complessificato di uno reale, l’evoluzione (complessa) di condizioni iniziali reali rimane reale. Per
convincersi di queste affermazioni, si consideri un generico operatore C-lineare T : Cn → Cn , con C ∈ L(Cn ) la
matrice che gli corrisponde in una fissata base in Cn , e si esamini l’equazione ż = C z con z ∈ Cn e condizioni
iniziali z(0) = z0 . È questa che si deve innanzi tutto risolvere e sulla quale poi verificare il fatto che: quando T
è il complessificato di un operatore reale allora condizioni iniziali reali evolvono in un moto reale.
D’altra parte la risoluzione di un’equazione complessa può essere ottenuta in due modi: o direttamente nel
mondo complesso, oppure facendo ricorso al decomplessificato.
C∞ k k
(• ) Primo modo: si estende agli operatori complessi la definizione di esponenziale di operatore : eT t := k=0 T k!t
il che permette la risoluzione in Cn dell’equazione data. Essa si otterrà diagonalizzando in Cn l’operatore T (cosa
sempre possibile se i suoi autovalori sono distinti) e sfruttando il fatto che tale base rende diagonale anche la matrice
di eT t , per cui le evolute delle coordinate proprie ζ := P −1 z hanno la forma ζ h (t) = eµh t ζ0h , h = 1, . . . , n.
Per risolvere il problema reale si nota poi che quando l’operatore complesso T è il complessificato C T di un
operatore reale T l’equazione complessa ż = C T z ha come coniugata la z̄˙ = C T z̄ = C T z̄ e cioè che è invariante
per coniugio.
Ne segue che condizioni iniziali fra loro complesse coniugate danno luogo a soluzioni fra loro complesse coniugate,
e che la soluzione del problema reale è la parte reale della soluzione, uscente da dati iniziali reali, del problema
complessificato.
N.B. 1.8.10 Ciò non è vero nei casi in cui il campo è tale che v(t, z̄) ̸= v(t, z), e quindi si ritrova che perfino nel
caso più semplice, e cioè: v(z) = µz con µ, z ∈ C il problema non disaccoppia le parti reale ed immaginaria se la
costante µ non è puramente reale. ♦

d d
(• ) Secondo modo: la definizione di decomplessificato e la linearità di implicano che al vettore complesso dt z
) d * dt
ℜe z
corrisponda in R Cn il vettore ddt .
dt ℑm z * )
ℜe φ
Ne segue che la soluzione dell’equazione ż = Cz è φ : t &→ z(t) ∈ C n
se e solo se: : t &→
ℑm φ
ζ(t) ∈ R Cn è soluzione di ζ̇ = R Cζ , e cioè di un sistema reale di due equazioni (n-dimensionali) accoppiate:
) * ) *) *
ẋ A −B x
= , (8.35)
ẏ B A y
) *
x0
con condizioni iniziali ζ(0) = ζ0 = .
y0
Il sistema (8.35) ha evoluzione nota, e data da
0 1
R
Ct t A −B
ζ(t) = e ζ0 = e B A ζ0 .

M. Lo Schiavo
A.9. Disuguaglianza generalizzata di Gronwall 481
) *

Ne segue innanzi tutto, ed in particolare, che l’equazione ż = µz , con z ∈ C equivale alla =
) *) * ẏ
α −β x
con x, y ∈ R1 , e quindi ha soluzione z(t) = eµt z0 , in quanto questa corrisponde a
β α y
) * ) *) *
x(t) cos βt − sin βt x0
= eαt .
y(t) sin βt cos βt y0
In secondo luogo, quando l’operatore T sia il complessificato di un operatore reale T : Rn → Rn , e quindi sia:
C
T (x + iy) = Ax + iAy , allora l’equazione ż = C T z con z ∈ Cn sussiste se e solo se per il vettore (x, y) ∈ V2n
sussiste l’equazione (
) * ) *
ẋ RC
x ẋ = A x
= T , ovvero, in coordinate :
ẏ y ẏ = A y .
Le soluzioni di quest’ultimo sono naturalmente
) * RC
) * ) At *) *
x x0 e 0 x0
= e At = . (8.36)
y y0 0 eAt y0
Pertanto, dato che questo sistema è disaccoppiato, risulta evidente che la soluzione della ż = C T z con condizioni
iniziali reali è reale. Ciò che si è fatto nella discussione che precede questa nota è stato, in definitiva, il limitarsi
allo studio delle sole prime n componenti del vettore (8.36).
Si noti che per entrambi i metodi è essenziale il fatto che l’equazione sia lineare. ◃

A.9 Disuguaglianza generalizzata di Gronwall


Siano φ, α ∈ C 0 ([a, b], R), e β ≥ 0 reale ed integrabile su [a, b], [Hale].
Se - t
φ(t) ≤ α(t) + β(s)φ(s)ds, t ∈ [a, b]
a
allora, per ogni t ∈ [a, b] si ha
- t ) - t *
φ(t) ≤ α(t) + β(s)α(s) exp β(τ )dτ ds (9.37)
a s

.t
Dimostrazione Si ponga R(t) := a β(s)φ(s)ds.
Si ha Ṙ(t) = β(t)φ(t) ≤ β(t)α(t) + β(t)R(t), o anche
Ṙ − βR ≤ βα. (9.38)
7 .s 8
Usando exp − a β(s)ds come fattore integrante si ricava
+ ) - s * , ) - s *
d
exp − β(s)ds R(s) ≤ exp − β(s)ds β(s)α(s).
ds a a

Integrando si ottiene - t) - t *
R(t) ≤ exp β(τ )dτ β(s)α(s)ds.
a s

Corollario 1.9.1 Se anche α̇ ≥ 0 è continua, integrando per parti nella (9.38) si ha


+ ) - · *,t - t ) - t *
φ(t) ≤ α(t) − α(·) exp − β(τ )dτ + exp β(τ )dτ α̇(s)ds
t a a s
- t - t) - t *
= α(a) exp β(τ )dτ + exp β(τ )dτ α̇(s)ds
a a s
) - t *+ - t ,
≤ exp β(τ )dτ α(a) + α̇(s)ds
a a
- t
≤ α(t) exp β(τ )dτ.
a

Note di Sistemi Dinamici


482 APPENDICE

In particolare quest’ultima, con α = cost, prende il nome di Disuguaglianza di Gronwall. Nel caso in cui
φ, β siano entrambe continue non negative, ed α = cost, quest’ultimo risultato si ottiene in modo più semplice (si
veda il § I.3) "

M. Lo Schiavo
Bibliografia

La bibliografia esistente sull’argomento è, ovviamente, enorme. Sono qui citati solo alcuni dei titoli che, sia come
spirito sia come diffusione alla “Sapienza”, sono più vicini e noti agli studenti della Sapienza. Occorre tenere
presente che alcuni dei testi qui citati sono semplici, altri molto meno. Prima di avventurarsi in una loro lettura,
soprattutto se dettagliata, conviene chiedere consigli e suggerimenti in merito.

[1] Andronov - Leontovic - Gordon - Mayer Qualitative Theory of second order Dynamical Systems J. Wiley
1969
[2] T.M. Apostol Calcolo Boringheri 1977
[3] V.I. Arnold Equazioni Differenziali Ordinarie Mir 1979
[4] V.I. Arnold Lectures on partial Differential Equations Springer 2000
[5] D.K. Arrowsmith - C.M. Place Ordinary Differential Equations Chapman 1982
[6] N.H. Asmar Partial Differential Equations with Fourier series and Boundary Value Problems Prentice Hall
2005
[7] M. Barnsley Fractals Everywhere Academic Press, San Diego 1988
[8] C.M. Bender - S. Orszag Advanced Mathematical Methods for Scientists and Engineers McGraw hill 1978
[9] W.E. Boyce - R.C. Di Prima Elementary Differential Equations and Boundary Value Problems J. Wiley
2001
[10] M. Braun Differential Equations and their Applications Springer 1975
[11] I. Gasparini Cattaneo Strutture Algebriche ed Operatori Lineari Veschi 1978
[12] I. Gasparini Cattaneo Complementi di Geometria ed Algebra Veschi 1989
[13] L. Cesari Asymptotic Behaviour and Stability Problems in ODE Academic Press 1965
[14] E.A. Coddington - N. Levison Theory of Ordinary Differential Equations McGraw Hill 1955
[15] J.D. Cole Perturbation Methods in Applied Mathematics Blaisdell 1968
[16] P. Collet - J.P. Eckmann Iterated Maps on the Interval as Dynamical Systems Progr. on Phys., 1 ,
Birkhäuser 1980
nd
[17] R. Devaney An Introduction to Chaotic Dynamical System. ed. Addison Wesley 1988
[18] W. Eckhaus Asymptotic Analysis of Singular Perturbations North Holland 1979
[19] M. Eisenberg Topology Holt 1974
[20] F.R. Gantmacher The Theory of Matrices Chelsea 1977
[21] A. Ghizzetti - F. Rosati Lezioni di Analisi Matematica Veschi 1972
[22] J. Guckenheimer - P. Holmes Nonlinear Oscillations, Dynamical Systems, and Bifurcation of Vector Fields
Springer, AMS 42 1983
[23] R. Haberman Mathematical Models: Mechanical Vibrations, Population Dynamics, and Traffic Flow Prentice
Hall 1977
[24] J. Hale Ordinary Differential Equations J. Wiley 1969
[25] C. Hayashi Nonlinear Oscillations in Physical Systems McGraw hill 1964
[26] J. Hale - H. Kocac Dynamics and Bifurcations Springer 1997

483
484 BIBLIOGRAFIA

[27] P. Hartman Ordinary Differential Equations Birkhäuser 1982


[28] M.W. Hirsh - S. Smale Differential Equations, Dynamical Systems, and Linear Algebra Academic Press
1974
[29] J.H. Hubbard - B.H. West Differential Equations: a Dynamical Systems Approach Springer, TAM 18
1995
[30] E.L. Ince Ordinary Differential Equations Dover 1956
[31] G. Ioos - D.D. Joseph Elementary Stability and Bifurcation Theory Springer 1980
[32] D.W. Jordan - P. Smith Non Linear Ordinary Differential Equations Clarendon Press 1977
[33] J.L.Kelley General Topology Springer, GTM 27 1975
[34] A.N. Kolmogorov - S.V. Fomin Elementi di teoria delle funzioni di variabile reale Mir 1980
[35] J. LaSalle - S. Lefshetz Stability by Liapunov Direct Method Academic Press 1961
[36] S. Lefschetz Differential Equations, Geometric Theory Dover 1977
[37] A.N. Michel - R.K. Miller Ordinary Differential Equations Academic Press 1982
[38] A.H. Nayfeh Introduction to Perturbation Methods J. Wiley 1981
[39] R.E. O’Malley Introduction to Singular Perturbations Academic Press 1974
[40] J. Palis - W. de Melo Geometric Theory of Dynamical Systems: an Introduction Springer 1982
[41] L. Perko Differential Equations and Dynamical Systems Springer 1991

[42] L. Pontryagin Ordinary Differential Equations Pergamon 1962


[43] M. Reed - B. Simon Functional Analysis Academic Press 1980
[44] J.A. Sanders - F. Verhulst Averaging Methods in Nonlinear Dynamical Systems Springer 1985
[45] H.G Schuster Deterministic Chaos: an introduction V C H 1988
[46] G.F. Simmons Differential Equations with Applications and Historical Notes McGraw Hill 1972
[47] M. Tenenbaum - H. Pollard Ordinary Differential Equations Dover 1985
[48] F. Verhulst Nonlinear Differential Equations and Dynamical Systems Springer 1990
[49] V.V. Voyevodin Linear Algebra Mir 1983
[50] S. Wiggins Global Bifurcations and Chaos Springer, AMS 73 1988
[51] S. Wiggins An Introduction to Applied Nonlinear Dynamical Systems and Chaos Springer, TAM 2 1990

M. Lo Schiavo
Indice analitico

K -modulo, 382 Base


ϵ -catena, 286 di intorni, 379
φ = O(δ), 306 di vettori, 396
f = O(g), 304 duale, 413, 415, 448
f = Os (g), 304 propria dell’operatore, 462
f = o (g), 304 Biforcazione a forchetta, 273
f ≪ (g), 304 Biforcazione a forchetta subcritica, 273
f ∼ g , 304 Biforcazione secondaria alla Hopf, 277
faa di f , 304 Biforcazione tangente, 271
g = faa , 305 Biforcazione transcritica, 274
Bilancio
Ampiezze Dominato, 312
lentamente variabili, 368 Blocco
Analisi grafica, 232 elementare di Jordan, 117
Anello, 382 nilpotente, 116
Aperti, 379 Boundary
Aperto layer, 342
semplicemente connesso, 36 layer, 353
Applicazione Brachistocrona, 43
d’avanzamento, 2
tangente, 439
Cambio
Approssimazione
di base, 454
Asintotica, 307
di coordinate, 439
Assioma
Cambio di stabilità, 274
di numerabilità, 379
Cammino
Asymptotic Matching Principle, 347
generalmente regolare, 33
Atlante, 435
semplice, 33
Atlante
Campi
massimale, 435
Localmente Lipschitz, 19
Attrattore, 286
vettoriali
Attrattore caotico, 253
Lipschitz, 19
Attrattore della mappa quadratica, 244
vettoriali coniugati, 151
Attrattore di Feigenbaum, 240
vettoriali equivalenti, 152
Attrattore di Henon, 278
Attrattore espansivo, 278 vettoriali topologicamente equivalenti, 153
Attrattore strano, 286 Campo, 382
Automorfismi del toro, 283 Campo
Automorfismi ergodici, 257 variato, 186
Automorfismo, 230 vettoriale, 5, 443
Autospazi Carta, 434
generalizzati, 121 Carte
Autospazio, 460 compatibili, 434
Autospazio Catena di Markov, 250
generalizzato, 461 Catenaria, 41
Autovalore, 459 Centro, 183
Autovettore, 459 Chiusura, 380
Autovettore Ciclo
generalizzato, 462 isolato, 169
Avanzamento limite, 160
locale, 4 Ciclo superstabile, 237
Cilindro, 249
Bacino Cluster, 380
di attrazione, 170 Codimensione, 395, 410
Bacino di attrazione, 242 Coefficienti
Base, 44, 379 di Fourier, 399

485
486 INDICE ANALITICO

Complemento Diagonalizzabilità
ortogonale, 410 di forme , 84
Complessificato Diffeomorfismo, 2, 439
di un operatore reale, 476 Dimensione
di uno spazio reale, 475 della varietà, 435
Completare Dinamica caotica, 253, 281, 287
uno spazio, 386 Dinamica grafica, 232
Completezza Dinamica Simbolica, 248
dello spazio degli operatori, 469 Dipendenza continua, 189
Componenti Dipendenza sensibile dal dato, 248
covarianti , 413 Direzione di espansività, 248
Condizione Disuguaglianza
di Schwartz, 36 di Bessel, 408
Condizioni di Schwarz, 383
di Lipschitz, 19 generalizzata di Gronwall, 481
Connessione Divario
lineare semplice, 36 fra due insiemi, 191
Continuità rispetto ai dati, 189 Divisori
Contrazione, 22 elementari semplici, 461
Convergenza Dominio, 5
debole, 388
in L1 , 398 Endomorfismo, 230
in L2 , 398 Endomorfismo del toro, 231
in metrica, 384 Energia, 173
in misura, 398 Epsilon-rete, 392
in norma, 384, 470 Equazione
puntuale, 390 Van der Pol, 331
quasi ovunque, 398 aggiunta, 416
totale, 54 del pianeta, 180
uniforme, 384, 398 di Bernoulli, 40
Coordinata, 434 di Bessel, 62, 68
Coordinate di Clairaut, 31
adattate al flusso, 164 di Duffing, 179, 359, 370
equivalenti, 437 di Duffing
naturali, 444 debolmente forzata, 375
normali, 86 forzata, 373
Criterio di Eulero, 216
di Cauchy, 384 di Hermite, 60
Curva di Hill, 140
basata in x, 437 di Lienard, 224
integrale, 3 di Lighthill, 324, 333, 350
Curva di fase, 3 di Mathieu, 140
Curve di ordine n, 124
di inseguimento, 41 di Riccati, 40
tangenti, 437 di Schrödinger, 59
di Van Der Pol, 210, 223
Decomplessificato di Van der Pol, 188
di T , 476 di Volterra Lotka, 224
Decomplessificazione, 472 ipergeometrica di Gauss, 72
Derivata, 439 lineare
Derivata scalare, 39
direzionale, 161 linearizzata, 75
Derivata di Schwartz, 240 logistica, 30
Derivato, 380 Secolare, 459
Determinante Variazionale, 26, 303
di Hill, 144 Equazione di Duffing, 289
Determining Equazione di Eulero, 290
Equation, 330 Equazione di Van Der Pol, 205
Diagonalizzabilità, 459 Equazione differenziale associata, 157

M. Lo Schiavo
INDICE ANALITICO 487

Equazioni Γ, 69
di Hamilton, 82 analitica, 55
differenziali Bijettiva, 387
esatte, 33 Continua, 387
omogenee, 32 d’ordine, 306
Equicontinuità, 394 definita positiva, 211
Equivalenza di gauge , 306
fra metriche, 390 di Liapunov, 213
metrica fra spazi, 391 Hamiltoniana, 82
topologica, 151 Iniettiva, 387
topologica fra metriche, 390 invertibile, 387
topologica fra spazi, 390 Ipergeometrica di Gauss, 72
Ergodico, 256 liscia, 402
Espansività, 258 liscia a tratti, 420
Esponente omogenea di grado p ∈ R, 211
di Liapunov, 139 scarto, 303
indiciale, 63 semicontinua superiormente, 394
Esponente di Liapunov, 254, 278, 287 Suriettiva, 387
Esponenti Funzione dispari, 400
caratteristici, 138 Funzione pari, 400
Esponenti di Liapunov, 288 Funzione quasi periodica, 268
Esponenziale Funzione unimodale, 236
di operatore, 480 Funzione universale di Feigenbaum, 240
di un numero complesso, 474 Funzioni
di un operatore, 96 di Bessel, 69
Fuoco, 109
Famiglia
equicontinua, 394 Gatto di Arnold, 257, 284
locale Generatore, 257
di applicazioni, 4 Generatore
uniformemente limitata, 394 di un gruppo, 94
Fattore Generazione del caos, 300
di Controllo, 315 Genericità, 204
integrante, 38, 166 Genuinamente lineare, 197
Fibrato Gradiente, 161
tangente, 442 Grafico
Flip-bifurcation, 276 di un operatore, 426
Flussi Grahm-Schmidt, 396
coniugati, 203 Gruppo, 382
Flusso Gruppo
di fase, 2 di evolutori, 2
Fold-bifurcation, 271 locale, 2
Forma
bilineare, 451 Identità
Esatta, 34 di Lagrange, 417
Hermitiana, 451 Immagine
quadratica, 452 del moto, 3
quadratica di un operatore, 445
definita positiva, 453 Indice
Forme quadratiche positivo d’inerzia, 455
non degeneri, 202 Indice
Forte negativo d’inerzia, 455
stabilità, 143 Insieme
Frontiera, 380 ω -limite, 169
Funzionale affatto denso, 381
lineare continuo, 410 aperto, 204
Funzionali, 388 attrattivo, 170
Funzione, 387 compatto, 391
Funzione compatto numerabile, 391

Note di Sistemi Dinamici


488 INDICE ANALITICO

completo, 395 Limite


denso, 204, 381 esterno, 346
generico, 204 intermedio, 344
invariante, 170 interno, 346
limitato, 381 Linear hull, 389
normale, 36 Linearizzazione, 321
ovunque denso, 381 Linearizzazione
positivamente invariante, 170 di un sistema hamiltoniano, 82
precompatto, 393 di un sistema lagrangiano, 84
regolare, 36 Linee
relativamente compatto, 393 di corrente, 11
residuo, 204 di flusso, 11
semplice, 36 di livello, 163
totalmente limitato, 392 Logaritmo
uniformemente limitato , 394 di un numero complesso, 474
Insieme affatto denso, 256 di un operatore, 133
Insieme di biforcazione, 270
Insieme di Cantor, 247, 252 m-test, 397
Insieme equicontinuo, 394 Mappa
Insieme iperbolico, 287 di primo ritorno, 169
Insieme non decomponibile, 286 Mappa a ferro di cavallo, 279
Insieme non erratico, 256 Mappa Bijettiva, 229
Insieme perfetto, 247 Mappa d’avanzamento, 250
Insieme totalmente disconnesso , 252 Mappa del panettiere, 254
Insiemi Mappa di Henon, 277
Chiusi, 380 mappa di Poincaré linearizzata, 292
ortogonali, 410 Mappa Iniettiva, 229
Insiemi totalmente disconnessi, 240 Mappa invertibile, 229
Integrale Mappa lineare, 229
ellittico, 178, 362 Mappa quadratica, 234, 258, 260, 274
primo, 162 Mappa Suriettiva, 229
Integrale primo Mappe, 227
dipendente dal tempo, 165 Mappe caotiche, 253
Integrali Mappe di Poincarè, 261
primi locali, 165 Matrice
Intermittenze, 272 fondamentale, 94, 127
Interno, 380 monodroma, 136
Intersezione trasversa, 289 principale, 94, 127
Intervallo simplettica, 143
massimale, 125 Matrici
Massimo di esistenza, 18 congruenti, 453
Intorni equivalenti, 453
deboli, 388 simili, 453
Intorno, 379 Metodo
Inversione del Matching Asintotico, 342
del teorema del Dirichlet, 226 della media, 363
Inviluppo delle Scale Multiple, 336
lineare, 389 di Frobenius, 62
Iperbolicità, 287 di Lighthill, 333
Isocline, 158 di Lindstet, 326
Isomorfismo, 230 di Rinormalizzazione, 332
perturbativo diretto, 318
Kernel, 411 Metodo di Volterra, 157
Kernel Metrica, 380
di un operatore, 445 Metriche
equivalenti, 390
Lemma topologicamente equivalenti, 390
di Gronwall, 19 Minimalità, 255
di Uryshon, 389 Misura di Borel, 256

M. Lo Schiavo
INDICE ANALITICO 489

Modello lineare continuo, 410


ecologico, 91 lineare invertibile, 424, 446
ecologico , 29 lineare limitato, 410
Modi nilpotente di ordine q ≤ n, 116
normali, 86, 208 non singolare, 424
Molteplicità normale, 449
algebrica, 460 Ortogonale, 450
geometrica, 460 precompatto, 426
Moltiplicatori reciproco, 142
caratteristici, 138 semi-definito positivo, 450
Momenti strettamente singolare, 426
Coniugati, 80 suriettivo, 425
Moto, 2 Unitario, 450
Moto ergodico, 254 Operatore chiuso, 426
Operatore di “transizione”, 250
Nodo, 106 Operatore di avanzamento, 250
Nodo Operatore di compatibilità, 250
improprio, 119 Operatore di shift, 250
Nodo-sella, 271 Operatori
Norma, 382 di troncamento, 347
Norma Operatori semisemplici, 204
del “Tassinaro”, 466 Operazione
del Sup, 466 di coniugio, 471
di un operatore, 469 Orbita, 3
Euclidea, 466 Orbita omoclina, 289
Euclidea in base B, 466 Orbita periodica attrattiva, 241
Euclidea standard, 466 Orbite periodiche superstabili, 234
rispetto ad un operatore, 467 Ordine di grandezza di δ , 306
Spettrale, 469 Orientamento, 446
Uniforme, 469 Oscillatore, 106, 111, 118
Norme Oscillatore
Equivalenti, 467 armonico, 322, 372
Nucleo smorzato, 328, 340
Risolvente, 131 Oscillatore armonico, 263
Numeri
caratteristici, 138 Palla, 380
Numero di Lebesgue, 257 Pendoli
accoppiati, 86
Omeomorfismo, 390 Pendolo
Omeomorfismo ergodico, 256 fisico, 104, 113, 358
Omoclina, 185 fisico conservativo, 176
Omoclina trasversa, 289 oscillante, 139
Omocline degeneri, 254 smorzato, 205
Omomorfismo, 230 Pendolo uniformemente rotante, 260
Operatore Period doubling, 239, 276
aggiunto, 415, 447 Periodo del moto, 150
Autoaggiunto, 450 Persistenza
autoaggiunto, 416, 455 delle selle- k , 204
compatto, 426 Piani
Coniugato, 475 paralleli, 413
d’evoluzione, 2 Piano, 412
Definito Positivo, 416 Piccole
definito positivo, 450 oscillazioni, 86
diagonalizzabile, 459 Pitchfork, 273
elementare nilpotente, 116 Polinomi
indotto, 446 di Hermite, 61
invertibile, 424, 425 Polinomio
limitato, 411 caratteristico, 459
lineare, 44 Posizione

Note di Sistemi Dinamici


490 INDICE ANALITICO

di equilibrio, 4 Regione
Preda - predatore, 91 di accessibilità, 428
Principio esterna, 346
del Paragone Asintotico, 347 interna, 346
Problema Regola di Lighthill, 333
alle variazioni, 76 Retta
di Sturm-Liouville, 419 complessa, 471
Esterno, 343 Ricoprimento
esterno, 346 aperto, 391
Interno, 343 Riduzione
interno, 346 di ordine, 42
variazionale, 76 Risonanza
Procedimento parametrica, 145
di Grahm-Schmidt, 396 Rotazione del toro, 231, 257
Processo Rotazione irrazionale del toro, 259
deterministico, 1
differenziabile, 1 Segmento
stazionario, 2 trasverso, 168
Prodotto Segnatura, 455
interno, 383 Sella
scalare, 383 standard, 104, 183
scalare definito da un operatore, 455 Sella (k), 184
Proiezioni Semiorbite, 190
stereografiche, 436 Separatrice, 177
Prolungabilità, 18 Separazione
Pulsazioni di variabili, 27
proprie, 86, 208 Serie
Punti di diramazione, 270 Asintotica, 307
Punti eteroclini, 254 di Frobenius, 63
Punti omoclini, 254 di Neumann, 429
Punto Sezione stroboscopica, 263
ω -limite, 169 Sezioni trasverse, 291
di aderenza, 379 Sfera, 380
di contatto, 379 Shift di Markov, 248
di equilibrio regolare, 181 Sistema, 1
interno, 379 Sistema
Iperbolico, 78 dinamico
isolato di un insieme, 380 locale, 4
limite di una successione, 380 perturbato, 303
ordinario, 58 aggiunto, 130
Punto critico, per una mappa, 229 centrato, 391
Punto di accumulazione, 380 conservativo, 163
Punto di biforcazione, 260, 270 deterministico, 1
Punto di biforcazione a forchetta, 272 di Volterra - Lotka, 91
Punto di biforcazione alla Hopf, 274 dinamico, 4
Punto di gomito, 271 fondamentale, 95, 126
Punto di raddoppio di periodo, 276 genuinamente lineare, 197
Punto fisso, per una mappa, 229 hamiltoniano, 79
Punto iperbolico, per una mappa, 229 Lagrangiano, 79
Punto non erratico, 256 locale di coordinate, 434
Punto omoclino, 289 meccanico, 1
Punto periodico, per una mappa, 229 meccanico conservativo, 79
Punto regolare, 270 ortogonale, 396
Punto ricorrente, 256 reciproco, 142
Punto singolare regolare, 58 Sistema caotico, 253
Sistema di Markov, 248
Quasi Sistema espansivo, 258
ovunque, 397 Sistema minimale, 255
Quasi-periodico, 141 Sistema topologicamente transitivo, 256

M. Lo Schiavo
INDICE ANALITICO 491

Sistemi vettoriale V, 382


Hamiltoniani, 166 Spazio topologico, 379
Hamiltoniani lineari periodici, 142 Specchio, 39
Meccanici posizionali scalari, 173 Spirale, 109
periodici equivalenti, 136 Stabilità
Sistemi discreti, 227 alla Liapunov, 195
Sistemi topologicamente coniugati, 252 asintotica, 196
Smale horseshoe, 279 dei sistemi lineari, 197
Solenoide, 285 uniforme, 196
Soluzione Stabilità alla Poincaré, 190
asintoticamente stabile, 196 Stabilità orbitale, 190
generale, 30 Stabilità strutturale, 259
Liapunov-stabile, 195 stabilità strutturale, 259
singolare, 31 Stato
stabile, 195 del sistema, 1
uniformemente stabile, 196 Storia plausibile, 250
Soluzione orbitalmente stabile, 190 Strato
Soluzioni limite, 342
Normali, 138 Struttura
Somma differenziabile, 435
Asintotica, 307 euclidea, 383
Asintotica strutturale stabilità, 259
di funzioni, 306 Sub-shift finito, 285
di una serie, 399 Subbase, 379
di una serie di operatori, 470 Subshift finito, 250
diretta, 395, 410 Successione
Sottospazi Asintotica, 307
ortogonali, 410 Asintotica
Sottospazio, 395 di funzioni, 306
Sottospazio di funzioni d’ordine, 306
T -invariante, 446 convergente, 380
invariante, 446 di Cauchy, 384
ortogonale, 448 di funzioni continue, 398
Sottovarietà, 435 uniformemente di Cauchy, 384
Span, 395 Successioni
Spazi equivalenti , 386
euclidei isomorfi, 409 Superfici
metricamente equivalenti, 391 Equipotenziali, 173
omeomorfi, 390 Superficie
Topologicamente equivalenti, 390 singolare, 156
Spazio Sviluppo
2 -numerabile, 434 Asintotico, 308
a dimensione finita, 396 Composto, 346, 347
a misura finita, 397 di Taylor, 308
delle fasi, 1 esterno, 346
di Banach, 386 interno, 346
di Hausdorff, 381, 434 non uniforme, 324
di Hilbert, 408 Regolare, 319
duale, 411 Singolare, 319
euclideo, 383 Uniforme, 319
euclideo separabile, 396
metrico, 380 Tent-map sul toro, 253
metrico Completo, 384 Teorema
normato, 382 degli assi principali, 450
prodotto, 389 del sottoinsieme invariante, 215
separabile, 382 dell’isomorfismo, 409
tangente, 437 delle contrazioni, 22
unitario, 383, 444 di Ascoli-Arzelà, 394
vettoriale, 44 di Cauchy-Picard, 23

Note di Sistemi Dinamici


492 INDICE ANALITICO

di conservazione, 162 connessa, 435


di Dirichlet-Laplace-Liapunov, 214 differenziabile, 435
di Floquet, 135 globali, 184
di Fourier, 402 lineare, 394, 411
di Jordan, 462 locali, 184
di La Salle, 215 topologica, 434
di Liapunov, 214 Varietà stabile, 288
di Liapunov (lineare), 200 Velocità, 437
di Liapunov (diretto), 219 Velocità
di Peano, 18 di fase, 4
di persistenza delle selle- k , 204 Vettore
di primo ritorno, 167 tangente, 437
di Prolungabilità, 18 velocità, 437
di regolarità, 22, 26 Vettori
di rettificazione, 163 equivalenti, 395
di unicità, 19 linearmente indipendenti, 128
di Weiestrass (1), 399 ortogonali, 383
di Weiestrass (2), 402 Vortici puntiformi, 290
di Chetaiev, 218
Poincaré-Bendixon, 171 Weiestrass
Teorema di Grobman-Hartman, 259 m-test, 54
Teorema di Sarkowski, 242 Weiestrass m-test, 397
Teoremi Wronskiano, 46, 129
di stabilità lineare, 197
Zone
Topologia, 379
di non uniformità, 319
Topologia
debole
generata da F , 388
su (V, ∥·∥) , 388
su (X, τ ) , 388
discreta, 381
indotta dalla metrica, 381
quoziente, 381
Topologia prodotto, 249
Topologia relativa, 381
Traiettoria, 3
Traiettoria
Omoclina, 185
Traiettorie
eterocline, 177
omocline, 177
Traiettorie omocline, 254
Transitività topologica, 286
Transizione al caos, 272
Trasformazione
di coordinate, 440
di Van Der Pol, 367
Trasformazione espansiva, 258
Trasformazione minimale, 255
Trasformazione topologicamente transitiva, 256
Twist-map, 282

Uguaglianza
di Parseval, 408

Variabili
esterne, 345
interne, 346
Varietà

M. Lo Schiavo
Indice analitico

K -modulo, 382 Base


ϵ -catena, 286 di intorni, 379
φ = O(δ), 306 di vettori, 396
f = O(g), 304 duale, 413, 415, 448
f = Os (g), 304 propria dell’operatore, 462
f = o (g), 304 Biforcazione a forchetta, 273
f ≪ (g), 304 Biforcazione a forchetta subcritica, 273
f ∼ g , 304 Biforcazione secondaria alla Hopf, 277
faa di f , 304 Biforcazione tangente, 271
g = faa , 305 Biforcazione transcritica, 274
Bilancio
Ampiezze Dominato, 312
lentamente variabili, 368 Blocco
Analisi grafica, 232 elementare di Jordan, 117
Anello, 382 nilpotente, 116
Aperti, 379 Boundary
Aperto layer, 342
semplicemente connesso, 36 layer, 353
Applicazione Brachistocrona, 43
d’avanzamento, 2
tangente, 439
Cambio
Approssimazione
di base, 454
Asintotica, 307
di coordinate, 439
Assioma
Cambio di stabilità, 274
di numerabilità, 379
Cammino
Asymptotic Matching Principle, 347
generalmente regolare, 33
Atlante, 435
semplice, 33
Atlante
Campi
massimale, 435
Localmente Lipschitz, 19
Attrattore, 286
vettoriali
Attrattore caotico, 253
Lipschitz, 19
Attrattore della mappa quadratica, 244
vettoriali coniugati, 151
Attrattore di Feigenbaum, 240
vettoriali equivalenti, 152
Attrattore di Henon, 278
Attrattore espansivo, 278 vettoriali topologicamente equivalenti, 153
Attrattore strano, 286 Campo, 382
Automorfismi del toro, 283 Campo
Automorfismi ergodici, 257 variato, 186
Automorfismo, 230 vettoriale, 5, 443
Autospazi Carta, 434
generalizzati, 121 Carte
Autospazio, 460 compatibili, 434
Autospazio Catena di Markov, 250
generalizzato, 461 Catenaria, 41
Autovalore, 459 Centro, 183
Autovettore, 459 Chiusura, 380
Autovettore Ciclo
generalizzato, 462 isolato, 169
Avanzamento limite, 160
locale, 4 Ciclo superstabile, 237
Cilindro, 249
Bacino Cluster, 380
di attrazione, 170 Codimensione, 395, 410
Bacino di attrazione, 242 Coefficienti
Base, 44, 379 di Fourier, 399

493
494 INDICE ANALITICO

Complemento Diagonalizzabilità
ortogonale, 410 di forme , 84
Complessificato Diffeomorfismo, 2, 439
di un operatore reale, 476 Dimensione
di uno spazio reale, 475 della varietà, 435
Completare Dinamica caotica, 253, 281, 287
uno spazio, 386 Dinamica grafica, 232
Completezza Dinamica Simbolica, 248
dello spazio degli operatori, 469 Dipendenza continua, 189
Componenti Dipendenza sensibile dal dato, 248
covarianti , 413 Direzione di espansività, 248
Condizione Disuguaglianza
di Schwartz, 36 di Bessel, 408
Condizioni di Schwarz, 383
di Lipschitz, 19 generalizzata di Gronwall, 481
Connessione Divario
lineare semplice, 36 fra due insiemi, 191
Continuità rispetto ai dati, 189 Divisori
Contrazione, 22 elementari semplici, 461
Convergenza Dominio, 5
debole, 388
in L1 , 398 Endomorfismo, 230
in L2 , 398 Endomorfismo del toro, 231
in metrica, 384 Energia, 173
in misura, 398 Epsilon-rete, 392
in norma, 384, 470 Equazione
puntuale, 390 Van der Pol, 331
quasi ovunque, 398 aggiunta, 416
totale, 54 del pianeta, 180
uniforme, 384, 398 di Bernoulli, 40
Coordinata, 434 di Bessel, 62, 68
Coordinate di Clairaut, 31
adattate al flusso, 164 di Duffing, 179, 359, 370
equivalenti, 437 di Duffing
naturali, 444 debolmente forzata, 375
normali, 86 forzata, 373
Criterio di Eulero, 216
di Cauchy, 384 di Hermite, 60
Curva di Hill, 140
basata in x, 437 di Lienard, 224
integrale, 3 di Lighthill, 324, 333, 350
Curva di fase, 3 di Mathieu, 140
Curve di ordine n, 124
di inseguimento, 41 di Riccati, 40
tangenti, 437 di Schrödinger, 59
di Van Der Pol, 210, 223
Decomplessificato di Van der Pol, 188
di T , 476 di Volterra Lotka, 224
Decomplessificazione, 472 ipergeometrica di Gauss, 72
Derivata, 439 lineare
Derivata scalare, 39
direzionale, 161 linearizzata, 75
Derivata di Schwartz, 240 logistica, 30
Derivato, 380 Secolare, 459
Determinante Variazionale, 26, 303
di Hill, 144 Equazione di Duffing, 289
Determining Equazione di Eulero, 290
Equation, 330 Equazione di Van Der Pol, 205
Diagonalizzabilità, 459 Equazione differenziale associata, 157

M. Lo Schiavo
INDICE ANALITICO 495

Equazioni Γ, 69
di Hamilton, 82 analitica, 55
differenziali Bijettiva, 387
esatte, 33 Continua, 387
omogenee, 32 d’ordine, 306
Equicontinuità, 394 definita positiva, 211
Equivalenza di gauge , 306
fra metriche, 390 di Liapunov, 213
metrica fra spazi, 391 Hamiltoniana, 82
topologica, 151 Iniettiva, 387
topologica fra metriche, 390 invertibile, 387
topologica fra spazi, 390 Ipergeometrica di Gauss, 72
Ergodico, 256 liscia, 402
Espansività, 258 liscia a tratti, 420
Esponente omogenea di grado p ∈ R, 211
di Liapunov, 139 scarto, 303
indiciale, 63 semicontinua superiormente, 394
Esponente di Liapunov, 254, 278, 287 Suriettiva, 387
Esponenti Funzione dispari, 400
caratteristici, 138 Funzione pari, 400
Esponenti di Liapunov, 288 Funzione quasi periodica, 268
Esponenziale Funzione unimodale, 236
di operatore, 480 Funzione universale di Feigenbaum, 240
di un numero complesso, 474 Funzioni
di un operatore, 96 di Bessel, 69
Fuoco, 109
Famiglia
equicontinua, 394 Gatto di Arnold, 257, 284
locale Generatore, 257
di applicazioni, 4 Generatore
uniformemente limitata, 394 di un gruppo, 94
Fattore Generazione del caos, 300
di Controllo, 315 Genericità, 204
integrante, 38, 166 Genuinamente lineare, 197
Fibrato Gradiente, 161
tangente, 442 Grafico
Flip-bifurcation, 276 di un operatore, 426
Flussi Grahm-Schmidt, 396
coniugati, 203 Gruppo, 382
Flusso Gruppo
di fase, 2 di evolutori, 2
Fold-bifurcation, 271 locale, 2
Forma
bilineare, 451 Identità
Esatta, 34 di Lagrange, 417
Hermitiana, 451 Immagine
quadratica, 452 del moto, 3
quadratica di un operatore, 445
definita positiva, 453 Indice
Forme quadratiche positivo d’inerzia, 455
non degeneri, 202 Indice
Forte negativo d’inerzia, 455
stabilità, 143 Insieme
Frontiera, 380 ω -limite, 169
Funzionale affatto denso, 381
lineare continuo, 410 aperto, 204
Funzionali, 388 attrattivo, 170
Funzione, 387 compatto, 391
Funzione compatto numerabile, 391

Note di Sistemi Dinamici


496 INDICE ANALITICO

completo, 395 Limite


denso, 204, 381 esterno, 346
generico, 204 intermedio, 344
invariante, 170 interno, 346
limitato, 381 Linear hull, 389
normale, 36 Linearizzazione, 321
ovunque denso, 381 Linearizzazione
positivamente invariante, 170 di un sistema hamiltoniano, 82
precompatto, 393 di un sistema lagrangiano, 84
regolare, 36 Linee
relativamente compatto, 393 di corrente, 11
residuo, 204 di flusso, 11
semplice, 36 di livello, 163
totalmente limitato, 392 Logaritmo
uniformemente limitato , 394 di un numero complesso, 474
Insieme affatto denso, 256 di un operatore, 133
Insieme di biforcazione, 270
Insieme di Cantor, 247, 252 m-test, 397
Insieme equicontinuo, 394 Mappa
Insieme iperbolico, 287 di primo ritorno, 169
Insieme non decomponibile, 286 Mappa a ferro di cavallo, 279
Insieme non erratico, 256 Mappa Bijettiva, 229
Insieme perfetto, 247 Mappa d’avanzamento, 250
Insieme totalmente disconnesso , 252 Mappa del panettiere, 254
Insiemi Mappa di Henon, 277
Chiusi, 380 mappa di Poincaré linearizzata, 292
ortogonali, 410 Mappa Iniettiva, 229
Insiemi totalmente disconnessi, 240 Mappa invertibile, 229
Integrale Mappa lineare, 229
ellittico, 178, 362 Mappa quadratica, 234, 258, 260, 274
primo, 162 Mappa Suriettiva, 229
Integrale primo Mappe, 227
dipendente dal tempo, 165 Mappe caotiche, 253
Integrali Mappe di Poincarè, 261
primi locali, 165 Matrice
Intermittenze, 272 fondamentale, 94, 127
Interno, 380 monodroma, 136
Intersezione trasversa, 289 principale, 94, 127
Intervallo simplettica, 143
massimale, 125 Matrici
Massimo di esistenza, 18 congruenti, 453
Intorni equivalenti, 453
deboli, 388 simili, 453
Intorno, 379 Metodo
Inversione del Matching Asintotico, 342
del teorema del Dirichlet, 226 della media, 363
Inviluppo delle Scale Multiple, 336
lineare, 389 di Frobenius, 62
Iperbolicità, 287 di Lighthill, 333
Isocline, 158 di Lindstet, 326
Isomorfismo, 230 di Rinormalizzazione, 332
perturbativo diretto, 318
Kernel, 411 Metodo di Volterra, 157
Kernel Metrica, 380
di un operatore, 445 Metriche
equivalenti, 390
Lemma topologicamente equivalenti, 390
di Gronwall, 19 Minimalità, 255
di Uryshon, 389 Misura di Borel, 256

M. Lo Schiavo
INDICE ANALITICO 497

Modello lineare continuo, 410


ecologico, 91 lineare invertibile, 424, 446
ecologico , 29 lineare limitato, 410
Modi nilpotente di ordine q ≤ n, 116
normali, 86, 208 non singolare, 424
Molteplicità normale, 449
algebrica, 460 Ortogonale, 450
geometrica, 460 precompatto, 426
Moltiplicatori reciproco, 142
caratteristici, 138 semi-definito positivo, 450
Momenti strettamente singolare, 426
Coniugati, 80 suriettivo, 425
Moto, 2 Unitario, 450
Moto ergodico, 254 Operatore chiuso, 426
Operatore di “transizione”, 250
Nodo, 106 Operatore di avanzamento, 250
Nodo Operatore di compatibilità, 250
improprio, 119 Operatore di shift, 250
Nodo-sella, 271 Operatori
Norma, 382 di troncamento, 347
Norma Operatori semisemplici, 204
del “Tassinaro”, 466 Operazione
del Sup, 466 di coniugio, 471
di un operatore, 469 Orbita, 3
Euclidea, 466 Orbita omoclina, 289
Euclidea in base B, 466 Orbita periodica attrattiva, 241
Euclidea standard, 466 Orbite periodiche superstabili, 234
rispetto ad un operatore, 467 Ordine di grandezza di δ , 306
Spettrale, 469 Orientamento, 446
Uniforme, 469 Oscillatore, 106, 111, 118
Norme Oscillatore
Equivalenti, 467 armonico, 322, 372
Nucleo smorzato, 328, 340
Risolvente, 131 Oscillatore armonico, 263
Numeri
caratteristici, 138 Palla, 380
Numero di Lebesgue, 257 Pendoli
accoppiati, 86
Omeomorfismo, 390 Pendolo
Omeomorfismo ergodico, 256 fisico, 104, 113, 358
Omoclina, 185 fisico conservativo, 176
Omoclina trasversa, 289 oscillante, 139
Omocline degeneri, 254 smorzato, 205
Omomorfismo, 230 Pendolo uniformemente rotante, 260
Operatore Period doubling, 239, 276
aggiunto, 415, 447 Periodo del moto, 150
Autoaggiunto, 450 Persistenza
autoaggiunto, 416, 455 delle selle- k , 204
compatto, 426 Piani
Coniugato, 475 paralleli, 413
d’evoluzione, 2 Piano, 412
Definito Positivo, 416 Piccole
definito positivo, 450 oscillazioni, 86
diagonalizzabile, 459 Pitchfork, 273
elementare nilpotente, 116 Polinomi
indotto, 446 di Hermite, 61
invertibile, 424, 425 Polinomio
limitato, 411 caratteristico, 459
lineare, 44 Posizione

Note di Sistemi Dinamici


498 INDICE ANALITICO

di equilibrio, 4 Regione
Preda - predatore, 91 di accessibilità, 428
Principio esterna, 346
del Paragone Asintotico, 347 interna, 346
Problema Regola di Lighthill, 333
alle variazioni, 76 Retta
di Sturm-Liouville, 419 complessa, 471
Esterno, 343 Ricoprimento
esterno, 346 aperto, 391
Interno, 343 Riduzione
interno, 346 di ordine, 42
variazionale, 76 Risonanza
Procedimento parametrica, 145
di Grahm-Schmidt, 396 Rotazione del toro, 231, 257
Processo Rotazione irrazionale del toro, 259
deterministico, 1
differenziabile, 1 Segmento
stazionario, 2 trasverso, 168
Prodotto Segnatura, 455
interno, 383 Sella
scalare, 383 standard, 104, 183
scalare definito da un operatore, 455 Sella (k), 184
Proiezioni Semiorbite, 190
stereografiche, 436 Separatrice, 177
Prolungabilità, 18 Separazione
Pulsazioni di variabili, 27
proprie, 86, 208 Serie
Punti di diramazione, 270 Asintotica, 307
Punti eteroclini, 254 di Frobenius, 63
Punti omoclini, 254 di Neumann, 429
Punto Sezione stroboscopica, 263
ω -limite, 169 Sezioni trasverse, 291
di aderenza, 379 Sfera, 380
di contatto, 379 Shift di Markov, 248
di equilibrio regolare, 181 Sistema, 1
interno, 379 Sistema
Iperbolico, 78 dinamico
isolato di un insieme, 380 locale, 4
limite di una successione, 380 perturbato, 303
ordinario, 58 aggiunto, 130
Punto critico, per una mappa, 229 centrato, 391
Punto di accumulazione, 380 conservativo, 163
Punto di biforcazione, 260, 270 deterministico, 1
Punto di biforcazione a forchetta, 272 di Volterra - Lotka, 91
Punto di biforcazione alla Hopf, 274 dinamico, 4
Punto di gomito, 271 fondamentale, 95, 126
Punto di raddoppio di periodo, 276 genuinamente lineare, 197
Punto fisso, per una mappa, 229 hamiltoniano, 79
Punto iperbolico, per una mappa, 229 Lagrangiano, 79
Punto non erratico, 256 locale di coordinate, 434
Punto omoclino, 289 meccanico, 1
Punto periodico, per una mappa, 229 meccanico conservativo, 79
Punto regolare, 270 ortogonale, 396
Punto ricorrente, 256 reciproco, 142
Punto singolare regolare, 58 Sistema caotico, 253
Sistema di Markov, 248
Quasi Sistema espansivo, 258
ovunque, 397 Sistema minimale, 255
Quasi-periodico, 141 Sistema topologicamente transitivo, 256

M. Lo Schiavo
INDICE ANALITICO 499

Sistemi vettoriale V, 382


Hamiltoniani, 166 Spazio topologico, 379
Hamiltoniani lineari periodici, 142 Specchio, 39
Meccanici posizionali scalari, 173 Spirale, 109
periodici equivalenti, 136 Stabilità
Sistemi discreti, 227 alla Liapunov, 195
Sistemi topologicamente coniugati, 252 asintotica, 196
Smale horseshoe, 279 dei sistemi lineari, 197
Solenoide, 285 uniforme, 196
Soluzione Stabilità alla Poincaré, 190
asintoticamente stabile, 196 Stabilità orbitale, 190
generale, 30 Stabilità strutturale, 259
Liapunov-stabile, 195 stabilità strutturale, 259
singolare, 31 Stato
stabile, 195 del sistema, 1
uniformemente stabile, 196 Storia plausibile, 250
Soluzione orbitalmente stabile, 190 Strato
Soluzioni limite, 342
Normali, 138 Struttura
Somma differenziabile, 435
Asintotica, 307 euclidea, 383
Asintotica strutturale stabilità, 259
di funzioni, 306 Sub-shift finito, 285
di una serie, 399 Subbase, 379
di una serie di operatori, 470 Subshift finito, 250
diretta, 395, 410 Successione
Sottospazi Asintotica, 307
ortogonali, 410 Asintotica
Sottospazio, 395 di funzioni, 306
Sottospazio di funzioni d’ordine, 306
T -invariante, 446 convergente, 380
invariante, 446 di Cauchy, 384
ortogonale, 448 di funzioni continue, 398
Sottovarietà, 435 uniformemente di Cauchy, 384
Span, 395 Successioni
Spazi equivalenti , 386
euclidei isomorfi, 409 Superfici
metricamente equivalenti, 391 Equipotenziali, 173
omeomorfi, 390 Superficie
Topologicamente equivalenti, 390 singolare, 156
Spazio Sviluppo
2 -numerabile, 434 Asintotico, 308
a dimensione finita, 396 Composto, 346, 347
a misura finita, 397 di Taylor, 308
delle fasi, 1 esterno, 346
di Banach, 386 interno, 346
di Hausdorff, 381, 434 non uniforme, 324
di Hilbert, 408 Regolare, 319
duale, 411 Singolare, 319
euclideo, 383 Uniforme, 319
euclideo separabile, 396
metrico, 380 Tent-map sul toro, 253
metrico Completo, 384 Teorema
normato, 382 degli assi principali, 450
prodotto, 389 del sottoinsieme invariante, 215
separabile, 382 dell’isomorfismo, 409
tangente, 437 delle contrazioni, 22
unitario, 383, 444 di Ascoli-Arzelà, 394
vettoriale, 44 di Cauchy-Picard, 23

Note di Sistemi Dinamici


500 INDICE ANALITICO

di conservazione, 162 connessa, 435


di Dirichlet-Laplace-Liapunov, 214 differenziabile, 435
di Floquet, 135 globali, 184
di Fourier, 402 lineare, 394, 411
di Jordan, 462 locali, 184
di La Salle, 215 topologica, 434
di Liapunov, 214 Varietà stabile, 288
di Liapunov (lineare), 200 Velocità, 437
di Liapunov (diretto), 219 Velocità
di Peano, 18 di fase, 4
di persistenza delle selle- k , 204 Vettore
di primo ritorno, 167 tangente, 437
di Prolungabilità, 18 velocità, 437
di regolarità, 22, 26 Vettori
di rettificazione, 163 equivalenti, 395
di unicità, 19 linearmente indipendenti, 128
di Weiestrass (1), 399 ortogonali, 383
di Weiestrass (2), 402 Vortici puntiformi, 290
di Chetaiev, 218
Poincaré-Bendixon, 171 Weiestrass
Teorema di Grobman-Hartman, 259 m-test, 54
Teorema di Sarkowski, 242 Weiestrass m-test, 397
Teoremi Wronskiano, 46, 129
di stabilità lineare, 197
Zone
Topologia, 379
di non uniformità, 319
Topologia
debole
generata da F , 388
su (V, ∥·∥) , 388
su (X, τ ) , 388
discreta, 381
indotta dalla metrica, 381
quoziente, 381
Topologia prodotto, 249
Topologia relativa, 381
Traiettoria, 3
Traiettoria
Omoclina, 185
Traiettorie
eterocline, 177
omocline, 177
Traiettorie omocline, 254
Transitività topologica, 286
Transizione al caos, 272
Trasformazione
di coordinate, 440
di Van Der Pol, 367
Trasformazione espansiva, 258
Trasformazione minimale, 255
Trasformazione topologicamente transitiva, 256
Twist-map, 282

Uguaglianza
di Parseval, 408

Variabili
esterne, 345
interne, 346
Varietà

M. Lo Schiavo

Potrebbero piacerti anche